Кембриджская речь «отца ChatGPT» была бойкотирована, а академические воротилы яростно боролись за безопасность ИИ

Источник статьи: Titanium Media

Автор: Линь Чжицзя

Редактор: Ма Цзиньнань

Эта статья была впервые опубликована в приложении Titanium Media

Эндрю Нг, основатель Google Brain и профессор Стэнфордского университета, отметил, что регулирование ИИ разрушает инновации. Маск же считает, что ИИ опаснее ядерного оружия (ядерных бомб).

В связи с тем, что правительство США выпустило новые правила в области ИИ, в последнее время возобновились споры по поводу регулирования больших моделей ИИ.

Ранним утром 2 ноября по пекинскому времени, когда Сэм Альтман, «отец ChatGPT» и генеральный директор OpenAI, участвовал в мероприятии в Кембридже, Англия, он встретил сильное сопротивление со стороны активистов, выступающих против ИИ, и был «разбит» перед ним в аудитории, а несколько протестующих потребовали прекратить соревнование ИИ.

Некоторые протестующие даже вывешивали транспаранты и сбрасывали листовки на балконы, и какое-то время сцена была хаотичной. Конечно, Ультрамен был очень спокоен и спокойно завершил мероприятие.

В своем выступлении Альтман сказал, что даже если модели ИИ будут достаточно мощными в будущем, для их работы потребуются огромные вычислительные мощности. Если порог вычислительной мощности будет повышен, риск преднамеренных преступлений может быть снижен, а также может быть улучшена подотчетность. Ранее сооснователь OpenAI Илья Суцкевер прямо заявил, что ChatGPT может быть осознанным, и у ИИ будут потенциальные риски.

В то же время Ян Лекун, главный научный сотрудник Meta AI и лауреат премии Тьюринга 2018 года, в последнее время неоднократно критиковал Альтмана, генерального директора DeepMind Демиса Хассабиса, генерального директора Anthropic и других на социальных платформах за «масштабное корпоративное лоббирование» правительства США, которое в конечном итоге может привести к тому, что только несколько крупных технологических гигантов смогут контролировать технологию ИИ.

Ян Ликунь отметил, что эти люди сеют страх. «Если им это удастся, мы с вами неизбежно приведем к катастрофе — горстка компаний возьмет под контроль ИИ».

Впоследствии Хассабис возразил: «Я категорически не согласен с большинством замечаний Ян Ликуня. Он указал на то, что Google DeepMind не пытается добиться «регулятивного захвата» при обсуждении того, как лучше всего использовать ИИ, и важнее начать обсуждение того, как регулировать потенциальный супер-ИИ уже сейчас.

В то время, когда конкуренция за большие модели ИИ становится все более ожесточенной, индустрия вступила в «ближнюю схватку», и все вовлечены в ожесточенные баталии вокруг темы гигантов, контролирующих ИИ.

ИИ – самая большая угроза человечеству? Маск: ИИ будет умнее людей

За последние 12 месяцев ChatGPT взял мир штурмом, а генеративный ИИ полностью стал центральной темой в мире технологий в этом году.

Теперь Apple также использует искусственный интеллект.

На конференции по отчетам о прибылях и убытках за четвертый квартал утром 3 ноября по пекинскому времени генеральный директор Apple Тим Кук заявил, что Apple провела различные работы в области генеративного искусственного интеллекта и инвестирует много денег, чтобы сделать это ответственно. — Со временем вы увидите, что продукты Apple, в основе которых лежат эти технологии, будут развиваться».

Ранее агентство Bloomberg сообщало, что Apple потихоньку догоняет конкурентов в области ИИ, с одной стороны, увеличила набор персонала, связанного с ИИ, с другой стороны, ускорила зрелость и внедрение технологии ИИ за счет слияний и поглощений стартапов, а также начала разрабатывать большие языковые модели внутри компании, внутри известной как AppleGPT.

В то же время команда xAI, созданная Илоном Маском, самым богатым человеком в мире в области технологий и генеральным директором Tesla, с состоянием в 220 миллиардов долларов, также, по слухам, имеет первую партию информации о продукте, в том числе Grok, связанную с поиском информации с помощью искусственного интеллекта, IDE для рабочих станций с подсказками и т. д. Кроме того, технологические гиганты, такие как Google, Microsoft и Amazon, также участвуют в волне ИИ.

Тем не менее, лидеры отрасли, в том числе Илон Маск и Ultraman, в последнее время еженедельно говорят о потенциальной смертоносности ИИ и рисках ИИ. Похоже, что это стало «консенсусом в узком кругу».

2 ноября Маск заявил во время британского саммита по искусственному интеллекту, что ИИ является одной из самых больших угроз человечеству, а ИИ станет самой разрушительной силой в истории и будет умнее людей. Он считает, что однажды ИИ заставит всех потерять работу.

«Искусственный интеллект способен делать все, что угодно, и я не знаю, заставит ли это людей чувствовать себя комфортно или некомфортно. Если вы хотите волшебного эльфа, ИИ выполнит все ваши желания, причем нет предела, и не будет ограничения только в 3 желания, которые могут быть хорошими или плохими, а задача в будущем будет заключаться в том, как мы найдем смысл жизни. – заявил Маск.

Маск неоднократно предупреждал, что ИИ опаснее ядерного оружия (ядерных бомб).

Ультрамен также неоднократно заявлял, что его контролирует правительство. В течение 10 лет в мире может появиться мощная система искусственного интеллекта (ИИ), но уже сейчас человечеству нужно быть готовым к этому.

Правительство США также начало регулировать безопасность ИИ. 30 октября президент США Джо Байден подписал новый указ об ИИ, приняв самые всеобъемлющие меры в области стандартов безопасности ИИ, защиты частной жизни американцев, продвижения справедливости и гражданских прав, защиты интересов потребителей и работников, поощрения инноваций и конкуренции, а также продвижения лидерства США за рубежом, среди прочего, для управления потенциальными рисками ИИ.

Стоит отметить, что в новом указе была усилена поддержка ИИ-гигантов, например, поддержка исследований в области ИИ через финансирование исследований и другими способами, привлечение иностранных талантов и т. д.

Один камень поднимает тысячу волн.

Впоследствии академические эксперты в области ИИ, такие как «тройка Тьюринга», вели бурную дискуссию о надзоре за ИИ, которая в основном была разделена на две фракции: люди в лице Ян Ликуня и Нг Энда считали, что автомобиль хочет затормозить до того, как он будет построен, а ИИ еще не достиг стадии надзора; Однако такие люди, как Илон Маск, Альтман и Джеффри Хинтон, «отец глубокого обучения», считают, что ИИ по-прежнему очень опасен.

Среди них Ян Ликунь прямо заявил, что если Соединенные Штаты продолжат поддерживать исследования в области искусственного интеллекта технологических гигантов, это может в конечном итоге привести к тому, что только несколько крупных технологических гигантов смогут контролировать ИИ, что неизбежно приведет к огромному риску и катастрофе.

«Как и многие люди, я большой сторонник открытой платформы искусственного интеллекта. Но я также считаю, что будущее ИИ — это сочетание творчества людей, демократии, рыночной власти и регулирования. — написал Ян Ликунь на платформе X.

Эндрю Нг, основатель Google Brain и профессор Стэнфордского университета, также поддерживает Яна. Он сказал, что это был «заговор» с целью введения жесткого регулирования развития технологий искусственного интеллекта.

«Это уничтожит инновации, — отметил Нг, — и определенно есть некоторые крупные технологические компании, которые не хотят конкурировать с ИИ с открытым исходным кодом, поэтому они создают страх, что ИИ приведет к вымиранию человечества». Это всегда было законодательным оружием, к которому стремились лоббисты, но оно очень вредно для сообщества разработчиков ПО с открытым исходным кодом. При нынешнем направлении регулирования во многих странах, я думаю, что никакое регулирование не будет лучше, чем сейчас. "

Но в то же время 25 октября лауреат премии Тьюринга Йошуа Бенджио, «отец глубокого обучения» Джеффри Хинтон, Эндрю Яо, Чжан Яцинь и другие эксперты ИИ-индустрии также подписали совместное письмо, в котором продолжили призывать к усилению надзора за развитием технологий ИИ, и считали, что до того, как эти системы будут разработаны, необходимо принять срочные меры управления. а также серьезный сдвиг в сторону безопасных и этичных практик в области исследований и разработок в области ИИ.

Сегодня продолжается ожесточенная битва между академическими воротилами по поводу регулирования безопасности ИИ. В настоящее время ИИ глубоко проник во все, от поисковых систем до социальных сетей и финансов, поэтому эксперты выразили серьезную обеспокоенность по поводу проблем этой гонки вооружений ИИ, рисков безопасности и дипфейков.

Йошуа Бенжио、Джеффри Хинтон、Ян Лекун

И многие пользователи сети беспокоятся о том, повлияют ли споры на отношения между воротилами. Некоторое время назад Ян Ликун опубликовал фотографию с Йошуа Бенджио и Хинтоном, которая, кажется, хорошо отвечает на этот вопрос.

3 ноября правительство США заявило, что создало Институт безопасности ИИ, надеясь разработать стандарты и правила для регулирования будущего ИИ с помощью законодательных возможностей Министерства торговли США и других агентств.

Регуляторное ускорение в ближайшие 10 лет человечество может полностью войти в эру интеллекта

1 ноября на первом Саммите по безопасности ИИ, состоявшемся в Блетчли-парке, Лондон, Великобритания, была обнародована «Блетчли-декларация», в которой говорится, что ИИ открывает большие возможности и обладает потенциалом для повышения благосостояния, мира и процветания человечества, но в то же время ИИ также создает значительные риски, которые необходимо устранять посредством международного сотрудничества.

На встрече декларацию подписали более 25 стран и регионов, включая США, Китай и Европейский союз. Премьер-министр Великобритании Риши Сунак сказал: «Это знаковое достижение, поскольку самые мощные в мире державы в области ИИ признают безотлагательность «понимания рисков ИИ», чтобы помочь обеспечить долгосрочное будущее нашего следующего поколения». Как руководители, мы несем ответственность за принятие мер и шагов для защиты людей, и это именно то, что мы делаем. "

В декларации говорится, что ИИ создает значительные риски, в том числе в сфере повседневной жизни, и что «все вопросы имеют первостепенное значение, и мы признаем необходимость и безотлагательность их решения». "

– Мы заявляем, что для достижения этой цели ИИ должен проектироваться, разрабатываться, внедряться и использоваться безопасным, ориентированным на человека, заслуживающим доверия и ответственным образом на благо всех». В декларации говорится, что многие из рисков, связанных с ИИ, носят международный характер и лучше всего решаются путем международного сотрудничества, выявляя риски безопасности ИИ, представляющие общую озабоченность, и поддерживая международную инклюзивную сеть передовых научных исследований в области безопасности ИИ.

3 ноября на «Форуме по искусственному интеллекту нового поколения», организованном Пекинским университетом, профессор Школы компьютерных наук Пекинского университета и декан Пекинской академии искусственного интеллекта Хуан Тецзюнь заявил, что нынешнее противоречие заключается в том, что базовое понимание ИИ у всех разное, и многие люди, которые занимаются научным мышлением, не верят, что общий искусственный интеллект (AGI) будет реализован, в то время как другие технические мыслители, в том числе Ян Ликунь, считают, что развитие ИИ осуществимо.

«Это два совершенно разных способа мышления, и ни один из них не может никого убедить. Поэтому за спорами все смотрят на этот вопрос с совершенно разных позиций и разного образа мышления. — сказал Хуан Тецзюнь в своем выступлении.

Что касается будущего развития технологии больших моделей ИИ, Хуан Тецзюнь дал прогнозы на 3 года, 10 лет и 20 лет.

• В ближайшие три года большая модель будет расширена до общего интеллекта, такого как зрение, слух, воплощенный интеллект и действие, и масштаб будет становиться все больше и меньше, становясь «мозгом» воплощенного интеллекта; Обыденный язык модернизируется до научного, а искусственный интеллект решает важнейшие научные задачи. • В ближайшие 10 лет человечество войдет в эру интеллекта (способностей) во всех отношениях, точно так же, как промышленная революция для высвобождения физической силы, точно так же, как революция власти для решения проблемы циркуляции энергии, и строительство науки и техники, экономики и социальной экологии с интеллектом в качестве ядра будет завершено. • В ближайшие 20 лет: нынешняя большая модель — это статический интеллект, управляемый данными, будущее — динамический интеллект, управляемый пространственно-временной средой, а интеллектуальный носитель модернизируется до мозгоподобной импульсной нейронной сети; В 2045 году появится структурный имитирующий мозг, функциональный мозгоподобный и производительный супермозг, физический ОИИ.

  • Кроме того, безопасности AL должно придаваться, по крайней мере, равное значение, иначе человечество подвергается большому риску.

По мнению Хуан Тецзюня, в ближайшие 10 лет вся мировая экономика, общество, наука и технологии могут претерпеть серьезные изменения, интеллект станет основным элементом социального функционирования, так же, как сегодняшнее электричество повсюду, будет формироваться мир. В 2045 году с помощью технологии искусственного интеллекта люди смогут получать интеллектуальные данные в режиме реального времени, и они будут итеративно обновляться, а также изменится мозг и последующее принятие решений.

«Я думаю, что до 2045 года все эти возможности вдохновения и инноваций, подобные нашим, появятся на не-организме, но если это произойдет, это будет огромным риском, должны ли мы, люди, сделать этот выбор, или это может быть немного медленнее, это нужно много обсуждать». — сказал Хуан Тецзюнь в конце своей речи.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить