GPT-4 просто искра AGI? LLM в конечном итоге уйдет, модель мира - это будущее

Первоисточник: Синьчжиюань

В человеческом познании кажется, что искусственный общий интеллект (AGI) уже давно используется для определения окончательной формы искусственного интеллекта и конечной цели развития.

Хотя OpenAI уже давно поставила перед собой цель добиться AGI. Но что такое AGI, сам генеральный директор OpenAI Сэм Альтман не смог дать конкретного определения.

Что же касается того, когда придет ОГИ, то он существует только в нарративных сценариях ближайшего будущего, выброшенных боссами, вроде бы близок, но далеко.

Сегодня на известном зарубежном сайте подкастов Substack ветеран индустрии искусственного интеллекта по имени Валентино Зокка, стоя на нарративной точке зрения человеческой истории, написал величественную статью, в которой всесторонне и глубоко рассказывается история человека и вообще искусственного интеллекта. интеллект Дистанция между интеллектом.

В статье AGI примерно определяется как «модель, которая может понять мир», а не просто «модель, описывающая мир».

Он считает, что если люди действительно хотят достичь мира ОИИ, им необходимо построить «систему, которая может ставить под сомнение их собственную реальность и иметь возможность исследовать себя».

В этом великом исследовательском процессе, возможно, ни у кого нет квалификации и способности дать конкретную дорожную карту.

Как объясняют ученые OpenAI Кеннет Стэнли и Джоэл Леман в своей недавней книге «Почему величие нельзя спланировать», стремление к величию имеет направление, но конкретные результаты могут быть неожиданными.

**Как далеко мы от AGI? **

Около 200 000 лет назад Homo sapiens начал прямохождение по земле, и в то же время они также начали путешествовать в области мысли и знания.

Ряд открытий и изобретений в истории человечества сформировали историю человечества. Некоторые из них не только влияют на наш язык и мышление, но также потенциально влияют на нашу биологическую структуру.

Например, открытие огня позволило первобытному человеку готовить пищу. Приготовленная пища дает больше энергии для мозга, тем самым способствуя развитию человеческого интеллекта.

От изобретения колеса до создания парового двигателя человечество начало промышленную революцию. Электричество еще больше проложило путь технологическим достижениям, которые мы имеем сегодня, а печать ускорила широкое распространение новых идей и культур, подстегнув развитие человеческих инноваций.

Однако прогресс идет не только от открытия новых физических измерений, но и от новых идей.

История западного мира – от падения Римской империи до Средневековья, переживает второе рождение в эпоху Возрождения и Просвещения.

Но с ростом человеческого знания род человеческий начал осознавать свою ничтожность.

Через две тысячи лет после Сократа люди начали «знать, что они ничего не знают», и наша земля больше не рассматривалась как центр вселенной. Сама Вселенная расширяется, а мы лишь пылинки в ней.

Изменить восприятие реальности

Но самое большое изменение в человеческом восприятии мира произошло в 20 веке.

В 1931 году Курт Гёдель опубликовал теорему о неполноте.

Только четыре года спустя, чтобы продолжить тему «полноты», Эйнштейн, Подольский и Розен опубликовали статью под названием «Можно ли квантово-механическое описание физической реальности считать полным?» из?)

Впоследствии Нильс Бор опроверг эту статью, доказав справедливость квантовой физики.

Теорема Гёделя показывает, что даже математика не может убедительно доказать все — у людей всегда будут недоказуемые факты — в то время как квантовая теория показывает, что нашему миру не хватает определенности, что не позволяет нам предсказывать определенные события, такие как скорость и скорость электронов.

Несмотря на известное заявление Эйнштейна о том, что «Бог не играет в кости со вселенной», по сути, человеческие ограничения проявляются в полной мере, когда дело доходит до простого предсказания или понимания вещей в физике.

Как бы люди ни старались спроектировать математическую вселенную, управляемую правилами, сформулированными людьми, такая абстрактная вселенная всегда неполна, и в ней скрыты объективные аксиомы, которые нельзя доказать и нельзя опровергнуть.

Помимо абстрактной формулировки математики, человеческий мир выражается и философией, описывающей реальность.

Но люди обнаруживают, что не могут описать, полностью сформулировать, понять или даже просто определить эти представления.

В начале ХХ века понятие «истина» было еще неопределенным, а такие понятия, как «искусство», «красота» и «жизнь», не имели базового консенсуса на уровне определений.

То же верно и для многих других важных понятий: «мудрость» и «сознание» также не могут быть четко определены самими людьми.

Определение интеллекта

Для того чтобы восполнить пробел в определении интеллекта, в 2007 году Легг и Харт предложили определение машинного интеллекта в книге «Общий интеллект»: «Интеллект измеряет способность агента (Агента) достигать целей в изменяющейся среде. ."

Точно так же в «Решении проблем и интеллекте» Хэмбрик, Бургойн и Альтман утверждают, что решение проблем — это не просто аспект или характеристика интеллекта, а его сущность.

Эти два утверждения похожи по языковому описанию, и оба считают, что «достижение цели» может быть связано с «решением проблемы».

В книге «Мейнстримная наука об интеллекте: редакционная статья с 52 подписями» Готтфредсон резюмировал определения интеллекта нескольких исследователей с более широкой точки зрения:

«Интеллект — это очень общая умственная способность, которая включает в себя рассуждение, планирование, решение проблем, абстрактное мышление, понимание сложных идей, быстрое обучение и обучение на основе опыта. Это не просто книжные знания, узкие академические навыки или навыки сдачи тестов. Скорее , оно отражает более широкую и глубокую способность понимать свое окружение — способность «схватывать», «понимать» вещи или «вычислять», что делать».

Это определение выводит построение интеллекта за рамки простых «навыков решения проблем» и вводит два ключевых измерения: способность учиться на опыте и способность понимать окружающую среду.

Другими словами, интеллект следует рассматривать не как абстрактную способность находить решения общих проблем, а скорее как конкретную способность применять то, что мы узнали из предыдущего опыта, к возможностям нашей среды для различных ситуаций, которые могут возникнуть.

Это подчеркивает внутреннюю связь между интеллектом и обучением.

В книге «Как мы учимся» Станислас Деэне определяет обучение как «обучение — это процесс формирования модели мира», а это означает, что интеллект — это также способность, требующая понимания окружающей среды и создания внутренней модели для описания среда.

Поэтому от интеллекта требуется еще и способность создавать модели мира, хотя и не только эта способность.

**Насколько умны современные машины? **

При обсуждении искусственного общего интеллекта (AGI) и узкого искусственного интеллекта (Narrow AI) мы часто подчеркиваем разницу между ними.

Узкий искусственный интеллект (или слабый искусственный интеллект) очень распространен и успешен, часто превосходя человека в конкретных задачах.

Например, этот известный пример, в 2016 году узконаправленный искусственный интеллект AlphaGo победил чемпиона мира Ли Шидоля со счетом 4: 1 в игре Го, что является хорошим примером.

Однако в 2023 году шахматист-любитель Келлин Перлайн использовал тактику, с которой не справился искусственный интеллект, чтобы выиграть партию за людей на поле Го, что показывает, что узкий искусственный интеллект действительно имеет ограничения в некоторых случаях.

Ему не хватает человеческой способности распознавать необычную тактику и соответствующим образом приспосабливаться.

Более того, на самом базовом уровне даже начинающий специалист по данным понимает, что каждая модель машинного обучения, на которую опирается искусственный интеллект, должна обеспечивать баланс между предвзятостью и дисперсией.

Это означает обучение на данных, понимание и обобщение решений, а не просто запоминание.

Узкий ИИ использует вычислительную мощность и объем памяти компьютеров для создания сложных моделей на основе больших объемов наблюдаемых данных с относительной легкостью.

Однако, как только условия немного меняются, эти модели часто не поддаются обобщению.

Это было бы так, как если бы мы придумали теорию гравитации для описания Земли на основе наблюдений, только чтобы обнаружить, что объекты на Луне намного легче.

Если мы будем использовать переменные вместо чисел, основанных на наших теоретических знаниях о гравитации, мы сможем понять, как использовать правильные значения, чтобы быстро предсказать величину гравитации на каждой планете или луне.

Но если мы просто воспользуемся числовыми уравнениями без переменных, мы не сможем должным образом обобщить эти уравнения на другие планеты, не переписав их.

Другими словами, искусственный интеллект может быть не в состоянии по-настоящему «учиться», а только извлекать информацию или опыт. ИИ не понимает, формируя всеобъемлющую модель мира, а только создавая резюме для выражения.

**Действительно ли мы уже достигли ОИИ? **

В настоящее время обычно понимается, что AGI относится к системе искусственного интеллекта, которая может понимать и рассуждать в нескольких когнитивных областях на человеческом уровне или выше, то есть к сильному искусственному интеллекту.

А наш нынешний искусственный интеллект для конкретных задач — это всего лишь слабый искусственный интеллект, такой как AlphaGO of Go.

AGI представляет собой систему искусственного интеллекта с интеллектом человеческого уровня, охватывающую различные области абстрактного мышления.

Это означает, что для ОИИ нам нужна модель мира, которая согласуется с опытом и может делать точные прогнозы.

Как отмечают Эверитт, Леа и Хаттер в «Обзоре литературы по безопасности» (Обзор литературы по безопасности AGI): AGI еще нет.

На вопрос «Насколько мы далеки от истинного ОИИ?» Различные прогнозы сильно различаются.

Но это согласуется с мнением большинства исследователей искусственного интеллекта и авторитетных учреждений, то есть люди находятся как минимум в нескольких годах от истинного всеобщего искусственного интеллекта.

После выпуска GPT-4, столкнувшись с самым мощным искусственным интеллектом в настоящее время, многие люди считают GPT-4 искрой AGI.

13 апреля партнер OpenAI Microsoft выпустила статью «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4» (Sparks of General Artificial Intelligence: Early Experiments with GPT-4).

Адрес бумаги:

в котором упоминается:

«GPT-4 не только осваивает язык, но и решает самые современные задачи, охватывающие математику, программирование, зрение, медицину, юриспруденцию, психологию и другие области, не требуя особых подсказок.

И во всех вышеперечисленных задачах уровень производительности GPT-4 почти на уровне человека. Основываясь на широте и глубине возможностей GPT-4, мы считаем, что его можно разумно рассматривать как почти, но не полную версию общего искусственного интеллекта. "

Но, как заметил профессор Университета Карнеги-Меллона Маартен Сап, «искра ОИИ» — это просто пример того, как некоторые крупные компании включают исследовательские работы в качестве связей с общественностью.

С другой стороны, исследователь и предприниматель в области машиностроения Родни Брукс указывает на ошибочное представление: «Оценивая функциональность таких систем, как ChatGPT, мы часто приравниваем производительность к возможностям».

Ошибочное приравнивание производительности к способностям означает, что GPT-4 генерирует суммарные описания мира, которые он считает пониманием реального мира.

Это связано с данными, на которых обучается модель ИИ.

Большинство современных моделей обучены только тексту и не умеют говорить, слышать, обонять и жить в реальном мире.

Эта ситуация аналогична аллегории Платона о пещере: люди, живущие в пещере, могут видеть только тень на стене, но не могут распознать реальное существование вещей.

Модели мира, обученные только на тексте, гарантированно будут только грамматически правильными. Но по существу он не понимает, о чем говорит язык, и у него отсутствует здравый смысл прямого контакта с окружающей средой.

Основные ограничения текущей большой модели

Самая противоречивая проблема больших языковых моделей (LLM) — их склонность к галлюцинациям.

Галлюцинации относятся к ситуациям, когда модель фальсифицирует ссылки и факты или путает логические выводы, причинно-следственные связи и т. д. и создает бессмысленное содержание.

Иллюзия больших языковых моделей проистекает из непонимания причинно-следственных связей между событиями.

В статье «Является ли ChatGPT хорошим каузальным рассудком? Всеобъемлющая оценка» исследователи подтвердили этот факт:

Большие языковые модели, такие как ChatGPT, независимо от того, существует ли связь в реальности, склонны предполагать наличие причинно-следственной связи между событиями.

Адрес бумаги:

В конце концов исследователи пришли к выводу:

«ChatGPT — отличный каузальный объяснитель, но не хороший каузальный вывод».

Точно так же этот вывод можно распространить и на другие LLM.

Это означает, что LLM, по сути, обладает способностью только к каузальной индукции через наблюдение, но не к каузальной дедукции.

Это также приводит к ограничениям LLM.Если интеллект означает обучение на основе опыта и преобразование изученного содержания в модель мира для понимания окружающей среды, то каузальный вывод как основной элемент обучения для интеллекта невозможен.

Существующие LLM лишены этого аспекта, поэтому Янн ЛеКун считает, что текущая модель большого языка не может стать AGI.

в заключение

Как показало рождение квантовой механики в начале 20-го века, реальность часто отличается от нашей интуиции, сформированной повседневным наблюдением.

Язык, знания, текстовые данные, даже видео, аудио и другие материалы, которые мы создаем, — это лишь очень ограниченная часть реальности, которую мы можем испытать.

Точно так же, как мы исследуем, изучаем и осваиваем реальность, которая бросает вызов нашей интуиции и опыту, ОИИ будет по-настоящему реализован только тогда, когда мы сможем создавать системы, способные подвергать сомнению свою собственную реальность, способные к самоисследованию.

И по крайней мере на этом этапе мы должны построить модель, которая может делать причинно-следственные выводы и понимать мир.

Эта перспектива — еще один шаг вперед в истории человечества, предполагающий более глубокое понимание природы нашего мира.

Хотя появление ОИИ ослабит нашу уникальную ценность и важность нашего существования, благодаря постоянному прогрессу и расширению когнитивных границ мы будем более четко понимать статус людей во вселенной, а также отношения между людьми и отношения к ним. Вселенная.

Использованная литература:

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить