Диалог с лауреатом премии Тьюринга Гиппакисом: Самая большая угроза, которую несет ИИ, — это превратить людей в «рабов рабов».

Источник: Технология Тенсент.

С начала 2023 года ChatGPT погрузил мир в безумие ИИ. С дебютом GPT4 его новые мощные возможности заставляют людей чувствовать, что всего через несколько лет ИИ станет всемогущим существом.

Но где находится верхний предел ИИ, основанного на парадигме трансформера большой языковой модели? Может ли он действительно полностью заменить нас? На эти вопросы было получено много ответов. Некоторые люди думают, что модель большого языка принесет новую эру, которая очень близка к искусственному интеллекту, способному выполнять всю работу человека, но некоторые думают, что это просто случайный попугай, который вообще не может понять мир. В настоящее время независимо от того, какая точка зрения не имеет достаточного толкования и хорошо сформированной системы.

Чтобы люди могли более полно увидеть этот вопрос, Джозеф Хифакис, иностранный академик Китайской академии наук, написал книгу «Понимание и изменение мира», в которой изложил свое многолетнее понимание искусственного интеллекта, ведущего к ОИИ, с точки зрения когнитивные принципы мышления о потенциальных путях. Джозеф Шиффакис получил премию Тьюринга на десять лет раньше, чем Хинтон и др. На этот раз он очень четко изложил с точки зрения когнитивных принципов свои «возможности и неспособности искусственного интеллекта» и «путь, ведущий к ОИИ». Размышление длиною в десятилетия.

** 丨 Фокус **

  1. Люди и искусственный интеллект дополняют друг друга, а не заменяют друг друга. Люди обладают здравым смыслом и абстрактной способностью формировать модели, чего нельзя достичь с помощью нынешней парадигмы искусственного интеллекта, поэтому они не могут создавать принципиальные инновации. Искусственный интеллект может предсказывать сложные вещи, которые могут иметь большое количество переменных, не овладевая принципами. Это то, чего люди не могут достичь из-за ограниченности когнитивных способностей. Гиппакис назвал это «оракулом ИИ», и это может принести «новую науку». 2. Самая большая угроза, которую принесет ИИ, заключается в том, что зависимость людей от него может привести к тому, что мы на неопределенный срок откажемся от своих собственных суждений, потеряем способность принимать решения и в конечном итоге станем «рабами рабов». Чтобы избежать этого, люди должны быть в состоянии освоить все процессы разработки и применения знаний, гарантируя, что эти машины не будут сами принимать за нас ключевые решения. 3. В соответствии с ситуацией взаимодополняющих способностей для людей наилучшим будущим сценарием является гармоничное сотрудничество между машинами и людьми, и благодаря этому сотрудничеству может быть достигнуто новое процветание. В этом процессе общество должно разрабатывать и применять технологии с целью улучшения жизни человека.

01 Нынешний ИИ далек от ИИ

**Tencent Technology: что означает появление ChatGPT для искусственного интеллекта? Это новая парадигма или скорее конкретное применение существующей парадигмы? **

Джозеф Шиффакис: Я думаю, что появление ChatGPT и других языковых моделей — важный шаг в развитии искусственного интеллекта. ** На самом деле, мы претерпели сдвиг парадигмы, так что практически на любой запрос на естественном языке можно ответить, часто с очень релевантным ответом на вопрос. Большие языковые модели решают давние проблемы обработки естественного языка. ** Это область, в которой исследователи не добились успеха на протяжении десятилетий, к которой традиционно подходила символистская школа мысли, разделяющая синтаксис и семантику языка для построения правил для искусственного интеллекта.

Теперь большие языковые модели используют другой подход, и они считают, что значение слова определяется всеми контекстами, в которых оно используется. Они используют машинное обучение для выполнения расчетов вероятностных распределений. Для слов это распределение вероятностей используется для предсказания наиболее вероятного следующего слова в предложении. Это очень простой, но эффективный метод. Это немного наивно, но отлично подходит для подведения итогов текста. Конечно, характер используемого решения также определяет его ограничения. Языковые модели отлично подходят для создания резюме какого-либо текста или даже для написания стихов. Если вы сделаете это кратким изложением истории Китая 20-го века, это может сделать действительно хорошую работу. Но, с другой стороны, если вы зададите несколько очень точных вопросов или решите несколько очень простых логических задач, все может пойти не так. Мы можем понять это, потому что этот тип вопроса является контекстно-независимой моделью, поэтому мы не можем проверить связность текста и ответов, которые он дает.

**Технология Tencent: Сейчас существует много новых технологий, таких как логические деревья (LOT), которые могут помочь машинам направлять себя для понимания логических процессов. Теперь большие языковые модели тренируются для разработки более конкретных или сложных логических процессов. В нейронной сети много слоев, и чем выше уровень, тем абстрактнее понимание. Возможно ли, чтобы в этих нейронах более высокого уровня существовало что-то вроде модели или структурного понимания мира? **

Джозеф Шиффакис: В своей книге я объясняю, что люди и машины развивают и применяют разные типы знаний. Эти знания позволяют людям и машинам решать различные типы задач, в зависимости от того, насколько они действительны и универсальны. ** Важное различие проводится между «научными и техническими знаниями» и «тактичными эмпирическими знаниями, полученными посредством обучения». Например, когда я говорю, когда я иду, мой мозг на самом деле решает очень сложные задачи, но я не понимаю, как они работают, а нейронные сети генерируют одно и то же неявное эмпирическое знание, позволяющее нам решать задачи без понимания как они работают. **

Это то, что мы называем знанием, основанным на данных или управляемым данными. Наоборот, очень важно, чтобы лучшие научно-технические знания основывались на использовании математических моделей, обеспечивающих глубокое понимание физических явлений объектов и компонентов. Например, когда вы строите мост, вы можете быть уверены (по его принципам), что мост не рухнет на века вперед. Однако с нейронными сетями мы можем делать определенные прогнозы, но не понимаем, как они работают, и невозможно построить теорию, объясняющую поведение нейронных сетей. **Это свойство делает большие языковые модели строго ограниченными в критически важных приложениях без участия человека.

Вопрос в том, смогут ли эти системы GPT-LM достичь интеллекта человеческого уровня. Это проблема. Я думаю, что существует много путаницы в отношении того, что такое интеллект и как его достичь. Потому что, если у нас нет четкой концепции интеллекта, мы не можем разрабатывать теории о том, как он работает, и мы не можем четко определить интеллект.

А сегодня много неразберихи. Недавно я написал статью, посвященную этому вопросу. На самом деле, если вы откроете словарь, например Оксфордский словарь, вы увидите, что **интеллект определяется как способность учиться, понимать и думать о мире, а также достигать целей и действовать целенаправленно. **

**Машины могут делать впечатляющие вещи. Они могут превзойти людей в играх. Они способны выполнять различные задачи. В последнее время также были достигнуты большие успехи. Они могут выполнять задачи, связанные с сенсорными способностями, такими как визуальное распознавание. Однако машины не могут превзойти людей, когда речь идет о ситуационной осведомленности, адаптации к изменениям окружающей среды и творческом мышлении. ** Проще говоря, GPT очень хорошо переводит естественный язык, но не умеет водить машину. Вы не можете использовать GPT для вождения автомобиля. Между ними по-прежнему большая пропасть. Думаю, нам еще предстоит пройти долгий путь. **Сегодня у нас есть только слабый искусственный интеллект, у нас есть только некоторые компоненты общего интеллекта. Нам нужно нечто большее. **

** Я думаю, что важным шагом на пути к общему интеллекту станут автономные системы. Теперь концепция ясна: автономные системы возникают из-за необходимости дальнейшей автоматизации существующих организаций путем замены людей автономными агентами**, что также предусмотрено Интернетом вещей. На самом деле, мы говорим о беспилотных автомобилях, умных сетях, умных фабриках, умных фермах, умных телекоммуникационных сетях. **Эти системы сильно отличаются от узкого ИИ тем, что эти системы состоят из агентов, которые ограничены в режиме реального времени и должны иметь дело с множеством разных целей. Эти цели включают в себя изменения в действиях и действиях во многих различных областях, и GPT не подходит для этого, он хорош для работы с естественным языком и преобразованием документов. **Кроме того, нам нужны системы, которые могут гармонично работать с людьми. Все это невозможно с другими языковыми моделями. Таким образом, мы все еще довольно далеки от искусственного общего интеллекта. Конечно, все сводится к тому, что именно мы считаем интеллектом, потому что если интеллект определяется как просто разговоры и игры, то мы достигли искусственного общего интеллекта, но я не согласен с этим определением.

**Tencent Technology: Стандартным тестом на интеллект в прошлом был тест Тьюринга. Очевидно, что GPT прошел тест Тьюринга с точки зрения диалога, но это не автономный интеллект. В таком случае, как мы можем судить об интеллекте ИИ? **

Джозеф Шиффакис: Недавно я написал статью, в которой утверждал, что теста Тьюринга недостаточно. ** Я предлагаю другой тест, который я называю тестом замещения. На самом деле идея состоит в том, что если бы я мог заменить машиной другого агента, выполняющего задачу, я бы сказал, что этот агент так же умен, как и агент, выполняющий задачу. **Если бы я мог заменить человека машиной, чтобы водить машину, учить человека или быть хорошим хирургом, то я бы сказал, что машина так же умна, как человек.

Поэтому, если вы возьмете это определение, вместо тестирования вы подумаете, что человеческий интеллект на самом деле является комбинацией навыков. Так вы понимаете, насколько мы далеки от общей разведки? В этом альтернативном тесте некоторые действия может выполнять машина, например робот. Если вы хотите заниматься садоводством, вам нужен робот. GPT — это всего лишь языковая модель, она не включает в себя эти части робота.

**Tencent Technology: согласно вашему определению, мы увидим, что разрыв между искусственным интеллектом и человеческим интеллектом исчезнет только тогда, когда компьютеры и системы смогут автоматически выполнять большие объемы текста и адаптироваться к изменяющимся условиям. И теперь такие приложения, как AutoGPT или Baby AGI, могут разделить задачу на разные шаги и попытаться достичь цели задачи через разные процессы. В каком-то смысле это довольно автоматизировано. Как вы думаете, он приближается к AGI в процессе? **

Джозеф Шиффакис: Здесь много вопросов, включая вопросы системной инженерии. ** Недостаточно иметь сверхразумного агента, потому что вы также должны гарантировать, что его поведение можно объяснить. ** Это также проблема, которую я широко обсуждаю в своей диссертации, а именно проблема объяснимого искусственного интеллекта или безопасного искусственного интеллекта, о которой все говорят.

Чего люди не понимают, так это того, что с нейронными сетями мы не можем понять их поведение. Очевидно, вы не можете объяснить, почему он выдает такой результат, потому что у вас нет математической модели для описания их поведения. Конечно, мы полностью понимаем, как рассчитываются математические функции каждого узла нейронной сети. ** Это просто линейная комбинация входных данных плюс некоторые нелинейные функции, поэтому мы можем понять поведение каждого узла. ** Но когда мы пытаемся понять эмерджентные свойства всей нейронной сети, мы впадаем в отчаяние. **Но это не проблема, специфичная для ИИ, это общая проблема в науке.

Вы не можете вывести свойства воды только из свойств атомов кислорода и водорода. Даже если вы полностью понимаете это, существует проблема масштаба и сложности. Это точка отчаяния. ** Мы не можем использовать логику комбинирования технологий или редукционизм, чтобы понять общее поведение нейронной сети через поведение элементов в ней. Таким образом, единственный способ применить это к нейронной сети — это протестировать ее, потому что мы не можем проверить ее поведение и не можем рассуждать об этом. ** Но если применяются только тесты, это означает, что вы используете чисто экспериментальный подход, а не теоретическое понимание. Таким образом, тип контента, который вы можете протестировать, сильно различается: например, вы не можете тестировать целостные проблемы безопасности, потому что вы не можете анализировать поведение в целом. Но вы можете проводить тестирование безопасности в обороне.

Мы всегда применяли тестирование к оборудованию и программному обеспечению. Но для того, чтобы тестировать, у вас должны быть критерии того, как долго должен длиться тест. Для аппаратного и программного обеспечения у нас есть модели и стандарты покрытия. Но для нейронных сетей у нас нет такого стандарта. Я не говорю, что эту проблему очень сложно решить. **Для нейронных сетей у нас есть несколько альтернативных возможностей, таких как состязательные выборки. Но эти манипуляции ломают определенную устойчивость в их поведении. **Вот видите, если я задам вам вопрос, вы дадите ответ. Если я немного изменю ваш вопрос, вы бы дали похожие ответы, если бы были человеком. Но мы знаем, что когда мы слегка меняем входные данные нейрона, реакция может быть совсем другой. Так что это тоже надо учитывать.

02 Возникновение никогда нельзя понять

**Tencent Technology: Как вы думаете, появление этой концепции, то есть переход от базовых возможностей к более продвинутым, необъяснимо? **

Джозеф Шиффакис: Да. Вы берете такой предмет, как физика. Физика — очень зрелый предмет. Физики пытаются установить логическую связь между теорией элементарных частиц, квантовой теорией или общей теорией относительности, и я не думаю, что им это когда-нибудь удастся, потому что существует проблема масштаба. Я думаю, что подобные проблемы существуют в любой системе.

**Tencent Technology: То есть, по вашему мнению, из-за этого необъяснимого явления мы не можем предсказать, на что способна большая языковая модель? **

Джозеф Шиффакис: Очевидно, что мы не можем построить модель, чтобы предсказать, на что она способна. Мы не можем строить модели, я имею в виду математические модели. Здесь сообщество ИИ использует слово модель для обозначения нейронной сети, что является источником путаницы.

Я думаю, что мы должны использовать другой целостный подход. Поскольку мы не можем сформировать соответствующую модель, **возможно, у нас есть способ сформировать теорию, основанную на тестах и эмпирических наблюдениях. Предполагается, что это теория проверки статистических свойств. **Но насколько я понимаю, у нас есть некоторые потребности, которые технически трудно удовлетворить в современных нейронных сетях.

**Технология Tencent: Да. Итак, чтобы понять эти способности, которые возникают из них, нам нужно создать такую дисциплину, как психология, чтобы понять это? **

Джозеф Шиффакис: Точно. Это хороший вопрос. Но будет немного проблематично использовать сам GPT для установления такого понимания. Потому что на самом деле сейчас некоторые люди говорят, что ТШП успешно сдает экзамен на юриста или врача, так почему же такой ТШТ не может стать врачом или юристом?

Я думаю, что это очень интересный аргумент, но он затрагивает проблему надежности, о которой я упоминал ранее. Кроме того, при сдаче экзамена способности людей и нейронных сетей сильно различаются.

Вопрос устойчивости заключается в том, что если вы попросите здравомыслящего человека ответить на вопрос, если вы немного измените вопрос, ответ будет аналогичным. GPT не гарантирует единообразия ответов. Другая проблема заключается в том, что люди могут полагаться на логику, чтобы контролировать то, что они делают и что они должны говорить. Но поскольку нейронная сеть, как правило, такая как ChatGPT, не имеет семантического контроля над тем, что она делает, она может делать вещи, которые явно неверны. Ни один разумный человек не допустит такой ошибки. Таким образом, вывод из всего аргумента заключается в том, что если GPT может логически контролировать согласованность того, что она говорит, и, соответственно, она надежна, то позволить GPT быть юристом было бы здорово. Но на самом деле мы далеки от этого уровня искусственного интеллекта. **

**Tencent Technology: почему ChatGPT так сложно контролировать? Это потому, что это функция распределенных вычислений компьютера? **

Джозеф Шиффакис: GPT — это компьютер другого типа. Это естественный компьютер. Это не компьютер, который выполняет программы, пока вы их пишете, вы имеете абсолютный контроль над тем, что система может и не может делать. Когда вы обучаете нейронную сеть, вы теряете этот контроль. Эти системы могут быть творческими в некотором смысле, потому что они имеют степени свободы.

Теперь, если мы сможем контролировать эти степени свободы и понять, как они себя ведут, все будет в порядке. **Проблема в том, что мы не можем контролировать эту огромную степень свободы нейронных сетей, и практически невозможно управлять ею теоретически. **Вы можете сделать приблизительное представление о том, как они себя ведут, но не получите точных результатов. Если у вас есть традиционная компьютерная программа, даже если это длинная программа, вы все равно можете извлечь семантическую модель и понять, что в ней происходит. Это очень важное различие.

**Tencent Technology: Не могли бы вы подробно рассказать о концепции естественных машин? **

Джозеф Шиффакис: **Природные машины — это разум, использующий природные явления. Например, нейронная сеть — это естественная машина, похожая на квантовый компьютер или другие компьютеры. В прошлом, когда я был студентом, у нас тоже было много компьютеров. При построении этой природной машины мы будем использовать некоторые принципы физических явлений, потому что любое физическое явление содержит некоторое информационное содержание. Например, когда я бросаю камень, камень как компьютер вычисляет параболу, которая формирует алгоритм. Вы можете наблюдать любое явление, и вы можете использовать природные явления для создания компьютеров. Но эти компьютеры не запрограммированы заранее. Они используют определенные законы физики или математики. Так обстоит дело с нейронными сетями. **

**Tencent Technology: Давайте поговорим о другом содержании вашей книги.Вы обсудили некоторые вопросы исследований и инноваций. Все мы знаем, что хотя многие идеи нейронных сетей пришли из Европы или Японии, компании, которые их используют и производят продукты, такие как OpenAI и Deepmind, находятся в Соединенных Штатах. Как вы думаете, в чем причина этого? **

Джозеф Шиффакис: Между вниманием и инновациями есть разница. **Поскольку инновации — это способность применять исследования для разработки новых продуктов или услуг для достижения технологических прорывов. **

Я думаю, что это очень сильное преимущество США, они проделали большую работу по внедрению инноваций. Это началось в Калифорнии, где есть то, что я называю инновационной экосистемой. ** Инновационная экосистема объединяет очень хорошие академические институты, крупные технологические компании, стартапы, а также венчурный капитал и капитал. Эта согласованность обеспечивает эффективный и действенный перевод новых результатов и приложений. Другие страны также приняли эту модель. Идея инновационной экосистемы является общей, и небольшие страны, такие как Израиль и Швейцария, добились большого успеха. **Подводя итог, я думаю, что для достижения инноваций вы должны связать великие университеты с великими отраслями. Это зависит не только от материальных ресурсов, но и от культурных факторов, образование и институты должны признавать индивидуальное творчество и предпринимательство.

03 Нейросетевой оракул: новая наука, которую невозможно понять

**Tencent Technology: Вы только что упомянули, что нейронные сети — это процесс моделирования биологического мозга и физического мира. Как такое моделирование возможно, когда наше понимание биологического мозга все еще очень ограничено? Как далеко эта нейронная сеть от нашего биологического мозга? **

Джозеф Шиффакис: Хороший вопрос. Я только что сказал, что нейронные сети — это своего рода естественный компьютер, использующий другую парадигму, чем традиционные компьютеры. В частности, нейронные сети вдохновлены работой нейронов в нашем мозгу. Он имитирует некоторые естественные процессы, посредством которых работают нервы. ** Однако нейронные сети лишь имитируют вычислительные принципы мозга, который является более сложным, поскольку имеет разные структуры и функции в разных областях. И эти разные функции построены поверх более сложной архитектуры, которую мы все еще пытаемся понять. ** А нейронная сеть мозга — это режим параллельных вычислений. Нейронные сети также сильно отличаются от него в этом отношении.

Следует также понимать, что **если мы будем изучать мозг только на биологическом уровне, я не думаю, что мы сможем полностью охватить все человеческие намерения. **Например, используйте свой ноутбук для запуска программного обеспечения. Затем я дам вам электронные инструменты для изучения того, как это оборудование работает посредством измерений. Если вы скомпилировали программу, все знания присутствуют в виде электрических сигналов на аппаратном уровне. Но только анализируя этот электрический сигнал, невозможно найти исходный код проблемного программного обеспечения, потому что у вас есть проблема с масштабом. ** Я думаю, что это ключ к пониманию человеческого интеллекта, мы должны изучать мозг, но не только мозг. Следовательно, вычислительный феномен мозга представляет собой комбинацию электрических сигналов, физико-химических явлений и психологических явлений. **

** И сегодня проблема заключается в том, как связать ментальные явления с вычислениями мозга. На мой взгляд, это серьезный вызов. Если нам это не удастся, я не думаю, что мы когда-нибудь сможем понять человеческий разум. **

**Tencent Technology: Вы упомянули, что искусственный интеллект открывает новый путь развития человеческого знания, преодолевая ограничения человеческого мозга при решении сложных задач. Как вы думаете, в каких случаях ИИ может полностью превзойти человека? **

Джозеф Шиффакис: Да. В своей книге я объясняю, что **машины могут помочь нам преодолеть некоторые ограничения нашего мышления. **Это подтверждено психологами. Ограничения здесь включают человеческий разум, ограниченный когнитивной сложностью. ** Мы, люди, не можем понять связь между более чем пятью независимыми параметрами. Вот почему теории, которые мы разрабатываем, очень просты. У нас нет теории с тысячами сформированных независимых параметров. **

** Я думаю, что теперь можно разработать теорию с тысячами параметров. Я думаю, что сегодня мы можем построить то, что я называю «нейронным сетевым оракулом», с помощью суперкомпьютеров и искусственного интеллекта. Нейросетевой оракул — это нейронная сеть, обученная понимать и анализировать сложные явления или сложные системы. Эти сложные явления могут зависеть от тысяч параметров. ** На примере физических явлений сейчас есть несколько интересных проектов, например, обучение нейронных сетей предсказанию землетрясений. Участникам этих проектов не нужно обладать большими научными знаниями, достаточно лишь наполнить модель базой данных. В их руках данные о землетрясениях со всего мира. Они опубликовали документ, в котором объяснялось, что с помощью очень простой процедуры обучения они могут делать более точные прогнозы, чем при использовании существующих сложных теорий. **

**Поэтому я думаю, что это очень важное направление в будущем. У нас будет больше «оракулов», которые помогают нам предсказывать развитие сложных явлений или сложных систем. ** Например, у нас будут интеллектуальные системы цифровых двойников, которые помогут нам делать прогнозы, но не будут понимать (логику прогнозов). Итак, ** у нас будет новый вид науки. ** Я думаю, интересно иметь возможность использовать такого рода науку, но нам также необходимо контролировать качество получаемых знаний. ** Вы должны подумать об этом, потому что у людей больше не будет исключительной привилегии производить знания. Теперь человеку приходится конкурировать с машинами. **

Поэтому важный вопрос для нашего общества заключается в том, можем ли мы сотрудничать с машинами и освоить развитие и эволюцию знаний, разработанных машинами. **Или мы создадим ситуацию, когда наука, управляемая людьми, и наука, управляемая машинами, сосуществуют. ** Было бы интересно, если бы у нас была параллельная наука, работающая на этих машинах.

**Tencent Technology: Вы упомянули, что человеческий разум также является вычислительной системой. Обе системы очень похожи по своим компонентам по сравнению с автоматами. Так каковы же уникальные возможности человека по сравнению с сильным искусственным интеллектом? **

Джозеф Шиффакис: Это очень хороший вопрос. Поскольку я работал над автономными системами, я пытался проектировать беспилотные автомобили. Для самоуправляемого автомобиля у вас будут такие функции, как восприятие, превращающее сенсорную информацию в концепции. У вас будет отражающая функция, которая моделирует внешний мир и принимает решения. Принятие решений означает достижение множества различных целей. Для достижения этих целей вам необходимо планирование и многое другое. Между автономными системами и человеческим разумом действительно много общего.

Однако есть некоторые важные различия между людьми и автономными системами. **Одним очень важным отличием является то, что люди обладают тем, что я бы назвал здравым смыслом. Знание здравого смысла — это сеть знаний, которую мы развиваем с рождения. У нас есть механизм, мы не знаем, как он работает. Но благодаря ежедневному опыту вы обогащаете эту сеть и приобретаете знания здравого смысла, чтобы понимать мир. ** Для человека, когда он думает, он связывает сенсорную информацию с этой концептуальной моделью здравого смысла. Затем результаты анализа возвращаются из концептуальной модели в сенсорную информацию. Это сильно отличается от нейронных сетей. Приведу пример: я показываю вам частично засыпанный снегом знак «стоп», и вы сразу без сомнения говорите, что это знак «стоп».

Теперь, если вы хотите научить нейронную сеть распознавать знак остановки, частично засыпанный снегом, это означает, что, поскольку нейронная сеть не может связать сенсорную информацию с концептуальной моделью, вам придется научить нейронную сеть понимать все погодные условия. условия Состояние. **Вот почему детей легче обучать, чем нейронные сети. Если вы покажете ребенку машину один раз, в следующий раз он скажет, что это машина. **Потому что они формируют абстрактную модель автомобиля посредством наблюдения. Они могут связать сенсорную информацию с этой концептуальной моделью. ** Это одна из самых больших проблем, стоящих сегодня перед искусственным интеллектом. **Это также важная проблема для беспилотных автомобилей. Беспилотные автомобили должны иметь возможность собирать сенсорную информацию и связывать эту информацию с картами и т. д. Принятие решений, основанных исключительно на сенсорной информации, может быть опасным. У нас уже были такие примеры.

Непонятно, почему люди способны понимать сложные ситуации без большого анализа и вычислений. Мы можем это сделать, потому что мы можем связать сенсорную информацию с определенной концептуальной информацией, абстрактной информацией. Так что там, где мы вообще не можем ошибаться, нейронные сети могут ошибаться очень часто. Я помню, как однажды моя Тесла внезапно остановилась, потому что подумала, что комбинация луны и деревьев — это желтый сигнал светофора. Это абсолютно не происходит с людьми, потому что люди могут контекстуализировать информацию, чтобы придать ей смысл. Я сразу понял, что это луна, ведь светофоры не могут парить в небе.

Поэтому, когда кто-то говорит, что эти системы могут в чем-то конкурировать с людьми, возможно, так оно и есть. ** Но человеческий интеллект характеризуется вашей способностью понимать мир и целенаправленно задавать вопросы. Искусственный интеллект еще далек от этой цели. **

**Технология Tencent: потому что вы изучали автономное вождение, которое уже включает в себя понимание окружающей среды, познание и восприятие. Лекун утверждает, что, поскольку мы визуальные животные, наше понимание мира в значительной степени основано на зрении. Если большие языковые модели могут быть мультимодальными и учиться у окружающей среды, смогут ли они понять сам мир? **

Джозеф Шиффакис: **Я думаю, что если ИИ не сможет связать конкретное знание с символическим знанием, невозможно будет понять мир, только опираясь на большие языковые модели. ИИ может сделать это, только сочетая конкретные знания, то есть знания в базах данных, с символическими знаниями. Если не сможет, то человеческий интеллект превзойдет машины. Я уверен в этом. ** Я знаю, что многие люди не согласятся со мной, потому что Computation Intelligence может анализировать и извлекать данные по миллионам параметров. Люди не делают это хорошо. Но люди хорошо справляются с абстрактными проблемами.

**Человеческий интеллект зависит от способности использовать аналогии и метафоры. **Даже если мы не понимаем, как работает человеческое творчество, я все равно могу сказать, что это очень важно. **Потому что в человеческом творчестве следует проводить различие между открытием и изобретением. **Машина может обнаружить что-то из более сложных и больших данных с помощью анализа данных. Но изобретение — другое дело. Изобретение означает, что я изобрел теорию. Я думаю, что мы далеки от понимания этой части человеческого интеллекта.

Но способность обнаруживать также полезна, потому что она может помочь людям угадывать более общие закономерности. Это то, что наш собственный разум не может обнаружить. Но я не думаю, что машины смогут создавать новые научные теории или создавать новые машины. **Они обеспечат синтез знаний, которыми они обладают. Подобно процессу дистилляции, они содержат огромное количество знаний, которые затем очищают и представляют вам. **Это потрясающе. Но этого недостаточно. Для достижения большего количества возможностей по-прежнему требуются человеческие возможности.

В статье, которую я написал, я объяснил, что на самом деле существуют разные типы интеллекта. Человеческий интеллект очень особенный, потому что основой для развития человеческого интеллекта является особый мир, в котором мы стремимся жить. ** Если бы мы родились в другом мире, возможно, у нас развился бы другой разум. Интеллект — это способность генерировать знания и решать проблемы. **Конечно, теперь, когда мы видим машины, которые могут решить некоторые проблемы, которые не можем мы, они на самом деле обладают другим видом интеллекта. Это здорово, у нас есть какая-то взаимодополняемость. **

04 Развитие науки и техники должно отдавать приоритет улучшению жизни людей

**Tencent Technology: у нас только что состоялись философские дискуссии, а теперь мы обсудим некоторые вопросы о моральном влиянии ИИ на общество. Первый вопрос заключается в том, что, в отличие от оптимизма, что новые технологии создадут достаточно новых рабочих мест, вы упоминаете, что искусственный интеллект вызовет серьезные проблемы с безработицей. И трудно ли эти проблемы решить без изменения социально-экономического строя. Можешь объяснить, почему ты так говоришь? Потому что многих это волнует. **

Джозеф Шиффакис: Развитие ИИ повысит производительность. В экономике есть несколько очень простых законов: если производительность растет, то для выполнения одной и той же работы требуется все меньше и меньше людей. Этот момент очень ясен.

Теперь некоторые люди думают, что ИИ создаст некоторые возможности трудоустройства, особенно для высококвалифицированных людей, он создаст новые возможности трудоустройства. ** Но если вы сравните рабочие места, созданные ИИ, с потерянными из-за него рабочими местами, влияние ИИ должно быть отрицательным. **

Теперь все согласны с тем, что ИИ вызовет безработицу. Это очевидно. ** Но на протяжении всей истории человечества технологии повышали производительность, что в конечном итоге улучшало качество жизни людей. **Веками люди работали меньше часов. Мы должны рассмотреть возможность решения этой проблемы путем проведения соответствующих экономических и социальных реформ. Включая реформу образования, потому что вы должны обучать людей адаптироваться к этой новой эпохе.

**Tencent Technology: во время промышленной революции жизнь людей поначалу не сильно улучшилась. Они работают на фабриках и могут работать по 14 часов в день. Как вы думаете, будут ли условия жизни людей хуже в первые дни технологических инноваций? **

Джозеф Шиффакис: Нет, я думаю, что промышленная революция в целом улучшила качество человеческой жизни. В этом суть дела. ** Я думаю, проблема современного общества в том, что оно не воспринимает эту цель всерьез, считая, что технологический прогресс должен быть приоритетом. Но я думаю, что высшим приоритетом является то, как улучшить человеческую жизнь, что должно быть первоочередной задачей. По крайней мере, я гуманитарий. **

**Tencent Technology: я тоже гуманитарий и понимаю, насколько серьезна эта проблема. Как вы думаете, может ли ИИ иметь серьезные последствия, кроме безработицы? **

Джозеф Шиффакис: Это возможно. Но проблема в том, что некоторые люди говорят, что искусственный интеллект будет представлять угрозу для людей, и даже мы можем стать рабами машин. Мне не нравится это заявление. Я говорю в своей книге, что технология нейтральна. У вас есть атомная энергия, вы можете использовать атомную энергию для производства электричества, и вы можете использовать ее для изготовления бомб и убийства людей. Это ваше решение. Если серьезно подумать, то все эти люди, которые говорят, что искусственный интеллект представляет угрозу для человечества, совершенно глупы. Потому что использование технологий — это ответственность человека. **

**Я думаю, что эти люди говорят это только потому, что они также хотят уменьшить человеческую ответственность за это. **Потому что они хотят, чтобы люди приняли ИИ, что очень плохо. Люди должны взять на себя ответственность за возможные проблемы. Я не знаю, что происходит в Китае, но, к сожалению, в западном мире люди не слишком чувствительны к этому. Они думают, что технологии (негативное влияние) предопределены, что очень плохо. Я также сказал в своей книге, что самый большой риск заключается не в том, что людьми правят машины, а в том, что люди признают, что машины принимают все важные решения. Если бы у меня был раб, который мог бы делать все, что я хочу, как в тех арабских мифах, то в конце концов я был бы рабом своего раба. **Значит, опасность исходит от людей. Я также видел это во французских школах: если у ребенка есть доступ к чат-боту, он перестает писать, организовывать свои мысли и в конечном итоге становится зависимым от машины. Это не самый радужный сценарий для человечества.

**Tencent Technology: несколько дней назад многие известные деятели в области ИИ, в том числе Сэм Альтман, подписали заявление об угрозе исчезновения ИИ.В своей книге вы сказали, что нынешние инсайдеры СМИ и отрасли преувеличение возможностей и угроз ИИ.Один из них? Считаете ли вы, что нынешняя парадигма ИИ может вызвать кризис человеческой цивилизации? **

Джозеф Шиффакис: **Опасности, исходящие от ИИ, очевидны и в основном могут исходить от его неправильного использования. **К сожалению, на сегодняшний день у нас нет соответствующих правил против этой опасности. Поскольку правительство не знает, как эти вещи развиваются, отсутствие прозрачности означает, что правила не могут применяться. Это слишком плохо для общества. ИИ, скорее всего, будет использоваться не по назначению, поэтому я также подписал петицию в поддержку расследования компании.

Технологии очень хороши, и я ничего не имею против технологий. Хорошо, что у нас есть чат-боты, и мы должны двигаться в этом направлении. **Искусственный интеллект, в том числе общий искусственный интеллект, — вещь хорошая, и я ничего против этого не имею. Я против неправильного использования этих технологий. Различные страны и международные организации должны обеспечить соблюдение правил, хотя существуют определенные трудности, поскольку сама модель большого языка не поддается интерпретации. Но мы по-прежнему можем требовать от компаний-разработчиков некоторой прозрачности, например, о том, как создаются наборы данных и как эти движки обучаются. **

**Tencent Technology: Недавно Конгресс США провел слушания по искусственному интеллекту и обычным людям. Маркус участвовал, включая Сэма Альтмана, и соответствующие законопроекты принимаются в Европе. Как вы думаете, это хорошее начало? **

Джозеф Шиффакис: Но проблема в том, что **когда люди говорят о безопасном искусственном интеллекте, зачастую они говорят о разных вещах. ** Для меня как для инженера безопасность имеет очень четкое определение. Другие могут подумать, что безопасный ИИ означает доверять ИИ так же, как и людям. Основная логика этой идеи заключается в том, чтобы относиться к искусственному интеллекту как к человеку, а не как к машине. Есть много других статей, в которых говорится, что не имеет значения, что делает ИИ, важны намерения ИИ, поэтому вы должны уметь отделять намерение от результата и так далее. Так что будет много дискуссий. ** Я надеюсь, что все это обсуждение приведет к серьезному регулированию, а не просто к списку пожеланий. **

**Tencent Technology: Итак, давайте поговорим о более ярких возможностях. Если не злоупотреблять искусственным интеллектом, как он может изменить нашу жизнь? **

Джозеф Шиффакис: Если мы не будем злоупотреблять искусственным интеллектом, будущее будет многообещающим. Это огромная революция. Он обладает огромным потенциалом для развития знаний для решения некоторых серьезных проблем, стоящих перед человечеством сегодня, таких как изменение климата, управление ресурсами, проблемы народонаселения, пандемии и многое другое.

Я уже говорил, что между людьми и машинами существует четкая взаимодополняемость. **Для людей лучший сценарий — это гармоничное сотрудничество между машинами и людьми. И в этом процессе люди смогут освоить все процессы разработки и применения знаний, гарантируя, что эти машины не будут сами принимать ключевые решения за нас. **

Перед нами стоит задача найти правильный баланс, найти правильный баланс ролей между людьми и машинами. Я надеюсь, что мы сможем сделать это успешно.

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить