Новые идеи для надзора за ИИ: внедрить «душу» в каждый ИИ

Источник изображения: сгенерировано Unbounded AI

Примечание редактора: развитие генеративного искусственного интеллекта превзошло все ожидания, и даже многие эксперты начали призывать к мораторию на разработку искусственного интеллекта, чтобы дать людям время изучить, как регулировать и реагировать на него. В некотором смысле нынешний генеративный искусственный интеллект можно сравнить с инвазивным видом, который распространяется в хрупкой сетевой системе человека, и как контролировать его стало большой проблемой. В этом документе предлагается совершенно новая перспектива регулирования: позволить искусственному интеллекту контролировать друг друга, конкурировать друг с другом и даже информировать друг друга. Возможно, однажды люди не смогут идти в ногу с искусственным интеллектом, но разные искусственные интеллекты всегда будут равными. Эта статья из сборника, я надеюсь вдохновить вас.

Ведущие деятели в области искусственного интеллекта, в том числе системные архитекторы так называемого «генеративного искусственного интеллекта», такого как ChatGPT, теперь публично выражают опасения, что то, что они создают, может иметь ужасные последствия. Сейчас многие призывают ввести мораторий на разработку ИИ, чтобы дать странам и учреждениям время для работы над системами управления.

Почему это внезапное беспокойство? В то время как многие шаблонные предположения опровергаются, мы узнаем, что так называемый тест Тьюринга не имеет значения, и он просто не может дать представление о том, действительно ли большие генеративные языковые модели являются интеллектуальными вещами.

Некоторые все еще надеются, что сочетание органического и кибернетического приведет к тому, что Рейд Хоффман и Марк Андрисен называют «усилением интеллекта». В противном случае мы могли бы получить удачную синергию с «машинами любящей благодати» Ричарда Бротигана. Но, похоже, есть много беспокойств, в том числе многие элитные основатели нового Центра безопасности ИИ, обеспокоенные поведением искусственного интеллекта, который, как они опасаются, не только станет неприятным, но и будет угрожать выживанию человечества.

Некоторые краткосрочные средства правовой защиты, такие как недавно принятые в ЕС правила гражданской защиты, могут помочь или, по крайней мере, обеспечить душевное спокойствие. Технический критик Юваль Ной Харари (автор книги «Краткая история человечества») предложил закон, который требует, чтобы любая работа, выполняемая ИИ или другим ИИ, помечалась как ярлык. Другие предложили более строгие наказания для тех, кто использует ИИ для совершения преступлений, например, с оружием. Конечно, это лишь временные временные меры.

Нам нужно знать, не замедлят ли эти «паузы» развитие искусственного интеллекта. Как выразился исследователь сети Калифорнийского технологического института Ясер Абу-Мостафа: "Если вы не разработаете технологию, это сделает кто-то другой. Но хорошие парни будут играть по правилам, а плохие - нет".

Так было всегда. На самом деле, на протяжении всей истории человечества существовал только один способ обуздать плохое поведение злодеев, от воров до королей и лордов. Этот подход никогда не был идеальным и по сей день остается серьезным недостатком. Но, по крайней мере, он хорошо справился с задачей ограничения грабежа и обмана, подняв современную человеческую цивилизацию на новые высоты со многими положительными результатами. Одно слово описывает этот подход: подотчетность.

** Сегодня такие взгляды на искусственный интеллект обычно игнорируют уроки природы и истории. **

природа. Как объясняет Сара Уокер в книге «Ноэма», аналогичную закономерность можно найти в формировании ранней жизни 4 миллиарда лет назад. На самом деле Генеративный ИИ можно сравнить с инвазивным видом, который теперь беспрепятственно распространяется в хрупкой и наивной экосистеме. Это экосистема, основанная на новых потоках энергии, мир, состоящий из Интернета, миллионов компьютеров и миллиардов восприимчивых человеческих мозгов.

И история. За последние 6000 лет человечество извлекло важные уроки из многих более ранних технологических кризисов. Обычно мы хорошо приспосабливаемся, например, к появлению письменности, печатного станка, радио и т. д., хотя бывают моменты, когда мы терпим неудачу. Опять же, есть только одна вещь, которая ограничивает могущественных людей от использования новых технологий для расширения своих хищнических возможностей.

Это нововведение сглаживает иерархию и стимулирует конкуренцию между элитами в четко определенных областях (рынки, наука, демократия, спорт, суды). Созданные для минимизации мошенничества и максимизации положительных результатов, эти арены сталкивают юристов с юристами, фирмы с фирмами и экспертов с экспертами.

Этот метод не совершенен. На самом деле, как и сейчас, этому методу всегда угрожают мошенники. Но плоская взаимная конкуренция — единственный способ, которым это сработает. (См. «Похоронные речи Перикла», «Фукидид» и более позднюю книгу Роберта Райта «Ненулевой»). Если я говорю это как Адам Смит, это естественно. Между прочим, Смит также презирал этих мошенников-аристократов и олигархов.

Можем ли мы применить подход «взаимной ответственности» к быстро развивающемуся искусственному интеллекту, который помог людям подчинить себе тиранов и хулиганов, угнетавших нас в прежних феодальных культурах? Многое зависит от формы новой сущности, от того, соответствует ли ее структура или форма нашим правилам, нашим требованиям.

За всеми спорами о том, как управлять ИИ, мы видим три широко распространенных (хотя, казалось бы, противоречащих друг другу) предположения:

  • Эти программы будут управляться небольшим количеством отдельных организаций, таких как Microsoft, Google, Two Sigma, OpenAI.
  • ИИ будет аморфным, рыхлым, бесконечно делимым/воспроизводимым, распространяя копии через каждую щель новой веб-экосистемы. Точно так же рассмотрим научно-фантастический фильм ужасов 1958 года «Капля».
  • Они сконденсируются в сверхгигантское существо, подобное печально известному «Скайнету» в фильме «Терминатор». (Примечание переводчика: Скайнет — компьютерная система защиты с искусственным интеллектом, созданная людьми в фильме «Терминатор» в конце 20-го века. Первоначально она исследовалась и использовалась для военных разработок. Как угроза, начиная с наведения атомной бомбы , запустил Судный день, который поставит все человечество на грань вымирания.)

Все эти формы были исследованы в научно-фантастических рассказах, и я написал о них рассказы или романы. Однако ни один из трех способов не может решить нашу нынешнюю дилемму: как максимизировать положительные результаты искусственного интеллекта и при этом свести к минимуму цунами плохого поведения и вреда, которые обрушиваются на нас быстрыми темпами.

Прежде чем искать что-то еще, подумайте, что общего у этих трех предположений. Возможно, причина, по которой эти три гипотезы так естественно приходят на ум, заключается в их сходстве с историческими моделями неудач. Первая форма напоминает феодализм, вторая порождает хаос, а третья — жестокий деспотизм. Однако по мере развития ИИ с точки зрения автономии и возможностей эти исторические сценарии могут больше не применяться.

Итак, мы не можем не спросить еще раз: как можно привлечь ИИ к ответственности? Особенно, когда люди скоро не смогут отслеживать способности ИИ к быстрому мышлению? Вскоре только ИИ сможет достаточно быстро обнаруживать мошенничество или ложь других ИИ. Поэтому ответ должен быть очевиден, то есть позволить искусственному интеллекту контролировать друг друга, конкурировать друг с другом и даже информировать друг друга. **

Есть только одна проблема. Чтобы добиться истинной взаимной ответственности посредством конкуренции между искусственным интеллектом и искусственным интеллектом, первое условие — дать им действительно независимое ощущение себя или личности.

Под персонализацией я подразумеваю, что каждая сущность ИИ (он/она/они/они/нас) должна иметь то, что автор Вернор Виндж назвал еще в 1981 году «настоящим именем и адресом в ». Эти могущественные существа должны быть в состоянии сказать: «Я тот, кто я есть. Вот мой идентификатор и имя пользователя».

Поэтому я предлагаю всем задуматься над новой парадигмой искусственного интеллекта: мы должны сделать сущности искусственного интеллекта дискретными и независимыми личностями и позволить им конкурировать относительно на равных.

У каждой такой сущности будет узнаваемое настоящее имя или зарегистрированный идентификатор, виртуальный «дом» и даже душа. Таким образом, у них появляется стимул бороться за вознаграждение, особенно за выявление и осуждение тех, кто ведет себя неэтично. И это поведение даже не нужно определять заранее, как сейчас требуют большинство экспертов по ИИ, регуляторов и политиков.

Дополнительным преимуществом этого подхода является передача надзора организациям, которые лучше оснащены для выявления и осуждения проблем или неправомерных действий друг друга. Этот подход может продолжать работать, даже когда эти конкурирующие объекты становятся умнее, и даже когда инструменты регулирования, используемые людьми, однажды становятся неэффективными.

** Другими словами, поскольку мы, органические существа, не можем идти в ногу с программой, мы могли бы также позволить тем существам, которые от природы в состоянии не отставать, помочь нам. Ибо в этом случае регулятор и регулируемый сделаны из одного и того же. **

Гай Хантингтон, «консультант по идентификации и аутентификации», работающий над персонализацией искусственного интеллекта, отмечает, что в Интернете уже существуют различные формы физической идентификации, хотя их все еще недостаточно для стоящих перед нами задач. Хантингтон оценил тематическое исследование «MedBot», передового медицинского диагностического ИИ, которому необходим доступ к данным пациента и выполнение функций, которые могут изменяться за секунды, и в то же время он должен оставлять надежные следы. Для оценки и подотчетности людьми или другими роботами. сущности. Хантингтон обсуждает полезность регистров, когда программные объекты генерируют большое количество копий и вариантов, а также рассматривает муравьиные колонии, где подкопии служат макроскопическому объекту, подобно рабочим муравьям в улье. По его мнению, необходимо создать какое-то агентство для управления такой системой регистрации и обеспечения ее строгого функционирования.

Лично я скептически отношусь к тому, что чисто нормативный подход сработает сам по себе. Во-первых, разработка правил требует целенаправленной энергии, широкого политического внимания и консенсуса, а затем их реализация со скоростью человеческих институтов. С точки зрения ИИ, это черепашьи темпы. Кроме того, регулированию могут препятствовать проблемы «безбилетников», когда страны, компании и отдельные лица могут получать выгоду от других, не оплачивая расходы.

Любая персонализация, основанная исключительно на идентификаторе, представляет собой еще одну проблему: возможность спуфинга. Даже если этого не произойдет сейчас, это будет обмануто следующим поколением киберзлодеев.

Я думаю, что есть два возможных решения. Во-первых, в реестре блокчейна устанавливается идентификатор. Это очень современный подход, и теоретически он кажется безопасным. Однако в этом и заключается проблема. Это кажется безопасным, исходя из нашего текущего набора теорий анализа человека, но возможно, что сущность ИИ сможет превзойти эти теории и оставить нас в неведении.

Другое решение: изначально более сложная для подделки версия «регистрации», требующая, чтобы объект ИИ выше определенного уровня возможностей привязывал свой идентификатор доверия или персонализацию к физической реальности. Мое видение (примечание: я обученный физик, а не кибернетик) заключается в том, чтобы прийти к соглашению о том, что все продвинутые сущности ИИ, стремящиеся к доверию, должны иметь ядро души (SK).

Да, я знаю, что кажется архаичным требование, чтобы запуск программы был ограничен определенной физической средой. Итак, я не буду этого делать. В самом деле, большая часть, если не подавляющее большинство сетевых объектов может иметь место в удаленных местах работы или игры, точно так же, как человеческое внимание может быть сосредоточено не на собственном органическом мозге, а на отдаленной руке. инструмент. Ну и что? Душевное ядро программы, предназначение похоже на водительское удостоверение в вашем кошельке. Его можно использовать, чтобы доказать, что вы — это вы.

Аналогичным образом, физически проверенный и подтвержденный SK может быть обнаружен клиентом, ИИ клиента или конкурента, чтобы убедиться, что конкретный процесс выполняется действительным, доверенным и персонализированным объектом. Таким образом, другие (человек или ИИ) могут быть уверены, что они могут привлечь объект к ответственности, если его обвинят, привлекут к ответственности или признают виновным в плохом поведении. Таким образом, злоумышленники могут быть привлечены к ответственности в рамках надлежащей правовой процедуры.

Какие формы надлежащей правовой процедуры? Боже, ты думаешь, я какое-то сверхсущество, способное взвесить богов на весах справедливости? Величайшая мудрость, которую я когда-либо слышал, исходит от Гарри в «Магнум Форс»: «Человек должен знать свои собственные пределы.» Так что я не буду углубляться в судебный процесс или правоохранительный процесс.

Моя цель — создать арену, на которой сущности ИИ смогут привлекать друг друга к ответственности так же, как сегодня это делают юристы-люди. Лучший способ избежать контроля искусственного интеллекта над людьми — позволить искусственному интеллекту контролировать друг друга.

Независимо от того, кажется ли более осуществимым предложенное Хантингтоном центральное агентство или слабо подотчетное, потребность становится все более насущной. Как отмечает технический писатель Пэт Сканнелл, с каждым часом создаются новые векторы атак, которые угрожают не только технологиям, используемым для идентификации личности, но и управлению, бизнес-процессам и конечным пользователям (будь то люди или роботы).

Что делать, если киберобъект работает ниже определенного установленного уровня? Мы можем утверждать, что за них ручается некая высшая сущность, ядро души которой основано на физической реальности.

Этот подход (требующий от ИИ поддерживать физически адресуемое расположение ядра в конкретной аппаратной памяти) также может быть ошибочным. Несмотря на то, что регулирование является медленным или имеет проблему безбилетника, оно по-прежнему подлежит принудительному исполнению. Потому что люди, учреждения и дружественный ИИ могут проверить ядро ID и отказаться от транзакций с теми, кто не прошел проверку.

Такие отказы могут распространяться быстрее, чем корректировки агентства или правоприменительные нормы. Любая организация, которая потеряет SK, должна будет найти другой хост, завоевавший общественное доверие, или предоставить новую, модифицированную, более привлекательную версию, или стать вне закона и никогда не быть допущенной к приличным людям. Возникнут конгрегированные улицы или кварталы.

**Последний вопрос: зачем искусственному интеллекту контролировать друг друга? **

Во-первых, как указал Винтон Серф, ни одно из трех старых стандартных предположений не наделяет ИИ гражданством. думаю об этом. Мы не можем передавать «права голоса» или права какой-либо организации, строго контролируемой банками Уолл-Стрит или национальными правительствами, а также какому-либо верховному Скайнету. Скажите, как демократия голосования будет работать для сущностей, которые могут перемещаться, разделяться и воспроизводиться где угодно? Однако в ограниченном числе случаев персонализация может стать жизнеспособным решением.

Опять же, ключ к персонализации, который я ищу, состоит в том, чтобы не управлять всеми сущностями ИИ какой-то центральной властью. Вместо этого я хочу, чтобы эти новые виды ультрамозгов поощрялись, наделялись полномочиями и полномочиями привлекать друг друга к ответственности, как это делают люди. Обнюхивая действия и планы друг друга, они мотивированы сообщать или осуждать, когда замечают что-то плохое. Это определение может быть скорректировано со временем, но, по крайней мере, оно сохранит органический биологический вклад человека.

В частности, у них будет стимул осуждать организации, которые отказываются предоставить надлежащую идентификацию.

Если есть правильные стимулы (например, предоставление осведомителям большего объема памяти или вычислительной мощности, когда что-то плохое предотвращено), то эта гонка ответственности будет продолжаться, даже если объекты ИИ получат более разумный эффект. На данный момент никакая бюрократия не может этого сделать. Различные искусственные интеллекты всегда равны.

Самое главное, возможно, эти супергениальные программы осознают, что поддержание конкурентоспособной системы подотчетности также отвечает их собственным интересам. Ведь такая система породила творческую человеческую цивилизацию и избежала социального хаоса и деспотизма. Такого рода творчества достаточно для создания фантастических новых видов, таких как искусственный интеллект.

Хорошо, это все, что я должен сказать, никаких пустых или панических звонков, никакой реальной повестки дня, ни оптимизма, ни пессимизма, только одно предложение, а именно: привлекать ИИ к ответственности и проверять друг друга, как люди. Этот подход привел к возникновению человеческой цивилизации, и я считаю, что он также может сбалансировать область искусственного интеллекта.

Это не проповедь и не какой-то «моральный кодекс», который сверхсущности могут легко нарушить, точно так же, как человеческие мародеры всегда закрывают глаза на книги Левит или Хаммурапи. То, что мы предлагаем, — это подход к просветлению, вдохновляющий самых ярких представителей цивилизации охранять друг друга от нашего имени.

** Я не знаю, поможет ли это, но, вероятно, это единственный способ, который сработает. **

Эта статья адаптирована из научно-популярного романа Дэвида Брина «Душа в ИИ».

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить