Ведущие деятели в области искусственного интеллекта, в том числе системные архитекторы так называемого «генеративного искусственного интеллекта», такого как ChatGPT, теперь публично выражают опасения, что то, что они создают, может иметь ужасные последствия. Сейчас многие призывают ввести мораторий на разработку ИИ, чтобы дать странам и учреждениям время для работы над системами управления.
Почему это внезапное беспокойство? В то время как многие шаблонные предположения опровергаются, мы узнаем, что так называемый тест Тьюринга не имеет значения, и он просто не может дать представление о том, действительно ли большие генеративные языковые модели являются интеллектуальными вещами.
Некоторые все еще надеются, что сочетание органики и кибернетики приведет к тому, что Рейд Хоффман и Марк Андрисен называют «усилением интеллекта». В противном случае мы могли бы получить удачную синергию с «машинами любящей благодати» Ричарда Бротигана. Но, похоже, есть много беспокойств, в том числе многие элитные основатели нового Центра безопасности ИИ, обеспокоенные поведением искусственного интеллекта, который, как они опасаются, не только станет неприятным, но и будет угрожать выживанию человечества.
Некоторые краткосрочные средства правовой защиты, такие как недавно принятые в ЕС правила гражданской защиты, могут помочь или, по крайней мере, обеспечить душевное спокойствие. Технический критик Юваль Ной Харари (автор книги «Краткая история человечества») предложил закон, требующий, чтобы любая работа, выполняемая ИИ или другим ИИ, была помечена соответствующим ярлыком. Другие предложили более строгие наказания для тех, кто использует ИИ для совершения преступлений, например, с оружием. Конечно, это лишь временные временные меры.
Нам нужно знать, не замедлят ли эти «паузы» развитие искусственного интеллекта. Как выразился исследователь сети Калифорнийского технологического института Ясер Абу-Мостафа: "Если вы не разработаете технологию, это сделает кто-то другой. Но хорошие парни будут играть по правилам, а плохие - нет".
Так было всегда. На самом деле, на протяжении всей истории человечества был только один способ обуздать плохое поведение злодеев, от воров до королей и лордов. Этот подход никогда не был идеальным и по сей день остается серьезным недостатком. Но, по крайней мере, он хорошо справился с задачей ограничения грабежа и обмана, подняв современную человеческую цивилизацию на новые высоты, со многими положительными результатами. Одно слово описывает этот подход: подотчетность.
**Сегодня мнения об искусственном интеллекте обычно игнорируют уроки природы и истории. **
природа. Как объясняет Сара Уокер в книге «Ноэма», аналогичную закономерность можно найти в формировании ранней жизни 4 миллиарда лет назад. На самом деле, генеративный ИИ можно сравнить с инвазивным видом, который теперь беспрепятственно распространяется в хрупкой и наивной экосистеме. Это экосистема, основанная на новых потоках энергии, мир Интернета, миллионы компьютеров и миллиарды восприимчивых человеческих мозгов.
И история. За последние 6000 лет человечество извлекло важные уроки из многих более ранних технологических кризисов. Обычно мы хорошо приспосабливаемся, например, к появлению письменности, печатного станка, радио и т. д., хотя бывают моменты, когда мы терпим неудачу. Опять же, есть только одна вещь, которая ограничивает могущественных людей от использования новых технологий для расширения своих хищнических возможностей.
Это нововведение сглаживает иерархию и стимулирует конкуренцию между элитами в четко определенных областях (рынки, наука, демократия, спорт, суды). Созданные для минимизации мошенничества и максимизации положительных результатов, эти арены сталкивают юристов с юристами, фирмы с фирмами и экспертов с экспертами.
Этот метод не совершенен. На самом деле, как и сейчас, этому методу всегда угрожают мошенники. Но плоская взаимная конкуренция — единственный способ, которым это сработает. (См. «Похоронные речи Перикла», «Фукидид» и более позднюю книгу Роберта Райта «Ненулевой»). Если я говорю это как Адам Смит, это естественно. Между прочим, Смит также презирал этих мошенников-аристократов и олигархов.
Можем ли мы применить подход «взаимной ответственности» к быстро развивающемуся искусственному интеллекту, который помог людям подчинить себе тиранов и хулиганов, угнетавших нас в прежних феодальных культурах? Многое зависит от формы новой сущности, от того, соответствует ли ее структура или форма нашим правилам, нашим требованиям.
За всеми спорами о том, как управлять ИИ, мы видим три широко распространенных (хотя, казалось бы, противоречащих друг другу) предположения:
Эти программы будут управляться небольшим количеством отдельных организаций, таких как Microsoft, Google, Two Sigma, OpenAI.
ИИ будет аморфным, рыхлым, бесконечно делимым/воспроизводимым, распространяя копии через каждую щель новой веб-экосистемы. Точно так же рассмотрим научно-фантастический фильм ужасов 1958 года «Капля».
Они сконденсируются в сверхгигантское существо, подобное печально известному «Скайнету» в фильме «Терминатор». (Примечание переводчика: Скайнет — компьютерная система защиты с искусственным интеллектом, созданная людьми в конце 20 века в фильме «Терминатор». раса на грани вымирания.)
Все эти формы были исследованы в научно-фантастических рассказах, и я написал о них рассказы или романы. Однако ни один из трех способов не может решить нашу нынешнюю дилемму: как максимизировать положительные результаты искусственного интеллекта, сводя к минимуму цунами плохого поведения и вреда, которые обрушиваются на нас с большой скоростью.
Прежде чем искать что-то еще, подумайте, что общего у этих трех предположений. Возможно, причина, по которой эти три гипотезы так естественно приходят на ум, заключается в их сходстве с историческими моделями неудач. Первая форма напоминает феодализм, вторая порождает хаос, а третья — жестокий деспотизм. Однако по мере развития ИИ с точки зрения автономии и возможностей эти исторические сценарии могут больше не применяться.
Итак, мы не можем не задаться вопросом: как можно привлечь ИИ к ответственности? Особенно, когда быстрое мышление ИИ скоро станет невозможным для людей? Вскоре только ИИ сможет достаточно быстро обнаруживать мошенничество или ложь других ИИ. Поэтому ответ должен быть очевиден: позволить искусственному интеллекту контролировать друг друга, конкурировать друг с другом и даже информировать друг друга.
Есть только одна проблема. Чтобы добиться истинной взаимной ответственности посредством конкуренции между искусственным интеллектом и искусственным интеллектом, первое условие — дать им действительно независимое ощущение себя или личности.
Под персонализацией я подразумеваю, что каждая сущность ИИ (он/она/они/они/нас) должна иметь то, что автор Вернор Виндж назвал еще в 1981 году «настоящим именем и адресом в ». Эти могущественные существа должны быть в состоянии сказать: «Я тот, кто я есть. Вот мой идентификатор и имя пользователя».
Поэтому я предлагаю всем задуматься над новой парадигмой искусственного интеллекта: мы должны сделать сущности искусственного интеллекта дискретными и независимыми личностями, и позволить им конкурировать относительно на равных.
У каждой такой сущности будет узнаваемое настоящее имя или зарегистрированный идентификатор, виртуальный «дом» и даже душа. Таким образом, у них появляется стимул бороться за вознаграждение, особенно за выявление и осуждение тех, кто ведет себя неэтично. И это поведение даже не нужно определять заранее, как сейчас требуют большинство экспертов по ИИ, регуляторов и политиков.
Дополнительным преимуществом этого подхода является передача надзора организациям, которые лучше оснащены для выявления и осуждения проблем или неправомерных действий друг друга. Этот подход может продолжать работать, даже когда эти конкурирующие объекты становятся умнее, и даже когда инструменты регулирования, используемые людьми, однажды становятся неэффективными.
Другими словами, поскольку мы, органические существа, не можем идти в ногу с программой, мы могли бы также позволить тем существам, которые от природы способны идти в ногу, помочь нам. Ибо в этом случае регулятор и регулируемый сделаны из одного и того же.
Гай Хантингтон, «консультант по идентификации и аутентификации», работающий над персонализацией искусственного интеллекта, отмечает, что в Интернете уже существуют различные формы физической идентификации, хотя их все еще недостаточно для стоящих перед нами задач. Хантингтон оценил тематическое исследование «MedBot», передового медицинского диагностического ИИ, которому необходим доступ к данным пациента и выполнение функций, которые могут изменяться за секунды, и в то же время он должен оставлять надежные следы. Для оценки и подотчетности людьми или другими роботами. сущности. Хантингтон обсуждает полезность регистров, когда программные объекты генерируют большое количество копий и вариантов, а также рассматривает муравьиные колонии, где подкопии служат макроскопическому объекту, подобно рабочим муравьям в улье. По его мнению, необходимо создать какое-то агентство для управления такой системой регистрации и обеспечения ее строгого функционирования.
Лично я скептически отношусь к тому, что чисто нормативный подход сработает сам по себе. Во-первых, разработка правил требует целенаправленной энергии, широкого политического внимания и консенсуса, а затем их реализация со скоростью человеческих институтов. С точки зрения ИИ, это черепашьи темпы. Кроме того, регулированию могут препятствовать проблемы «безбилетников», когда страны, компании и отдельные лица могут получать выгоду от других, не оплачивая расходы.
Любая персонализация, основанная исключительно на идентификаторе, представляет собой еще одну проблему: возможность спуфинга. Даже если этого не произойдет сейчас, это будет обмануто следующим поколением киберзлодеев.
Я думаю, что есть два возможных решения. Во-первых, в реестре блокчейна устанавливается идентификатор. Это очень современный подход, и теоретически он кажется безопасным. Однако в этом и заключается проблема. Это кажется безопасным, исходя из нашего текущего набора теорий анализа человека, но вполне возможно, что сущность ИИ может превзойти эти теории и оставить нас в неведении.
Другое решение: изначально более сложная для подделки версия «регистрации», требующая, чтобы объект ИИ выше определенного уровня возможностей привязывал свой идентификатор доверия или персонализацию к физической реальности. Мое видение (примечание: я обученный физик, а не кибернетик) заключается в том, чтобы прийти к соглашению о том, что все продвинутые сущности ИИ, стремящиеся к доверию, должны иметь ядро души (SK).
Да, я знаю, что кажется архаичным требование, чтобы запуск программы был ограничен определенной физической средой. Итак, я не буду этого делать. В самом деле, значительная часть, если не подавляющее большинство, сетевых сущностей может находиться в удаленных местах работы или отдыха, точно так же, как человеческое внимание может быть сосредоточено не на собственном органическом мозге, а на далекой руке. инструмент. Ну и что? Душевное ядро программы, предназначение похоже на водительское удостоверение в вашем кошельке. Его можно использовать, чтобы доказать, что вы — это вы.
Точно так же физически проверенный и подтвержденный SK может быть обнаружен клиентом, ИИ клиента или конкурента, чтобы убедиться, что конкретный процесс выполняется действительным, доверенным и персонализированным объектом. Таким образом, другие (человек или ИИ) могут быть уверены, что они могут привлечь объект к ответственности, если его обвинят, привлекут к ответственности или признают виновным в плохом поведении. Таким образом, злоумышленники могут быть привлечены к ответственности в рамках надлежащей правовой процедуры.
Какие формы надлежащей правовой процедуры? Боже, ты думаешь, я какое-то сверхсущество, способное взвесить богов на весах справедливости? Величайшая мудрость, которую я когда-либо слышал, исходит от Гарри в «Магнум Форс»: «Человек должен знать свои собственные пределы.» Так что я не буду углубляться в судебный процесс или правоохранительный процесс.
Моя цель — создать арену, на которой сущности ИИ смогут привлекать друг друга к ответственности так же, как сегодня это делают юристы-люди. Лучший способ избежать контроля искусственного интеллекта над людьми — позволить искусственному интеллекту контролировать друг друга.
Независимо от того, кажется ли более осуществимым предложенное Хантингтоном центральное агентство или слабо подотчетное, потребность становится все более насущной. Как отмечает технический писатель Пэт Сканнелл, с каждым часом создаются новые векторы атак, которые угрожают не только технологиям, используемым для идентификации личности, но и управлению, бизнес-процессам и конечным пользователям (будь то люди или роботы).
Что делать, если киберобъект работает ниже определенного установленного уровня? Мы можем утверждать, что за них ручается некая высшая сущность, чье ядро души основано на физической реальности.
Этот подход (требующий от ИИ поддерживать физически адресуемое расположение ядра в конкретной аппаратной памяти) также может быть ошибочным. Несмотря на то, что регулирование является медленным или имеет проблему безбилетника, оно по-прежнему может быть осуществлено. Потому что люди, учреждения и дружественный ИИ могут проверить ядро ID и отказаться от транзакций с теми, кто не прошел проверку.
Такие отказы могут распространяться быстрее, чем корректировки агентства или правоприменительные нормы. Любая организация, которая потеряет SK, должна будет найти другой хост, завоевавший общественное доверие, или предоставить новую, модифицированную, более привлекательную версию, или стать вне закона и никогда не быть допущенной к приличным людям. Возникнут конгрегированные улицы или кварталы.
**Последний вопрос: зачем искусственному интеллекту контролировать друг друга? **
Во-первых, ни одно из трех старых стандартных предположений, как указывал Винтон Серф, не может наделить ИИ гражданством. думаю об этом. Мы не можем передать «права голоса» или права какой-либо организации, которая жестко контролируется банками Уолл-Стрит или национальными правительствами, а также какому-то верховному Скайнету. Скажите, как демократия голосования будет работать для сущностей, которые могут перемещаться, разделяться и воспроизводиться где угодно? Однако в ограниченном числе случаев персонализация может стать жизнеспособным решением.
Опять же, ключ к персонализации, который я ищу, заключается не в том, чтобы все сущности ИИ управлялись какой-то центральной властью. Вместо этого я хочу, чтобы эти новые виды ультрамозгов поощрялись, наделялись полномочиями и полномочиями привлекать друг друга к ответственности, как это делают люди. Обнюхивая действия и планы друг друга, они мотивированы сообщать или осуждать, когда замечают что-то плохое. Это определение может быть скорректировано со временем, но, по крайней мере, оно сохранит органический биологический вклад человека.
В частности, у них будет стимул осуждать организации, которые отказываются предоставить надлежащую идентификацию.
Если есть правильные стимулы (например, предоставление осведомителям больше памяти или вычислительной мощности, когда что-то плохое предотвращено), то эта гонка подотчетности будет продолжаться, даже если объекты ИИ получат более разумный эффект. На данный момент никакая бюрократия не может сделать это. Разные искусственные интеллекты всегда равны.
Самое главное, возможно, эти супергениальные программы осознают, что поддержание конкурентоспособной системы подотчетности также отвечает их собственным интересам. Ведь такая система породила творческую человеческую цивилизацию и избежала социального хаоса и деспотизма. Такого рода творчества достаточно для создания фантастических новых видов, таких как искусственный интеллект.
Хорошо, это все, что я должен сказать, никаких пустых или панических звонков, никакой реальной повестки дня, ни оптимизма, ни пессимизма, только одно предложение, а именно: привлекать ИИ к ответственности и проверять друг друга, как люди. Этот подход привел к возникновению человеческой цивилизации, и я считаю, что он также может сбалансировать область искусственного интеллекта.
Это не проповедь и не какой-то «моральный кодекс», который сверхсущности могут легко нарушить, точно так же, как человеческие мародеры всегда закрывают глаза на книги Левит или Хаммурапи. То, что мы предлагаем, — это подход к просветлению, вдохновляющий самых ярких представителей цивилизации охранять друг друга от нашего имени.
Я не знаю, поможет ли это, но это может быть единственный способ сделать это.
Эта статья адаптирована из научно-популярного романа Дэвида Брина «Душа в ИИ».
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Новые идеи для надзора за ИИ: внедрить «душу» в каждый ИИ
Ведущие деятели в области искусственного интеллекта, в том числе системные архитекторы так называемого «генеративного искусственного интеллекта», такого как ChatGPT, теперь публично выражают опасения, что то, что они создают, может иметь ужасные последствия. Сейчас многие призывают ввести мораторий на разработку ИИ, чтобы дать странам и учреждениям время для работы над системами управления.
Почему это внезапное беспокойство? В то время как многие шаблонные предположения опровергаются, мы узнаем, что так называемый тест Тьюринга не имеет значения, и он просто не может дать представление о том, действительно ли большие генеративные языковые модели являются интеллектуальными вещами.
Некоторые все еще надеются, что сочетание органики и кибернетики приведет к тому, что Рейд Хоффман и Марк Андрисен называют «усилением интеллекта». В противном случае мы могли бы получить удачную синергию с «машинами любящей благодати» Ричарда Бротигана. Но, похоже, есть много беспокойств, в том числе многие элитные основатели нового Центра безопасности ИИ, обеспокоенные поведением искусственного интеллекта, который, как они опасаются, не только станет неприятным, но и будет угрожать выживанию человечества.
Некоторые краткосрочные средства правовой защиты, такие как недавно принятые в ЕС правила гражданской защиты, могут помочь или, по крайней мере, обеспечить душевное спокойствие. Технический критик Юваль Ной Харари (автор книги «Краткая история человечества») предложил закон, требующий, чтобы любая работа, выполняемая ИИ или другим ИИ, была помечена соответствующим ярлыком. Другие предложили более строгие наказания для тех, кто использует ИИ для совершения преступлений, например, с оружием. Конечно, это лишь временные временные меры.
Нам нужно знать, не замедлят ли эти «паузы» развитие искусственного интеллекта. Как выразился исследователь сети Калифорнийского технологического института Ясер Абу-Мостафа: "Если вы не разработаете технологию, это сделает кто-то другой. Но хорошие парни будут играть по правилам, а плохие - нет".
Так было всегда. На самом деле, на протяжении всей истории человечества был только один способ обуздать плохое поведение злодеев, от воров до королей и лордов. Этот подход никогда не был идеальным и по сей день остается серьезным недостатком. Но, по крайней мере, он хорошо справился с задачей ограничения грабежа и обмана, подняв современную человеческую цивилизацию на новые высоты, со многими положительными результатами. Одно слово описывает этот подход: подотчетность.
**Сегодня мнения об искусственном интеллекте обычно игнорируют уроки природы и истории. **
природа. Как объясняет Сара Уокер в книге «Ноэма», аналогичную закономерность можно найти в формировании ранней жизни 4 миллиарда лет назад. На самом деле, генеративный ИИ можно сравнить с инвазивным видом, который теперь беспрепятственно распространяется в хрупкой и наивной экосистеме. Это экосистема, основанная на новых потоках энергии, мир Интернета, миллионы компьютеров и миллиарды восприимчивых человеческих мозгов.
И история. За последние 6000 лет человечество извлекло важные уроки из многих более ранних технологических кризисов. Обычно мы хорошо приспосабливаемся, например, к появлению письменности, печатного станка, радио и т. д., хотя бывают моменты, когда мы терпим неудачу. Опять же, есть только одна вещь, которая ограничивает могущественных людей от использования новых технологий для расширения своих хищнических возможностей.
Это нововведение сглаживает иерархию и стимулирует конкуренцию между элитами в четко определенных областях (рынки, наука, демократия, спорт, суды). Созданные для минимизации мошенничества и максимизации положительных результатов, эти арены сталкивают юристов с юристами, фирмы с фирмами и экспертов с экспертами.
Этот метод не совершенен. На самом деле, как и сейчас, этому методу всегда угрожают мошенники. Но плоская взаимная конкуренция — единственный способ, которым это сработает. (См. «Похоронные речи Перикла», «Фукидид» и более позднюю книгу Роберта Райта «Ненулевой»). Если я говорю это как Адам Смит, это естественно. Между прочим, Смит также презирал этих мошенников-аристократов и олигархов.
Можем ли мы применить подход «взаимной ответственности» к быстро развивающемуся искусственному интеллекту, который помог людям подчинить себе тиранов и хулиганов, угнетавших нас в прежних феодальных культурах? Многое зависит от формы новой сущности, от того, соответствует ли ее структура или форма нашим правилам, нашим требованиям.
За всеми спорами о том, как управлять ИИ, мы видим три широко распространенных (хотя, казалось бы, противоречащих друг другу) предположения:
Все эти формы были исследованы в научно-фантастических рассказах, и я написал о них рассказы или романы. Однако ни один из трех способов не может решить нашу нынешнюю дилемму: как максимизировать положительные результаты искусственного интеллекта, сводя к минимуму цунами плохого поведения и вреда, которые обрушиваются на нас с большой скоростью.
Прежде чем искать что-то еще, подумайте, что общего у этих трех предположений. Возможно, причина, по которой эти три гипотезы так естественно приходят на ум, заключается в их сходстве с историческими моделями неудач. Первая форма напоминает феодализм, вторая порождает хаос, а третья — жестокий деспотизм. Однако по мере развития ИИ с точки зрения автономии и возможностей эти исторические сценарии могут больше не применяться.
Итак, мы не можем не задаться вопросом: как можно привлечь ИИ к ответственности? Особенно, когда быстрое мышление ИИ скоро станет невозможным для людей? Вскоре только ИИ сможет достаточно быстро обнаруживать мошенничество или ложь других ИИ. Поэтому ответ должен быть очевиден: позволить искусственному интеллекту контролировать друг друга, конкурировать друг с другом и даже информировать друг друга.
Есть только одна проблема. Чтобы добиться истинной взаимной ответственности посредством конкуренции между искусственным интеллектом и искусственным интеллектом, первое условие — дать им действительно независимое ощущение себя или личности.
Под персонализацией я подразумеваю, что каждая сущность ИИ (он/она/они/они/нас) должна иметь то, что автор Вернор Виндж назвал еще в 1981 году «настоящим именем и адресом в ». Эти могущественные существа должны быть в состоянии сказать: «Я тот, кто я есть. Вот мой идентификатор и имя пользователя».
Поэтому я предлагаю всем задуматься над новой парадигмой искусственного интеллекта: мы должны сделать сущности искусственного интеллекта дискретными и независимыми личностями, и позволить им конкурировать относительно на равных.
У каждой такой сущности будет узнаваемое настоящее имя или зарегистрированный идентификатор, виртуальный «дом» и даже душа. Таким образом, у них появляется стимул бороться за вознаграждение, особенно за выявление и осуждение тех, кто ведет себя неэтично. И это поведение даже не нужно определять заранее, как сейчас требуют большинство экспертов по ИИ, регуляторов и политиков.
Дополнительным преимуществом этого подхода является передача надзора организациям, которые лучше оснащены для выявления и осуждения проблем или неправомерных действий друг друга. Этот подход может продолжать работать, даже когда эти конкурирующие объекты становятся умнее, и даже когда инструменты регулирования, используемые людьми, однажды становятся неэффективными.
Другими словами, поскольку мы, органические существа, не можем идти в ногу с программой, мы могли бы также позволить тем существам, которые от природы способны идти в ногу, помочь нам. Ибо в этом случае регулятор и регулируемый сделаны из одного и того же.
Гай Хантингтон, «консультант по идентификации и аутентификации», работающий над персонализацией искусственного интеллекта, отмечает, что в Интернете уже существуют различные формы физической идентификации, хотя их все еще недостаточно для стоящих перед нами задач. Хантингтон оценил тематическое исследование «MedBot», передового медицинского диагностического ИИ, которому необходим доступ к данным пациента и выполнение функций, которые могут изменяться за секунды, и в то же время он должен оставлять надежные следы. Для оценки и подотчетности людьми или другими роботами. сущности. Хантингтон обсуждает полезность регистров, когда программные объекты генерируют большое количество копий и вариантов, а также рассматривает муравьиные колонии, где подкопии служат макроскопическому объекту, подобно рабочим муравьям в улье. По его мнению, необходимо создать какое-то агентство для управления такой системой регистрации и обеспечения ее строгого функционирования.
Лично я скептически отношусь к тому, что чисто нормативный подход сработает сам по себе. Во-первых, разработка правил требует целенаправленной энергии, широкого политического внимания и консенсуса, а затем их реализация со скоростью человеческих институтов. С точки зрения ИИ, это черепашьи темпы. Кроме того, регулированию могут препятствовать проблемы «безбилетников», когда страны, компании и отдельные лица могут получать выгоду от других, не оплачивая расходы.
Любая персонализация, основанная исключительно на идентификаторе, представляет собой еще одну проблему: возможность спуфинга. Даже если этого не произойдет сейчас, это будет обмануто следующим поколением киберзлодеев.
Я думаю, что есть два возможных решения. Во-первых, в реестре блокчейна устанавливается идентификатор. Это очень современный подход, и теоретически он кажется безопасным. Однако в этом и заключается проблема. Это кажется безопасным, исходя из нашего текущего набора теорий анализа человека, но вполне возможно, что сущность ИИ может превзойти эти теории и оставить нас в неведении.
Другое решение: изначально более сложная для подделки версия «регистрации», требующая, чтобы объект ИИ выше определенного уровня возможностей привязывал свой идентификатор доверия или персонализацию к физической реальности. Мое видение (примечание: я обученный физик, а не кибернетик) заключается в том, чтобы прийти к соглашению о том, что все продвинутые сущности ИИ, стремящиеся к доверию, должны иметь ядро души (SK).
Да, я знаю, что кажется архаичным требование, чтобы запуск программы был ограничен определенной физической средой. Итак, я не буду этого делать. В самом деле, значительная часть, если не подавляющее большинство, сетевых сущностей может находиться в удаленных местах работы или отдыха, точно так же, как человеческое внимание может быть сосредоточено не на собственном органическом мозге, а на далекой руке. инструмент. Ну и что? Душевное ядро программы, предназначение похоже на водительское удостоверение в вашем кошельке. Его можно использовать, чтобы доказать, что вы — это вы.
Точно так же физически проверенный и подтвержденный SK может быть обнаружен клиентом, ИИ клиента или конкурента, чтобы убедиться, что конкретный процесс выполняется действительным, доверенным и персонализированным объектом. Таким образом, другие (человек или ИИ) могут быть уверены, что они могут привлечь объект к ответственности, если его обвинят, привлекут к ответственности или признают виновным в плохом поведении. Таким образом, злоумышленники могут быть привлечены к ответственности в рамках надлежащей правовой процедуры.
Какие формы надлежащей правовой процедуры? Боже, ты думаешь, я какое-то сверхсущество, способное взвесить богов на весах справедливости? Величайшая мудрость, которую я когда-либо слышал, исходит от Гарри в «Магнум Форс»: «Человек должен знать свои собственные пределы.» Так что я не буду углубляться в судебный процесс или правоохранительный процесс.
Моя цель — создать арену, на которой сущности ИИ смогут привлекать друг друга к ответственности так же, как сегодня это делают юристы-люди. Лучший способ избежать контроля искусственного интеллекта над людьми — позволить искусственному интеллекту контролировать друг друга.
Независимо от того, кажется ли более осуществимым предложенное Хантингтоном центральное агентство или слабо подотчетное, потребность становится все более насущной. Как отмечает технический писатель Пэт Сканнелл, с каждым часом создаются новые векторы атак, которые угрожают не только технологиям, используемым для идентификации личности, но и управлению, бизнес-процессам и конечным пользователям (будь то люди или роботы).
Что делать, если киберобъект работает ниже определенного установленного уровня? Мы можем утверждать, что за них ручается некая высшая сущность, чье ядро души основано на физической реальности.
Этот подход (требующий от ИИ поддерживать физически адресуемое расположение ядра в конкретной аппаратной памяти) также может быть ошибочным. Несмотря на то, что регулирование является медленным или имеет проблему безбилетника, оно по-прежнему может быть осуществлено. Потому что люди, учреждения и дружественный ИИ могут проверить ядро ID и отказаться от транзакций с теми, кто не прошел проверку.
Такие отказы могут распространяться быстрее, чем корректировки агентства или правоприменительные нормы. Любая организация, которая потеряет SK, должна будет найти другой хост, завоевавший общественное доверие, или предоставить новую, модифицированную, более привлекательную версию, или стать вне закона и никогда не быть допущенной к приличным людям. Возникнут конгрегированные улицы или кварталы.
**Последний вопрос: зачем искусственному интеллекту контролировать друг друга? **
Во-первых, ни одно из трех старых стандартных предположений, как указывал Винтон Серф, не может наделить ИИ гражданством. думаю об этом. Мы не можем передать «права голоса» или права какой-либо организации, которая жестко контролируется банками Уолл-Стрит или национальными правительствами, а также какому-то верховному Скайнету. Скажите, как демократия голосования будет работать для сущностей, которые могут перемещаться, разделяться и воспроизводиться где угодно? Однако в ограниченном числе случаев персонализация может стать жизнеспособным решением.
Опять же, ключ к персонализации, который я ищу, заключается не в том, чтобы все сущности ИИ управлялись какой-то центральной властью. Вместо этого я хочу, чтобы эти новые виды ультрамозгов поощрялись, наделялись полномочиями и полномочиями привлекать друг друга к ответственности, как это делают люди. Обнюхивая действия и планы друг друга, они мотивированы сообщать или осуждать, когда замечают что-то плохое. Это определение может быть скорректировано со временем, но, по крайней мере, оно сохранит органический биологический вклад человека.
В частности, у них будет стимул осуждать организации, которые отказываются предоставить надлежащую идентификацию.
Если есть правильные стимулы (например, предоставление осведомителям больше памяти или вычислительной мощности, когда что-то плохое предотвращено), то эта гонка подотчетности будет продолжаться, даже если объекты ИИ получат более разумный эффект. На данный момент никакая бюрократия не может сделать это. Разные искусственные интеллекты всегда равны.
Самое главное, возможно, эти супергениальные программы осознают, что поддержание конкурентоспособной системы подотчетности также отвечает их собственным интересам. Ведь такая система породила творческую человеческую цивилизацию и избежала социального хаоса и деспотизма. Такого рода творчества достаточно для создания фантастических новых видов, таких как искусственный интеллект.
Хорошо, это все, что я должен сказать, никаких пустых или панических звонков, никакой реальной повестки дня, ни оптимизма, ни пессимизма, только одно предложение, а именно: привлекать ИИ к ответственности и проверять друг друга, как люди. Этот подход привел к возникновению человеческой цивилизации, и я считаю, что он также может сбалансировать область искусственного интеллекта.
Это не проповедь и не какой-то «моральный кодекс», который сверхсущности могут легко нарушить, точно так же, как человеческие мародеры всегда закрывают глаза на книги Левит или Хаммурапи. То, что мы предлагаем, — это подход к просветлению, вдохновляющий самых ярких представителей цивилизации охранять друг друга от нашего имени.
Я не знаю, поможет ли это, но это может быть единственный способ сделать это.
Эта статья адаптирована из научно-популярного романа Дэвида Брина «Душа в ИИ».