MIT Technology Review: Як екзистенціальний ризик став найбільшим мемом у штучному інтелекті

Автор: Вілл Дуглас Хевен

Джерело: MIT Technology Review

Джерело зображення: створено інструментом Unbounded AI

Хто боїться роботів? Здається, багато людей таких. Зараз вражає кількість відомих діячів, які роблять публічні заяви або підписують відкриті листи, попереджаючи про катастрофічну небезпеку штучного інтелекту.

Сотні вчених, бізнес-лідерів і політиків висловлювалися: від піонерів глибокого навчання Джеффрі Хінтона та Йошуа Бенгіо до генеральних директорів провідних компаній штучного інтелекту, таких як Сем Альтман і Деміс Хассабіс, до представника Каліфорнії Теда Лієу з колишнім президентом Естонії Керсті Кальюлайд.

Найяскравішим твердженням, підписаним усіма цими цифрами та багатьма іншими, була заява з 22 слів, опублікована два тижні тому Центром безпеки штучного інтелекту (CAIS), дослідницькою організацією з Сан-Франциско, яка заявила, що «зменшення ризику вимирання створений штучним інтелектом. Це має бути глобальним пріоритетом разом з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».

Це формулювання навмисне. «Якби ми збиралися використати твердження в стилі тесту Роршаха, ми б сказали «екзистенціальний ризик», тому що це може означати багато речей для багатьох різних людей», — сказав директор CAIS Ден Хендрікс. Але вони хотіли роз’яснення: це не про падіння економіки. «Ось чому ми говоримо про «ризик вимирання», хоча багато хто з нас також турбуються про різні інші ризики», — сказав Хендрікс.

Ми вже були там раніше: AI doom приходить із ажіотажем AI. Але цього разу він виглядає інакше. Вікно Овертона змістилося. Те, що колись було крайнім поглядом, тепер стало мейнстрімом, привертаючи заголовки та увагу світових лідерів. «Голоси занепокоєння щодо штучного інтелекту надто гучні, щоб їх ігнорувати», — сказала Дженна Баррелл, директор з досліджень Data and Society, організації, яка вивчає соціальний вплив технологій.

Що сталося? Чи справді штучний інтелект стає (більш) небезпечним? Чому люди, які запровадили цю технологію, тепер починають бити на сполох?

Слід визнати, що на місцях ці думки розділилися. Минулого тижня головний науковий співробітник Meta Янн ЛеКун, який разом з Хінтоном і Бенгіо отримав премію Тюрінга 2018 року, назвав теорію кінця світу «смішною». Айдан Гомес, виконавчий директор компанії штучного інтелекту Cohere, сказав, що це «безглузде використання нашого часу».

Інші так само насміхалися з цього. «Зараз немає більше доказів того, що штучний інтелект створюватиме ці екзистенційні ризики, ніж у 1950 році», — сказав Мередіт Віттакер, президент Signal.Whittaker є співзасновником і колишнім директором дослідницької лабораторії AI now Institute. що вивчає політичні наслідки штучного інтелекту. «Історії про привидів заразливі — бути наляканим справді захоплюючим і стимулюючим».

«Це також спосіб забути про все, що відбувається сьогодні», — сказав Баррелл. «Це свідчить про те, що ми не помітили реальної чи серйозної шкоди».

Давній страх

Занепокоєння щодо машин, що втікають, що самовдосконалюються, існує ще з часів Алана Тюрінга. Такі футуристи, як Вернор Віндж і Рей Курцвейл, популяризували ці ідеї, говорячи про так звану «сингулярність», гіпотетичну дату, коли штучний інтелект перевершить людський інтелект і його захоплять машини.

Але в основі цього занепокоєння лежить питання контролю: якщо (або коли) машини стануть розумнішими, як люди зможуть зберегти своє домінування? У статті 2017 року під назвою «Як штучний інтелект створює екзистенційний ризик?» Каріна Волд, філософ ШІ з Університету Торонто (яка також підписала заяву CAIS), викладає основні аргументи, що стоять за цим занепокоєнням.

Цей аргумент має три ключові передумови. По-перше, люди можуть створити суперрозумну машину, яка перевершить усі інші інтелекти. По-друге, ми ризикуємо втратити контроль над суперрозумними агентами, здатними перевершити нас. По-третє, існує ймовірність того, що суперрозумний агент буде робити те, чого ми не хочемо.

Зібравши все це разом, можна створити машину, яка буде робити те, чого ми не хочемо, зокрема знищувати нас, і ми не зможемо це зупинити.

Існують також різні випадки для цього сценарію. Коли Хінтон висловив свою стурбованість щодо штучного інтелекту в травні, він навів приклад роботів, які змінюють маршрут мережі, щоб надати собі більше влади. Але суперінтелект (або AGI) не потрібен. Дурні машини також можуть бути катастрофічними, якщо в них занадто багато місця. Багато сценаріїв передбачають необдумане або зловмисне розгортання, а не корисливих ботів.

У статті, опублікованій минулого тижня в Інтернеті, дослідники штучного інтелекту Стюарт Рассел і Ендрю Кріч з Каліфорнійського університету в Берклі (які також підписали заяву CAIS) пропонують таксономію екзистенціального ризику. Ці ризики варіюються від вірусних чат-ботів, які дають поради мільйонам людей покинути коледж, до автономних індустрій, які переслідують шкідливі економічні цілі, до національних держав, які створюють суперзброю на основі ШІ.

У багатьох уявних випадках теоретична модель досягає поставлених людиною цілей, але у спосіб, який не підходить для нас. Для Хендрікса, який вивчає, як моделі глибокого навчання іноді поводяться несподіваним чином, коли отримують вхідні дані, яких не видно в навчальних даних, система штучного інтелекту може бути катастрофічною, оскільки вона руйнівна, а не всемогутня. «Якщо поставити перед собою мету, і воно знайде екзотичне рішення, це відправить нас у дивну подорож», — сказав він.

Проблема з цим можливим майбутнім полягає в тому, що вони покладаються на низку «якщо», через що вони звучать як наукова фантастика. Це визнав сам Волд. «Оскільки події, які становлять або викликають [екзистенціальні ризики], є безпрецедентними, аргументи про те, що вони становлять таку загрозу, мають бути теоретичними за своєю природою», — написала вона. «Їхня рідкість також робить будь-які припущення про те, як і коли відбуваються такі події, суб’єктивними та не можуть бути перевірені емпірично».

Чому ж у ці ідеї вірить більше людей, ніж будь-коли? «Різні люди говорять про ризик з різних причин, і вони можуть мати на увазі це по-різному, — говорить Франсуа Шолле, дослідник штучного інтелекту в Google. Але це непереборна розповідь: «Екзистенціальний ризик завжди був хорошою історією».

«У цьому є міфологічний, майже релігійний елемент, який не можна ігнорувати», — сказав Віттакер. «Я думаю, ми повинні визнати, що, враховуючи те, що описане не має доказової бази, це ближче до віри, релігійного запалу, ніж до наукового дискурсу».

Зараза судного дня

Коли дослідники глибокого навчання вперше почали досягати низки успіхів — згадайте рекордний результат розпізнавання зображень Хінтона та його колег у конкурсі ImageNet у 2012 році та першу перемогу DeepMind AlphaGo над людиною-чемпіоном у 2015 році. теж судний день. Видатні вчені, такі як Хокінг і космолог Мартін Ріс, а також високопоставлені технічні лідери, такі як Ілон Маск, били на сполох щодо екзистенціальних ризиків. Але ці персонажі не є експертами зі штучного інтелекту.

Стоячи на сцені в Сан-Хосе вісім років тому, Ендрю Нґ, піонер глибокого навчання, а тоді головний науковий співробітник Baidu, посміявся над цією ідеєю.

«У віддаленому майбутньому може відбутися смертельна гонка роботів», — сказав Ендрю Нґ аудиторії на конференції Nvidia GPU Technology Conference 2015. «Але сьогодні я не так відданий тому, щоб запобігти перетворенню штучного інтелекту на зло, як я турбуюся про перенаселення Марса» (зауваження Ng були опубліковані в той час на сайті технічних новин The Register).

Ендрю Нг, який став співзасновником лабораторії штучного інтелекту Google у 2011 році, а зараз є генеральним директором Landing AI, повторював цю фразу в інтерв’ю. Але зараз він менш оптимістичний. «Я залишаюся відкритим і розмовляю з кількома людьми, щоб дізнатися більше», — сказав він мені. «Швидкий розвиток подій змушує вчених переосмислити ризик».

Як і багато інших, Нґ висловив стурбованість швидким розвитком генеративного штучного інтелекту та його потенціалом для неправильного використання. Минулого місяця, зазначив він, широко розповсюджене зображення вибуху в Пентагоні, створене ШІ, налякало людей, спустивши фондовий ринок.

«На жаль, штучний інтелект настільки потужний, що, здається, також може спричинити величезні проблеми», — сказав Нг. Але він не говорив про роботів-вбивць: «Зараз мені все ще важко зрозуміти, як штучний інтелект може призвести до нашого вимирання».

Що відрізняється від раніше, так це широке усвідомлення можливостей ШІ. Наприкінці минулого року ChatGPT зробив цю технологію загальнодоступною. «Штучний інтелект раптом став гарячою темою в мейнстрімі», — сказав Шолле. «Люди сприймають штучний інтелект серйозно, тому що бачать раптові стрибки в здібностях як передвістя нових стрибків у майбутньому».

Крім того, досвід спілкування з чат-ботом може викликати занепокоєння. Розмова - це те, що зазвичай розуміється як те, що люди роблять з іншими людьми. "Це додає відчуття легітимності ідеї ШІ бути схожим на людину або розумного співрозмовника, – сказав Віттакер. – Я думаю, це змушує людей вірити, що якщо ШІ може імітувати людське спілкування, він також може робити XYZ".

«Ось чому я починаю відчувати, що розмова про ризик виживання є дещо доречною — робити висновки без доказів», — сказала вона.

Дивлячись вперед

У нас є підстави для обурення. Оскільки регулятори намагаються наздогнати технологічну індустрію, постають питання про те, яку діяльність слід чи ні обмежувати. Виділення довгострокових ризиків, а не короткострокових збитків (таких як дискримінаційне наймання або дезінформація) переорієнтує регулятори на гіпотетичні майбутні проблеми.

«Я підозрюю, що загроза реальних регуляторних обмежень спричинила таку позицію, — сказала Баррелл. — Розмова про екзистенціальний ризик може підтвердити занепокоєння регуляторів, не знищуючи можливостей для бізнесу». Вона сказала: «Суперінтелектуальний штучний інтелект, який зраджує людство. Це звучить страшно, але це також явно те, чого ще не було».

Перебільшення занепокоєння щодо екзистенційного ризику також корисно для бізнесу в інших аспектах. Шолле зазначає, що провідні компанії штучного інтелекту хочуть, щоб ми думали, що AGI приходить, і саме вони його створюють. «Якщо ви хочете, щоб люди думали, що те, над чим ви працюєте, є потужним, було б гарною ідеєю змусити їх цього боятися», — сказав він.

Віттакер дотримується подібної точки зору. «Важливо вважати себе творцем сутності, яка може бути могутнішою за людей», — сказала вона.

Усе це не має значення, чи це лише маркетинг, чи реклама. Але рішення про те, що є ризиком, а що ні, має наслідки. У світі з обмеженими бюджетами та обмеженими можливостями уваги травми, менш серйозні, ніж ядерна війна, можуть залишитися без уваги, оскільки ми не вважаємо їх пріоритетними.

«Це важливе питання, особливо враховуючи зростаючу увагу до безпеки та захисту як вузьких рамок для політичного втручання», — сказала Сара Майерс Вест, керуючий директор Інституту AI Now.

Коли прем’єр-міністр Ріші Сунак у травні зустрівся з керівниками компаній зі штучного інтелекту, зокрема Семом Альтманом і Демісом Хассабісом, уряд Великої Британії оприлюднив заяву, в якій говориться: «Прем’єр-міністр і генеральні директори обговорили ризики технології, від дезінформації та державної безпеки до екзистенційна загроза».

Тижнем раніше Альтман сказав Сенату США, що його найбільше хвилює те, що індустрія ШІ завдасть значної шкоди світу. Свідчення Альтмана викликало заклики створити новий тип агентства для вирішення цієї безпрецедентної шкоди.

Зі зміщенням вікна Овертона чи завдано шкоди? «Якщо ми говоримо про віддалене майбутнє, якщо ми говоримо про міфічний ризик, то ми повністю переосмислюємо проблему як проблему, яка існує у фантастичному світі, і рішення може існувати у фантастичному світі», — Віттекер сказав .

Але Віттекер також зазначив, що політичні дискусії навколо ШІ тривають роками, довше, ніж останні побоювання. «Я не вірю в неминучість», — сказала вона. «Ми побачимо, що ажіотаж буде протидіяти. Він зникне».

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити