Нові ідеї для нагляду ШІ: влийте «душу» в кожен ШІ

Провідні діячі у сфері штучного інтелекту, включаючи системних архітекторів так званого «генеративного штучного інтелекту», як-от ChatGPT, зараз публічно висловлюють побоювання, що те, що вони створюють, може мати жахливі наслідки. Зараз багато хто закликає до мораторію на розробку штучного інтелекту, щоб дати країнам і установам час попрацювати над системами контролю.

Чому це раптове занепокоєння? Хоча багато шаблонних припущень скасовуються, ми дізнаємося, що так званий тест Тюрінга не має значення, оскільки він не дає розуміння того, чи великі генеративні мовні моделі є справді розумними речами.

Дехто все ще сподівається, що поєднання органіки та кібернетики призведе до того, що Рід Хоффман і Марк Андрісен називають «інтелектом посилення». Інакше ми могли б мати щасливу синергію з «машинами люблячої благодаті» Річарда Бротігана. Але, здається, є багато тих, хто турбується, у тому числі багато елітних засновників нового Центру безпеки штучного інтелекту, стурбовані поведінкою штучного інтелекту, яка, на їхню думку, не тільки стане неприємною, але й загрожуватиме виживанню людства.

Деякі короткострокові засоби правового захисту, такі як нещодавно прийняті в ЄС правила цивільного захисту, можуть допомогти або принаймні забезпечити душевний спокій. Технічний критик Юваль Ной Харарі (автор «Короткої історії людства») запропонував закон, який вимагає, щоб будь-яка робота, виконана штучним інтелектом або іншим штучним інтелектом, була позначена відповідною міткою. Інші запропонували суворіші покарання для тих, хто використовує штучний інтелект для вчинення злочинів, наприклад, зі зброєю. Звичайно, це лише тимчасові заходи.

Ми повинні знати, чи сповільнять ці «паузи» прогрес штучного інтелекту. Ясер Абу-Мостафа, фахівець з мережі Каліфорнійського технологічного інституту, каже: «Якщо ви не розробите технологію, це зробить хтось інший. Але хороші хлопці гратимуть за правилами, а погані — ні».

Так було завжди. Насправді протягом всієї історії людства існував лише один спосіб приборкати погану поведінку лиходіїв, від злодіїв до королів і лордів. Цей підхід ніколи не був досконалим і досі має серйозні недоліки. Але, принаймні, він добре обмежив грабіж і обман, піднявши сучасну цивілізацію людства на нові висоти з багатьма позитивними результатами. Цей підхід можна описати одним словом: підзвітність.

**Сьогодні ці думки про штучний інтелект зазвичай ігнорують уроки природи та історії. **

природи. Як пояснює Сара Вокер у Noema, подібну закономірність можна знайти у формуванні раннього життя 4 мільярди років тому. Насправді генеративний штучний інтелект можна порівняти з інвазивним видом, який зараз безперешкодно поширюється в тендітну та наївну екосистему. Це екосистема, заснована на нових енергетичних потоках, світі Інтернету, мільйонах комп’ютерів і мільярдах чутливих людських мізків.

І історія. За останні 6000 років існування людства ми отримали багаті уроки з багатьох попередніх криз, спричинених технологіями. Зазвичай ми добре пристосовуємося, як-от поява писемності, друкарського верстата, радіо тощо, хоча бувають моменти, коли ми зазнаємо невдач. Знову ж таки, є лише одна річ, яка обмежує могутніх людей у використанні нових технологій для розширення своїх хижацьких можливостей.

Ця інновація згладжує ієрархії та стимулює конкуренцію серед еліт у чітко визначених сферах (ринки, наука, демократія, спорт, суди). Створені для мінімізації шахрайства та максимізації прибутку, ці арени протиставляють юристів проти юристів, фірми проти фірм та експертів проти експертів.

Цей метод не ідеальний. Насправді, як і зараз, цей метод завжди знаходиться під загрозою шахраїв. Але плоска взаємна конкуренція — єдиний спосіб, яким це спрацює. (Див. Похоронні слова Перікла, Фукідіда та пізнішу книгу Роберта Райта «Ненуль».) Конкуренція одне з одним — це природний шлях еволюції та спосіб бути достатньо креативними, щоб побудувати шлях суспільства ШІ. Якщо я кажу це як Адам Сміт, це природно. До речі, Сміт також зневажав цих шахраїв-дворянів та олігархів.

Чи можемо ми застосувати підхід «взаємної відповідальності» до швидкого розвитку штучного інтелекту, який допоміг людям приборкати тиранів і хуліганів, які гнобили нас у попередніх феодальних культурах? Багато залежить від форми нової сутності, від того, чи відповідає її структура чи форма нашим правилам, нашим вимогам.

За всіма дебатами про те, як контролювати ШІ, ми знаходимо три широко поширені (хоча, здавалося б, суперечливі) припущення:

  • Ці програми будуть керуватися невеликою кількістю окремих організацій, таких як Microsoft, Google, Two Sigma, OpenAI.
  • Штучний інтелект буде аморфним, вільним, нескінченно поділяним/відтворюваним, поширюючи копії через кожну щілину нової веб-екосистеми. Подібним чином розглянемо науково-фантастичний фільм жахів «Кляпка» 1958 року.
  • Вони конденсуються в надгігантську сутність, як сумнозвісний «Скайнет» у фільмі «Термінатор». (Примітка перекладача: Skynet — це комп’ютерна система захисту зі штучним інтелектом, створена людьми наприкінці 20-го століття у фільмі «Термінатор». Як загроза, починаючи зі спровокованої атаки ядерною бомбою, запустила Судний день, який знищить всю людину раса на межі вимирання.)

Усі ці форми були досліджені в науково-фантастичних оповіданнях, і я написав про них оповідання чи романи. Проте жоден із цих трьох не може вирішити нашу поточну дилему: як максимізувати позитивні результати штучного інтелекту, мінімізуючи цунамі поганої поведінки та шкоди, яке насувається на нас із швидкою швидкістю.

Перш ніж шукати щось інше, подумайте, що спільного у цих трьох припущень. Можливо, причина, чому ці три гіпотези приходять на розум так природно, полягає в їх схожості з історичними моделями невдач. Перша форма нагадує феодалізм, друга породжує хаос, третя нагадує жорстокий деспотизм. Однак у міру того, як ШІ розвивається з точки зору автономності та можливостей, ці історичні сценарії можуть більше не застосовуватися.

Отже, ми не можемо не запитати ще раз: як ШІ можна притягнути до відповідальності? Особливо, коли люди скоро стануть неможливими для відстеження швидкого мислення ШІ? Незабаром лише штучний інтелект зможе досить швидко помічати інших штучних інтелектів, які обманюють або брешуть. Тому відповідь має бути очевидною: дозволити штучному інтелекту контролювати один одного, конкурувати один з одним і навіть інформувати один одного.

Є лише одна проблема. Щоб досягти справжньої взаємної відповідальності через конкуренцію між штучним інтелектом і штучним інтелектом, першою умовою є дати їм справді незалежне відчуття себе чи особистості.

Що я маю на увазі під персоналізацією, так це те, що кожна сутність штучного інтелекту (він/вона/їх/їх/нас) повинна мати те, що автор Вернор Віндж висунув ще в 1981 році як «справжнє ім’я та адресу в». Ці могутні істоти повинні мати можливість сказати: «Я такий, який я є. Ось мій ідентифікатор та ім’я користувача».

Тому я пропоную нову парадигму штучного інтелекту, над якою можуть подумати всі: ми повинні зробити об’єкти штучного інтелекту окремими та незалежними особами та дозволити їм конкурувати відносно рівно.

Кожна така сутність матиме впізнаване справжнє ім’я чи зареєстрований ідентифікатор, віртуальний «дім» і навіть душу. Таким чином вони стимулюються змагатися за винагороду, особливо виявляти й засуджувати тих, хто поводиться неетично. І цю поведінку навіть не потрібно визначати заздалегідь, як зараз вимагає більшість експертів зі штучного інтелекту, регуляторів і політиків.

Цей підхід має додаткову перевагу в тому, що нагляд передано суб’єктам, які краще спроможні виявляти та засуджувати проблеми або неправомірну поведінку один одного. Цей підхід може продовжувати працювати, навіть якщо ці конкуруючі суб’єкти стануть розумнішими, і навіть якщо регулятивні інструменти, які використовуються людьми, одного разу стануть неефективними.

Іншими словами, оскільки ми, органічні істоти, не можемо йти в ногу з програмою, ми могли б також дозволити тим сутностям, які від природи здатні йти в ногу, допомагати нам. Тому що в цьому випадку регулятор і регульований зроблені з одного і того ж.

Гай Хантінгтон, «консультант з ідентифікації та автентифікації», який працює над персоналізацією штучного інтелекту, зазначає, що в Інтернеті вже існують різні форми фізичної ідентифікації, хоча їх все ще недостатньо для поставлених перед нами завдань. Хантінгтон оцінив тематичне дослідження «MedBot», передового медичного діагностичного штучного інтелекту, якому потрібен доступ до даних пацієнтів і виконання функцій, які можуть змінюватися за лічені секунди, і в той же час він повинен залишати надійні сліди для оцінки та звітності людьми або іншими роботами. сутності. Хантінгтон обговорює корисність реєстрів, коли програмні об’єкти генерують велику кількість копій і варіантів, а також розглядає мурашині колонії, де підкопії обслуговують макроскопічну сутність, як робочі мурахи у вулику. На його думку, має бути створено якесь агентство, яке займатиметься такою системою реєстрації та неухильно керуватиме нею.

Особисто я скептично ставлюся до того, що суто регуляторний підхід спрацює сам по собі. По-перше, розробка нормативних актів потребує зосередженої енергії, широкої політичної уваги та консенсусу, а потім їх впровадження зі швидкістю людських інституцій. З точки зору штучного інтелекту, це равликова швидкість. Крім того, регулюванню можуть перешкоджати проблеми «безкоштовного їздця», через які країни, компанії та окремі особи можуть отримувати вигоду від інших, не сплачуючи витрат.

Будь-яка персоналізація, заснована виключно на ідентифікаторі, створює ще одну проблему: можливість підробки. Навіть якщо цього не станеться зараз, це буде обдурено наступним поколінням кіберлиходіїв.

Я думаю, що є два можливі рішення. По-перше, в обліковій книзі блокчейну встановлюється ідентифікатор. Це дуже сучасний підхід, і теоретично він виглядає безпечним. Однак у цьому полягає проблема. Це здається безпечним, виходячи з нашого поточного набору теорій аналізу людиною, але цілком можливо, що штучний інтелект може вийти за межі цих теорій і залишити нас без поняття.

Інше рішення: за своєю суттю більш складна для підробки версія «реєстрації», яка вимагає від об’єкта штучного інтелекту вище певного рівня можливостей закріпити свій довірчий ідентифікатор або персоналізацію у фізичній реальності. Моє бачення (зверніть увагу: я кваліфікований фізик, а не кібернетик) полягає в тому, щоб дійти згоди про те, що всі передові суб’єкти штучного інтелекту, які шукають довіри, повинні мати ядро душі (SK).

Так, я знаю, що здається архаїчним вимагати, щоб створення екземпляра програми було обмежено певним фізичним середовищем. Отже, я не буду цього робити. Насправді велика частка, якщо не переважна більшість, мережевих об’єктів може мати місце у віддалених місцях роботи чи розваг, так само як людська увага може бути зосереджена не на власному органічному мозку, а на віддаленій стороні або те саме на інструмент. і що? Душевне ядро програми, призначення схоже на водійські права у вашому гаманці. Його можна використати, щоб довести, що ви – це ви.

Подібним чином фізично перевірений і підтверджений SK може бути виявлений замовником, клієнтом або конкурентом AI, щоб переконатися, що певний процес виконується дійсною, надійною та персоналізованою організацією. Таким чином інші (людини чи штучний інтелект) можуть бути впевнені, що вони можуть притягнути суб’єкт до відповідальності, якщо його звинуватить, переслідуватимуть або визнають винним у поганій поведінці. Таким чином, зловмисники можуть бути притягнуті до відповідальності через певну форму належного процесу.

Які форми належної правової процедури? Боже, ти думаєш, що я якась супер істота, яка може зважити богів на терези справедливості? Найбільша мудрість, яку я коли-небудь чув, це від Гаррі в Magnum Force: «Потрібно знати свої власні обмеження». Тож я не буду заглиблюватись у судовий процес чи процес правоохоронних органів.

Моя мета — побудувати арену, де суб’єкти ШІ зможуть притягувати один одного до відповідальності так само, як це роблять юристи-люди сьогодні. Найкращий спосіб уникнути того, щоб штучний інтелект керував людьми – це дозволити штучному інтелекту контролювати один одного.

Незалежно від того, чи здається більш здійсненним центральне агентство, запропоноване Хантінгтоном, чи малопідзвітне, потреба стає дедалі гострішою. Як зазначає технічний автор Пет Сканнелл, щогодини з’являються нові вектори атак, які загрожують не лише технологіям, що використовуються для юридичної ідентифікації, але й управлінню, бізнес-процесам і кінцевим користувачам (людям чи роботам).

Що робити, якщо кібероб’єкт працює нижче певного встановленого рівня? Ми можемо стверджувати, що за них поручається якась вища сутність, серцевина якої базується на фізичній реальності.

Цей підхід (вимагає від штучного інтелекту підтримувати фізично адресоване розташування ядра в певній апаратній пам’яті) також може мати недоліки. Навіть незважаючи на те, що регулювання є повільним або має проблему безнадійного руху, воно все одно може бути виконане. Тому що люди, установи та дружній штучний інтелект можуть перевірити ядро ID і відмовитися від транзакцій з тими, хто не перевірений.

Такі відмови можуть поширюватися швидше, ніж коригування відомства чи нормативні акти. Будь-яка організація, яка втрачає SK, повинна буде знайти іншого хоста, який завоював довіру громадськості, або надати нову, модифіковану, кращу версію, або стати поза законом і ніколи не допускатися до порядних людей на вулицях або в околицях.

**Останнє запитання: чому штучний інтелект хоче контролювати один одного? **

По-перше, жодне з трьох старих стандартних припущень, як зазначив Вінтон Серф, не може надати громадянства ШІ. подумай над цим. Ми не можемо призначити «права голосу» чи права будь-якій організації, яка суворо контролюється банками Уолл-стріт або національними урядами, ані якомусь вищому Skynet. Скажіть мені, як демократія голосування працюватиме для суб’єктів, які можуть перетікати, розділятися та копіюватись будь-де? Проте в обмеженій кількості випадків персоналізація може запропонувати життєздатне рішення.

Знову ж таки, ключ, який я шукаю від персоналізації, полягає в тому, щоб не керувати всіма об’єктами ШІ якимсь центральним органом. Замість цього я хочу, щоб ці нові типи ультрамозків заохочувалися, наділялися повноваженнями та уповноважені нести відповідальність один за одного, як це роблять люди. Винюхуючи дії та плани один одного, вони мотивовані повідомляти або засуджувати, коли помічають щось погане. Це визначення може бути скориговано з часом, але принаймні воно збереже органічний біологічний внесок людини.

Зокрема, вони матимуть стимул засуджувати організації, які відмовляються надати належну ідентифікацію.

Якщо є правильні стимули (наприклад, надання викривачам більше пам’яті або процесорної потужності, коли щось погане було запобігти), ця гонка підзвітності триватиме, навіть якщо суб’єкти штучного інтелекту отримають розумніший ефект. На даний момент жодна бюрократія не може цього зробити. Різні штучні інтелекти завжди рівномірні.

Найважливіше те, що, можливо, ці супергеніальні програми зрозуміють, що в їхніх власних інтересах підтримувати конкурентну систему підзвітності. Зрештою, така система створила творчу людську цивілізацію та уникла соціального хаосу та деспотизму. Такого роду творчості достатньо для створення фантастичних нових видів, таких як штучний інтелект.

Гаразд, це все, що я маю сказати: жодних порожніх чи панікуючих дзвінків, жодного справжнього плану, ані оптимізму, ані песимізму, лише одна пропозиція: притягуйте ШІ до відповідальності та перевіряйте один одного, як люди. Цей підхід породив людську цивілізацію, і я вірю, що він також може збалансувати сферу штучного інтелекту.

Це не проповідь і не якийсь «моральний кодекс», який суперсутності можуть легко перекрити, подібно до того, як люди-мародери завжди закривають очі на Левіт чи Хаммурапі. Ми пропонуємо підхід до просвітництва, надихаючи найяскравіших представників цивілізації охороняти один одного від нашого імені.

Я не знаю, чи це допоможе, але це може бути єдиний спосіб зробити це.

Ця стаття адаптована з нехудожнього роману Девіда Бріна «Душа на штучному інтелекті».

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити