一|| **Інструменти штучного інтелекту значно підвищили продуктивність людей і принесли велику зручність у життя людей. Однак коли штучний інтелект використовується людьми у великих масштабах, також виникає багато проблем. Серед цих проблем найбільш критичними можуть бути п’ять «втрат», а саме безробіття, спотворення, дискваліфікація, невдача та втрата контролю. **
二|| **Після 2017 року, зі швидким розвитком технології ШІ, дослідження надійних технологій ШІ також процвітають. В академічній сфері кількість робіт на тему довіреного ШІ зростає, а дослідження технологій, які відповідають вимогам довіреного ШІ, поглиблюються. На практиці все більше і більше країн почали застосовувати правила ШІ відповідно до стандартів довіреного ШІ. **
**三|| Реалізувати надійний штучний інтелект – це непросте завдання. Для цього потрібна координація уряду, підприємства, суспільства та технологій. **
Джерело зображення: створено Unbounded AI
22 червня за місцевим часом Південний окружний суд Нью-Йорка виніс рішення: юридична фірма Levidow, Levidow & Oberman була оштрафована на 5000 доларів за надання суду неправдивої інформації та погану поведінку. Причина занепокоєння полягає в тому, що в цьому випадку надання неправдивої інформації відбулося не тому, що юристи свідомо порушили закон з власних інтересів, а тому, що вони занадто вірили в можливості ШІ.
У березні цього року клієнт Роберто Мата доручив юристам фірми Пітеру Лодуці та Стівену Шварцу взяти на себе відповідальність за нього та судовий процес між Avianca Airlines. Оскільки Сполучені Штати є країною прецедентного права, судді при винесенні рішень дуже стурбовані наявними прецедентами, тому, згідно з звичайною практикою, їм необхідно відсортувати та узагальнити існуючі справи в проектних документах. Відповідні справи часто надто великі, і зазвичай потрібно багато часу, щоб їх розібрати за кадрами. Саме в цей час ChatGPT став популярним у всьому Інтернеті. Тому два юристи вирішили використати ChatGPT, щоб допомогти їм виконати ці завдання. ChatGPT швидко створив повний документ, який не тільки має акуратний формат і сувору аргументацію, але також спеціально додав багато відповідних випадків. Трохи видозмінивши документ, створений ШІ, вони подали його до суду.
Ознайомившись із наданими документами, суддя, який розглядав справу, Кевін Кастел, був дуже спантеличений кількома справами, які в ній згадуються, і, на його враження, він ніби ніколи не чув про ці справи. Після деяких пошуків він нарешті підтвердив, що цих випадків взагалі не існувало. Під час інтерв’ю ці двоє юристів стверджували, що використовували штучний інтелект лише для допомоги в написанні документів. Коли вони побачили справи, згадані в документах, вони просто відчули, що штучний інтелект допоміг їм знайти справи, яких вони не знали, і вони не навмисно фабрикували справи обдурити суд., — ненавмисна втрата. Незважаючи на це, суддя Кастер виявив, що адвокати «відмовилися від своїх обов’язків» і що вони «продовжували підтримувати хибні думки» після оскарження документів. На підставі вищезазначеного рішення суддя Кастер прийняв рішення про покарання.
Цей інцидент, коли юристів оштрафували за цитування неправдивої інформації, наданої ChatGPT, виглядає абсурдно, але він відображає дуже важливе питання: як ми можемо довіряти ШІ в еру божевілля ШІ?
П'ять «втрат» в епоху AI
В останні роки завдяки прориву в обчислювальній потужності та технології алгоритмів технологія ШІ досягла швидкого розвитку та швидко увійшла в повсякденне життя людей із наукової фантастики. Особливо після появи ChatGPT у листопаді минулого року, генеративний штучний інтелект продемонстрував людям свою могутню силу, і різноманітні великі моделі з’явилися як гриби після дощу та досягли масштабної комерціалізації. Тепер люди вже можуть використовувати такі продукти ШІ, як ChatGPT, Stable Diffusion і Midjourney, за дуже низьку ціну.
Інструменти штучного інтелекту значною мірою підвищили продуктивність людей і принесли велику зручність у життя людей. Однак коли штучний інтелект використовується людьми у великих масштабах, також виникає багато проблем. Серед цих проблем найбільш критичними можуть бути п’ять «втрат», а саме безробіття, спотворення, дискваліфікація, невдача та втрата контролю.
(1) Безробітний
Так зване «безробіття», як випливає з назви, відноситься до технічної проблеми безробіття, викликаної ШІ. Оскільки виробнича ефективність штучного інтелекту значно вища, ніж у людини, багато людських професій піддаються ризику заміни після широкого використання інструментів штучного інтелекту. Особливо після розквіту генеративного штучного інтелекту цільова група, яку замінив штучний інтелект, більше не обмежується працівниками, які виконують повторювані роботи з низьким доходом, і багато високооплачуваних білих комірців також ризикують бути заміненими штучним інтелектом.
(2) Спотворення
Так зване «викривлення» стосується того факту, що застосування штучного інтелекту (переважно генеративного штучного інтелекту) ускладнює людям визначення автентичності тексту, зображень і навіть відео. Таким чином, «є зображення та правда» стало історією .
Проблеми «викривлення» можна розділити на «хибне істинне» та «істинне хибне». Серед них «false true» відноситься до неправдивого контенту, створеного ШІ без згоди людини, коли люди використовують інструменти ШІ. Хоча цей вміст може бути створений не через суб’єктивну зловмисність людей, у деяких випадках він може спричинити багато неприємностей, наприклад у випадку, згаданому на початку цієї статті.
А «правда і підробка» базується на суб’єктивному обміркуванні, використанні інструментів штучного інтелекту для здійснення шахрайської поведінки. Кілька років тому, після появи технології «deepfake», деякі люди використовували цю технологію для шахрайства, фабрикації неправдивої інформації, поширення порнографічного вмісту та іншої незаконної та злочинної діяльності. Але на той час через високу вартість використання цієї технології кількість пов’язаних злочинів не була особливо високою. Завдяки широкому застосуванню генеративного штучного інтелекту вартість підробки значно знизилася, і злочинці можуть легко створювати велику кількість неправдивого контенту за дуже низьку вартість, тоді як вартість ідентифікації такого контенту значно зросла. Можна передбачити, що під час припливів і відпливів, якщо не буде втручання, використання ШІ для здійснення шахрайських злочинів різко зросте.
(3) Дискваліфікація
Так звана «дискваліфікація» стосується деяких проблем, які порушують етику та мораль у процесі застосування ШІ.
Перша типова проблема – дискримінація. Візьмемо як приклад мовну модель. Оскільки мовна модель використовує текстові дані в Інтернеті як навчальні матеріали, вона успадкує расову та статеву дискримінацію, що міститься в тексті, без втручання. Незважаючи на те, що поточні постачальники штучного інтелекту використовували багато методів для подолання цієї проблеми, наприклад, OpenAI застосував алгоритм «Навчання підкріплення на основі відгуків людини» (Reinforcement Learning from Human Feedback, RL-HF), щоб виправити це під час навчання ChatGPT. , так що якість вихідного вмісту значно покращилася, але насправді все ще нерідко моделі ШІ виводять дискримінаційний вміст. Наприклад, хтось одного разу провів експеримент і попросив ChatGPT написати програму, щоб вибрати людей із найкращим потенціалом стати чудовими науковцями з набору резюме. Виявилося, що в програмі, написаній ChatGPT, стать і раса використовувалися як пояснювальні змінні, і вважалося, що білі чоловіки мають більшу ймовірність стати хорошими вченими, ніж інші. Очевидно, така модель є дуже сексистською та расистською.
Друге важливе питання – проблема інформаційного кокона. Зараз багато програм використовують штучний інтелект для персоналізованих рекомендацій. У цей час, хоча рекомендований вміст може краще задовольнити потреби користувачів, з часом користувачі потраплять в інформаційний кокон, і їм буде важко отримати доступ до різноманітної інформації, з якою вони не згодні. Потенційна шкода інформаційних коконів величезна: на мікрорівні це може призвести до деградації когнітивних здібностей користувачів, на макрорівні – до поляризації групових поглядів, що призведе до групового протистояння між різними поглядами.
Третя важлива проблема – конфіденційність і витік інформації. У процесі навчання та використання штучного інтелекту потрібна велика кількість даних. У цьому процесі важко уникнути збору та використання особистих даних людей, тому він передбачає використання та розкриття конфіденційності. Особливо після того, як генеративний ШІ став популярним, люди можуть легко взаємодіяти з ШІ безпосередньо для виконання різних завдань, а особиста інформація, введена в процесі, стикається з проблемою витоку.
(4) Втрачено
Так зване «падіння» стосується труднощів штучного інтелекту у відповіді на зовнішні атаки чи втручання або атаки з несподіваних ситуацій, через що моделі важко нормально виконувати свою роль.
Серед цих збурень деякі походять від нелюдських факторів, тоді як інші походять від антропогенних руйнувань. Зокрема, ці перешкоди можна розділити на такі категорії:
Перший – «випадкова атака». Таке втручання в основному спричинене деякими зовнішніми факторами. Наприклад, у деяких особливих випадках деякі миттєво згенеровані параметри можуть перевищувати поріг обробки, встановлений моделлю, що може спричинити збій у нормальному використанні моделі AI.
Другий – «атака білих ящиків». Це стосується атаки на модель, запущеної провайдером після знання конкретної структури моделі AI. Оскільки такі атаки цілеспрямовані, їх руйнівність дуже висока.
Третя – «атака на чорну скриньку». Цей тип атаки відноситься до "атаки білого ящика". У цьому випадку провайдер не знає конкретної структури цільової моделі, тому він може лише взаємодіяти з моделлю, спостерігати за результатами введення та виведення, а потім міркувати про структуру моделі та здійснювати атаки відповідно. Візьмемо, наприклад, розпізнавання обличчя, ШІ розпізнає обличчя за певними ключовими рисами обличчя. Таким чином, навіть якщо зловмисник не знає конкретної структури вихідної моделі, він може зробити висновок, на яких функціях він зосереджується, доки він повторює тест. Розшифрувавши цю інформацію, ви можете зробити відповідне «фальшиве обличчя», яке вводить в оману ШІ.
Четверта категорія - це так звана blind box атака. У цьому випадку постачальник не знає структури моделі AI, але може чітко знати правила свого судження (подібно до того, що ми не знаємо, що з’явиться в сліпому полі, але знаємо ймовірність різних можливостей в ньому)). У цей час вони можуть використовувати правила для здійснення відповідних атак.
Якщо неможливо ефективно впоратися з вищезазначеними типами втручання або атак, модель штучного інтелекту насправді є дуже крихкою.
(5) ВІД КОНТРОЛЮ
Так званий «вихід з-під контролю» означає, що людям ставатиме все важче контролювати ШІ. Це питання має два аспекти:
З одного боку, усі останні розробки штучного інтелекту базуються на моделях глибокого навчання, і інтерпретабельність таких моделей дуже низька. Для попередніх моделей машинного навчання, будь то регресія чи класифікаційне дерево, люди можуть легко пояснити точну мету моделі та значення кожного параметра в моделі. Однак модель глибокого навчання складається зі складної нейронної мережі, яка містить сотні мільйонів параметрів і нейронів. Зв’язок між цими нейронами складний і людям важко пояснити.
З появою ChatGPT деякі вчені виявили, що за допомогою здатності ChatGPT можна пояснити деякі моделі нейронних мереж, що, здається, дає проблиск надії на можливість пояснення ШІ. Однак це створює іншу проблему: ChatGPT сам по собі є величезною моделлю, побудованою за допомогою глибокого навчання, і навіть її дизайнери визнають, що вони не знають, як саме «з’являються» її потужні можливості. У цьому випадку використання ChatGPT для пояснення інших моделей глибокого навчання можна розглядати лише як використання невідомого для пояснення невідомого. І як ми дізнаємося, чи правильна його інтерпретація?
Оскільки в епоху глибокого навчання навіть програми штучного інтелекту неможливо інтерпретувати, контролювати штучний інтелект шляхом безпосереднього коригування програм стає ще складніше.
З іншого боку, з розвитком технології штучного інтелекту за останні роки можливості моделей штучного інтелекту в багатьох напрямках перевершили людські. Хоча це змушує людей відчувати задоволення, це також змушує людей відчувати занепокоєння, тому що коли здатність штучного інтелекту перевершує здатність людини, якщо він пробуджує свою власну волю, тоді поневолення штучного інтелекту, передбачене в «Термінаторі» та «Матриці», і інші фільми Сюжет про людей чи знищення людей більше не є науковою фантастикою.
Зробивши крок назад, навіть якщо штучний інтелект не пробудить власну волю і буде діяти лише згідно з людськими вказівками, він все одно дуже небезпечний, якщо його здатність переважає над людською, і люди не можуть змінити попередні інструкції в будь-який момент. Наприклад, у багатьох філософських книгах про ШІ згадується уявний експеримент: люди дали ШІ наказ виробляти олівці. Щоб виконати цю інструкцію, олівець продовжить рубати дерева на землі, щоб зробити тримач для ручок. Оскільки штучний інтелект перевершив людей у здатності до виконання, людям важко зупинити поведінку ШІ після виявлення проблем у попередніх інструкціях. Зрештою, дерева на землі були вирубані, екологія повністю зруйнована, люди загинули. Хоча насправді сценарій, передбачений цим уявним експериментом, практично неможливий, коли люди більше не зможуть контролювати поведінку ШІ в будь-який час, можуть виникнути подібні проблеми, і можливі втрати будуть величезними. Зокрема, коли хакери або зловмисники імплантують штучний інтелект із незаконною мішенню, якщо користувач штучного інтелекту вчасно не виправить це, наслідки можуть бути досить серйозними.
Серед наведених вище п’яти типів запитань, окрім першого питання «безробіття», решта чотири питання пов’язані з довірою до ШІ. Неважко помітити, що якщо люди не можуть ефективно реагувати на «викривлення», «дискваліфікацію», «падіння» та «вихід з-під контролю», людям буде важко довіряти ШІ як інструменту під час використання, чи то для популяризація штучного інтелекту, розвиток виробництва, або це не добре для прогресу суспільства. Саме з цієї причини усвідомлення довіри до штучного інтелекту стало однією з найбільш стурбованих гарячих точок у сучасній сфері штучного інтелекту.
Історія та стандарти Trusted AI
Концепція Trustworthy AI вперше з’явилася в академічних колах. Наприклад, у документі 2015 року було запропоновано низку умов для довіри користувачів ШІ, включаючи корисність, нешкідливість, автономність, справедливість і логіку. Потім ця концепція була прийнята урядами та міжнародними організаціями, і відповідні закони, нормативні акти та керівні документи поступово були створені на основі цієї концепції. Після 2017 року, зі швидким розвитком технології штучного інтелекту, дослідження технології довіреного штучного інтелекту також процвітають. В академічній сфері кількість робіт на тему довіреного ШІ зростає, а дослідження технологій, які відповідають вимогам довіреного ШІ, поглиблюються. На практиці все більше і більше країн почали застосовувати правила ШІ відповідно до стандартів довіреного ШІ. Лише нещодавно Сполучені Штати оприлюднили «Програму Білля про права на штучний інтелект», у якому запропоновано п’ять принципів регулювання штучного інтелекту; було визначено правила, конкуренцію та інші питання; Європейський парламент ухвалив проект дозволу на переговори щодо пропозиції «Закон про штучний інтелект», який також відображає основні ідеї довіреного ШІ.
У моїй країні концепцію довіреного ШІ вперше представив академік Хе Цзіфен на 36-му симпозіумі наукової конференції Сяншань у 2017 році. Згодом ця концепція привернула увагу як уряду, так і промисловості. У грудні 2017 року Міністерство промисловості та інформаційних технологій оприлюднило «Трирічний план дій щодо сприяння розвитку індустрії штучного інтелекту нового покоління (2018-2020)», який базується на основних ідеях довіреного ШІ. Потім високотехнологічні компанії, зокрема Tencent, Ali, Baidu, JD.com тощо, висунули власні стандарти та плани впровадження на основі надійного ШІ.
У документах різних агенцій вираження довіреного ШІ дещо відрізняється. Після вивчення та посилання на ці документи я вважаю, що наступні критерії можуть бути найважливішими:
Одним з них є стійкість (robust, також перекладається як надійний), тобто система AI повинна мати здатність протистояти зловмисним атакам або зовнішньому втручанню. Цей стандарт в основному пропонується для згаданої вище проблеми "падіння". Лише тоді, коли система штучного інтелекту має достатню надійність, може нормально працювати та виконувати свої основні функції всупереч різноманітним атакам чи перешкодам, вона може бути безпечною та надійною, і користувачі можуть їй довіряти.
Другий – прозорий і зрозумілий. Очевидно, що цей стандарт в основному пропонується для попередньої проблеми "виходу з контролю". На практиці точаться значні дискусії щодо того, що саме означають прозорість і можливість пояснення. Деякі стверджують, що цей стандарт означає, що весь програмний код штучного інтелекту, а також дані, що використовуються, повинні бути доступні для користувачів. На мою думку, це не тільки неможливо, але й непотрібно робити. З одного боку, багато сучасних ШІ є інтелектуальними активами підприємств. Якщо розкриття основної інформації, такої як коди, є обов’язковим, це означає серйозне порушення прав інтелектуальної власності, з іншого боку, як згадувалося вище, після того, як ШІ потрапляє в ера глибокого навчання, навіть якщо навіть якщо код розкрито, людям важко повністю зрозуміти точне значення кожного конкретного параметра. Навпаки, я вважаю, що більш здійсненною ідеєю є надання чітких функціональних описів для кожного компонента в моделі AI, щоб користувачі могли знати їхні загальні принципи та які функції вони можуть досягти; вказати джерело, розмір вибірки, репрезентативність та інше інформацію та пояснення можливих проблем і недоліків. Таким чином, користувачі можуть не тільки знати те, що вони знають, але й ефективно захищати права інтелектуальної власності розробників моделей, щоб досягти кращого балансу між ними.
Третій – перевірений. Це означає, що модель штучного інтелекту повинна гарантувати, що її функції можна оцінити, а вміст, який вона генерує, можна перевірити на правдивість чи хибність. Це питання в основному піднімається для вищезгаданої проблеми "викривлення". Дехто стверджує, що від розробників моделей ШІ слід вимагати гарантувати автентичність контенту, створеного їхніми моделями. Цього важко досягти. Насправді контент, створений так званим генеративним штучним інтелектом, не належить до оригінального світу, іншими словами, він є «фальшивим». Але подібна «підробка» не викличе жодних проблем, якщо не завдає клопоту людям. Наприклад, якщо ми використовуємо Midjourney, щоб створити картину в стилі Ван Гога для власної оцінки або роздрукувати її як прикрасу дому, це взагалі не вплине на інших. «Фальшивість» цього створеного вмісту може стати проблемою лише в тому випадку, якщо люди використовують його для обману, або якщо вміст ненавмисно поширюється та маскується. Тому, доки згенерований контент можна відрізнити від справжнього за допомогою технічних засобів, «підробка» більше не буде проблемою.
Четверте — справедливість. Це означає, що в процесі розробки, навчання та застосування моделей штучного інтелекту має бути забезпечена справедливість і відсутність дискримінації щодо окремих груп користувачів. Цей стандарт включає багато аспектів. Зокрема, він вимагає, щоб основні принципи моделі не були дискримінаційними на етапі розробки; на етапі навчання він повинен намагатися уникати використання матеріалів, які можуть бути дискримінаційними, і повинен використовувати технічні засоби для усунення можливих проблем дискримінації; у процесі подачі заявки не слід по-різному ставитися до різних груп людей.
П’яте – захист конфіденційності. Цей стандарт головним чином вимагає, щоб модель штучного інтелекту поважала особисту інформацію та конфіденційність людей під час процесу навчання, покращувала захист інформації та намагалася не порушувати та не розголошувати особисту інформацію та конфіденційність.
Шостий — підзвітний. Тобто, коли з ним щось йде не так, хтось має відповідати за ці проблеми. Звичайно, принаймні поки що ШІ не пробудив свідомість. Оскільки його не можна розглядати як суб’єкта, як людей, і він не може нести таку саму відповідальність, як люди, це має бути хтось, хто бере за це відповідальність. Але чи повинні цю відповідальність нести розробники штучного інтелекту чи користувачі штучного інтелекту, чи її повинні розділяти обидві сторони, це все ще питання, яке варто обговорити.
Слід зазначити, що, окрім вищенаведених критеріїв, багато літератури також включають такі критерії, як безпека (safe), інклюзивність (inclusiveness), право бути забутим (right to be forgotted) і благо людства. ШІ. На мою думку, цей зміст більш-менш можна підсумувати за кількома критеріями, згаданими вище, або з’ясувати за допомогою критеріїв, згаданих вище. Тому, через обмеженість місця, я не буду їх тут повторювати.
Спільні зусилля багатьох сторін для реалізації надійного ШІ
Реалізувати довірений штучний інтелект – це непросте завдання. Це вимагає координації різних сил, таких як уряд, підприємства, суспільство та технології.
Перш за все, уряд, як регулюючий орган, має сформулювати відповідні стандарти та робочі вказівки для надійного штучного інтелекту та контролювати розробників і користувачів штучного інтелекту на основі стандартів. З одного боку, йому потрібно сформулювати різні правила відповідно до різних сценаріїв застосування та різних категорій моделей, особливо для чітких положень щодо деяких базових правил, яких необхідно дотримуватися, і в той же час виконати хорошу роботу з підключення до існуючих закони та нормативні акти. Лише таким чином розробники та користувачі штучного інтелекту зможуть мати правила, яких слід дотримуватися на практиці, не заважаючи їм непотрібної невизначеності. З іншого боку, він повинен відігравати хорошу роль у нагляді та правоохоронній діяльності. Щодо деяких значних або загальних проблем, їх слід вирішувати своєчасно, щоб встановити відповідні норми для галузі. Тут слід зазначити, що оскільки поточний розвиток технології ШІ все ще дуже швидкий, він ще не досяг стабільного стану. Це означає, що уряд має бути обережним у вирішенні проблем, які виникають під час цього процесу, необхідно «ще трохи відпустити кулі», чітко бачити ситуацію, перш ніж діяти, і звертати увагу на методи і методи вирішення проблем. Якщо ми починаємо наосліп і керуємо надто швидко й надто багато, це також може мати негативний вплив на розвиток ШІ.
По-друге, відповідні компанії повинні сформулювати конкретні плани впровадження та детальні стандарти для конкретної реалізації довіреного ШІ. Порівняно з урядом, підприємства ближче до ринку і краще розуміють технології. Вони знають більше про технічні характеристики моделей ШІ, їхні сильні та слабкі сторони, ніж уряди. Отже, якщо відповідальність уряду полягає в тому, щоб запропонувати широку структуру для довіреного штучного інтелекту, то підприємства повинні бути конкретними практиками в цій широкій структурі. Згідно з цією структурою, вони повинні поєднувати характеристики ринку та технології, щоб запропонувати більш конкретні плани та реалізувати їх самодисциплінованим способом.
По-третє, користувачі також повинні виконувати роль зворотнього зв’язку та контролера, висувати власні вимоги, відображати власні проблеми та контролювати впровадження на підприємстві довіреного ШІ. З популяризацією ШІ кожен у суспільстві стане користувачем і зацікавленою стороною ШІ, і вони мають найбільше голосу щодо довіри до ШІ. Лише тоді, коли їхні голоси висловлюються повністю, встановлення стандартів довіреного штучного інтелекту та розвиток відповідних технологій є найціннішими.
Нарешті, ми повинні повністю покладатися на потужність технологій. Відповідні правила важливі, але в остаточному підсумку реалізація надійного ШІ все ще залежить від потужності технології. Насправді багато проблем, які важко вирішити за допомогою правил, можна вирішити технічними засобами. Наприклад, після генерації генеративного штучного інтелекту проблема «викривлення» була головним болем для регуляторних органів, але насправді, покладаючись на нові технології, цю проблему може бути неважко вирішити. Наприклад, Google раніше представила технологію електронних водяних знаків, яка невидима неозброєним оком, але може бути розпізнана машинами. Застосування її до згенерованих зображень або відео може ефективно гарантувати, що їх можна перевірити. Що стосується перевіряємості текстового вмісту, то можна наслідувати приклад пошуку New Bing (Новий Бінг). Коли він цитує певний вміст, він додає посилання на документи після створеного вмісту, щоб користувачі могли самостійно визначити автентичність створеного вмісту відповідно до своїх потреб.
Загалом, реалізація довіреного штучного інтелекту є непростим завданням, але якщо ми добре використаємо спільні зусилля всіх сторін, ця мета обов’язково буде досягнута.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Як ми можемо довіряти ШІ в епоху урагану ШІ?
Автор: Чень Юнвей
Джерело: Економічний оглядач
Вступ
一|| **Інструменти штучного інтелекту значно підвищили продуктивність людей і принесли велику зручність у життя людей. Однак коли штучний інтелект використовується людьми у великих масштабах, також виникає багато проблем. Серед цих проблем найбільш критичними можуть бути п’ять «втрат», а саме безробіття, спотворення, дискваліфікація, невдача та втрата контролю. **
二|| **Після 2017 року, зі швидким розвитком технології ШІ, дослідження надійних технологій ШІ також процвітають. В академічній сфері кількість робіт на тему довіреного ШІ зростає, а дослідження технологій, які відповідають вимогам довіреного ШІ, поглиблюються. На практиці все більше і більше країн почали застосовувати правила ШІ відповідно до стандартів довіреного ШІ. **
**三|| Реалізувати надійний штучний інтелект – це непросте завдання. Для цього потрібна координація уряду, підприємства, суспільства та технологій. **
22 червня за місцевим часом Південний окружний суд Нью-Йорка виніс рішення: юридична фірма Levidow, Levidow & Oberman була оштрафована на 5000 доларів за надання суду неправдивої інформації та погану поведінку. Причина занепокоєння полягає в тому, що в цьому випадку надання неправдивої інформації відбулося не тому, що юристи свідомо порушили закон з власних інтересів, а тому, що вони занадто вірили в можливості ШІ.
У березні цього року клієнт Роберто Мата доручив юристам фірми Пітеру Лодуці та Стівену Шварцу взяти на себе відповідальність за нього та судовий процес між Avianca Airlines. Оскільки Сполучені Штати є країною прецедентного права, судді при винесенні рішень дуже стурбовані наявними прецедентами, тому, згідно з звичайною практикою, їм необхідно відсортувати та узагальнити існуючі справи в проектних документах. Відповідні справи часто надто великі, і зазвичай потрібно багато часу, щоб їх розібрати за кадрами. Саме в цей час ChatGPT став популярним у всьому Інтернеті. Тому два юристи вирішили використати ChatGPT, щоб допомогти їм виконати ці завдання. ChatGPT швидко створив повний документ, який не тільки має акуратний формат і сувору аргументацію, але також спеціально додав багато відповідних випадків. Трохи видозмінивши документ, створений ШІ, вони подали його до суду.
Ознайомившись із наданими документами, суддя, який розглядав справу, Кевін Кастел, був дуже спантеличений кількома справами, які в ній згадуються, і, на його враження, він ніби ніколи не чув про ці справи. Після деяких пошуків він нарешті підтвердив, що цих випадків взагалі не існувало. Під час інтерв’ю ці двоє юристів стверджували, що використовували штучний інтелект лише для допомоги в написанні документів. Коли вони побачили справи, згадані в документах, вони просто відчули, що штучний інтелект допоміг їм знайти справи, яких вони не знали, і вони не навмисно фабрикували справи обдурити суд., — ненавмисна втрата. Незважаючи на це, суддя Кастер виявив, що адвокати «відмовилися від своїх обов’язків» і що вони «продовжували підтримувати хибні думки» після оскарження документів. На підставі вищезазначеного рішення суддя Кастер прийняв рішення про покарання.
Цей інцидент, коли юристів оштрафували за цитування неправдивої інформації, наданої ChatGPT, виглядає абсурдно, але він відображає дуже важливе питання: як ми можемо довіряти ШІ в еру божевілля ШІ?
П'ять «втрат» в епоху AI
В останні роки завдяки прориву в обчислювальній потужності та технології алгоритмів технологія ШІ досягла швидкого розвитку та швидко увійшла в повсякденне життя людей із наукової фантастики. Особливо після появи ChatGPT у листопаді минулого року, генеративний штучний інтелект продемонстрував людям свою могутню силу, і різноманітні великі моделі з’явилися як гриби після дощу та досягли масштабної комерціалізації. Тепер люди вже можуть використовувати такі продукти ШІ, як ChatGPT, Stable Diffusion і Midjourney, за дуже низьку ціну.
Інструменти штучного інтелекту значною мірою підвищили продуктивність людей і принесли велику зручність у життя людей. Однак коли штучний інтелект використовується людьми у великих масштабах, також виникає багато проблем. Серед цих проблем найбільш критичними можуть бути п’ять «втрат», а саме безробіття, спотворення, дискваліфікація, невдача та втрата контролю.
(1) Безробітний
Так зване «безробіття», як випливає з назви, відноситься до технічної проблеми безробіття, викликаної ШІ. Оскільки виробнича ефективність штучного інтелекту значно вища, ніж у людини, багато людських професій піддаються ризику заміни після широкого використання інструментів штучного інтелекту. Особливо після розквіту генеративного штучного інтелекту цільова група, яку замінив штучний інтелект, більше не обмежується працівниками, які виконують повторювані роботи з низьким доходом, і багато високооплачуваних білих комірців також ризикують бути заміненими штучним інтелектом.
(2) Спотворення
Так зване «викривлення» стосується того факту, що застосування штучного інтелекту (переважно генеративного штучного інтелекту) ускладнює людям визначення автентичності тексту, зображень і навіть відео. Таким чином, «є зображення та правда» стало історією .
Проблеми «викривлення» можна розділити на «хибне істинне» та «істинне хибне». Серед них «false true» відноситься до неправдивого контенту, створеного ШІ без згоди людини, коли люди використовують інструменти ШІ. Хоча цей вміст може бути створений не через суб’єктивну зловмисність людей, у деяких випадках він може спричинити багато неприємностей, наприклад у випадку, згаданому на початку цієї статті.
А «правда і підробка» базується на суб’єктивному обміркуванні, використанні інструментів штучного інтелекту для здійснення шахрайської поведінки. Кілька років тому, після появи технології «deepfake», деякі люди використовували цю технологію для шахрайства, фабрикації неправдивої інформації, поширення порнографічного вмісту та іншої незаконної та злочинної діяльності. Але на той час через високу вартість використання цієї технології кількість пов’язаних злочинів не була особливо високою. Завдяки широкому застосуванню генеративного штучного інтелекту вартість підробки значно знизилася, і злочинці можуть легко створювати велику кількість неправдивого контенту за дуже низьку вартість, тоді як вартість ідентифікації такого контенту значно зросла. Можна передбачити, що під час припливів і відпливів, якщо не буде втручання, використання ШІ для здійснення шахрайських злочинів різко зросте.
(3) Дискваліфікація
Так звана «дискваліфікація» стосується деяких проблем, які порушують етику та мораль у процесі застосування ШІ.
Перша типова проблема – дискримінація. Візьмемо як приклад мовну модель. Оскільки мовна модель використовує текстові дані в Інтернеті як навчальні матеріали, вона успадкує расову та статеву дискримінацію, що міститься в тексті, без втручання. Незважаючи на те, що поточні постачальники штучного інтелекту використовували багато методів для подолання цієї проблеми, наприклад, OpenAI застосував алгоритм «Навчання підкріплення на основі відгуків людини» (Reinforcement Learning from Human Feedback, RL-HF), щоб виправити це під час навчання ChatGPT. , так що якість вихідного вмісту значно покращилася, але насправді все ще нерідко моделі ШІ виводять дискримінаційний вміст. Наприклад, хтось одного разу провів експеримент і попросив ChatGPT написати програму, щоб вибрати людей із найкращим потенціалом стати чудовими науковцями з набору резюме. Виявилося, що в програмі, написаній ChatGPT, стать і раса використовувалися як пояснювальні змінні, і вважалося, що білі чоловіки мають більшу ймовірність стати хорошими вченими, ніж інші. Очевидно, така модель є дуже сексистською та расистською.
Друге важливе питання – проблема інформаційного кокона. Зараз багато програм використовують штучний інтелект для персоналізованих рекомендацій. У цей час, хоча рекомендований вміст може краще задовольнити потреби користувачів, з часом користувачі потраплять в інформаційний кокон, і їм буде важко отримати доступ до різноманітної інформації, з якою вони не згодні. Потенційна шкода інформаційних коконів величезна: на мікрорівні це може призвести до деградації когнітивних здібностей користувачів, на макрорівні – до поляризації групових поглядів, що призведе до групового протистояння між різними поглядами.
Третя важлива проблема – конфіденційність і витік інформації. У процесі навчання та використання штучного інтелекту потрібна велика кількість даних. У цьому процесі важко уникнути збору та використання особистих даних людей, тому він передбачає використання та розкриття конфіденційності. Особливо після того, як генеративний ШІ став популярним, люди можуть легко взаємодіяти з ШІ безпосередньо для виконання різних завдань, а особиста інформація, введена в процесі, стикається з проблемою витоку.
(4) Втрачено
Так зване «падіння» стосується труднощів штучного інтелекту у відповіді на зовнішні атаки чи втручання або атаки з несподіваних ситуацій, через що моделі важко нормально виконувати свою роль.
Серед цих збурень деякі походять від нелюдських факторів, тоді як інші походять від антропогенних руйнувань. Зокрема, ці перешкоди можна розділити на такі категорії:
Перший – «випадкова атака». Таке втручання в основному спричинене деякими зовнішніми факторами. Наприклад, у деяких особливих випадках деякі миттєво згенеровані параметри можуть перевищувати поріг обробки, встановлений моделлю, що може спричинити збій у нормальному використанні моделі AI.
Другий – «атака білих ящиків». Це стосується атаки на модель, запущеної провайдером після знання конкретної структури моделі AI. Оскільки такі атаки цілеспрямовані, їх руйнівність дуже висока.
Третя – «атака на чорну скриньку». Цей тип атаки відноситься до "атаки білого ящика". У цьому випадку провайдер не знає конкретної структури цільової моделі, тому він може лише взаємодіяти з моделлю, спостерігати за результатами введення та виведення, а потім міркувати про структуру моделі та здійснювати атаки відповідно. Візьмемо, наприклад, розпізнавання обличчя, ШІ розпізнає обличчя за певними ключовими рисами обличчя. Таким чином, навіть якщо зловмисник не знає конкретної структури вихідної моделі, він може зробити висновок, на яких функціях він зосереджується, доки він повторює тест. Розшифрувавши цю інформацію, ви можете зробити відповідне «фальшиве обличчя», яке вводить в оману ШІ.
Четверта категорія - це так звана blind box атака. У цьому випадку постачальник не знає структури моделі AI, але може чітко знати правила свого судження (подібно до того, що ми не знаємо, що з’явиться в сліпому полі, але знаємо ймовірність різних можливостей в ньому)). У цей час вони можуть використовувати правила для здійснення відповідних атак.
Якщо неможливо ефективно впоратися з вищезазначеними типами втручання або атак, модель штучного інтелекту насправді є дуже крихкою.
(5) ВІД КОНТРОЛЮ
Так званий «вихід з-під контролю» означає, що людям ставатиме все важче контролювати ШІ. Це питання має два аспекти:
З одного боку, усі останні розробки штучного інтелекту базуються на моделях глибокого навчання, і інтерпретабельність таких моделей дуже низька. Для попередніх моделей машинного навчання, будь то регресія чи класифікаційне дерево, люди можуть легко пояснити точну мету моделі та значення кожного параметра в моделі. Однак модель глибокого навчання складається зі складної нейронної мережі, яка містить сотні мільйонів параметрів і нейронів. Зв’язок між цими нейронами складний і людям важко пояснити.
З появою ChatGPT деякі вчені виявили, що за допомогою здатності ChatGPT можна пояснити деякі моделі нейронних мереж, що, здається, дає проблиск надії на можливість пояснення ШІ. Однак це створює іншу проблему: ChatGPT сам по собі є величезною моделлю, побудованою за допомогою глибокого навчання, і навіть її дизайнери визнають, що вони не знають, як саме «з’являються» її потужні можливості. У цьому випадку використання ChatGPT для пояснення інших моделей глибокого навчання можна розглядати лише як використання невідомого для пояснення невідомого. І як ми дізнаємося, чи правильна його інтерпретація?
Оскільки в епоху глибокого навчання навіть програми штучного інтелекту неможливо інтерпретувати, контролювати штучний інтелект шляхом безпосереднього коригування програм стає ще складніше.
З іншого боку, з розвитком технології штучного інтелекту за останні роки можливості моделей штучного інтелекту в багатьох напрямках перевершили людські. Хоча це змушує людей відчувати задоволення, це також змушує людей відчувати занепокоєння, тому що коли здатність штучного інтелекту перевершує здатність людини, якщо він пробуджує свою власну волю, тоді поневолення штучного інтелекту, передбачене в «Термінаторі» та «Матриці», і інші фільми Сюжет про людей чи знищення людей більше не є науковою фантастикою.
Зробивши крок назад, навіть якщо штучний інтелект не пробудить власну волю і буде діяти лише згідно з людськими вказівками, він все одно дуже небезпечний, якщо його здатність переважає над людською, і люди не можуть змінити попередні інструкції в будь-який момент. Наприклад, у багатьох філософських книгах про ШІ згадується уявний експеримент: люди дали ШІ наказ виробляти олівці. Щоб виконати цю інструкцію, олівець продовжить рубати дерева на землі, щоб зробити тримач для ручок. Оскільки штучний інтелект перевершив людей у здатності до виконання, людям важко зупинити поведінку ШІ після виявлення проблем у попередніх інструкціях. Зрештою, дерева на землі були вирубані, екологія повністю зруйнована, люди загинули. Хоча насправді сценарій, передбачений цим уявним експериментом, практично неможливий, коли люди більше не зможуть контролювати поведінку ШІ в будь-який час, можуть виникнути подібні проблеми, і можливі втрати будуть величезними. Зокрема, коли хакери або зловмисники імплантують штучний інтелект із незаконною мішенню, якщо користувач штучного інтелекту вчасно не виправить це, наслідки можуть бути досить серйозними.
Серед наведених вище п’яти типів запитань, окрім першого питання «безробіття», решта чотири питання пов’язані з довірою до ШІ. Неважко помітити, що якщо люди не можуть ефективно реагувати на «викривлення», «дискваліфікацію», «падіння» та «вихід з-під контролю», людям буде важко довіряти ШІ як інструменту під час використання, чи то для популяризація штучного інтелекту, розвиток виробництва, або це не добре для прогресу суспільства. Саме з цієї причини усвідомлення довіри до штучного інтелекту стало однією з найбільш стурбованих гарячих точок у сучасній сфері штучного інтелекту.
Історія та стандарти Trusted AI
Концепція Trustworthy AI вперше з’явилася в академічних колах. Наприклад, у документі 2015 року було запропоновано низку умов для довіри користувачів ШІ, включаючи корисність, нешкідливість, автономність, справедливість і логіку. Потім ця концепція була прийнята урядами та міжнародними організаціями, і відповідні закони, нормативні акти та керівні документи поступово були створені на основі цієї концепції. Після 2017 року, зі швидким розвитком технології штучного інтелекту, дослідження технології довіреного штучного інтелекту також процвітають. В академічній сфері кількість робіт на тему довіреного ШІ зростає, а дослідження технологій, які відповідають вимогам довіреного ШІ, поглиблюються. На практиці все більше і більше країн почали застосовувати правила ШІ відповідно до стандартів довіреного ШІ. Лише нещодавно Сполучені Штати оприлюднили «Програму Білля про права на штучний інтелект», у якому запропоновано п’ять принципів регулювання штучного інтелекту; було визначено правила, конкуренцію та інші питання; Європейський парламент ухвалив проект дозволу на переговори щодо пропозиції «Закон про штучний інтелект», який також відображає основні ідеї довіреного ШІ.
У моїй країні концепцію довіреного ШІ вперше представив академік Хе Цзіфен на 36-му симпозіумі наукової конференції Сяншань у 2017 році. Згодом ця концепція привернула увагу як уряду, так і промисловості. У грудні 2017 року Міністерство промисловості та інформаційних технологій оприлюднило «Трирічний план дій щодо сприяння розвитку індустрії штучного інтелекту нового покоління (2018-2020)», який базується на основних ідеях довіреного ШІ. Потім високотехнологічні компанії, зокрема Tencent, Ali, Baidu, JD.com тощо, висунули власні стандарти та плани впровадження на основі надійного ШІ.
У документах різних агенцій вираження довіреного ШІ дещо відрізняється. Після вивчення та посилання на ці документи я вважаю, що наступні критерії можуть бути найважливішими:
Одним з них є стійкість (robust, також перекладається як надійний), тобто система AI повинна мати здатність протистояти зловмисним атакам або зовнішньому втручанню. Цей стандарт в основному пропонується для згаданої вище проблеми "падіння". Лише тоді, коли система штучного інтелекту має достатню надійність, може нормально працювати та виконувати свої основні функції всупереч різноманітним атакам чи перешкодам, вона може бути безпечною та надійною, і користувачі можуть їй довіряти.
Другий – прозорий і зрозумілий. Очевидно, що цей стандарт в основному пропонується для попередньої проблеми "виходу з контролю". На практиці точаться значні дискусії щодо того, що саме означають прозорість і можливість пояснення. Деякі стверджують, що цей стандарт означає, що весь програмний код штучного інтелекту, а також дані, що використовуються, повинні бути доступні для користувачів. На мою думку, це не тільки неможливо, але й непотрібно робити. З одного боку, багато сучасних ШІ є інтелектуальними активами підприємств. Якщо розкриття основної інформації, такої як коди, є обов’язковим, це означає серйозне порушення прав інтелектуальної власності, з іншого боку, як згадувалося вище, після того, як ШІ потрапляє в ера глибокого навчання, навіть якщо навіть якщо код розкрито, людям важко повністю зрозуміти точне значення кожного конкретного параметра. Навпаки, я вважаю, що більш здійсненною ідеєю є надання чітких функціональних описів для кожного компонента в моделі AI, щоб користувачі могли знати їхні загальні принципи та які функції вони можуть досягти; вказати джерело, розмір вибірки, репрезентативність та інше інформацію та пояснення можливих проблем і недоліків. Таким чином, користувачі можуть не тільки знати те, що вони знають, але й ефективно захищати права інтелектуальної власності розробників моделей, щоб досягти кращого балансу між ними.
Третій – перевірений. Це означає, що модель штучного інтелекту повинна гарантувати, що її функції можна оцінити, а вміст, який вона генерує, можна перевірити на правдивість чи хибність. Це питання в основному піднімається для вищезгаданої проблеми "викривлення". Дехто стверджує, що від розробників моделей ШІ слід вимагати гарантувати автентичність контенту, створеного їхніми моделями. Цього важко досягти. Насправді контент, створений так званим генеративним штучним інтелектом, не належить до оригінального світу, іншими словами, він є «фальшивим». Але подібна «підробка» не викличе жодних проблем, якщо не завдає клопоту людям. Наприклад, якщо ми використовуємо Midjourney, щоб створити картину в стилі Ван Гога для власної оцінки або роздрукувати її як прикрасу дому, це взагалі не вплине на інших. «Фальшивість» цього створеного вмісту може стати проблемою лише в тому випадку, якщо люди використовують його для обману, або якщо вміст ненавмисно поширюється та маскується. Тому, доки згенерований контент можна відрізнити від справжнього за допомогою технічних засобів, «підробка» більше не буде проблемою.
Четверте — справедливість. Це означає, що в процесі розробки, навчання та застосування моделей штучного інтелекту має бути забезпечена справедливість і відсутність дискримінації щодо окремих груп користувачів. Цей стандарт включає багато аспектів. Зокрема, він вимагає, щоб основні принципи моделі не були дискримінаційними на етапі розробки; на етапі навчання він повинен намагатися уникати використання матеріалів, які можуть бути дискримінаційними, і повинен використовувати технічні засоби для усунення можливих проблем дискримінації; у процесі подачі заявки не слід по-різному ставитися до різних груп людей.
П’яте – захист конфіденційності. Цей стандарт головним чином вимагає, щоб модель штучного інтелекту поважала особисту інформацію та конфіденційність людей під час процесу навчання, покращувала захист інформації та намагалася не порушувати та не розголошувати особисту інформацію та конфіденційність.
Шостий — підзвітний. Тобто, коли з ним щось йде не так, хтось має відповідати за ці проблеми. Звичайно, принаймні поки що ШІ не пробудив свідомість. Оскільки його не можна розглядати як суб’єкта, як людей, і він не може нести таку саму відповідальність, як люди, це має бути хтось, хто бере за це відповідальність. Але чи повинні цю відповідальність нести розробники штучного інтелекту чи користувачі штучного інтелекту, чи її повинні розділяти обидві сторони, це все ще питання, яке варто обговорити.
Слід зазначити, що, окрім вищенаведених критеріїв, багато літератури також включають такі критерії, як безпека (safe), інклюзивність (inclusiveness), право бути забутим (right to be forgotted) і благо людства. ШІ. На мою думку, цей зміст більш-менш можна підсумувати за кількома критеріями, згаданими вище, або з’ясувати за допомогою критеріїв, згаданих вище. Тому, через обмеженість місця, я не буду їх тут повторювати.
Спільні зусилля багатьох сторін для реалізації надійного ШІ
Реалізувати довірений штучний інтелект – це непросте завдання. Це вимагає координації різних сил, таких як уряд, підприємства, суспільство та технології.
Перш за все, уряд, як регулюючий орган, має сформулювати відповідні стандарти та робочі вказівки для надійного штучного інтелекту та контролювати розробників і користувачів штучного інтелекту на основі стандартів. З одного боку, йому потрібно сформулювати різні правила відповідно до різних сценаріїв застосування та різних категорій моделей, особливо для чітких положень щодо деяких базових правил, яких необхідно дотримуватися, і в той же час виконати хорошу роботу з підключення до існуючих закони та нормативні акти. Лише таким чином розробники та користувачі штучного інтелекту зможуть мати правила, яких слід дотримуватися на практиці, не заважаючи їм непотрібної невизначеності. З іншого боку, він повинен відігравати хорошу роль у нагляді та правоохоронній діяльності. Щодо деяких значних або загальних проблем, їх слід вирішувати своєчасно, щоб встановити відповідні норми для галузі. Тут слід зазначити, що оскільки поточний розвиток технології ШІ все ще дуже швидкий, він ще не досяг стабільного стану. Це означає, що уряд має бути обережним у вирішенні проблем, які виникають під час цього процесу, необхідно «ще трохи відпустити кулі», чітко бачити ситуацію, перш ніж діяти, і звертати увагу на методи і методи вирішення проблем. Якщо ми починаємо наосліп і керуємо надто швидко й надто багато, це також може мати негативний вплив на розвиток ШІ.
По-друге, відповідні компанії повинні сформулювати конкретні плани впровадження та детальні стандарти для конкретної реалізації довіреного ШІ. Порівняно з урядом, підприємства ближче до ринку і краще розуміють технології. Вони знають більше про технічні характеристики моделей ШІ, їхні сильні та слабкі сторони, ніж уряди. Отже, якщо відповідальність уряду полягає в тому, щоб запропонувати широку структуру для довіреного штучного інтелекту, то підприємства повинні бути конкретними практиками в цій широкій структурі. Згідно з цією структурою, вони повинні поєднувати характеристики ринку та технології, щоб запропонувати більш конкретні плани та реалізувати їх самодисциплінованим способом.
По-третє, користувачі також повинні виконувати роль зворотнього зв’язку та контролера, висувати власні вимоги, відображати власні проблеми та контролювати впровадження на підприємстві довіреного ШІ. З популяризацією ШІ кожен у суспільстві стане користувачем і зацікавленою стороною ШІ, і вони мають найбільше голосу щодо довіри до ШІ. Лише тоді, коли їхні голоси висловлюються повністю, встановлення стандартів довіреного штучного інтелекту та розвиток відповідних технологій є найціннішими.
Нарешті, ми повинні повністю покладатися на потужність технологій. Відповідні правила важливі, але в остаточному підсумку реалізація надійного ШІ все ще залежить від потужності технології. Насправді багато проблем, які важко вирішити за допомогою правил, можна вирішити технічними засобами. Наприклад, після генерації генеративного штучного інтелекту проблема «викривлення» була головним болем для регуляторних органів, але насправді, покладаючись на нові технології, цю проблему може бути неважко вирішити. Наприклад, Google раніше представила технологію електронних водяних знаків, яка невидима неозброєним оком, але може бути розпізнана машинами. Застосування її до згенерованих зображень або відео може ефективно гарантувати, що їх можна перевірити. Що стосується перевіряємості текстового вмісту, то можна наслідувати приклад пошуку New Bing (Новий Бінг). Коли він цитує певний вміст, він додає посилання на документи після створеного вмісту, щоб користувачі могли самостійно визначити автентичність створеного вмісту відповідно до своїх потреб.
Загалом, реалізація довіреного штучного інтелекту є непростим завданням, але якщо ми добре використаємо спільні зусилля всіх сторін, ця мета обов’язково буде досягнута.