Остання публікація в блозі Білла Гейтса: Ризики ШІ існують, але їх можна контролювати

Автор: Jin Qiong

ChatGPT користується популярністю вже понад півроку. Окрім швидкого розвитку, окрім вирішення технічних проблем, наступною великою проблемою може стати відповідність вимогам — після того, як Конгрес викликав до суду Сема Альтмана, тепер FTC (Федеральна торгова комісія) також офіційно проводить ChatGPT розслідування.

Це повторює те, що Білл Гейтс сказав кілька днів тому. У своєму останньому дописі в блозі він сказав: ШІ є найбільш трансформаційною інновацією Це правда, що існують ризики, але ризики також можна контролювати.

У дописі в блозі Білл Гейтс в основному обговорює ризики та виклики штучного інтелекту та способи боротьби з ними, а також наводить деякі приклади та пропозиції.

Білл Гейтс вперше висловив своє підтвердження занепокоєння людей щодо сучасного штучного інтелекту - зараз ми перебуваємо в епоху глибоких змін у штучному інтелекті, яка є невизначеною епохою. Але він оптимістично налаштований, що цими ризиками можна керувати.

По-друге, Білл Гейтс також перерахував ризики, спричинені нинішнім штучним інтелектом, включаючи глибоку підробку та дезінформацію, створену штучним інтелектом, що може знищити вибори та демократію, полегшити окремим особам і урядам здійснення атак і позбавити людей робочих місць. успадковує людські упередження та щось вигадує, студенти не навчаться писати, тому що ШІ зробить це за них тощо.

Нарешті, Білл Гейтс також висунув низку пропозицій щодо регулювання ШІ. На національному урядовому рівні уряди повинні накопичувати досвід у галузі штучного інтелекту, щоб сформулювати закони та нормативні акти щодо ШІ, боротьби з дезінформацією та глибокими фейками, загрозами безпеці, змінами на ринку праці та впливом на освіту.

З точки зору рішень, керівники урядів потребують співпраці з іншими країнами, а не поодинці, а також здатності вести поінформований та продуманий діалог з людьми.

Крім того, для підприємств компанії ШІ повинні мати відповідальне ставлення, і робота повинна проводитися для забезпечення безпеки, включаючи захист приватного життя людей і так далі.

Нижче наведено повний текст, перекладений з GPT-4, відредагований 36 Krypton:

Ризики, які створює штучний інтелект, здаються величезними. А як щодо тих, хто втрачає роботу, щоб їх замінили розумні машини? Чи вплине ШІ на результати виборів? Що, якщо майбутній ШІ вирішить, що люди більше не потрібні, і захоче позбутися нас?

Це законні питання, і ми повинні серйозно поставитися до занепокоєння, яке вони викликають. Але у нас є всі підстави вважати, що ми можемо з ними впоратися: це не перший раз, коли велика інновація створює нові загрози, які необхідно стримувати, і ми з ними стикалися раніше.

Чи то була поява автомобіля, чи розквіт персонального комп’ютера та Інтернету, люди пережили й інші зміни, які, незважаючи на численні потрясіння, завершилися на краще. Невдовзі після того, як на дорогу вийшли перші автомобілі, сталися перші аварії. Але замість того, щоб заборонити автомобілі, ми прийняли обмеження швидкості, стандарти безпеки, вимоги до водійських прав, закони про водіння в нетверезому стані та інші правила дорожнього руху.

Зараз ми перебуваємо на ранніх етапах ще однієї глибокої трансформації, епохи штучного інтелекту, подібної до епохи невизначеності перед обмеженнями швидкості та ременями безпеки. ШІ змінюється настільки швидко, що незрозуміло, що буде далі. Ми стикаємося з великими питаннями про те, як працюють сучасні технології, як люди використовують їх у зловмисних цілях і як штучний інтелект може змінити нас як членів суспільства та як окремих людей.

У такі моменти природно відчувати неспокій. Але історія показує, що можна подолати виклики, пов’язані з новими технологіями.

Я писав про те, як штучний інтелект революціонізує наше життя, допомагаючи вирішувати проблеми охорони здоров’я, освіти, зміни клімату тощо, які здавалися нерозв’язними в минулому. Фонд Гейтса вважає це питання пріоритетом, і наш генеральний директор Марк Сузман нещодавно поділився своїми міркуваннями про роль ШІ у зменшенні нерівності.

У майбутньому я розповім більше про переваги штучного інтелекту, але в цій публікації я хочу поговорити про найпоширеніші проблеми, які я чую та читаю, багато з яких я поділяю, і пояснити, що я відчуваю щодо них.

З усього написаного досі про ризики штучного інтелекту стає зрозумілим одне, а саме те, що жодна людина не має відповідей на всі питання. Інший момент, який мені зрозумілий, це те, що майбутнє штучного інтелекту не таке похмуре, як деякі уявляють, і не таке райдужне, як інші. Ризики реальні, але я оптимістично налаштований, що ними можна керувати. Обговорюючи кожне питання одне за іншим, я повернуся до кількох тем:

  • Багато проблем, які піднімає штучний інтелект, мають історичний прецедент. Наприклад, це матиме величезний вплив на освіту, але так само були портативні калькулятори десятиліть тому, а нещодавно дозволивши комп’ютери в класи, ми можемо навчитися на минулих успіхах.
  • Багато проблем, спричинених штучним інтелектом, також можна вирішити за допомогою штучного інтелекту.
  • Нам потрібно адаптувати старі закони та прийняти нові - так само, як існуючі закони про боротьбу з шахрайством мають адаптуватися до онлайн-світу.

У цій статті я зосереджуся на існуючих або неминучих ризиках. Я не збираюся обговорювати, що станеться, коли ми розробимо ШІ, здатний вивчати будь-який предмет чи завдання. Натомість сьогодні я говорю про спеціально створений ШІ.

Незалежно від того, чи дійдемо ми до цього через десятиліття чи століття, суспільству доведеться зіткнутися з деякими глибокими питаннями. Що, якби суперштучний інтелект поставив собі цілі? Що, якщо вони суперечать людським цілям? Чи варто нам створювати суперштучний інтелект?

Однак не слід ігнорувати безпосередні ризики, розглядаючи ці довгострокові ризики. Тепер я переходжу до цих короткострокових ризиків.

Створений ШІ фейковий контент і дезінформація можуть знищити вибори та демократію

Використання технологій для поширення брехні та дезінформації не є чимось новим. Люди століттями поширювали брехню через книги та листівки. Ця практика стала легшою з появою текстових процесорів, лазерних принтерів, електронної пошти та соціальних мереж.

Штучний інтелект посилив цю проблему фальшивого тексту, дозволяючи майже будь-кому створювати фальшиві аудіо та відео, відомі як deepfakes. Якщо ви отримаєте голосове повідомлення, схоже на те, що ваша дитина каже: «Мене викрали, будь ласка, надішліть 1000 доларів на цей банківський рахунок протягом наступних 10 хвилин і не телефонуйте в поліцію», воно створить набагато більше, ніж той самий вміст. Страшний емоційний вплив пошти.

У більшому масштабі дипфейки, створені штучним інтелектом, можуть використовуватися для спроби вплинути на результати виборів. Звичайно, не потрібні складні технології, щоб поставити під сумнів законного переможця виборів, але штучний інтелект значно полегшить процес.

Вже з’явилися фейкові відео, які містять сфабриковані кадри відомих політиків. Уявіть собі, що вранці важливих виборів відео, на якому кандидат грабує банк, стає вірусним. Незважаючи на те, що це була неправда, новинним організаціям і кампаніям знадобилися години, щоб довести це. Скільки людей переглянуть це відео та змінять свій голос в останню хвилину? Це може змінити результат гонки, особливо якщо гонка буде близькою.

Коли нещодавно співзасновник Open AI Сем Альтман давав свідчення перед комітетом Сенату США, сенатори від обох партій висловили занепокоєння щодо впливу ШІ на вибори та демократію. Сподіваюся, ця тема й надалі буде цікавити всіх. Ми справді не вирішили проблему дезінформації та діпфейків. Але дві речі роблять мене обережним оптимістом. По-перше, люди мають здатність навчитися не довіряти всьому. Протягом багатьох років користувачів електронної пошти обманював хтось, видаючи себе за нігерійського принца, обіцяючи величезні винагороди за надання номерів кредитних карток. Але згодом більшість людей навчиться ретельно перевіряти ці електронні листи. Оскільки обман стає все більш витонченим, а багато цілей – все більш підступними, нам потрібно створити таку саму обізнаність щодо глибоких фейків.

Ще одна річ, яка дає мені надію, це те, що штучний інтелект може не лише створювати дипфейки, а й допомагати їх ідентифікувати. Наприклад, Intel розробила детектор глибоких фейків, а державна агенція DARPA працює над тим, як визначити, чи було підроблено відео чи аудіо.

Це буде циклічний процес: хтось знаходить спосіб виявити підробку, хтось придумує, як їй протистояти, хтось розробляє контрзахід і так далі. Це не буде ідеальним успіхом, але ми також не будемо зв’язані.

Штучний інтелект полегшує атак людям і урядам

Сьогодні, коли хакери хочуть знайти помилку в програмному забезпеченні, вони пишуть код грубою силою, атакуючи потенційні слабкі місця, доки не знайдуть помилку. Це передбачає багато обхідних шляхів, тому потрібен час і терпіння.

Фахівці з безпеки, які хочуть боротися з хакерами, повинні робити те саме. Кожен патч програмного забезпечення, який ви встановлюєте на своєму телефоні чи ноутбуці, означає багато часу, витраченого на полювання за ним кимось доброзичливим чи зловмисним.

Моделі AI прискорять цей процес, допомагаючи хакерам писати більш ефективний код. Вони також зможуть використовувати загальнодоступну інформацію про людей, наприклад, де вони працюють і хто є їхніми друзями, для розробки більш просунутих фішингових атак, ніж ми бачимо сьогодні.

Хороша новина полягає в тому, що штучний інтелект можна використовувати як у зловмисних, так і в добрих цілях. Служби безпеки в уряді та приватному секторі повинні мати новітні інструменти для пошуку та усунення вразливостей системи безпеки, перш ніж ними скористаються злочинці. Я сподіваюся, що індустрія безпеки програмного забезпечення розширить роботу, яку вони вже виконують у цій сфері, це має бути їхньою головною турботою.

Ось чому ми не повинні намагатися тимчасово перешкоджати людям впроваджувати нові розробки в області штучного інтелекту, як деякі припускають. Кіберзлочинці не перестануть створювати нові інструменти, як і ті, хто хоче використовувати штучний інтелект для розробки ядерної зброї та біотерористичних атак, і зупиняти їх потрібно продовжувати тими ж темпами.

Існують також пов’язані ризики на глобальному рівні: гонка озброєнь штучного інтелекту може бути використана для розробки та здійснення кібератак проти інших держав. Уряд кожної країни хоче мати найпотужнішу доступну технологію для стримування атак противника. Ця мотивація «не залишати нікого першим» може спровокувати гонку за створенням дедалі небезпечнішої кіберзброї. Таким чином усім буде гірше.

Це страшна ідея, але ми маємо історію як урок. Незважаючи на свої недоліки, світовий режим нерозповсюдження ядерної зброї запобіг тотальній ядерній війні, якої моє покоління боялося. Уряди повинні розглянути можливість створення глобального агентства з штучного інтелекту, подібного до Міжнародного агентства з атомної енергії.

Штучний інтелект забиратиме роботу у людей

Основний вплив штучного інтелекту на роботу в найближчі роки полягатиме в тому, щоб допомагати людям виконувати свою роботу ефективніше. Це вірно незалежно від того, працюєте ви на фабриці чи в офісі, займаючись дзвінками про продажі та кредиторською заборгованістю. Згодом уміння штучного інтелекту висловлювати думки стане достатньо добрим, щоб він міг писати електронні листи та керувати вашою папкою "Вхідні" за вас. Ви зможете написати запит простою англійською або будь-якою іншою мовою та створити інформативний звіт про роботу.

Як я вже говорив у лютневій статті, підвищення продуктивності корисне для суспільства. Це залишає більше часу для інших справ, будь то на роботі чи вдома. І потреба в корисних людях, таких як навчання, догляд за хворими та літніми людьми, ніколи не зникне.

Але деяким працівникам потрібна підтримка та перенавчання, оскільки ми переходимо на робоче місце, кероване ШІ. Це обов’язок урядів і компаній – правильно керувати цим, щоб працівники не залишалися позаду і не завдавали шкоди життям людей, які трапляються, коли втрачаються робочі місця на виробництві в США.

Крім того, майте на увазі, що це не перший випадок, коли нові технології призводять до значних змін на ринку праці. Я не думаю, що вплив штучного інтелекту буде таким величезним, як промислова революція, але він точно буде таким же величезним, як поява персонального комп’ютера. Програми для обробки текстів не знищили офісну роботу, але змінили її назавжди. Роботодавцям і працівникам довелося адаптуватися, і вони це зробили. Трансформація, здійснена штучним інтелектом, буде непростою, але є всі підстави вважати, що ми зможемо зменшити руйнування життя людей і засобів до існування.

ШІ успадковує наші упередження та створює їх

Галюцинації, коли штучний інтелект впевнено робить якесь твердження, яке просто не відповідає дійсності, і зазвичай відбувається через те, що машина не розуміє контексту вашого запиту. Якщо ви попросите ШІ написати коротку історію про відпустку на Місяці, він може дати вам дуже творчу відповідь. Але якщо ви дозволите йому допомогти вам спланувати поїздку до Танзанії, він може спробувати підсадити вас до готелю, якого не існує.

Інший ризик ШІ полягає в тому, що він відображає або навіть посилює існуючі упередження щодо певної гендерної ідентичності, раси, етнічної приналежності тощо.

Щоб зрозуміти, чому виникають такі ілюзії та упередження, важливо зрозуміти, як працюють найпоширеніші сучасні моделі ШІ. По суті, це дуже складні версії коду, які дозволяють програмі електронної пошти передбачити наступне слово, яке ви збираєтеся ввести: у деяких випадках майже весь текст, доступний в Інтернеті, і вони сканують величезні обсяги тексту, аналізують його, знаходять шаблони в людській мові.

Коли ви ставите запитання ШІ, він переглядає слова, які ви використовуєте, а потім шукає текст, який часто асоціюється з цими словами. Якщо ви напишете «перелік інгредієнтів для млинців», ви можете помітити, що слова «борошно, цукор, сіль, розпушувач, молоко та яйця» часто зустрічаються разом із фразою. Потім, виходячи з того, що йому відомо про порядок, у якому зазвичай з’являються ці слова, він генерує відповідь (моделі ШІ, які працюють таким чином, використовують так звані трансформатори, і GPT-4 є однією з таких моделей).

Цей процес пояснює, чому штучний інтелект може галюцинувати або бути упередженим без будь-якого контекстуального розуміння запитань, які ви ставите, або речей, які ви йому говорите. Якщо ви скажете йому, що зробили помилку, він, ймовірно, скаже «вибачте, я зробив помилку». Але це лише ілюзія, він нічого не вводить неправильно, він говорить про це, оскільки він просканував достатньо тексту, щоб знати, що «вибачте, я помилився» — це одна з речей, які люди часто пишуть після виправлення речення.

Подібним чином моделі ШІ успадковують упередження, властиві тексту, на якому вони навчалися. Якщо читати багато статей про лікарів, і в статтях здебільшого згадуються лікарі-чоловіки, то відповідь припускатиме, що більшість лікарів – чоловіки.

Хоча деякі дослідники стверджують, що галюцинації є невід'ємною проблемою, я не згоден. Я оптимістично налаштований, що з часом ми зможемо навчити моделі ШІ відрізняти факти від вигадки. Наприклад, Open AI зробив над цим багатообіцяючу роботу.

Інші організації, зокрема Інститут Алана Тюрінга та Національний інститут стандартів і технологій, займаються проблемою упередженості. Один із підходів полягає в тому, щоб включити людські цінності та міркування вищого рівня в ШІ. Це схоже на те, як працюють самосвідомі люди: можливо, ви думаєте, що більшість лікарів — чоловіки, але ви достатньо усвідомлюєте це припущення, щоб знати, що вам потрібно свідомо боротися з цим. Штучний інтелект може працювати подібним чином, особливо якщо моделі розроблені людьми з різного походження.

Зрештою, кожен, хто використовує ШІ, повинен знати про проблему упередженості та бути поінформованим користувачем. Стаття, яку ви просите написати ШІ, може містити так само упередженість, як і фактичні помилки. Вам потрібно перевірити упередження свого ШІ, а також свої власні.

Студенти не навчаться писати, тому що ШІ зробить це за них

Багато вчителів хвилюються, що ШІ завадить їхній роботі з учнями. У епоху, коли будь-хто, хто має підключення до Інтернету, може використовувати штучний інтелект, щоб написати гідну першу чернетку дисертації, що заважає студенту віддати її як свою власну?

Уже є деякі інструменти штучного інтелекту, які вчаться визначати, чи есе було написано людиною чи комп’ютером, щоб викладачі могли визначити, чи їхні учні виконують свою роботу. Але замість того, щоб перешкоджати своїм учням використовувати ШІ в письмовій формі, деякі вчителі насправді заохочують це.

У січні досвідчена вчителька англійської на ім’я Чері Шилдс опублікувала статтю в Education Week. опублікувала статтю про те, як вона використовує Chat GPT у своєму класі. Chat GPT допомагає своїм учням від початку есе до написання плану та навіть надає відгук про їхні завдання.

Вона пише: «Вчителі повинні сприймати технологію штучного інтелекту як ще один інструмент, який студенти можуть використовувати. Так само, як колись ми навчали студентів, як робити якісний пошук у Google, викладачі повинні розробити ясність щодо того, як боти Chat GPT можуть допомагати писати есе». Існування штучного інтелекту та допомога учням у його використанні може революціонізувати спосіб навчання». Не кожен вчитель має час вивчати та використовувати нові інструменти, але викладачі, такі як Чері Шилдс, пропонують хороший аргумент, що ті вчителі, які мають час, отримають велику користь. .

Це нагадує мені епоху, коли електронні калькулятори стали популярними в 1970-х і 1980-х роках. Деякі вчителі математики хвилюються, що учні перестануть вивчати базову арифметику, але інші сприймають нові технології та зосереджуються на мисленні, яке лежить в основі арифметики.

ШІ також може допомогти з письмом і критичним мисленням. Особливо на початку, коли галюцинації та упередженість все ще є проблемою, викладачі можуть змусити штучний інтелект створювати есе, а потім перевіряти їх зі студентами. Освітні некомерційні організації, такі як Академія Хана та проект OER, надають викладачам і студентам безкоштовні онлайн-інструменти, які приділяють велику увагу перевірці тверджень, і жодна навичка не є важливішою, ніж знання того, як відрізнити правду від підробки.

Нам дійсно потрібно переконатися, що освітнє програмне забезпечення допомагає ліквідувати розрив у досягненнях, а не погіршувати його. Сучасне програмне забезпечення насамперед орієнтоване на студентів, які вже мають мотивацію до навчання. Він може створити для вас план навчання, підключити вас до хороших ресурсів і перевірити ваші знання. Однак він ще не знає, як залучити вас до предметів, які вас поки не цікавлять. Це проблема, яку розробники повинні вирішити, щоб усі типи студентів могли отримати користь від ШІ.

**Що робити далі? **

Я вважаю, що у нас є більше підстав для оптимізму, оскільки ми можемо керувати ризиками ШІ, максимізуючи його переваги, але нам потрібно рухатися швидко.

Уряди повинні набути досвіду в області штучного інтелекту, щоб розробити закони та нормативні акти щодо цієї нової технології. Їм потрібно мати справу з дезінформацією та дипфейками, загрозами безпеці, змінами на ринку праці та впливом на освіту. Лише один приклад: закон має роз’яснити, які способи використання дипфейків є законними та як дипфейки слід позначати, щоб кожен розумів, що те, що вони бачать або чують, є фейком.

Політичні лідери повинні мати можливість вести інформований, продуманий діалог з виборцями. Їм також потрібно вирішити, наскільки співпрацювати з іншими країнами з цих питань, а не йти самотужки.

У приватному секторі компанії ШІ повинні виконувати свою роботу безпечно та відповідально. Це включає захист конфіденційності людей, забезпечення того, що їхні моделі штучного інтелекту відображають фундаментальні людські цінності, мінімізацію упередженості для отримання користі якомога більшої кількості людей і запобігання використанню технологій злочинцями чи терористами. Компанії в багатьох секторах економіки повинні будуть допомогти своїм співробітникам перейти на роботу, орієнтовану на ШІ, щоб ніхто не залишився осторонь. Крім того, клієнти завжди повинні знати, чи взаємодіють вони з ШІ чи людиною.

Нарешті, я закликаю всіх приділяти якомога більше уваги розвитку штучного інтелекту. Це найбільш трансформаційна інновація, яку ми побачимо в нашому житті, і здорове громадське обговорення залежатиме від розуміння кожним самої технології, її переваг і ризиків. Переваги штучного інтелекту будуть величезними, і найкращою причиною вірити, що ми можемо контролювати ризики, є те, що ми змогли це зробити.

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити