Джерело зображення: створено інструментом Unbounded AI
Ми багато чого навчилися щодо вирішення проблем, які породжують проривні інновації.
Ризики, пов’язані зі штучним інтелектом, можуть здатися величезними. Що відбувається з людьми, роботу яких забирають розумні машини? Чи вплине штучний інтелект на результати виборів? Що, якщо майбутній штучний інтелект вирішить, що люди більше не потрібні, і захоче нас позбутися?
Це законні питання, і до занепокоєння, яке вони викликають, потрібно поставитися серйозно. Але у нас є вагомі підстави вірити, що ми можемо вирішити ці проблеми: це не перший випадок, коли велика інновація принесла нові загрози, які потрібно контролювати, і ми з ними стикалися раніше.
Незалежно від того, чи то була поява автомобіля, чи розквіт персонального комп’ютера та Інтернету, люди пережили й інші трансформаційні моменти, які, незважаючи на численні потрясіння, завершилися на краще. Невдовзі після того, як на дорогу вийшли перші автомобілі, сталися перші аварії. Але замість того, щоб заборонити автомобілі, ми прийняли обмеження швидкості, стандарти безпеки, вимоги до водійських прав, закони про водіння в нетверезому стані та інші правила дорожнього руху.
Зараз ми перебуваємо на ранніх етапах ще однієї глибокої трансформації, епохи штучного інтелекту. Це схоже на епоху невизначеності перед обмеженнями швидкості та пасками безпеки. Штучний інтелект змінюється так швидко, що незрозуміло, що буде далі. Ми стикаємося з великими питаннями про те, як працюють сучасні технології, як люди використовуватимуть їх зловмисно та як штучний інтелект змінить суспільство та окремих людей.
У такі моменти природно відчувати неспокій. Але історія показує, що можна подолати виклики, пов’язані з новими технологіями.
Колись я написав статтю про те, як штучний інтелект повністю змінить наше життя. Це допоможе вирішити проблеми в галузі охорони здоров’я, освіти, зміни клімату тощо, які раніше здавалися нерозв’язними. Фонд Гейтса зробив це пріоритетом, і наш генеральний директор Марк Сузман нещодавно поділився своїми думками щодо ролі ШІ у зменшенні нерівності.
У майбутньому я розповім більше про переваги штучного інтелекту, але в цій публікації я хочу розглянути деякі проблеми, які я часто чую та читаю, багато з яких я поділяю, і пояснити, як я їх бачу.
З усіх написів про ризики штучного інтелекту стає зрозумілим те, що ніхто не має відповідей на всі питання. Іншим очевидним моментом є те, що майбутнє штучного інтелекту не таке похмуре, як деякі уявляють, і не таке райдужне, як інші. Ризики реальні, але я оптимістично налаштований, що ними можна керувати. Розглядаючи кожну з цих проблем, я повернусь до наступних тем:
Багато проблем, які піднімає штучний інтелект, мають історичний прецедент. Наприклад, це матиме величезний вплив на освіту, але це матиме величезний вплив на кишенькові калькулятори десятиліть тому, а нещодавно дозволили використовувати комп’ютери в класах. Ми можемо вчитися на минулих успіхах.
Багато проблем, спричинених штучним інтелектом, також можна вирішити за допомогою штучного інтелекту.
Нам потрібно адаптувати старі закони та прийняти нові - так само, як існуючі закони про боротьбу з шахрайством повинні адаптуватися до онлайн-світу.
У цій статті я зосереджуся на існуючих або неминучих ризиках. Я не буду обговорювати, що відбувається, коли ми розробляємо штучний інтелект, який може вивчати будь-яку тему чи завдання, на відміну від сучасного спеціалізованого штучного інтелекту. Незалежно від того, чи дійдемо ми до цього в наступне десятиліття чи століття, суспільство має серйозні питання для розгляду. Що, якби суперінтелектуальний ШІ ставив перед собою власні цілі? Що, якщо вони конфліктують з людьми? Чи варто нам створювати суперштучний інтелект?
Однак міркувати про ці довгострокові ризики не варто за рахунок більш безпосередніх ризиків.
Глибокі фейки та дезінформація, створені ШІ, можуть знищити вибори та демократію
Використання технологій для поширення брехні та дезінформації не є чимось новим. Люди століттями робили це за допомогою книг і листівок. Це стало простіше з появою текстових процесорів, лазерних принтерів, електронної пошти та соціальних мереж.
Штучний інтелект взяв на себе проблему підробки тексту та розширив її так, що майже кожен може створювати підроблені аудіо та відео, відомі як deepfakes. Якщо ви отримаєте голосове повідомлення, схоже на те, що ваша дитина каже: «Мене викрали, будь ласка, надішліть 1000 доларів на цей банківський рахунок протягом наступних 10 хвилин і не телефонуйте в поліцію», це може мати жахливий емоційний вплив. набагато потужніший, ніж електронний лист, який говорить те саме.
У більшому масштабі дипфейки, згенеровані штучним інтелектом, можуть використовуватися для спроб вплинути на вибори. Звичайно, не потрібні складні технології, щоб поставити під сумнів законного переможця виборів, але штучний інтелект зробить це набагато простіше.
Вже з’явилися фейкові відео з фейковими кадрами відомих політиків. Уявіть собі, що вранці перед виборами відео, на якому кандидат грабує банк, стає вірусним. Це була неправда, але новинним організаціям і кампанії знадобилися години, щоб це довести. Скільки людей переглянуть це відео та змінять свій голос в останню хвилину? Це може схилити терези, особливо якщо гонка буде напруженою.
Нещодавно, коли співзасновник OpenAI Сем Альтман давав свідчення в комітеті Сенату США, сенатори від обох партій говорили про вплив ШІ на вибори та демократію. Я сподіваюся, що ця тема й надалі буде на порядку денному кожного.
Ми точно не вирішили проблему дезінформації та дипфейків. Але дві речі роблять мене обережним оптимістом. По-перше, люди мають здатність навчитися не приймати нічого за чисту монету. Протягом багатьох років користувачі електронної пошти загрузли в шахрайстві, видаючи себе за нігерійських принців, які обіцяли надати номери кредитних карток в обмін на величезні винагороди. Але з часом більшість людей вчаться думати двічі. У міру того, як обман стає все більш витонченим, багато цілей стають більш підступними. Нам потрібно створити такий самий потенціал для deepfakes.
Ще одна річ, на яку я вважаю надію, це те, що штучний інтелект може допомогти ідентифікувати дипфейки та створювати дипфейки. Наприклад, Intel розробила детектор глибоких фейків, а урядова агенція DARPA розробляє технологію, щоб визначити, чи було підроблено відео чи аудіо.
Це буде ітеративний процес: хтось знайде спосіб виявити підробку, хтось придумає, як їй протистояти, хтось розробить контрзаходи і так далі. Це не буде ідеальним, але ми також не будемо на межі розуму.
ШІ полегшить атаку на людей і уряди
Сьогодні, коли хакери сподіваються знайти в програмному забезпеченні вразливість, яку можна використати, вони роблять це за допомогою «грубої сили» — пишуть код і атакують потенційні слабкі місця, поки вразливість не буде виявлена. Це передбачає багато обхідних шляхів, тому потрібен час і терпіння.
Фахівці з безпеки, які хочуть боротися з хакерами, повинні робити те саме. Кожен патч програмного забезпечення, який ви встановлюєте на свій телефон чи ноутбук, означає години пошуку.
Моделі AI прискорять цей процес, допомагаючи хакерам писати більш ефективний код. Вони також можуть використовувати загальнодоступну інформацію особи, як-от місце роботи та друзів, для розробки більш досконалих фішингових атак, ніж доступні наразі.
Хороша новина полягає в тому, що ШІ — це палиця з двома кінцями. Служби безпеки в уряді та приватному секторі повинні мати новітні інструменти для пошуку та усунення вразливостей системи безпеки, перш ніж ними скористаються злочинці. Я сподіваюся, що індустрія безпеки програмного забезпечення розширить роботу, яку вони вже виконують у цій сфері, це має бути їхньою головною турботою.
Звичайно, тому ми також не повинні намагатися тимчасово перешкоджати людям впроваджувати нові розробки в області штучного інтелекту, як деякі припускають. Кіберзлочинці не перестануть створювати нові інструменти. Ті, хто хоче використовувати штучний інтелект для розробки ядерної зброї та біотерористичних атак, не зупиняться. Зусилля, спрямовані на їх припинення, мають продовжуватися в тому ж темпі.
Існує також відповідний ризик на глобальному рівні: гонка озброєнь у сфері штучного інтелекту, який може бути використаний для розробки та запуску кібератак проти інших держав. Уряд кожної країни хоче мати найпотужнішу доступну технологію для стримування атак противника. Ця мотивація «не залишати нікого першим» може спровокувати гонку за створенням дедалі небезпечнішої кіберзброї. Усім стане гірше.
Це страшна ідея, але ми маємо історію як орієнтир. Незважаючи на недоліки світового режиму нерозповсюдження ядерної зброї, він запобіг тотальній ядерній війні, якої моє покоління боялося. Уряди повинні розглянути можливість створення глобального агентства з штучного інтелекту, подібного до Міжнародного агентства з атомної енергії.
ШІ забере роботу людей
Основний вплив штучного інтелекту на роботу в найближчі роки полягатиме в тому, щоб допомагати людям виконувати свою роботу ефективніше. Це вірно незалежно від того, працюєте ви на фабриці чи в офісі, займаючись дзвінками про продажі та кредиторською заборгованістю. Згодом штучний інтелект зможе добре висловлюватися, складати електронні листи та керувати вашою папкою "Вхідні" за вас. Просто написавши запит англійською або будь-якою іншою мовою, ви можете отримати той PPT, який хочете.
Як я стверджував у своїй лютневій статті, підвищення продуктивності корисно для суспільства. Це дає людям більше часу для інших справ на роботі та вдома. Потреба в людях, які допомагають, ніколи не зникне, наприклад, у викладанні, догляді за хворими та людьми похилого віку. Але деяким працівникам потрібна підтримка та перенавчання, оскільки ми переходимо на робоче місце, кероване ШІ. Це обов’язок урядів і компаній – впоратися з тим, щоб працівники не залишилися позаду – без руйнування життя людей, яке трапляється, коли в США втрачаються робочі місця на виробництві.
Крім того, майте на увазі, що це не перший випадок, коли нові технології призводять до значних змін на ринку праці. Я не думаю, що вплив штучного інтелекту буде таким величезним, як промислова революція, але він, безумовно, буде подібним до впливу впровадження персонального комп’ютера. Програми для обробки текстів не знищили офісну роботу, але змінили її назавжди. Роботодавцям і працівникам довелося адаптуватися, і вони це зробили. Трансформація, здійснена штучним інтелектом, буде непростою, але є всі підстави вважати, що ми зможемо зменшити руйнування життя людей і засобів до існування.
ШІ успадкує наші упередження та створить їх
Галюцинації — коли штучний інтелект впевнено робить заяви, які просто не відповідають істині — зазвичай виникають через те, що машина не розуміє ваш запит. Попросіть ШІ написати коротку історію про відпустку на Місяці, і він може дати вам творчу відповідь. Але якщо ви попросите штучний інтелект написати для вас план подорожі до Танзанії, він може відправити вас у готель, якого навіть не існує.
Інший ризик штучного інтелекту полягає в тому, що він відображає або навіть посилює упередження людей щодо певної статі, раси, етнічної приналежності тощо.
Щоб зрозуміти, чому виникають галюцинації та упередження, важливо знати, як працюють найпоширеніші моделі ШІ сьогодні. По суті, це дуже складні версії коду, які дозволяють вашій програмі електронної пошти передбачити наступне слово, яке ви збираєтеся ввести: вони сканують величезні обсяги тексту (у деяких випадках майже весь текст, доступний в Інтернеті), а потім аналізують, щоб знаходити закономірності в людській мові.
Коли ви ставите запитання ШІ, він переглядає слова, які ви використовуєте, а потім шукає фрагменти тексту, які часто асоціюються з цими словами. Якщо ви напишете «перерахувати інгредієнти для млинців», штучний інтелект може помітити, що такі слова, як «борошно, цукор, сіль, розпушувач, молоко та яйця», часто зустрічаються у фразі. Потім, виходячи з того, що йому відомо про порядок, у якому зазвичай з’являються ці слова, він генерує відповідь. (Моделі AI, які працюють таким чином, використовують так звані трансформери. GPT-4 є однією з таких моделей).
Цей процес пояснює, чому ШІ може галюцинувати або бути упередженим. Це не має контексту до запитання, яке ви поставили, або до того, що ви сказали. Якщо ви скажете штучному інтелекту, що він зробив помилку, він може сказати "вибачте, я зробив помилку". Але це лише ілюзія, насправді вона нічого не вносить. Він говорить це тому, що просканував достатньо тексту, щоб знати, що «вибачте, я зробив помилку» — це фраза, яку люди часто пишуть після того, як хтось інший їх виправив.
Подібним чином моделі ШІ успадковують упередження, вбудовані в текст, на якому їх навчали. Якщо читати багато статей про лікарів, і в статтях здебільшого згадуються лікарі-чоловіки, то відповідь припускатиме, що більшість лікарів – чоловіки.
Хоча деякі дослідники стверджують, що галюцинації є невід'ємною проблемою, я не згоден. Я оптимістично налаштований, що з часом моделі штучного інтелекту навчаться відрізняти факт від вигадки. Наприклад, OpenAI провів багатообіцяючі дослідження в цій галузі.
Інші групи, зокрема Інститут Алана Тюрінга та Національний інститут стандартів і технологій, також працюють над усуненням упередженості. Один із підходів полягає в тому, щоб вбудувати людські цінності та міркування вищого рівня в ШІ. Це схоже на те, як працюють самосвідомі люди: можливо, ви думаєте, що більшість лікарів — чоловіки, але ви достатньо усвідомлюєте це припущення, щоб знати, що вам потрібно свідомо боротися з цим. Штучний інтелект може працювати подібним чином, особливо якщо моделі розроблені людьми з різного походження.
Зрештою, кожен, хто використовує ШІ, повинен знати про проблему упередженості та стати поінформованим користувачем. Документи, які ви просите написати ШІ, можуть містити упередженість і фактичні помилки. Вам потрібно вивчити упередження ШІ, а також свої власні.
Студенти не навчаться писати, тому що ШІ зробить це за них
Багато викладачів хвилюються, що штучний інтелект завадить їхній співпраці зі студентами. У епоху, коли кожен, хто має підключення до Інтернету, може використовувати штучний інтелект для написання пристойної першої чернетки дипломної роботи, що заважає студенту віддати її як свою власну?
Вже існують інструменти штучного інтелекту, які можуть навчитися визначати, чи есе написано людиною чи комп’ютером, тож учителі можуть визначити, коли учні роблять домашнє завдання. Але деякі вчителі не намагаються перешкодити студентам використовувати штучний інтелект у своїй письмі — вони насправді заохочують це.
У січні досвідчена вчителька англійської на ім’я Чері Шилдс написала в Education Week про те, як вона використовує ChatGPT у своєму класі. ChatGPT допомагає своїм учням у всьому, від початку письма до написання планів, і навіть надає відгуки про їхні завдання.
«Вчителі повинні прийняти технологію штучного інтелекту як ще один інструмент, який можуть використовувати учні», — написала вона. "Подібно до того, як ми колись навчали студентів, як робити якісний пошук у Google, викладачі повинні розробити чіткі уроки про те, як боти ChatGPT можуть допомагати писати есе. Визнання існування штучного інтелекту та допомога студентам у його використанні може революціонізувати спосіб нашого навчання". У кожного вчителя є час, щоб навчитися та використовувати нові інструменти, але такі педагоги, як Чері Шилдс, наводять вагомий аргумент, що ті, у кого є час, принесуть велику користь.
Це нагадує мені 1970-1980-ті роки, коли електронні калькулятори стали популярними. Деякі вчителі математики боялися, що учні перестануть вивчати базову арифметику, але інші прийняли нову технологію та зосередилися на мисленні, яке стоїть за арифметикою.
ШІ також може допомогти з письмом і критичним мисленням. Особливо на початку, коли галюцинації та упередженість все ще є проблемою, викладачі можуть змусити штучний інтелект створювати есе, а потім перевіряти їх зі студентами. Освітні некомерційні організації, такі як Khan Academy, яку я фінансую, і OER Project надають викладачам і студентам безкоштовні онлайн-інструменти, які приділяють значну увагу тестуванню тверджень. Немає більш важливої навички, ніж знати, як відрізнити справжнє від підробки.
Нам дійсно потрібно переконатися, що освітнє програмне забезпечення допомагає ліквідувати розрив у досягненнях, а не погіршувати його. Сучасне програмне забезпечення насамперед орієнтоване на студентів, які вже мають мотивацію до навчання. Він може створити для вас навчальний план, вказати вам хороші ресурси та перевірити ваші знання. Однак він ще не знає, як залучити вас до предметів, які вас поки не цікавлять. Це проблема, яку розробники повинні вирішити, щоб усі типи студентів могли отримати користь від ШІ.
**Що далі? **
Я вважаю, що у нас є ще більше підстав для оптимізму, оскільки ми можемо керувати ризиками ШІ, максимізуючи його переваги. Але нам потрібно діяти швидко.
Уряди повинні розвивати досвід штучного інтелекту, щоб розробити обґрунтовані закони та нормативні акти щодо цієї нової технології. Їм потрібно мати справу з дезінформацією та дипфейками, загрозами безпеці, змінами на ринку праці та впливом на освіту. Лише один приклад: закон має роз’яснити, які способи використання дипфейків є законними та як позначаються дипфейки, щоб кожен розумів, що те, що вони бачать або чують, є фейком.
Політичні лідери повинні мати можливість вести інформований, продуманий діалог з виборцями. Їм також потрібно вирішити, наскільки співпрацювати з іншими країнами з цих питань, а не йти самотужки.
У приватному секторі компанії ШІ мають працювати безпечно та відповідально. Це включає захист конфіденційності людей, забезпечення того, що моделі штучного інтелекту відображають фундаментальні людські цінності, мінімізацію упередженості для отримання користі якомога більшої кількості людей і запобігання використанню технологій злочинцями чи терористами. Компанії в багатьох секторах економіки повинні допомогти своїм співробітникам перейти на роботу, орієнтовану на ШІ, щоб ніхто не залишився осторонь. Клієнти завжди повинні знати, що вони взаємодіють з ШІ, а не з людьми.
Нарешті, я закликаю всіх приділяти якомога більше уваги розвитку штучного інтелекту. Це найбільш трансформаційна інновація, яку ми побачимо в нашому житті, і здорове громадське обговорення залежатиме від розуміння всіма цієї технології, її переваг і ризиків. Переваги штучного інтелекту будуть величезними, і найкращою причиною вважати, що ми можемо контролювати ризик, є те, що ми це зробили.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Білл Гейтс: Ризики штучного інтелекту реальні, але ними можна керувати
Автор: Білл Гейтс
Джерело: Gatesnotes
Ризики, пов’язані зі штучним інтелектом, можуть здатися величезними. Що відбувається з людьми, роботу яких забирають розумні машини? Чи вплине штучний інтелект на результати виборів? Що, якщо майбутній штучний інтелект вирішить, що люди більше не потрібні, і захоче нас позбутися?
Це законні питання, і до занепокоєння, яке вони викликають, потрібно поставитися серйозно. Але у нас є вагомі підстави вірити, що ми можемо вирішити ці проблеми: це не перший випадок, коли велика інновація принесла нові загрози, які потрібно контролювати, і ми з ними стикалися раніше.
Незалежно від того, чи то була поява автомобіля, чи розквіт персонального комп’ютера та Інтернету, люди пережили й інші трансформаційні моменти, які, незважаючи на численні потрясіння, завершилися на краще. Невдовзі після того, як на дорогу вийшли перші автомобілі, сталися перші аварії. Але замість того, щоб заборонити автомобілі, ми прийняли обмеження швидкості, стандарти безпеки, вимоги до водійських прав, закони про водіння в нетверезому стані та інші правила дорожнього руху.
Зараз ми перебуваємо на ранніх етапах ще однієї глибокої трансформації, епохи штучного інтелекту. Це схоже на епоху невизначеності перед обмеженнями швидкості та пасками безпеки. Штучний інтелект змінюється так швидко, що незрозуміло, що буде далі. Ми стикаємося з великими питаннями про те, як працюють сучасні технології, як люди використовуватимуть їх зловмисно та як штучний інтелект змінить суспільство та окремих людей.
У такі моменти природно відчувати неспокій. Але історія показує, що можна подолати виклики, пов’язані з новими технологіями.
Колись я написав статтю про те, як штучний інтелект повністю змінить наше життя. Це допоможе вирішити проблеми в галузі охорони здоров’я, освіти, зміни клімату тощо, які раніше здавалися нерозв’язними. Фонд Гейтса зробив це пріоритетом, і наш генеральний директор Марк Сузман нещодавно поділився своїми думками щодо ролі ШІ у зменшенні нерівності.
У майбутньому я розповім більше про переваги штучного інтелекту, але в цій публікації я хочу розглянути деякі проблеми, які я часто чую та читаю, багато з яких я поділяю, і пояснити, як я їх бачу.
З усіх написів про ризики штучного інтелекту стає зрозумілим те, що ніхто не має відповідей на всі питання. Іншим очевидним моментом є те, що майбутнє штучного інтелекту не таке похмуре, як деякі уявляють, і не таке райдужне, як інші. Ризики реальні, але я оптимістично налаштований, що ними можна керувати. Розглядаючи кожну з цих проблем, я повернусь до наступних тем:
У цій статті я зосереджуся на існуючих або неминучих ризиках. Я не буду обговорювати, що відбувається, коли ми розробляємо штучний інтелект, який може вивчати будь-яку тему чи завдання, на відміну від сучасного спеціалізованого штучного інтелекту. Незалежно від того, чи дійдемо ми до цього в наступне десятиліття чи століття, суспільство має серйозні питання для розгляду. Що, якби суперінтелектуальний ШІ ставив перед собою власні цілі? Що, якщо вони конфліктують з людьми? Чи варто нам створювати суперштучний інтелект?
Однак міркувати про ці довгострокові ризики не варто за рахунок більш безпосередніх ризиків.
Глибокі фейки та дезінформація, створені ШІ, можуть знищити вибори та демократію
Використання технологій для поширення брехні та дезінформації не є чимось новим. Люди століттями робили це за допомогою книг і листівок. Це стало простіше з появою текстових процесорів, лазерних принтерів, електронної пошти та соціальних мереж.
Штучний інтелект взяв на себе проблему підробки тексту та розширив її так, що майже кожен може створювати підроблені аудіо та відео, відомі як deepfakes. Якщо ви отримаєте голосове повідомлення, схоже на те, що ваша дитина каже: «Мене викрали, будь ласка, надішліть 1000 доларів на цей банківський рахунок протягом наступних 10 хвилин і не телефонуйте в поліцію», це може мати жахливий емоційний вплив. набагато потужніший, ніж електронний лист, який говорить те саме.
У більшому масштабі дипфейки, згенеровані штучним інтелектом, можуть використовуватися для спроб вплинути на вибори. Звичайно, не потрібні складні технології, щоб поставити під сумнів законного переможця виборів, але штучний інтелект зробить це набагато простіше.
Вже з’явилися фейкові відео з фейковими кадрами відомих політиків. Уявіть собі, що вранці перед виборами відео, на якому кандидат грабує банк, стає вірусним. Це була неправда, але новинним організаціям і кампанії знадобилися години, щоб це довести. Скільки людей переглянуть це відео та змінять свій голос в останню хвилину? Це може схилити терези, особливо якщо гонка буде напруженою.
Нещодавно, коли співзасновник OpenAI Сем Альтман давав свідчення в комітеті Сенату США, сенатори від обох партій говорили про вплив ШІ на вибори та демократію. Я сподіваюся, що ця тема й надалі буде на порядку денному кожного.
Ми точно не вирішили проблему дезінформації та дипфейків. Але дві речі роблять мене обережним оптимістом. По-перше, люди мають здатність навчитися не приймати нічого за чисту монету. Протягом багатьох років користувачі електронної пошти загрузли в шахрайстві, видаючи себе за нігерійських принців, які обіцяли надати номери кредитних карток в обмін на величезні винагороди. Але з часом більшість людей вчаться думати двічі. У міру того, як обман стає все більш витонченим, багато цілей стають більш підступними. Нам потрібно створити такий самий потенціал для deepfakes.
Ще одна річ, на яку я вважаю надію, це те, що штучний інтелект може допомогти ідентифікувати дипфейки та створювати дипфейки. Наприклад, Intel розробила детектор глибоких фейків, а урядова агенція DARPA розробляє технологію, щоб визначити, чи було підроблено відео чи аудіо.
Це буде ітеративний процес: хтось знайде спосіб виявити підробку, хтось придумає, як їй протистояти, хтось розробить контрзаходи і так далі. Це не буде ідеальним, але ми також не будемо на межі розуму.
ШІ полегшить атаку на людей і уряди
Сьогодні, коли хакери сподіваються знайти в програмному забезпеченні вразливість, яку можна використати, вони роблять це за допомогою «грубої сили» — пишуть код і атакують потенційні слабкі місця, поки вразливість не буде виявлена. Це передбачає багато обхідних шляхів, тому потрібен час і терпіння.
Фахівці з безпеки, які хочуть боротися з хакерами, повинні робити те саме. Кожен патч програмного забезпечення, який ви встановлюєте на свій телефон чи ноутбук, означає години пошуку.
Моделі AI прискорять цей процес, допомагаючи хакерам писати більш ефективний код. Вони також можуть використовувати загальнодоступну інформацію особи, як-от місце роботи та друзів, для розробки більш досконалих фішингових атак, ніж доступні наразі.
Хороша новина полягає в тому, що ШІ — це палиця з двома кінцями. Служби безпеки в уряді та приватному секторі повинні мати новітні інструменти для пошуку та усунення вразливостей системи безпеки, перш ніж ними скористаються злочинці. Я сподіваюся, що індустрія безпеки програмного забезпечення розширить роботу, яку вони вже виконують у цій сфері, це має бути їхньою головною турботою.
Звичайно, тому ми також не повинні намагатися тимчасово перешкоджати людям впроваджувати нові розробки в області штучного інтелекту, як деякі припускають. Кіберзлочинці не перестануть створювати нові інструменти. Ті, хто хоче використовувати штучний інтелект для розробки ядерної зброї та біотерористичних атак, не зупиняться. Зусилля, спрямовані на їх припинення, мають продовжуватися в тому ж темпі.
Існує також відповідний ризик на глобальному рівні: гонка озброєнь у сфері штучного інтелекту, який може бути використаний для розробки та запуску кібератак проти інших держав. Уряд кожної країни хоче мати найпотужнішу доступну технологію для стримування атак противника. Ця мотивація «не залишати нікого першим» може спровокувати гонку за створенням дедалі небезпечнішої кіберзброї. Усім стане гірше.
Це страшна ідея, але ми маємо історію як орієнтир. Незважаючи на недоліки світового режиму нерозповсюдження ядерної зброї, він запобіг тотальній ядерній війні, якої моє покоління боялося. Уряди повинні розглянути можливість створення глобального агентства з штучного інтелекту, подібного до Міжнародного агентства з атомної енергії.
ШІ забере роботу людей
Основний вплив штучного інтелекту на роботу в найближчі роки полягатиме в тому, щоб допомагати людям виконувати свою роботу ефективніше. Це вірно незалежно від того, працюєте ви на фабриці чи в офісі, займаючись дзвінками про продажі та кредиторською заборгованістю. Згодом штучний інтелект зможе добре висловлюватися, складати електронні листи та керувати вашою папкою "Вхідні" за вас. Просто написавши запит англійською або будь-якою іншою мовою, ви можете отримати той PPT, який хочете.
Як я стверджував у своїй лютневій статті, підвищення продуктивності корисно для суспільства. Це дає людям більше часу для інших справ на роботі та вдома. Потреба в людях, які допомагають, ніколи не зникне, наприклад, у викладанні, догляді за хворими та людьми похилого віку. Але деяким працівникам потрібна підтримка та перенавчання, оскільки ми переходимо на робоче місце, кероване ШІ. Це обов’язок урядів і компаній – впоратися з тим, щоб працівники не залишилися позаду – без руйнування життя людей, яке трапляється, коли в США втрачаються робочі місця на виробництві.
Крім того, майте на увазі, що це не перший випадок, коли нові технології призводять до значних змін на ринку праці. Я не думаю, що вплив штучного інтелекту буде таким величезним, як промислова революція, але він, безумовно, буде подібним до впливу впровадження персонального комп’ютера. Програми для обробки текстів не знищили офісну роботу, але змінили її назавжди. Роботодавцям і працівникам довелося адаптуватися, і вони це зробили. Трансформація, здійснена штучним інтелектом, буде непростою, але є всі підстави вважати, що ми зможемо зменшити руйнування життя людей і засобів до існування.
ШІ успадкує наші упередження та створить їх
Галюцинації — коли штучний інтелект впевнено робить заяви, які просто не відповідають істині — зазвичай виникають через те, що машина не розуміє ваш запит. Попросіть ШІ написати коротку історію про відпустку на Місяці, і він може дати вам творчу відповідь. Але якщо ви попросите штучний інтелект написати для вас план подорожі до Танзанії, він може відправити вас у готель, якого навіть не існує.
Інший ризик штучного інтелекту полягає в тому, що він відображає або навіть посилює упередження людей щодо певної статі, раси, етнічної приналежності тощо.
Щоб зрозуміти, чому виникають галюцинації та упередження, важливо знати, як працюють найпоширеніші моделі ШІ сьогодні. По суті, це дуже складні версії коду, які дозволяють вашій програмі електронної пошти передбачити наступне слово, яке ви збираєтеся ввести: вони сканують величезні обсяги тексту (у деяких випадках майже весь текст, доступний в Інтернеті), а потім аналізують, щоб знаходити закономірності в людській мові.
Коли ви ставите запитання ШІ, він переглядає слова, які ви використовуєте, а потім шукає фрагменти тексту, які часто асоціюються з цими словами. Якщо ви напишете «перерахувати інгредієнти для млинців», штучний інтелект може помітити, що такі слова, як «борошно, цукор, сіль, розпушувач, молоко та яйця», часто зустрічаються у фразі. Потім, виходячи з того, що йому відомо про порядок, у якому зазвичай з’являються ці слова, він генерує відповідь. (Моделі AI, які працюють таким чином, використовують так звані трансформери. GPT-4 є однією з таких моделей).
Цей процес пояснює, чому ШІ може галюцинувати або бути упередженим. Це не має контексту до запитання, яке ви поставили, або до того, що ви сказали. Якщо ви скажете штучному інтелекту, що він зробив помилку, він може сказати "вибачте, я зробив помилку". Але це лише ілюзія, насправді вона нічого не вносить. Він говорить це тому, що просканував достатньо тексту, щоб знати, що «вибачте, я зробив помилку» — це фраза, яку люди часто пишуть після того, як хтось інший їх виправив.
Подібним чином моделі ШІ успадковують упередження, вбудовані в текст, на якому їх навчали. Якщо читати багато статей про лікарів, і в статтях здебільшого згадуються лікарі-чоловіки, то відповідь припускатиме, що більшість лікарів – чоловіки.
Хоча деякі дослідники стверджують, що галюцинації є невід'ємною проблемою, я не згоден. Я оптимістично налаштований, що з часом моделі штучного інтелекту навчаться відрізняти факт від вигадки. Наприклад, OpenAI провів багатообіцяючі дослідження в цій галузі.
Інші групи, зокрема Інститут Алана Тюрінга та Національний інститут стандартів і технологій, також працюють над усуненням упередженості. Один із підходів полягає в тому, щоб вбудувати людські цінності та міркування вищого рівня в ШІ. Це схоже на те, як працюють самосвідомі люди: можливо, ви думаєте, що більшість лікарів — чоловіки, але ви достатньо усвідомлюєте це припущення, щоб знати, що вам потрібно свідомо боротися з цим. Штучний інтелект може працювати подібним чином, особливо якщо моделі розроблені людьми з різного походження.
Зрештою, кожен, хто використовує ШІ, повинен знати про проблему упередженості та стати поінформованим користувачем. Документи, які ви просите написати ШІ, можуть містити упередженість і фактичні помилки. Вам потрібно вивчити упередження ШІ, а також свої власні.
Студенти не навчаться писати, тому що ШІ зробить це за них
Багато викладачів хвилюються, що штучний інтелект завадить їхній співпраці зі студентами. У епоху, коли кожен, хто має підключення до Інтернету, може використовувати штучний інтелект для написання пристойної першої чернетки дипломної роботи, що заважає студенту віддати її як свою власну?
Вже існують інструменти штучного інтелекту, які можуть навчитися визначати, чи есе написано людиною чи комп’ютером, тож учителі можуть визначити, коли учні роблять домашнє завдання. Але деякі вчителі не намагаються перешкодити студентам використовувати штучний інтелект у своїй письмі — вони насправді заохочують це.
У січні досвідчена вчителька англійської на ім’я Чері Шилдс написала в Education Week про те, як вона використовує ChatGPT у своєму класі. ChatGPT допомагає своїм учням у всьому, від початку письма до написання планів, і навіть надає відгуки про їхні завдання.
«Вчителі повинні прийняти технологію штучного інтелекту як ще один інструмент, який можуть використовувати учні», — написала вона. "Подібно до того, як ми колись навчали студентів, як робити якісний пошук у Google, викладачі повинні розробити чіткі уроки про те, як боти ChatGPT можуть допомагати писати есе. Визнання існування штучного інтелекту та допомога студентам у його використанні може революціонізувати спосіб нашого навчання". У кожного вчителя є час, щоб навчитися та використовувати нові інструменти, але такі педагоги, як Чері Шилдс, наводять вагомий аргумент, що ті, у кого є час, принесуть велику користь.
Це нагадує мені 1970-1980-ті роки, коли електронні калькулятори стали популярними. Деякі вчителі математики боялися, що учні перестануть вивчати базову арифметику, але інші прийняли нову технологію та зосередилися на мисленні, яке стоїть за арифметикою.
ШІ також може допомогти з письмом і критичним мисленням. Особливо на початку, коли галюцинації та упередженість все ще є проблемою, викладачі можуть змусити штучний інтелект створювати есе, а потім перевіряти їх зі студентами. Освітні некомерційні організації, такі як Khan Academy, яку я фінансую, і OER Project надають викладачам і студентам безкоштовні онлайн-інструменти, які приділяють значну увагу тестуванню тверджень. Немає більш важливої навички, ніж знати, як відрізнити справжнє від підробки.
Нам дійсно потрібно переконатися, що освітнє програмне забезпечення допомагає ліквідувати розрив у досягненнях, а не погіршувати його. Сучасне програмне забезпечення насамперед орієнтоване на студентів, які вже мають мотивацію до навчання. Він може створити для вас навчальний план, вказати вам хороші ресурси та перевірити ваші знання. Однак він ще не знає, як залучити вас до предметів, які вас поки не цікавлять. Це проблема, яку розробники повинні вирішити, щоб усі типи студентів могли отримати користь від ШІ.
**Що далі? **
Я вважаю, що у нас є ще більше підстав для оптимізму, оскільки ми можемо керувати ризиками ШІ, максимізуючи його переваги. Але нам потрібно діяти швидко.
Уряди повинні розвивати досвід штучного інтелекту, щоб розробити обґрунтовані закони та нормативні акти щодо цієї нової технології. Їм потрібно мати справу з дезінформацією та дипфейками, загрозами безпеці, змінами на ринку праці та впливом на освіту. Лише один приклад: закон має роз’яснити, які способи використання дипфейків є законними та як позначаються дипфейки, щоб кожен розумів, що те, що вони бачать або чують, є фейком.
Політичні лідери повинні мати можливість вести інформований, продуманий діалог з виборцями. Їм також потрібно вирішити, наскільки співпрацювати з іншими країнами з цих питань, а не йти самотужки.
У приватному секторі компанії ШІ мають працювати безпечно та відповідально. Це включає захист конфіденційності людей, забезпечення того, що моделі штучного інтелекту відображають фундаментальні людські цінності, мінімізацію упередженості для отримання користі якомога більшої кількості людей і запобігання використанню технологій злочинцями чи терористами. Компанії в багатьох секторах економіки повинні допомогти своїм співробітникам перейти на роботу, орієнтовану на ШІ, щоб ніхто не залишився осторонь. Клієнти завжди повинні знати, що вони взаємодіють з ШІ, а не з людьми.
Нарешті, я закликаю всіх приділяти якомога більше уваги розвитку штучного інтелекту. Це найбільш трансформаційна інновація, яку ми побачимо в нашому житті, і здорове громадське обговорення залежатиме від розуміння всіма цієї технології, її переваг і ризиків. Переваги штучного інтелекту будуть величезними, і найкращою причиною вважати, що ми можемо контролювати ризик, є те, що ми це зробили.