Чи можуть водяні знаки підвищити довіру до AIGC під час потоку DeepFake?

Автор: Клер Лейбович

Джерело: MIT Technology Review

Джерело зображення: створено інструментом Unbounded AI

AIGC явно потребує прозорості, але цінність таких заходів, як водяні знаки, неочевидна.

Наприкінці травня зображення Пентагону, що горить, стали вірусними. І за милі від нього помічники Білого дому та репортери намагалися з’ясувати, чи справжні зображення вибуху будівлі.

Виявляється, ці знімки створив штучний інтелект. Але урядовці, журналісти та технологічні компанії не змогли вжити заходів, доки зображення не мали реального впливу. Це не тільки створило плутанину, але й призвело до падіння фінансових ринків.

Маніпулятивний і оманливий контент — явище не нове. Але штучний інтелект робить створення контенту простішим і часто більш реалістичним. Хоча штучний інтелект можна використовувати для художнього вираження чи покращення доступності, його також можна зловживати для сумнівів у політичних подіях або для наклепу, переслідування та експлуатації.

Незалежно від того, сприяють чесності виборів, захищають докази, зменшують кількість дезінформації чи зберігають історичні записи, аудиторія може отримати вигоду, дізнавшись, чи був контент маніпульований чи створений штучним інтелектом. Якби зображення Пентагону містило створені штучним інтелектом артефакти, технологічні платформи могли б швидше вжити заходів; з часом вони могли б зменшити розповсюдження зображення або позначити вміст тегами, щоб аудиторія могла легше ідентифікувати зображення як підробку. Це дозволяє уникнути плутанини та, відповідно, нестабільності ринку.

Немає сумніву, що нам потрібна більша прозорість, щоб відрізнити справжнє від підробки. Минулого місяця Білий дім обміркував, як це можна зробити, оголосивши, що сім найвідоміших компаній зі штучного інтелекту пообіцяли «розробити надійні технічні заходи, щоб переконатися, що користувачі знають, який контент створює ШІ, наприклад, водяні знаки».

Хорошим початком є такі методи розкриття, як водяні знаки. Однак ці методи є складними на практиці, і вони не є швидким та ефективним рішенням. Незрозуміло, чи водяний знак допоміг би користувачам Twitter ідентифікувати підроблене зображення Пентагону, чи голос Трампа в недавній рекламній кампанії був синтезований. І чи інші підходи, такі як розкриття походження та метаданих, мають більший вплив? Найважливіше: чи просто розголошення того, що контент створено штучним інтелектом, допомагає аудиторії відрізнити факти від вигадки чи пом’якшує реальну шкоду?

Щоб відповісти на ці запитання, нам потрібно пояснити, що означають водяні знаки та інші типи методів розкриття. Ми повинні чітко розуміти, що вони собою являють, що ми можемо розумно очікувати від них, і які проблеми існують, навіть якщо ці методи будуть запроваджені. Якими б педантичними не здавалися дебати щодо визначень, широке використання терміну «водяний знак» наразі викликає плутанину в галузі ШІ. Визначення того, що означають ці різні підходи, є важливою передумовою для співпраці в галузі ШІ та домовленості щодо стандартів розкриття інформації. Інакше люди будуть говорити між собою.

Я бачив цю проблему на власні очі, коли очолював багатогалузеву роботу некомерційної організації Partnership on Artificial Intelligence (PAI) із розробки вказівок щодо відповідальних синтетичних медіа. Такі організації, як OpenAI, Adobe, Witness, Microsoft, BBC та інші, пообіцяли .

З одного боку, водяний знак може стосуватися сигналу, видимого для кінцевого користувача (наприклад, слова «Getty Images», надруковані на носії постачальника зображень). Однак це також може стосуватися технічних сигналів, вбудованих у вміст, які не помітні неозброєним оком або вухом. Обидва типи водяних знаків, відомі як «пряме» та «непряме» розкриття інформації, мають вирішальне значення для забезпечення прозорості. Таким чином, будь-яке обговорення проблем і можливостей нанесення водяних знаків має підкреслювати, який тип нанесення водяних знаків оцінюється.

Щоб ще більше ускладнити ситуацію, водяні знаки часто використовують як «загальний» термін для загального акту надання інформації про вміст, хоча існує багато підходів. Уважне читання обіцянки Білого дому виявляє інший метод розкриття, відомий як «походження», який покладається на криптографічні підписи, а не на невидимі сигнали. Однак у популярних ЗМІ це також часто описують як водяний знак. Якщо ви вважаєте ці плутані терміни заплутаними, не хвилюйтеся, ви не самотні. Чіткість має значення: якщо ми навіть не можемо домовитися про те, як називати різні технології, не буде послідовних і надійних заходів прозорості у сфері ШІ.

У відповідь я пропоную шість попередніх запитань, які можуть допомогти нам оцінити корисність водяних знаків та інших методів розкриття ШІ. Ці запитання мають допомогти переконатися, що всі сторони обговорюють однакові проблеми та що ми можемо оцінити кожен підхід комплексно та послідовно.

**Чи можна підробити сам водяний знак? **

За іронією долі, технічні сигнали, які рекламуються як корисні для визначення походження вмісту та того, як він був змінений, іноді самі по собі можуть бути підроблені. Не дивлячись на труднощі, як невидимі, так і видимі водяні знаки можна видалити або підробити. Легкість, з якою можна підробити водяні знаки, залежить від типу вмісту.

**Чи однакова дійсність водяного знака для різних типів вмісту? **

Хоча невидимі водяні знаки часто рекламують як широке рішення для роботи з генеративним штучним інтелектом, такими вбудованими сигналами легше маніпулювати в тексті, ніж в аудіовізуальному вмісті. Ймовірно, це пояснює, чому в записці Білого дому йдеться про те, що водяні знаки застосовуватимуться до всіх типів штучного інтелекту, але чітко пояснюється, що компанія зобов’язується розкривати лише аудіовізуальні матеріали. Тому, розробляючи політику штучного інтелекту, необхідно вказати, як методи розкриття, такі як невидимі водяні знаки, відрізняються за своєю ефективністю та ширшою технічною надійністю для різних типів вмісту. Рішення для розкриття може бути корисним для зображень, але не для тексту.

**Хто може виявити ці невидимі сигнали? **

Навіть якщо індустрія штучного інтелекту погодиться запровадити невидимі водяні знаки, неминуче виникне глибше питання про те, хто має здатність виявляти ці сигнали та, зрештою, робити авторитетні заяви на їх основі. Хто вирішує, чи створено контент штучним інтелектом, чи, відповідно, вміст вводить в оману? Якби кожен міг виявляти водяні знаки, це могло б зробити їх уразливими для зловживання зловмисниками. З іншого боку, контроль доступу для виявлення невидимих водяних знаків, особливо якщо в ньому домінують великі компанії зі штучним інтелектом, може зменшити відкритість і посилити технічну перевірку доступу. Застосування таких методів розкриття без визначення того, як ними керувати, може призвести до недовіри та неефективності цих методів. І якщо ці технології не будуть широко впроваджені, зловмисники можуть звернутися до технологій з відкритим кодом, у яких відсутні невидимі водяні знаки, для створення шкідливого та оманливого вмісту.

**Чи захищають водяні знаки конфіденційність? **

Як показала велика робота правозахисної та технологічної групи Witness, будь-яка система відстеження, яка переміщається з вмістом у часі, може викликати занепокоєння щодо конфіденційності для творців контенту. Індустрія штучного інтелекту повинна гарантувати, що водяні знаки та інші методи розкриття розроблені таким чином, щоб вони не містили ідентифікаційної інформації, яка може наражати творців на небезпеку. Наприклад, правозахисники можуть фіксувати порушення за допомогою фотографій із водяними знаками ідентифікаційної інформації, що робить їх легкою мішенню для авторитарних урядів. Навіть знання про те, що водяний знак може розкрити особу активіста, може справити жахливий вплив на висловлювання та дискурс. Розробники політики повинні надати більш чіткі вказівки щодо того, як розкриття інформації повинно бути розроблено для захисту конфіденційності творців контенту, включаючи достатньо корисних і практичних деталей.

**Чи допомагає видиме розкриття інформації аудиторії зрозуміти роль генеративного ШІ? **

Навіть якщо технічно невидимий водяний знак може захистити конфіденційність протягом тривалого часу, він може не допомогти аудиторії інтерпретувати вміст. У той час як пряме розкриття інформації (наприклад, видимі водяні знаки) інтуїтивно привабливо забезпечує більшу прозорість, таке розкриття не обов’язково має бажаний ефект і, як правило, сприймається як патерналістське, упереджене та каральне, навіть якщо справжність вмісту не було зазначено. Крім того, прямі розкриття інформації можуть бути неправильно витлумачені аудиторією. У моєму дослідженні 2021 року учасник неправильно зрозумів мітку Twitter «маніпульовані медіа», вважаючи, що ним маніпулює «медіа», а не вміст конкретного відео, яке редагується, щоб ввести його в оману. Хоча продовжують з’являтися дослідження того, як різні дизайни UX впливають на сприйняття аудиторією розкриття контенту, більшість досліджень зосереджено на великих технологічних компаніях і переважно в таких різноманітних контекстах, як вибори. Вивчення ефектів прямого розкриття інформації та взаємодії з користувачем, а не покладатися виключно на інтуїтивну привабливість маркування контенту, створеного штучним інтелектом, має вирішальне значення для ефективного прийняття рішень, що підвищує прозорість.

**Чи зменшить довіру людей до «справжнього» вмісту розміщення видимого водяного знака на AIGC? **

Можливо, найскладнішим суспільним питанням для оцінки є те, як скоординоване пряме розкриття вплине на широке ставлення до інформації та потенційно знизить довіру до того, що є «автентичним». Якщо організації штучного інтелекту та платформи соціальних медіа просто позначають контент як створений або модифікований штучним інтелектом — зрозумілий, але обмежений спосіб уникнути суджень про те, які твердження є оманливими чи шкідливими — як це вплине на те, як ми переглядаємо контент онлайн?

Підвищення медіаграмотності шляхом розкриття інформації є благородною справою; однак багато тих, хто працює в політичних командах у технологічних компаніях і за їх межами, стурбовані тим, що передчасне поштовх до маркування всього створеного контенту призведе до «розколу шахраїв» — несхвалення суспільством усього контенту, який може Скептицизм щодо контенту, створеного штучним інтелектом, настільки виражений, що підриває довіру до автентичного контенту, створеного не штучним інтелектом, і занепокоєння зрозуміле. Ця перспектива також призвела до невизначеності щодо того, чи всі, здавалося б, низькі ризики використання створення контенту штучного інтелекту (наприклад, опора на технологію штучного інтелекту в портретному режимі iPhone або голосовий помічник, згаданий у обіцянці Білого дому), вимагатимуть розкриття штучних інтелект Розумне залучення. Сфері необхідно працювати разом, щоб виміряти довгострокове ставлення суспільства до інформації та визначити, коли має сенс розкривати участь ШІ. Найважливіше те, що вони повинні оцінити вплив на видимість розкриття інформації, яке просто описує, як було створено контент (вказуючи, що певний контент був створений або відредагований штучним інтелектом) замість того, що нас справді хвилює: зазначення того, правдива чи хибна претензія щодо вмісту.

Проблеми, пов’язані з використанням водяних знаків та інших методів розкриття інформації, не повинні використовуватися як виправдання для бездіяльності або для обмеження прозорості. Замість цього вони повинні спонукати компанії, політиків та інших об’єднатися, щоб розробити визначення та вирішити, як оцінити неминучі компроміси під час реалізації. Лише тоді генеративна політика штучного інтелекту зможе належним чином допомогти аудиторії відрізнити факт від вигадки.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити