Могут ли водяные знаки повысить доверие к AIGC в условиях наводнения DeepFake?

Сценарист: Клэр Лейбович

Источник: Обзор технологий Массачусетского технологического института.

Источник изображения: сгенерировано инструментом Unbounded AI

AIGC явно нуждается в прозрачности, но ценность таких мер, как водяные знаки, не очевидна.

В конце мая фотографии горящего Пентагона стали вирусными. А за много миль помощники Белого дома и репортеры изо всех сил пытались выяснить, были ли кадры взрыва здания реальными.

Оказывается, эти картинки были сгенерированы искусственным интеллектом. Но правительственные чиновники, журналисты и технологические компании не могли действовать до того, как изображения оказали реальное влияние. Это не только создало путаницу, но и привело к падению финансовых рынков.

Манипулятивный и вводящий в заблуждение контент — явление не новое. Но искусственный интеллект делает создание контента проще и зачастую более реалистичным. Хотя ИИ можно использовать для художественного самовыражения или улучшения доступности, его также можно использовать не по назначению, чтобы ставить под сомнение политические события или клеветать, преследовать и эксплуатировать.

Будь то продвижение честных выборов, защита доказательств, сокращение дезинформации или сохранение исторических записей, аудитория может извлечь выгоду, зная, был ли контент сфабрикован или создан искусственным интеллектом. Если бы изображение Пентагона содержало артефакты, созданные искусственным интеллектом, технические платформы могли бы действовать быстрее; они могли бы уменьшить разброс изображения во времени или пометить контент, чтобы аудитория могла легче идентифицировать изображение как подделку. Это позволяет избежать путаницы и, как следствие, волатильности рынка.

Нет сомнений в том, что нам нужно больше прозрачности, чтобы отличать настоящее от подделки. В прошлом месяце Белый дом взвесил, как это можно сделать, объявив, что семь самых известных компаний, занимающихся искусственным интеллектом, обязались «разработать надежные технические меры, чтобы пользователи знали, какой контент создается искусственным интеллектом, например водяные знаки».

Методы раскрытия информации, такие как водяные знаки, являются хорошим началом. Однако эти методы сложны на практике и не являются быстрым и эффективным решением. Неясно, помог бы водяной знак пользователям Твиттера идентифицировать поддельное изображение Пентагона, или голос Трампа в недавней рекламной кампании был синтезирован. И имеют ли другие подходы, такие как раскрытие происхождения и метаданных, большее влияние? Самое главное, помогает ли простое раскрытие того, что контент создан искусственным интеллектом, аудитории отличить факты от вымысла или уменьшить реальный вред?

Чтобы ответить на эти вопросы, нам необходимо уточнить, что имеется в виду под водяными знаками и другими способами раскрытия информации. Нам нужно четко понимать, что они из себя представляют, что мы можем разумно ожидать от них и какие проблемы существуют, даже если эти методы будут введены. Какими бы педантичными ни казались дебаты по поводу определений, широко распространенное использование термина «водяные знаки» в настоящее время вызывает путаницу в области ИИ. Определение того, что означают эти разные подходы, является важной предпосылкой для сотрудничества в области ИИ и соглашения о стандартах раскрытия информации. В противном случае люди будут разговаривать друг с другом.

Я видел эту проблему воочию, когда возглавлял некоммерческую организацию «Партнерство по искусственному интеллекту» (PAI) в ее межсекторальных усилиях по разработке руководящих принципов для ответственных синтетических носителей, а такие организации, как OpenAI, Adobe, Witness, Microsoft, BBC и другие, дали обещание. .

С одной стороны, водяной знак может относиться к сигналу, который виден конечному пользователю (например, слова «Getty Images», напечатанные на носителе поставщика изображений). Однако это может также относиться к техническим сигналам, встроенным в контент, которые незаметны невооруженным глазом или ухом. Оба типа водяных знаков, известные как «прямое» и «косвенное» раскрытие информации, имеют решающее значение для обеспечения прозрачности. Следовательно, любое обсуждение проблем и возможностей водяных знаков должно подчеркивать, какой тип водяных знаков оценивается.

Чтобы еще больше усложнить ситуацию, водяные знаки часто используются в качестве «зонтичного» термина для общего действия по раскрытию контента, хотя существует множество подходов. Внимательное прочтение обещания Белого дома раскрывает еще один метод раскрытия информации, известный как «происхождение», который основан на криптографических подписях, а не на невидимых сигналах. Однако в популярных СМИ это также часто называют водяным знаком. Если вы обнаружите, что эти беспорядочные термины сбивают с толку, не волнуйтесь, вы не одиноки. Ясность имеет значение: если мы даже не сможем договориться о том, как называть разные технологии, не будет последовательных и надежных мер прозрачности в области ИИ.

В ответ я предлагаю шесть предварительных вопросов, которые могут помочь нам оценить полезность водяных знаков и других методов раскрытия информации об ИИ. Эти вопросы должны помочь убедиться, что все стороны обсуждают одни и те же вопросы и что мы можем оценить каждый подход всесторонним и последовательным образом.

**Можно ли подделать сам водяной знак? **

По иронии судьбы, технические сигналы, рекламируемые как полезные для определения происхождения контента и того, как он был изменен, иногда сами могут быть подделаны. Хотя это сложно, как невидимые, так и видимые водяные знаки могут быть удалены или изменены. Легкость, с которой можно подделать водяные знаки, зависит от типа контента.

**Последовательна ли действительность водяных знаков для разных типов контента? **

Хотя невидимые водяные знаки часто рекламируются как универсальное решение для работы с генеративным искусственным интеллектом, такими встроенными сигналами легче манипулировать в тексте, чем в аудиовизуальном контенте. Это, вероятно, объясняет, почему в кратком изложении Белого дома предполагается, что водяные знаки будут применяться ко всем типам ИИ, но при этом в полной мере ясно указывается, что компания обязуется раскрывать только аудиовизуальные материалы. Поэтому при разработке политики ИИ необходимо указать, как методы раскрытия информации, такие как невидимые водяные знаки, различаются по своей эффективности и более широкой технической надежности для разных типов контента. Решение для раскрытия информации может быть полезно для изображений, но не для текста.

**Кто может обнаружить эти невидимые сигналы? **

Даже если индустрия искусственного интеллекта согласится внедрить невидимые водяные знаки, неизбежно возникают более глубокие вопросы о том, кто имеет возможность обнаруживать эти сигналы и в конечном итоге делать на их основе авторитетные заявления. Кто должен решать, создан ли контент с помощью ИИ или, в более широком смысле, если контент вводит в заблуждение? Если бы каждый мог обнаруживать водяные знаки, это могло бы сделать их уязвимыми для неправомерного использования злоумышленниками. С другой стороны, контроль доступа для обнаружения невидимых водяных знаков — особенно если в нем доминируют крупные компании, занимающиеся искусственным интеллектом, — может снизить открытость и усилить технический контроль. Внедрение таких методов раскрытия без определения того, как ими управлять, может привести к недоверию и неэффективности этих методов. И если эти технологии не получат широкого распространения, злоумышленники могут обратиться к технологиям с открытым исходным кодом, в которых отсутствуют невидимые водяные знаки, для создания вредоносного и вводящего в заблуждение контента.

**Защищают ли водяные знаки конфиденциальность? **

Как показала крупная работа группы Witness, занимающейся правами человека и технологиями, любая система отслеживания, которая перемещается с контентом с течением времени, может вызвать проблемы с конфиденциальностью для создателей контента. Индустрия искусственного интеллекта должна обеспечить, чтобы водяные знаки и другие методы раскрытия информации были разработаны таким образом, чтобы они не содержали идентифицирующую информацию, которая может подвергнуть создателей риску. Например, правозащитники могут фиксировать нарушения с помощью фотографий с водяными знаками с идентифицирующей информацией, что делает их легкой мишенью для авторитарных правительств. Даже знание того, что водяной знак может раскрыть личность активиста, может иметь сдерживающий эффект на самовыражение и дискурс. Директивные органы должны дать более четкие указания о том, как следует раскрывать информацию для защиты конфиденциальности создателей контента, включая при этом достаточно полезных и практических подробностей.

**Помогают ли видимые раскрытия информации аудитории понять роль генеративного ИИ? **

Даже если невидимый водяной знак может защитить конфиденциальность в течение длительного времени технически, он может не помочь аудитории интерпретировать контент. Хотя прямое раскрытие информации (например, видимые водяные знаки) обладает интуитивной привлекательностью, поскольку обеспечивает большую прозрачность, такое раскрытие информации не обязательно дает желаемый эффект и, как правило, воспринимается как патерналистское, предвзятое и карательное, даже если оно не соответствует действительности. не было заявлено. Кроме того, прямое раскрытие информации может быть неверно истолковано аудиторией. В моем исследовании 2021 года участник неправильно понял ярлык Твиттера «манипулируемые СМИ», думая, что им манипулирует истеблишмент «медиа», а не содержание конкретного видео, редактируемое, чтобы ввести его в заблуждение. В то время как продолжают появляться исследования о том, как различные UX-дизайны влияют на восприятие аудиторией раскрытия контента, большая часть исследований была сосредоточена в крупных технологических компаниях и в основном в таких разных контекстах, как выборы. Изучение последствий прямого раскрытия информации и пользовательского опыта, а не полагаясь исключительно на интуитивную привлекательность маркировки контента, созданного ИИ, имеет решающее значение для эффективного принятия решений, повышающего прозрачность.

**Размещение видимого водяного знака на AIGC снизит доверие людей к «настоящему» контенту? **

Возможно, самый сложный для понимания общественный вопрос заключается в том, как скоординированное прямое раскрытие информации повлияет на широкое отношение к информации и потенциально снизит доверие к тому, что является «подлинным». Если организации, использующие ИИ, и платформы социальных сетей просто помечают контент как созданный или модифицированный ИИ — понятный, но ограниченный способ избежать суждений о том, какие утверждения вводят в заблуждение или вредны, — как это повлияет на то, как мы просматриваем контент в Интернете?

Повышение медиаграмотности за счет раскрытия информации — благородное дело, однако многие из тех, кто работает в командах по политике внутри и за пределами технологических компаний, опасаются, что преждевременный толчок к маркировке всего создаваемого контента приведет к «расколу мошенников» — неодобрению обществом всего контента, который может Скептицизм в отношении контента, созданного искусственным интеллектом, настолько выражен, что подрывает доверие к подлинному контенту, созданному не искусственным интеллектом, и это беспокойство вполне объяснимо. Эта перспектива также привела к неопределенности в отношении того, потребуют ли все, казалось бы, малорискованные способы создания контента с помощью ИИ — например, портретный режим iPhone, основанный на технологии ИИ, или голосовой помощник, упомянутый в обещании Белого дома, — требовать раскрытия искусственной информации. Интеллектуальное взаимодействие. Поле должно работать вместе, чтобы измерить долгосрочное отношение общества к информации и определить, когда имеет смысл раскрывать участие ИИ. Самое главное, они должны оценивать влияние раскрытия информации на видимость, которое просто описывает, как был создан контент (утверждая, что некоторый контент был создан или редактировался с помощью ИИ), вместо того, что нас действительно волнует: указание того, является ли утверждение о контенте истинным или ложным.

Проблемы, создаваемые водяными знаками и другими методами раскрытия информации, не должны использоваться в качестве предлога для бездействия или ограничения прозрачности. Вместо этого они должны подтолкнуть компании, политиков и других к тому, чтобы они объединились, чтобы разработать определения и решить, как оценить неизбежные компромиссы при реализации. Только тогда политика генеративного ИИ сможет адекватно помочь аудитории отличить факты от вымысла.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить