ディープフェイクが氾濫する中、透かしはAIGCにさらなる信頼をもたらすことができるだろうか?

作者: クレア・リーボヴィッツ

出典: MIT テクノロジーレビュー

画像の出典: Unbounded AI ツールによって生成

AIGC は明らかに透明性を必要としていますが、ウォーターマークなどの措置の価値は明らかではありません。

5月下旬、炎上する国防総省の画像が拡散した。そして何マイルも離れたところで、ホワイトハウスの側近や記者たちは、爆発する建物の映像が本物かどうかを調べようと奔走した。

これらの写真は人工知能によって生成されたことが判明しました。しかし、政府関係者、ジャーナリスト、テクノロジー企業は、画像が実際に影響を与える前に行動を起こすことができなかった。これは混乱を引き起こしただけでなく、金融市場も低迷させた。

操作的で誤解を招くコンテンツは新しい現象ではありません。しかし、人工知能のおかげでコンテンツの作成が容易になり、多くの場合、より現実的なものになりました。 AI は芸術的表現やアクセシビリティの向上に使用できますが、政治的出来事に疑問を呈したり、中傷、嫌がらせ、搾取するために悪用される可能性もあります。

選挙の誠実さを促進するか、証拠を保護するか、誤った情報を減らすか、歴史的記録を保存するかにかかわらず、視聴者は、コンテンツが人工知能によって操作または生成されたかどうかを知ることで利益を得ることができます。国防総省の画像に AI によって生成されたアーティファクトが含まれていた場合、テクノロジー プラットフォームはより迅速に行動を起こすことができたかもしれません。やがて、画像の拡散を減らしたり、コンテンツにタグを付けたりして、視聴者が画像が偽物であることをより簡単に識別できるようになったかもしれません。これにより混乱が回避され、ひいては市場の変動が回避されます。

本物と偽物を区別するためには、さらなる透明性が必要であることは間違いありません。先月、ホワイトハウスはこれをどのように実現できるか検討し、最も著名なAI企業7社が「透かしなど、どのようなコンテンツがAIによって生成されたものであるかをユーザーが確実に認識できるように、強力な技術的対策を開発する」と約束したと発表した。

ウォーターマークなどの開示方法は良いスタートです。ただし、これらの方法は実際には複雑であり、迅速かつ効果的な解決策ではありません。この透かしがツイッターユーザーに国防総省の偽画像を見分けるのに役立ったのか、それとも最近の広告キャンペーンでのトランプ大統領の声が合成されたのかは不明だ。また、出所やメタデータの開示など、他のアプローチの方が大きな影響を与えるのでしょうか?最も重要なことは、コンテンツが AI によって生成されたものであることを開示するだけで、視聴者が事実とフィクションを区別したり、現実世界の被害を軽減したりするのに役立つでしょうか?

これらの質問に答えるには、透かしやその他の種類の開示方法が何を意味するのかを明確にする必要があります。それらが何であるか、合理的に期待できることは何か、これらの方法が導入されたとしてもどのような問題が存在するのかを明確にする必要があります。定義をめぐる議論は衒学的に見えるかもしれませんが、「ウォーターマーキング」という用語が広く使用されているため、現在 AI 分野全体で混乱が生じています。これらのさまざまなアプローチが何を意味するのかを定義することは、AI 分野での協力と開示基準に関する合意の重要な前提条件です。そうでないと、人々はお互いに話し合うでしょう。

私は、OpenAI、Adobe、Witness、Microsoft、BBC などの組織と約束した、責任ある合成メディアのガイドラインを開発する非営利の人工知能パートナーシップ (PAI) の多分野にわたる取り組みを主導したときに、この問題を直接見てきました。 。

一方では、ウォーターマークは、エンド ユーザーに見える信号 (たとえば、画像プロバイダーのメディアに印刷された「Getty Images」という文字) を指す場合があります。ただし、コンテンツに埋め込まれ、肉眼や耳では感知できない技術信号を指す場合もあります。 「直接」開示と「間接」開示として知られる両方のタイプの透かしは、透明性を確保するために重要です。したがって、透かしの課題と機会について議論する場合は、どのタイプの透かしが評価されているかを強調する必要があります。

問題をさらに複雑にしているのは、透かし入れは、多くのアプローチがあるにもかかわらず、コンテンツ開示を提供する一般的な行為を表す「包括的な」用語としてよく使用されることです。ホワイトハウスの誓約をよく読むと、「来歴」として知られる別の開示方法が明らかになり、それは目に見えない信号ではなく暗号署名に依存している。ただし、一般的なメディアでは、これはウォーターマークとも呼ばれることがよくあります。このごちゃ混ぜの用語がわかりにくいと感じても、心配しないでください。あなたは一人ではありません。明確さが重要: さまざまなテクノロジーを何と呼ぶかについてさえ合意できなければ、AI の分野では一貫性のある堅牢な透明性対策は存在しません。

これに応えて、透かしやその他の AI 開示方法の有用性を評価するのに役立つ 6 つの予備的な質問を提案します。これらの質問は、すべての関係者がまったく同じ問題について議論していることを確認し、包括的かつ一貫した方法で各アプローチを評価できるようにするのに役立ちます。

**透かし自体は改ざんできますか? **

皮肉なことに、コンテンツの出所やコンテンツがどのように変更されたかを判断するのに役立つと宣伝されている技術信号自体が改ざんされる可能性があります。困難ではありますが、目に見えない透かしと目に見える透かしの両方を削除または改ざんすることができます。ウォーターマークの改ざんの容易さは、コンテンツの種類によって異なります。

**さまざまな種類のコンテンツのウォーターマークの有効性は一貫していますか? **

目に見えない透かしは、生成人工知能に対処する広範なソリューションとして宣伝されることがよくありますが、そのような埋め込まれた信号は、オーディオビジュアル コンテンツよりもテキストで操作する方が簡単です。これは、ホワイトハウスの準備書面が、透かしがあらゆる種類の AI に適用されると示唆しているにもかかわらず、同社が視聴覚素材のみの開示に取り組んでいることを完全に明らかにしている理由を説明している可能性があります。したがって、AI ポリシーを策定する際には、目に見えない透かしなどの開示技術が、コンテンツ タイプごとにその有効性と広範な技術的堅牢性においてどのように異なるかを指定することが不可欠です。開示ソリューションは画像には役立つかもしれませんが、テキストには役に立ちません。

**これらの目に見えない信号を誰が検出できるでしょうか? **

たとえ AI 業界が目に見えない透かしを実装することに同意したとしても、誰がこれらの信号を検出し、最終的にそれらに基づいて権威ある主張を行う能力を持っているのかについて、より深い疑問が必然的に生じます。コンテンツが AI によって生成されたものであるかどうか、ひいては誤解を招くものであるかどうかを誰が判断できるのでしょうか?誰もがウォーターマークを検出できれば、悪者による悪用に対して脆弱になる可能性があります。一方で、目に見えない透かしを検出するためにアクセスを制御すると、特に大規模な AI 企業が支配している場合、オープン性が低下し、技術的なゲートキーピングが強化される可能性があります。このような開示方法を管理方法を決定せずに実施すると、開示方法に対する不信感や無効化につながる可能性があります。また、これらのテクノロジーが広く採用されないと、悪意のある者が目に見えない透かしのないオープンソース テクノロジーを利用して、有害で誤解を招くコンテンツを作成する可能性があります。

**透かしはプライバシーを保護しますか? **

人権とテクノロジーの団体である Witness による主要な研究が示しているように、時間の経過とともにコンテンツとともに移動する追跡システムは、コンテンツ作成者にとってプライバシー上の懸念を引き起こす可能性があります。 AI 業界は、ウォーターマークやその他の開示技術が、クリエイターを危険にさらす可能性のある識別情報が含まれないように設計されるようにする必要があります。たとえば、人権活動家は個人情報を透かし入れた写真を通じて人権侵害を捉える可能性があり、権威主義政府の格好のターゲットとなる可能性があります。透かしが活動家の身元を明らかにする可能性があることを知っていても、表現や言論に萎縮効果をもたらす可能性があります。政策立案者は、コンテンツ作成者のプライバシーを保護するために、有用かつ実用的な詳細を十分に盛り込みながら、開示をどのように設計すべきかについて、より明確なガイダンスを提供する必要があります。

**目に見える開示は、視聴者が生成 AI の役割を理解するのに役立ちますか? **

たとえ目に見えない透かしが技術的に長期間にわたってプライバシーを保護できるとしても、視聴者がコンテンツを解釈するのには役立たない可能性があります。直接的な開示 (目に見える透かしなど) には透明性が高まるという直観的な魅力がありますが、そのような開示は必ずしも望ましい効果をもたらすとは限らず、たとえコンテンツの信頼性が保たれていたとしても、パターナリズム的、偏見的、懲罰的であると認識される傾向があります。は述べられていなかった。さらに、直接的な開示は視聴者に誤解される可能性があります。私の2021年の研究では、参加者はTwitterの「操作されたメディア」というレッテルを誤解し、特定の動画の内容が自分を誤解させるために編集されているのではなく、「メディア」体制が自分を操作しているのだと考えた。さまざまなUXデザインがコンテンツ開示に対する視聴者の認識にどのような影響を与えるかについての研究は引き続き行われていますが、研究のほとんどは大手テクノロジー企業内で、主に選挙などの多様な状況に焦点を当てています。 AI が生成したコンテンツにラベルを付けるという直感的な魅力だけに頼るのではなく、直接的な開示とユーザー エクスペリエンスの効果を検討することは、透明性を高める効果的な意思決定にとって重要です。

**AIGC に目に見える透かしを入れると、「本物の」コンテンツに対する人々の信頼が低下するでしょうか? **

おそらく、評価するのが最も難しい社会的問題は、調整された直接開示が情報に対する広範な態度にどのような影響を及ぼし、「本物」に対する信頼を潜在的に低下させるかということである。 AI 組織やソーシャル メディア プラットフォームが、単純にコンテンツに AI によって生成または改変されたものとしてフラグを立てた場合、これは理解できますが、どの主張が誤解を招く、または有害であるかについての判断を避けるための限定的な方法です。これは、私たちがオンラインでコンテンツを見る方法にどのような影響を与えるでしょうか?

情報開示を通じてメディア リテラシーを向上させることは崇高な大義ですが、テクノロジー企業の内外の政策チームで働く多くの人は、生成されたすべてのコンテンツにラベルを付けるという時期尚早な推進が「詐欺師の分断」、つまり不正行為につながるすべてのコンテンツに対する社会の不承認につながるのではないかと懸念しています。 AI によって生成されたコンテンツに対する懐疑論は非常に顕著であり、AI によって生成されていない本物のコンテンツに対する信頼を損なうものであり、その懸念は当然です。また、この見通しは、AI コンテンツ作成の一見低リスクに見えるすべての使用 (たとえば、iPhone のポートレート モードでの AI 技術への依存や、ホワイトハウスの公約で言及されている音声アシスタントなど) についても、人工的な情報の開示が必要となるかどうかについての不確実性をもたらしています。インテリジェンス、インテリジェントなエンゲージメント。この分野は情報に対する社会の長期的な態度を測定し、AI の関与をいつ開示するのが合理的かを判断するために協力する必要がある。最も重要なことは、コンテンツの作成方法を単に説明する(一部のコンテンツが AI によって生成または編集されたという)開示が、私たちが本当に重視していること、つまりコンテンツの主張が真実か虚偽かを述べる代わりに、開示した場合の可視性への影響を評価する必要があることです。

透かしやその他の開示技術によってもたらされる課題は、不作為の言い訳として、または透明性を制限するために使用されるべきではありません。その代わりに、企業、政策立案者、その他の人々が協力して定義を策定し、実装において避けられないトレードオフを評価する方法を決定するよう促すべきである。そうして初めて、生成 AI ポリシーは、視聴者が事実と捏造を区別できるように適切に支援することができます。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)