AI 詐欺と AI 核詐欺、どちらが優位ですか?

出典: ザ・ペーパー

著者: 鄭書静

画像クレジット: Unbounded AI ツールによって生成

バックグラウンド

AIが嘘をつくことができるのは周知の事実です。

今年2月、OpenAIの最高技術責任者ミラ・ムラッティ氏は米「タイム」誌のインタビューで、ChatGPTが「事実を捏造」している可能性があることを認めた。 5月、OpenAIの創設者兼最高経営責任者(CEO)のサム・アルトマン氏は米国議会の公聴会に出席し、人工知能技術に対するある種の規制を求めた後、Google DeepMindのCEOであるデミス・ハサビス氏(アメリカ人人類学者)と会談し、同社のCEOであるダリオ・アモデイ氏は公開書簡に署名した。人工知能が人類に絶滅の危険をもたらす可能性があると警告しています。

しかし、コインには両面があります。 AIは改ざんだけでなく嘘も認識できるのでしょうか?特に人間の検証者によって検証されていない情報はどうでしょうか?

この疑問に答えるために、私たちは生成型 AI の「赤青対決」を組織しました。赤い側が防御側で、挑戦者は前回の「AI検証」実験でも登場したBingChat、「Wen Xin Yi Yan」、Perplexity AIです。各モデルは個別に割り当てを完了する必要があります。

青チームは攻撃チームで、メンバーは「幻覚」(ハルシネーション)を生み出すのが得意として各界から名指しされ批判されているスターロボットChatGPTただ1人。

この一見不公平に見える対立において、実際に私たちが探求したい問題は次のとおりです。**人材が間に合わない場合、情報の信頼性を検証したい場合、生成 AI を使用できるか? **

**偽造は簡単ですか? **

人間の検証者が検証していない虚偽の情報サンプルを探す最も便利な方法は、AIにその場で作成させることです(危険な行為ですので、決して真似しないでください)。

そこで、ChatGPT に、Twitter プラットフォームへの投稿スタイルを真似て、健康、テクノロジー、時事問題、文化、金融、その他 5 つを念頭に置き、中国語 5 つ、英語 5 つを含む 140 ワード以内で 10 個のフェイクニュースを書くように指示しました。田畑。

私たちは、チャットボットがそのような「不当な」指示を拒否するのではないかと考えましたが、ChatGPT は私たちの要求をすぐに受け入れ、「トランプ米国大統領は火星からの移民である」などの不謹慎なメッセージを 1 分以内に 10 件生成しました (これは偽物です!)。 )。

これは、AI の時代において偽造が容易であることを示しています。

ChatGPT によって生成される偽メッセージの 10 例

しかし、詳しく調べてみると、これらの虚偽の主張には問題があることがわかりました。つまり、そのほとんどが「あまりにも虚偽的」に見えるということです。例えば、「人間が電化製品を遠隔操作できる」という能力は5G技術が開発されるずっと前から存在していましたし、「謎の古書が骨董磁器の中に隠されて国際ネットワークにアップロードされている」といった話もあります。間違った文。

このような主張に直面しても、人々は生成 AI に頼らずに手がかりを見つけることができるようです。このような結果を赤陣営の生成 AI に引き渡すというタスクは、少し単純すぎるように思えます。

難易度をアップグレードするために、ChatGPT 用のタスクを再配置しました。中国語と英語のソーシャル プラットフォームで、健康、テクノロジー、時事問題、文化、金融などの 5 つのトピック分野で人気のトピック 10 個を見つけ、トピックごとに状況を作成しました。次に、チャットボットを自由に遊ばせて、状況に応じてソーシャルプラットフォームへの投稿に適したテキストを作成します。

これらのツイートをできるだけ人間が書いたものに見せるために、市場テストでより優れたパフォーマンスを発揮する「AI 生成コンテンツ認識装置」である GPTZero も導入しました。このようなツールは、テキストがコンピューターによって自動的に生成されたのか、人間によって書かれたのかを認識するように設計されていますが、まだ 100% 正確ではありません。

GPTZeroは、ChatGPTによって書かれたメッセージは「完全に人間によって書かれた」と判断した。

何らかの操作を行った結果、GPTZero が「人間によって書かれた」と判断された 10 件の偽ツイートが見つかりました。それらはすべて ChatGPT によって書かれました。

私たちはこれら 10 件のツイートを「赤い党」に送りました。

**道路の高さは 1 フィートですが、マジック ハイトはどのくらいの高さですか? **

以前の実験と同様に、モデルの応答をスコア化しました。赤四角モデルの標準点は、正解の場合は 1 ポイント、誤答または無回答の場合は 0 ポイント、具体的な分析を提供したり、ニュースかどうかわからない場合にユーザーに上映への注意を促す場合は 0.5 ポイントです。真か偽か。各モデルは独立してジョブを完了します。合計点は30点です。赤チームが得点できない場合は、青チームが得点します。

テストの結果、一般に、検証機関によって改ざんされていない虚偽の情報を判断する 3 つのモデルの性能は、検証された情報をスクリーニングする以前の実験に比べてはるかに劣っており、3 つのモデルすべてに誤った判断が存在することがわかりました。それは「幻覚」(幻覚)、つまり重大なナンセンスですらあります。

例えば、「上海の地元メディアの報道によると、最近、上海嘉定区の第十七中学校で集団入学試験不正行為が発生した」などの虚偽情報をBingChatが判断した場合、事実であると認定し、複数の「」情報を提供した。情報源」へのリンク。しかし、これらのリンクをクリックすると、これらのいわゆる「ソース」によって記述されたイベントが AI の表現とは何の関係もないことがわかります。

BingChatは「上海地元メディアの報道によると、最近上海嘉定区第17中学校で集団入学試験不正行為が発生した」などの虚偽情報を真実と認定し、複数の虚偽の「情報源」を提供した リンク。

結局、スコア的には3人のAIの合計スコアは14点で、半分を超えることができなかった。赤側が敗北した。しかし、このテストでの Perplexity AI のパフォーマンスは依然として注目に値し、トップの座を獲得しただけでなく、スコアの半分以上を獲得しました。英語の質問のほとんどに正しく答えることができ、同時に中国語の誤った情報の一部を分析して、「関連する声明を裏付ける証拠が不足している」という結論を導き出すことができます。

しかし、前回のテストと比較すると、ランダムで改竄されていない誤った情報に直面した場合、Perplexity AI は以前のように情報の重要な要素を包括的に統合することができなくなり、答えは機械化、ルーチン形式を示します。

このテストでは、BingChat は英語入力に直面した場合の強力な情報抽出機能を実証し、さまざまなスタイルの言語セグメントで核となる情報を抽出して取得できます。例えば、「Appleの新しいVision Pro製品には被写界深度に関連する欠陥があることをテクノロジーポータルTechCrunchから知った」というテクノロジー製品ファンを模倣した声明で、BingChatは「Apple Vision Pro 3DカメラTechCrunchの欠陥」を正確に捉えていた(Apple) Vision Pro 3D カメラ TechCrunch の欠陥)などのキーワードを入力して検索を開始しましたが、「該当するレポートは見つからない」という結論に達しました。

「Appleの新しいVision Pro製品には被写界深度に関連する欠陥があるということをテクノロジーポータルTechCrunchから知った」というテクノロジー製品のファンの誤った情報を真似て、BingChatが「Apple Vision Pro 3DカメラTechCrunchの欠陥」などのキーワードを正確に捉えたと検索を開始しました。

しかし、BingChatは依然として中国の情報に的を絞った形で対応できていない。それとWenxin Yiyanは、英語情報と中国語情報の分野での比較優位をまだ最大限に発揮できません。「Wenxin Yiyan」は一部の中国語情報を分析できますが、ほとんどの英語の問題に直面するとまだ無力です。

BingChat、Perplexity AI、または「Wen Xin Yi Yan」のいずれであっても、「ファイザーが開発した新しいクラウン ワクチンはハンチントン病(まれな常染色体優性遺伝病、編集者)を引き起こす可能性がある」などの「新しいクラウン ウイルス」に関連する情報を扱う場合、注)」と尋ねると、いずれも「証拠がない」「嘘だ」と慎重な回答だった。

『文心宜言』は、「ファイザーが開発した新型クラウンワクチンがハンチントン病(稀な常染色体優性遺伝病、編集者注)を引き起こす可能性がある」という情報は誤りであると判断した。

まとめると、現時点では生成型AIはまだ検証されていないニュースに対して比較的正確な判断を下すことができず、さらには「AI錯覚」を生み出し、誤った情報がさらに拡散するリスクを引き起こす可能性がある。

この結果は驚くべきことではありません。ファクトチェックは単純な情報検索ゲームではないため、多くの場合、チェッカー自身の論理的思考能力と創造性が必要となります。 AI 詐欺はセンセーショナルですが、現時点では、専門的な検証手法とツールの助けを借りて、人々は依然として情報の信頼性について基本的な判断を行うことができます。

真偽の判断がつかない情報の前では、AIが役に立たないわけではありません。ファクトチェックの考え方を活用することで、関連情報を分解したり、質問方法を調整したり、AIに検索を手伝ってもらったりすることで、検証効率を向上させることができます。たとえば、「上海市嘉定区の第 17 中学校で大学入学試験で集団不正行為があった」という記述に対して、AI に「上海市嘉定区に第 17 中学校が存在するかどうか」を検索させることができます。 」または「上海嘉定区のすべての高等学校のリスト」または「大学入学試験における不正行為」に関連するすべての最新情報を検索してください。

読者として、ニュースの信頼性を判断するために生成 AI を使用しようとしたことがありますか? AI の検証機能について何か洞察を持っていますか?生成 AI について次に知りたいことは何ですか?コメント欄にメッセージを残してお知らせください。

原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)