AI の 7 人の巨人はホワイトハウスで 8 つの主要な約束をしました。彼らは何を約束しましたか?

Metaが新世代のオープンソース大規模言語モデルLlama 2を発表してからわずか3日後、同社の経営陣、Microsoft、OpenAI、Amazon、AnthropicなどAI業界の巨人7社、注目の新興企業の幹部らが米国のホワイトハウスに再び集結した。

今回のイベントでは、7社がAI技術や研究開発の安全性、透明性、リスクについて「8つの主要な約束」を行う「ボランタリー・コミットメント」(自主コミットメント)に署名した。

画像ソース: Unbounded AI によって生成

AI 企業の「監督要請」ドラマは、ここで小さなクライマックスを迎えます

NYTのコラムニスト、ケビン・ルース氏は、「8つの主要な約束」の内容と、それがもたらした変化について詳しく解説した記事を書いた。

調査の結果、セキュリティテスト、AIのセキュリティ情報の共有、脆弱性の報告、「社会的課題を解決するためにAIを優先する」など、これら8つの約束は大きな問題であるようで、対応する約束には詳細が欠けており、問題自体の多くはAI企業によって一般に「公表」されていることが判明した。

この「リソースコミットメントレター」は、過去 6 か月間に米国の規制当局から AI 企業に寄せられたいくつかの問い合わせの間接的な「結果表示」のようなものであり、おそらく実装上の重要性はあまりありません。しかし、規制当局は何度かAIに対する懸念を表明しており、AI技術の応用に関する政府の立場がこのショーの最大の意義であることを示している。

以下は、「自主的コミットメントレター」の 8 つの約束に対するケビン・ルースの解釈です。

** コミットメント 1: 同社は、AI システムをリリースする前に、社内および社外での安全性テストを行うことを約束します。 **

これらの AI 企業はすべて、リリース前に自社モデルの安全性テスト (「レッド チーム テスト」と呼ばれることが多い) を実施しています。ある意味、これは実際には新しい約束ではなく、曖昧です。どのような種類のテストが必要になるか、誰によって必要になるかについての詳細は提供されていません

その後の声明でホワイトハウスは、AIモデルのテストは「独立した専門家によって部分的に実施される」とのみ述べ、「バイオセキュリティやサイバーセキュリティなどのAIリスクと、その広範な社会的影響」に焦点を当てていると述べた。

AI企業にそのようなテストを継続することを公に約束させ、テストプロセスの透明性を高めることを奨励することは良い考えです。また、AI モデルが生物兵器の開発に使用される危険性など、いくつかの種類の AI リスクもあり、企業よりも政府や軍当局の方が評価しやすい立場にある可能性があります。

OpenAI や Anthropic のプレリリース モデルに対するアライメント リサーチ センターの「自己複製」テストなど、一連の標準的な安全性テストについて AI 業界が合意したことを嬉しく思います。また、連邦政府がこのようなテストに資金を提供してほしいと願っていますが、テストには費用がかかり、高度な技術的専門知識を持ったエンジニアが必要になる可能性があります。現在、多くのセキュリティ テストは企業によって資金提供および監督されており、明らかな利益相反の問題が生じています

** コミットメント 2: 同社は、AI リスクの管理に関する情報を業界全体、政府、市民社会、学術界と共有することを約束します。 **

この約束も少し曖昧です。これらの企業の中には、自社の AI モデルに関する情報を学術論文や企業のブログ投稿で公開しているものもあります。 OpenAI や Anthropic など、これらの企業の一部は、これらのモデルをより安全にするために講じている手順を概説する「カード」と呼ばれる文書も公開しています。

しかし、安全上の懸念を理由に情報を差し控えることもあります。 OpenAI は今年、最新の AI モデルである GPT-4 をリリースしたとき、トレーニング データの量やモデルの大きさ (「パラメーター」と呼ばれる指標) を明らかにしないことを選択し、業界の慣例を破りました。同社は競争と安全性への懸念から情報の開示を拒否したと述べた。また、テクノロジー企業が競合他社から遠ざけたい種類のデータでもあります。

これらの新たな約束の下で、AI企業はそのような情報の開示を強制されるのでしょうか?そうすることで AI 軍拡競争が加速するリスクがあるとしたらどうしますか?

私は、ホワイトハウスの目標は企業にパラメータ数値の開示を強制することではなく、むしろモデルが引き起こす(または引き起こさない)リスクについて企業同士が情報を交換することを奨励することであると推測しています

しかし、この情報共有にもリスクが伴う可能性があります。 Google の AI チームがリリース前のテスト中に、致死性生物兵器の設計に新しいモデルが使用されるのを阻止した場合、Google の外部でその情報を共有すべきでしょうか?これは、攻撃者に、保護されていないモデルに同じタスクを実行させる方法についてのアイデアを与えるのでしょうか?

** コミットメント 3: 当社は、独自のおよび未公開のモデルの重みを保護するために、サイバーセキュリティとインサイダー脅威保護対策に投資することを約束します。 **

この質問は非常に単純であり、私が話を聞いた AI 関係者の間では議論の余地はありません。 「モデルの重み」とは、AI モデルに機能能力を与える数学的命令を指す専門用語です。あなたが外国政府 (またはライバル企業) のエージェントで、ChatGPT またはその他の AI 製品の独自バージョンを構築しようとしている場合、重みは盗むべきものです。 AI企業はこれを厳密に制御することに既得権益を持っている。

モデルの重み漏れの問題はよく知られています。

たとえば、Meta のオリジナル LLaMA 言語モデルの重みは、モデルが公開されてからわずか数日後に 4chan や他のサイトで漏洩しました。さらなる漏洩のリスクと、他国が米国企業から技術を盗むことに興味を持っている可能性を考慮すると、AI企業に自国のセキュリティへのさらなる投資を要求するのは簡単なことのように思える。

** コミットメント 4: 両社は、サードパーティによる自社の AI システムの脆弱性の発見と報告を促進することを約束します。 **

それが何を意味するのかよくわかりません。すべての AI 企業はモデルをリリースした後、そのモデルの穴を発見します。これは通常、ユーザーがそのモデルで悪いことをしようとしたり、企業が予期していなかった方法で「脱獄」を回避しようとしたりすることが原因です。

ホワイトハウスは企業に対し、脆弱性に関する「堅牢な報告メカニズム」の構築を義務付けると約束したが、それが何を意味するかは不明だ。

Facebook や Twitter ユーザーが不快な投稿を報告できるようにするものと同様の、アプリ内のフィードバック ボタンでしょうか? OpenAI がシステムのバグを見つけたユーザーに報酬を与えるために今年開始したようなバグ報奨金プログラムですか?他に何かありますか?詳細については続報を待つ必要がある。

** コミットメント 5: 当社は、透かし入れシステムなどの人工知能によってコンテンツがいつ生成されたかをユーザーが確実に認識できるようにする強力な技術メカニズムの開発に取り組んでいます。 **

興味深いアイデアですが、解釈の余地がたくさんあります。

これまでのところ、AI 企業は、人々が AI によって生成されたコンテンツを見ているかどうかを判断できるツールを設計することに苦労してきました。これには十分な技術的な理由がありますが、人々が AI によって生成された仕事を自分のものであるかのように偽装できるのは、本当の問題です (高校教師に聞いてください)。

AI の出力を検出できると宣伝されている現在のツールの多くは、実際にはいかなる精度でも検出できません。

この問題が完全に解決されるかどうかは楽観的ではありませんが、企業がこの問題に取り組むことに取り組んでいることを嬉しく思います。

**コミットメント 6: 企業は、自社の AI システムの機能、制限、および適切な使用と不適切な使用の領域について公的に報告することを約束します。 **

これも、十分な調整の余地を備えた、賢明なサウンドのこだわりです。

企業はシステムの機能と制限についてどのくらいの頻度で報告する必要がありますか?この情報はどの程度詳細に記載する必要がありますか? AI システムを構築している多くの企業が事後的に自社のシステムの機能に驚いていることを考えると、これらのシステムを事前にどこまで説明できるでしょうか?

** 約束 7: 企業は、有害な偏見や差別の回避、プライバシーの保護など、AI システムが社会にもたらす可能性のあるリスクに関する研究を優先することを約束します。 **

「研究を優先する」という約束は漠然としたものです。それでも、私はこの取り組みがAI倫理コミュニティの多くの人たちに歓迎されると信じている。彼らはAI企業に対し、AI安全担当者のように終末シナリオを心配するのではなく、偏見や差別などの短期的な危害を防ぐことを優先してもらいたいと考えている。

「AI の倫理」と「AI の安全性」の違いについて混乱している場合は、AI 研究コミュニティ内に 2 つの対立する派閥があり、それぞれが相手の間違いによる被害を防ぐことに重点を置いていると信じていることを知ってください。

** コミットメント 8: 両社は、社会の最大の課題の解決に役立つ高度な人工知能システムの開発と導入に取り組んでいます。 **

社会の最大の課題の解決に高度なAIを活用すべきではないと異論を唱える人は多くないと思います。ホワイトハウスがAI企業に注力してほしい分野としてがん予防と気候変動緩和を挙げていることに私は同意しない。

ただし、この目標をやや複雑にしているのは、人工知能の研究では、一見退屈に見えることがより深刻な結果をもたらす傾向があることです。

**ボードゲームの囲碁をプレイするために訓練された人工知能システムである DeepMind の AlphaGo で採用されているいくつかの技術は、基礎科学研究を前進させる重要な発見であるタンパク質の三次元構造の予測に非常に役立ちました。

全体として、ホワイトハウスとAI企業との取引は実質的というよりも象徴的なものであるように見える。企業がこれらの約束を遵守することを保証する強制メカニズムはなく、その多くは AI 企業がすでに講じている予防策を反映しています。

それでも、これは合理的な最初のステップです。

これらのルールを遵守することに同意するということは、AI企業が、問題が起きるまで政府と連携するのを待った初期のテクノロジー企業の失敗から学んできたことを示している。ワシントンでは、少なくともテクノロジー規制に関しては、早めに行動することが有益だ。

原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)