ケンブリッジ大学ミンデロー・センター・フォー・テクノロジー・アンド・デモクラシー(Mindelow Centre for Technology and Democracy)のジーナ・ネフ(Gina Neff)事務局長は、先週、王立協会(Royal Society)で行われた科学と安全保障に関する夜のパネルディスカッションで、「私たちは、すでに取り組んできたサミットの役割を果たすつもりだ。 言い換えれば、ブレッチリーでのイベントは、それがやるべきことを行い、イベントの範囲外にあるものは、人々が他の問題をブレインストーミングする機会になります。 "
より広い意味では、サミットは単なる「レンガ」であり、現在進行中のより広範な対話の一部です。 先週、英国のリシ・スナク首相は、AIの影響を研究するためにより多くの時間と労力を費やすために、英国に新しいAI安全研究所と研究ネットワークを設立する意向であると述べました。 Yoshua Bengio氏とGeoffrey Hinton氏が率いる著名な学者のグループは、「Managing AI Risk in an Era of Rapid Progress」というタイトルの論文でこの分野に一斉に飛び込みました。 また、国連は、人工知能の影響を調査するための独自のタスクフォースの設立を発表しました。 最近では、ジョー・バイデン米大統領も、AIの安全基準を設定するための米国独自の大統領令を発令しました。
UK AI Security Summit プレビュー: Why Now, Why UK
文:イングリッド・ルンデン
ソース: TechCrunch
AIの将来性と害が最近ホットな話題になっています。 人工知能が私たちを救い、悪性疾患の診断を助け、教育におけるデジタルデバイドを埋めるなどと言う人もいます。 しかし、戦争、安全保障、誤情報などに対する脅威についての懸念もあります。 庶民の娯楽となり、ビジネス界に警鐘を鳴らしました。
AIは非常に便利ですが、おしゃべりでいっぱいの部屋の騒音を消すことはできません。 今週は、学者、規制当局、政府のリーダー、新興企業、大手テクノロジー企業、数十の営利および非営利組織が英国に集まり、AIについて議論し、討論します。
なぜ英国なのか? なぜ今なのか? **
水曜日と木曜日には、英国で初めてのAIセキュリティサミットがブレッチリーパークで開催されます。
このサミットは、AIがもたらす長期的な問題やリスクを探るために、数か月にわたって計画されました。 サミットの目標は、「フロンティアAIがもたらすリスクと行動の必要性についての共通の理解」、「国内および国際的な枠組みをサポートする最善の方法を含む、フロンティアAIセキュリティに関する国際協力の前向きなプロセス」、「フロンティアAIのセキュリティを向上させるための適切な措置を講じるべき組織」など、具体的というよりは理想的なものです。
このハイレベルな願望は、参加者のアイデンティティにも反映されており、政府高官、業界のリーダー、この分野の著名な思想家が出席します。 (最新の報告によると、イーロンマスク、バイデン大統領、ジャスティン・トルドー、オラフ・ショルツなどが出席します)。
サミットは特別なものだったが、サミットへの「ゴールデンチケット」(ロンドンを拠点とするテック創業者で作家のアジーム・アズハル氏が説明している)は不足していた。 サミットは小規模で、ほとんどが非公開で行われると報じられています。 これらのイベントには、王立協会(全米科学アカデミー)での講演が含まれます。 複数の都市で開催される大規模な「AIフリンジ」カンファレンスや、多くのタスクフォースからの発表など。
ケンブリッジ大学ミンデロー・センター・フォー・テクノロジー・アンド・デモクラシー(Mindelow Centre for Technology and Democracy)のジーナ・ネフ(Gina Neff)事務局長は、先週、王立協会(Royal Society)で行われた科学と安全保障に関する夜のパネルディスカッションで、「私たちは、すでに取り組んできたサミットの役割を果たすつもりだ。 言い換えれば、ブレッチリーでのイベントは、それがやるべきことを行い、イベントの範囲外にあるものは、人々が他の問題をブレインストーミングする機会になります。 "
満員の王立協会のホールで、ネフ氏はヒューマン・ライツ・ウォッチの代表、大手労働組合ユナイトの州当局者、グローバル・サウスにおけるテック・エクイティ問題に焦点を当てたシンクタンク、テック・グローバル・インスティテュートの創設者、スタートアップ企業スタビリティAIの公共政策責任者、ケンブリッジ大学のコンピューター科学者らと同席した。
同時に、いわゆるAIエッジ会議は、あくまでも名目上の「エッジ」に過ぎないと言えます。 ブレッチリー・サミットは、その週に同じ場所で開催され、ゲストリストが非常に限られており、議論内容を知る機会も同様に限られていたため、AI Edgeセッションはすぐにブレッチリーに拡大され、会議の議題が具体化されました。 伝えられるところによると、このイベントは政府ではなく、Milltown PartnersというPR会社(DeepMind、Stripe、ベンチャーキャピタルのAtomicoなどの企業を代理している)が主催したもので、興味深いことに、1週間続き、全国の複数の場所で開催され、チケットを入手できる人は無料で(イベントの多くは完売しました)、セッションの多くはストリーミングサービスでも視聴できました。
多様性があるにもかかわらず、AIに関する議論が、まだ初期段階にあるにもかかわらず、非常に分裂しているのを見るのは非常に悲しいことでした:1つは権力者の会議(そのほとんどは招待されたゲストのみに公開されていました)と、もう1つは私たちの残りの会議の会議でした。
今日早く、100の労働組合と活動家のグループが首相に書簡を送り、政府はブレッチリー・パークへの参加を認めないことで、彼らの声を「圧迫」していると述べた。 (彼らはチケットを手に入れられなかったかもしれないが、彼らに反対する彼らのやり方は絶対に賢明だった:グループは、フィナンシャル・タイムズのような国の最もエリートな経済出版物と手紙を共有することによってそれを公表した)。
寒さの中で取り残されているのは普通の人だけではありません。 オックスフォード大学哲学科の講師であるCarissa Véliz氏は、本日のAI Edgeイベントで次のように述べています。 "
合理化にはメリットがあると考える人もいます。
人工知能の研究科学者であるマリウス・ホッブハーンは、AI安全ツールを開発しているアポロリサーチの共同設立者兼社長です。 彼は、少数の人がより多くの注目を集めることもできると信じています:「部屋にいる人が多ければ多いほど、結論を導き出したり、効果的な議論をしたりすることは難しくなります」と彼は言いました。
より広い意味では、サミットは単なる「レンガ」であり、現在進行中のより広範な対話の一部です。 先週、英国のリシ・スナク首相は、AIの影響を研究するためにより多くの時間と労力を費やすために、英国に新しいAI安全研究所と研究ネットワークを設立する意向であると述べました。 Yoshua Bengio氏とGeoffrey Hinton氏が率いる著名な学者のグループは、「Managing AI Risk in an Era of Rapid Progress」というタイトルの論文でこの分野に一斉に飛び込みました。 また、国連は、人工知能の影響を調査するための独自のタスクフォースの設立を発表しました。 最近では、ジョー・バイデン米大統領も、AIの安全基準を設定するための米国独自の大統領令を発令しました。
「実存的リスク」
最大の議論の1つは、AIが「実存的リスク」をもたらすという考えが誇張されているのか、それとも意図的なものであり、より直接的なAI活動の精査をなくすためのものなのかということです。
ケンブリッジ大学のマット・ケリー教授(システム数学)は、最も頻繁に引用される分野の1つが誤情報であると指摘しています。
「誤報は今に始まったことではありません。 今世紀や前世紀に目新しいことではありません」と彼は先週のインタビューで語った。 「しかし、これは、短中期的にAIに潜在的なリスクがあると考える分野の1つです。 そして、これらのリスクは時間の経過とともにゆっくりと発生します。 王立科学協会のフェローであるKelly氏によると、同協会はサミットの準備期間中に、科学における誤情報に特化した赤と青のチーム演習も実施し、大規模な言語モデルが互いに競争しようとしたときにどのように振る舞うかを確認しました。 これは、現在のリスクをよりよく理解するための試みです。」
英国政府は、この議論に対して2つの側面を持つアプローチをとっているようで、その危険性は、英国が主催するイベントの名前である「AI Security Summit」よりも明白です。
スナク首相は先週の演説で、「今のところ、われわれは直面しているリスクについて共通の理解を持っていない。 「このコンセンサスがなければ、これらのリスクに一緒に対処することは期待できません。」 だからこそ、私たちは、これらのリスクの本質に関する初の国際的声明を強く推し進めていく」と述べた。
しかし、サミットの開催に当たっては、英国はまず「AIについて語るとき、何を語るか」というアジェンダを設定する中心的な役割を担い、経済的な視点を持っていることは確かです。
スナク氏は「英国を安全なAIの世界的リーダーにすることで、この新技術の波からより多くの新しい雇用と投資を呼び込むことができる」と述べた。 (このメモは他の省庁にも届いており、内務大臣は本日、インターネット・ウォッチ・ファウンデーションや、TikTokやSnapなどの大手消費者向けアプリ企業と共同で、AIが生成した性的虐待画像の拡散に取り組むためのイベントを開催した)。
ビッグテックを巻き込むことは、ある意味では助けになるように思えるかもしれませんが、批評家はそれを問題視する傾向があります。 業界の大手企業がリスクと保護について議論し、開発するための積極的な措置を講じる「規制の捕捉」は、AIの素晴らしい新しい世界におけるもう一つの大きなテーマであり、今週のサミットも例外ではありません。
「手を挙げて『私、私』と言うAIリーダーには注意が必要です」 AIチップメーカーのGraphcoreのCEOであるNigel Toon氏は、今週予定されているサミットについて書いた記事の中で、「政府が介入し、約束を鵜呑みにする可能性が高い」と鋭く指摘しています。 (ただし、彼は完全に傍流というわけではなく、彼自身もサミットに出席する予定だ。
同時に、現在のいわゆる実存的リスクが、思考の有用なエクササイズであるかどうかについては、いまだに多くの人々が議論しています。
Stability AIの公共政策責任者であるBen Brooks氏は、王立協会のパネルディスカッションで、「フロンティアと人工知能のレトリックは、この1年間、私たちをテクノロジーに対する恐怖の状態に置いたと思います」と述べ、この意図的に制限されたアプローチの例として、AIが人間のニーズや安全性を無視してペーパークリップを作成することで世界を破壊できる「ペーパークリップマキシキング」思考実験を挙げました。 「彼らはAIを導入できる状況について考えていません。 しかし、あなたはそれを安全に開発することができます。 私たちは、誰もがこれに触発され、AIが達成可能で安全であることを認識してもらいたいと考えています。 "
他の人はあまり確信が持てません。
アポロ・リサーチのホッブハーンは、「公平を期すために言うと、実存的リスクは正確ではないと思います。 「これを壊滅的なリスクと呼ぼう」 近年の開発ペースを考えると、ジェネレーティブAIアプリケーションは大規模な言語モデルを主流にしており、最大の懸念は、AI自体が暴動に巻き込まれるのではなく、AIを使用する悪質な行為者であり続けると考えています。 これらはすべて、AIが壊滅的な役割を果たす可能性が高いと考えている分野だという。
「チューリング賞の受賞者は、生存と壊滅的なリスクについて公然と懸念しています... 私たちは本当にそれについて考えるべきです」と彼は付け加えました。
事業の見通し
深刻なリスクがある一方で、英国はAIに関する大規模な対話を主催することで、同国をAI企業にとって自然な本拠地にしたいと考えています。 しかし、一部のアナリストは、AIへの投資への道のりは一部の人が予測するほど平坦ではない可能性があると考えています。
「生産性と収益を真に向上させる信頼性の高いアウトプットを得るためには、生成AIプロジェクトにどれだけの時間と資金を割り当てる必要があるかを企業が理解し始めているという現実が見え始めていると思います」と、ガートナーのコーポレートバイスプレジデントアナリストであるアビバ・リタン氏は述べています。 「プロジェクトで反復的な調整とエンジニアリングを行っても、運用とアウトプットを手作業で監視する必要があります。 要するに、GenAIの出力は十分な信頼性がなく、信頼性を高めるために多くのリソースを必要とします。 もちろん、モデルは常に改善されていますが、それが市場の現状です。 しかし、同時に、制作段階に入るプロジェクトも増えています。 "
同氏は、AIへの投資は「AIを使用する企業や政府機関の成長を確実に減速させる」と考えています。 ベンダーはAIアプリケーションや製品を推し進めていますが、企業は押し付けられるほど迅速に導入することはできません。 さらに、GenAIアプリケーションには、組織内でも機密情報への容易なアクセスが民主化されるなど、多くのリスクが伴います。 "
「デジタルトランスフォーメーション」が現実にはゆっくりと燃え上がる概念であるように、企業のAI投資戦略にもより多くの時間が必要です。 「企業が構造化データセットと非構造化データセットをロックダウンし、権限を正確かつ効率的に設定するには時間がかかります。 企業内には、それまではあまり問題にならなかった過剰な共有が多すぎます。 Litan氏は、「今では、英語などの簡単な母国語のコマンドを使用して、他の人が適切に保護されていないファイルに誰でもアクセスできます」と付け加えています。 "
ブレッチリー・パーク氏が議論するAIの商業的利益とセキュリティおよびリスクの問題とのバランスをどう取るかは、今後の課題を物語っているが、同時に状況の緊張感を浮き彫りにしている。 会議の後半で、ブレッチリーの主催者は、議論を高レベルのセキュリティ上の懸念を超えて、医療などのリスクが実際に発生する可能性のある分野にまで拡大することに取り組んできたと報じられていますが、この変化は、現在発表されている議題には詳しく記載されていません。
「約100人の専門家による円卓会議が開かれるが、これは決して小さくはない。 私は批評家ですが、悪い考えとは思えません」と、ケンブリッジ大学のネフ教授は言います。 「さて、グローバルな規制は議論のテーマになるのでしょうか? 絶対にだめです。 東西関係を正常化するつもりなのか? たぶんそうじゃないです。 しかし、私たちはサミットを思いついています。 この時点で、非常に興味深い機会がいくつかあると思います。 "