AI が超知能化する前に、大規模な監視、偽情報と操作、軍事による AI の悪用、大量の離職といった最悪の恐怖がすでに存在しています。
このグループの科学者や技術者にとって、「不正な AI による絶滅は、生命、知能、テクノロジー、社会の長期的な進化に関する疑わしい仮定に依存する、非常にありそうもないシナリオです。また、ありそうもないシナリオでもあります。」超インテリジェント AI システムがこのように「反乱」する前に、多くの物理的な制限や制約を克服する必要があるため、可能性が高すぎるシナリオです。研究者が具体的かつ差し迫った課題を解決することで軽減できる自然なチェックポイントが複数あります。AI実存的リスクを世界的な優先事項として明確に設定することなく、リスクを軽減します。」
彼らの見解では、「絶滅を引き起こす方法は 3 つあります。資源をめぐる競争、狩猟と過剰消費、または環境条件が絶滅につながるように気候やその生態的ニッチを変えることです。これら 3 つのシナリオはいずれも現在の AI には当てはまりません」。
アルトマン氏は6月に北京でAI科学者らを対象にした講演で、同様にAIの使用をどのように管理するかについて協力を呼び掛けた。 「中国には世界で最高のAI人材がいる」と同氏は語った。高度な AI システムの制御には、「世界中からの最高の頭脳が必要です。AI システムがますます強力になるにつれ、世界的なコラボレーションのリスクはかつてないほど高まっています。」
『オッペンハイマー』が劇場公開、次回作はサム・アルトマン?
作者: ネイサン ガーデルズ
来源:Noema
この映画の監督クリストファー・ノーラン氏は、「オッペンハイマーの瞬間」を過ごし、自分たちの作品が潜在的に破壊的な性質を持つことを心配していたAI科学者たちと話をしたと語った。 「私がオッペンハイマーの話をしているのは、これが重要な物語であり、間違いなく警告的な物語だと思うからです。」と彼はオッペンハイマーの伝記映画について語った。爆弾。
オッペンハイマーは、物質を分裂させ、人類文明を焼き尽くす恐れのある恐ろしいエネルギーを放出する核の火の秘密を神から解読したため、伝記作家たちから「アメリカのプロメテウス」と呼ばれている。
また、アルトマン氏は、生成人工知能の開発を促進するために ChatGPT を使用したかどうか、またそれが「非常に悪いこと」なのかどうかも疑問に思った。人工知能のゴッドファーザーとして知られるグレゴリー・ヒントン氏は5月にグーグルを退社し、「この技術がうまくいかなかった場合、大惨事になる可能性がある」と上院公聴会で語った。機械は人間よりも賢い -- 部分的には残念だ。 「悪意のある人物がAIを利用して悪いことをするのを防ぐのは非常に難しいだろう」と同氏は警告し、さらに他の同僚は「AI絶滅のリスク」について、核戦争など他の存亡の脅威と並べて語った。 、気候変動、パンデミック。
ユヴァル・ノア・ハラリ(『人類の歴史概説』の著者)の見解では、生成型人工知能は原爆と同じくらい社会に破壊的である可能性がある。オッペンハイマーが『バグヴァッド・ギーター』から引用した一文では、「世界」デストロイヤー」。今度はホモ・サピエンスが神となり、彼らの無機的な子孫がいつか彼らの先祖に取って代わるかもしれない。数年前の会話の中で、ハラリは次のように述べた。「人間の歴史は、人間が神を創造したときに始まる。人間の歴史は、人間が神になったときに終わる。」
ハラリ氏と共著者のトリスタン・ハリス氏とアザ・ラスキン氏は最近の記事で次のように説明している:「始まりは言語だった。言語は人間文化のオペレーティングシステムだ。言語から神話と法律、神とお金、芸術と科学、友情、国家が生まれた」 」
彼らはこう続けた。
人間以外の存在が私たちの物語を書くという見通しに、イスラエルの歴史家で哲学者は非常に警戒し、私たちが力を与えているテクノロジーに私たちの領域の制御を引き渡す前に、ホモ・サピエンスに立ち止まるよう緊急にアドバイスしました。
「政治、経済、日常生活が AI に依存する前に、私たちは AI に気づくべきです。混乱が起こるまで待っていては手遅れになります。」と彼らは警告しています。
「ターミネーター」シナリオの可能性は低い
Googleの副社長ブレイズ・アグエラ・Y・アルカス氏とケベック人工知能研究所の同僚らは、近い将来、ハリウッドに「ターミネーター」のシーンが現れるとは思わないと雑誌Noemaに書いた。むしろ、遠い未来への「実存的脅威」に焦点を当てることで、AIが今日の社会にもたらす明白な危険を軽減することから人々の注意が逸れてしまうのではないかと彼らは懸念している。
AI が超知能化する前に、大規模な監視、偽情報と操作、軍事による AI の悪用、大量の離職といった最悪の恐怖がすでに存在しています。
このグループの科学者や技術者にとって、「不正な AI による絶滅は、生命、知能、テクノロジー、社会の長期的な進化に関する疑わしい仮定に依存する、非常にありそうもないシナリオです。また、ありそうもないシナリオでもあります。」超インテリジェント AI システムがこのように「反乱」する前に、多くの物理的な制限や制約を克服する必要があるため、可能性が高すぎるシナリオです。研究者が具体的かつ差し迫った課題を解決することで軽減できる自然なチェックポイントが複数あります。AI実存的リスクを世界的な優先事項として明確に設定することなく、リスクを軽減します。」
彼らの見解では、「絶滅を引き起こす方法は 3 つあります。資源をめぐる競争、狩猟と過剰消費、または環境条件が絶滅につながるように気候やその生態的ニッチを変えることです。これら 3 つのシナリオはいずれも現在の AI には当てはまりません」。
最も重要なことは、「現時点では、AI は私たちに依存しており、超知性体はおそらくこの事実を認識し、人類を守ろうとするでしょう。なぜなら、AI の存在にとって私たちは、私たちの存在にとって酸素を生成する植物と同じであるからです。これは、AI 間の相互依存の進化です。」人工知能と人間が衝突する可能性は、競争の結果よりもはるかに高いのです。」
絶滅という「ありそうもない結果」に対して「無限の代償」を払うことは、地球の最優先事項として、100万分の1の確率で隕石が地球に衝突するのを防ぐために、私たちの技術力のすべてを捧げることに等しいだろう。簡単に言うと、「超知能AIによってもたらされる実存的リスクは、気候変動、核戦争、パンデミック防止と並ぶ世界的な優先事項に値しない」ということだ。
オッペンハイマーのもう一つの瞬間
人間と新進の超知性との間の競争から生じる可能性のある危険は、近くであろうと遠くであろうと、国民国家間の競争によって悪化するだけです。
オッペンハイマーは、冷戦初期のマッカーシストの流行で彼を共産主義者の旅行者とみなされたため、晩年に迫害され、孤立し、米国原子力委員会によって機密保持許可を取り消された。彼の罪は、水爆の配備に反対し、核兵器の使用を規制するために他国との協力を呼びかけたことだ。
アルトマン氏は6月に北京でAI科学者らを対象にした講演で、同様にAIの使用をどのように管理するかについて協力を呼び掛けた。 「中国には世界で最高のAI人材がいる」と同氏は語った。高度な AI システムの制御には、「世界中からの最高の頭脳が必要です。AI システムがますます強力になるにつれ、世界的なコラボレーションのリスクはかつてないほど高まっています。」
アルトマン氏の一般的な科学的責任感が、オッペンハイマー氏のように、現在のワシントンにおける中国に対するマッカーシー派のヒステリーに巻き込まれるまでにどれくらいの時間がかかるのかと思わずにはいられない。
人工知能によってもたらされる明らかな現在の危険性の中で、何よりもまず、人工知能がどのように兵器化されるかということです。ハラリ氏が警告しているように、この脅威に対処するのは今であり、現実になってから行動するのではなく、手遅れです。責任ある主体は、機械では与えられない知恵を活用し、協力してリスクを軽減する必要があります。アルトマンが再びオッペンハイマーの瞬間を経験すれば、存亡の危機はさらに近づくことになる。
アントニー・ブリンケン米国務長官とジーナ・ライモンド商務長官は歓迎の意を表し、「いかなる国や企業も単独でAIの未来を形作ることはできない…国際社会の共通の関心、知恵、協力を通じてのみ可能となる」と認めた。人工知能の可能性を完全かつ安全に最大限に活用します。」
しかし、これまでの彼らの取り組みは重要ではあるものの、戦略的競争によって制約を受けてきました。世界中の国々にとって最も深刻な課題は、人工知能の軍拡競争が制御不能になる前に直接コミュニケーションをとり、状況の悪化を防ぐ方法です。