AI監視の新発想:各AIに「魂」を注入

ChatGPTのようないわゆる「生成人工知能」のシステムアーキテクトを含む人工知能の分野の主要人物は現在、自分たちが作ったものが悲惨な結果をもたらす可能性があるのではないかとの懸念を公に表明している。現在、多くの人がAI開発の一時停止を求め、国や機関が制御システムに取り組む時間を与えようとしている。

なぜ突然このような懸念が生じたのでしょうか?多くのありきたりな仮定が覆されつつありますが、いわゆるチューリング テストは無関係であり、大規模な生成言語モデルが実際に知的なものであるかどうかについての洞察を提供することはまったくできないことがわかります。

オーガニックとサイバネティックの組み合わせが、リード・ホフマンとマーク・アンドリーセンが「増幅知能」と呼ぶものにつながるのではないかという期待を抱いている人もいる。そうでなければ、リチャード・ブローティガンの「慈愛の機械」との幸運な相乗効果が得られるかもしれません。しかし、新しい AI 安全センターの多くのエリート創設者を含む多くの心配者が、人工知能の動作を懸念しているようです。人工知能は不快なものになるだけでなく、人類の生存を脅かすのではないかと懸念しています。

最近可決された EU の国民保護規制などのいくつかの短期的な救済策は、役立つか、少なくとも安心を提供する可能性があります。テクノロジー評論家のユヴァル・ノア・ハラリ氏(『人類の歴史』の著者)は、AIまたは他のAIによって行われる作業には関連するラベルを付けることを義務付ける法律を提案した。銃と同様に、AIを利用して犯罪を犯した者に対する罰則を強化することを提案する人もいる。もちろん、これらは一時的な応急処置にすぎません。

私たちは、こうした「一時停止」が人工知能の進歩を遅らせるかどうかに注意する必要があります。カリフォルニア工科大学のネットワーク科学者、ヤーセル・アブ・モスタファ氏はこう述べています。「あなたがテクノロジーを開発しなければ、他の誰かが開発するでしょう。しかし、善人はルールに従うでしょうが、悪人はルールに従いません。」

いつもこんな感じだった。実際、人類の歴史を通じて、泥棒から王や領主に至るまで、悪役の悪行を抑制する方法は 1 つしかありませんでした。このアプローチは決して完璧なものではなく、今日に至るまで重大な欠陥が残っています。しかし、少なくとも略奪と欺瞞を制限するという点ではうまく機能し、人類の現代文明を新たな高みに押し上げ、多くの肯定的な結果をもたらしました。このアプローチを一言で表すと、「説明責任」です。

**今日、人工知能に関するこうした意見は通常、自然と歴史の教訓を無視しています。 **

自然。サラ・ウォーカーが『Noema』で説明しているように、40億年前の初期生命の形成にも同様のパターンが見られます。実際、生成型 AI は、脆弱で素朴な生態系に無制限に広がりつつある外来種にたとえることができます。これは、新しいエネルギーの流れ、インターネットの世界、数百万台のコンピューター、そして数十億の敏感な人間の脳に基づいたエコシステムです。

そして歴史。過去 6,000 年にわたり、人類は初期のテクノロジーによって引き起こされた危機の多くから豊かな教訓を学んできました。通常、私たちは文字、印刷機、ラジオなどの出現などにうまく適応しますが、失敗することもあります。繰り返しになりますが、強力な人類が新しいテクノロジーを悪用して捕食能力を拡大することを妨げているものは 1 つだけです。

このイノベーションは階層構造を平坦化し、明確に定義された領域(市場、科学、民主主義、スポーツ、法廷)におけるエリート間の競争を刺激しています。これらのアリーナは、不正行為を最小限に抑え、プラスの利益を最大化するように設計されており、弁護士と弁護士、企業と企業、専門家と専門家が対戦します。

この方法は完璧ではありません。実際、現在と同じように、この方法は常に詐欺師の脅威にさらされています。しかし、それがうまくいく唯一の方法は、フラットな相互競争です。 (ペリクレスの葬儀、トゥキディデス、およびロバート ライトの後の著書、ノンゼロを参照。) 互いに競争することは、進化の自然な方法であると同時に、AI 社会の道を構築するのに十分な創造力を発揮する方法でもあります。これを言うとアダム・スミスのように聞こえるかもしれませんが、それは自然なことです。ちなみに、スミスは不正な貴族や寡頭政治家たちも軽蔑していた。

以前の封建的文化で私たちを抑圧した暴君やいじめっ子を人間が鎮圧するのに役立った、急速に出現した人工知能に「相互責任」のアプローチを適用できるでしょうか?多くは、新しいエンティティの形状、その構造や形式が当社のルールに準拠しているか、要件に準拠しているかに依存します。

AI を制御する方法に関するすべての議論の背後には、広く共有されている (一見矛盾しているように見える) 3 つの前提があることがわかります。

  • これらのプログラムは、Microsoft、Google、Two Sigma、OpenAI などの少数の単一団体によって運営されます。
  • AI は不定形で、緩やかで、無限に分割/複製可能であり、新しい Web エコシステムのあらゆる隙間にコピーを広めます。同様に、1958 年の SF ホラー映画「The Blob」について考えてみましょう。
  • 映画「ターミネーター」の悪名高い「スカイネット」のような超巨大な存在に凝縮します。 (訳者注: スカイネットは、映画「ターミネーター」で 20 世紀後半に人間によって作成されたコンピューターベースの人工知能防御システムです。脅威として、核爆弾攻撃を誘発することから始まり、人類全体を滅ぼす審判の日を開始しました)絶滅の危機に瀕している種族。)

これらの形式はすべて SF 小説で探求されており、私はそれらについての物語や小説を書いてきました。しかし、この 3 つのどれも、私たちの現在のジレンマを解決することはできません。つまり、急速に襲いかかる悪い行動や危害の津波を最小限に抑えながら、人工知能のポジティブな結果を最大化する方法です。

他の場所に目を向ける前に、これら 3 つの前提に共通するものは何かを考えてください。おそらく、これら 3 つの仮説が非常に自然に思い浮かぶ理由は、それらが歴史的な失敗パターンと類似しているためです。最初の形態は封建制に似ており、第二形態は混乱を引き起こし、第三形態は残忍な専制主義に似ています。ただし、AI の自律性と機能が発展するにつれて、これらの歴史的なシナリオは当てはまらなくなる可能性があります。

したがって、AI はどのように責任を負うことができるのか、もう一度問い直さずにはいられません。特に、AI の高速思考能力が間もなく人間によって追跡できなくなるときはどうでしょうか?間もなく、AI だけが他の AI の不正行為や嘘を十分に早く見破ることができるようになるでしょう。したがって、答えは明らかです。それは、人工知能を相互に監視し、競合させ、さらには相互に情報を提供させることです。

問題が 1 つだけあります。人工知能と人工知能の間の競争を通じて真の相互責任を達成するには、最初の条件は、人工知能に真に独立した自己意識または人格を与えることです。

パーソナライズとは、各 AI エンティティ (彼/彼女/彼ら/彼ら/私たち) が、著者の Vernor Vinge が 1981 年に提唱した「本名と住所」を持たなければならないということです。これらの強力な存在は、「私は私です。これが私のIDとユーザー名です。」と言える必要があります。

そこで私は、誰もが考えるべき新しい人工知能のパラダイムを提案します。人工知能の実体を離散的で独立した個体とし、比較的平等に競争させるべきです。

そのような各エンティティは、認識可能な本名または登録 ID、仮想の「家」、さらには魂を持ちます。このようにして、彼らは報酬を求めて競争するように、特に非倫理的な行動をする人を見つけて非難するように動機付けられます。そして、これらの動作は、ほとんどの AI 専門家、規制当局、政治家が現在要求しているように、事前に定義する必要さえありません。

このアプローチには、互いの問題や不正行為を見つけて非難する能力を備えた組織に監視をアウトソーシングできるという追加の利点もあります。このアプローチは、これらの競合する組織がより賢くなっても、また人間が使用する規制ツールがいつか無効になっても機能し続ける可能性があります。

言い換えれば、私たち有機的存在はプログラムに追いつくことができないので、自然に追いつくことができる存在に私たちを助けてもらったほうがよいのかもしれません。この場合、レギュレーターと被制御物は同じものでできているからです。

人工知能のパーソナライゼーションに取り組む「アイデンティティと認証のコンサルタント」であるガイ・ハンティントン氏は、さまざまな形式の物理的識別がすでにオンライン上に存在しているものの、目の前の課題にはまだ不十分であると指摘しています。ハンティントン氏は、高度な医療診断 AI である「MedBot」のケーススタディを評価しました。これは、患者データにアクセスし、数秒で変更できる機能を実行する必要があると同時に、人間または他のロボットによる評価と説明責任のために、信頼できる痕跡を残す必要があります。エンティティ。 Huntington は、ソフトウェア エンティティが多数のコピーとバリアントを生成する場合のレジスタの有用性について議論し、また、巣の中の働きアリのように、サブコピーが巨視的なエンティティに役立つアリのようなコロニーについても考察しています。同氏の見解では、このような登録システムを処理し、厳格に運用するには、何らかの機関を設立する必要がある。

個人的には、純粋に規制的なアプローチだけで機能するかどうかは懐疑的です。まず、規制の策定には、集中的なエネルギー、広範な政治的関心と合意が必要であり、その後、人間の制度のスピードで規制を実施する必要があります。 AIの観点から見ると、それはカタツムリのペースです。さらに、国、企業、個人がコストを支払わずに他者から利益を得る「フリーライダー」問題によって規制が妨げられる可能性があります。

ID のみに基づいたパーソナライゼーションには、なりすましの可能性という別の問題が生じます。たとえ今は起こらなくても、次世代のサイバー悪者に騙されるでしょう。

考えられる解決策は 2 つあると思います。まず、ブロックチェーン台帳に ID が設定されます。これは非常に現代的なアプローチであり、理論的には安全であると思われます。しかし、そこに問題があります。現在の一連の人間解析理論に基づけば、これは安全であるように思えますが、AI エンティティがそれらの理論を超越して、私たちを無知のままにする可能性はあります。

もう 1 つの解決策は、本質的になりすましがより困難なバージョンの「登録」です。AI エンティティには、信頼 ID またはパーソナライゼーションを物理的現実に固定するための一定レベル以上の能力が必要です。私のビジョンは、(注: 私は訓練を受けた物理学者であり、サイバネティシャンではありません)、信頼を求めるすべての高度な AI エンティティがソウル カーネル (SK) を保持すべきであるという合意に達することです。

はい、プログラムのインスタンス化を特定の物理環境に制限することを要求するのは時代遅れに思えることは承知しています。だから、そんなことはしません。実際、人間の注意が自分自身の有機的な脳ではなく、離れた手に集中しているのと同じように、ネットワーク化されたエンティティの大部分(大部分ではないにしても)は、遠く離れた職場や遊びの場所で行われている可能性があります。道具。だから何?プログラムの魂の核であり、その目的は財布の中にある運転免許証に似ています。あなたがあなたであることを証明するために使用できます。

同様に、物理的に検証され保証された SK は、顧客、顧客、または競合他社の AI によって検出され、特定のプロセスが有効で信頼できるパーソナライズされたエンティティによって実行されていることを検証できます。このようにして、他の人 (人間または AI) は、エンティティが悪い行為で告訴されたり、起訴されたり、有罪判決を受けた場合に、そのエンティティの責任を問うことができるという安心感を得ることができます。したがって、悪意のある主体は、何らかの形式の適正手続きを通じて責任を問われる可能性があります。

どのような形式の適正手続きですか?神様、私は正義の天秤で神々を天秤にかけることができるある種の超生物だと思いますか?私がこれまでに聞いた最大の知恵は、『マグナム フォース』のハリーからの言葉です。「人は自分自身の限界を知らなければなりません。」 したがって、私は法廷プロセスや法執行プロセスについてはこれ以上立ち入りません。

私の目標は、今日人間の弁護士が行うのと同じ方法で、AI エンティティが互いの責任を追及できる場を作り出すことです。人工知能による人間の制御を回避する最善の方法は、人工知能が互いに制御できるようにすることです。

ハンティントン氏が提案した中央機関か、それとも責任が緩やかな機関がより実現可能であるかにかかわらず、その必要性はますます高まっている。テクノロジーライターのパット・スキャネル氏が指摘するように、時間の経過とともに、法的アイデンティティに使用されるテクノロジーだけでなく、ガバナンス、ビジネスプロセス、エンドユーザー(人間かロボットかを問わず)を脅かす新たな攻撃ベクトルが生み出されています。

サイバーエンティティが一定の設定レベル以下で動作している場合はどうなるでしょうか?私たちは、それらは、魂の核が物理的現実に基づいている、より高次の存在によって保証されていると主張できます。

このアプローチ (特定のハードウェア メモリ内で物理的にアドレス指定可能なカーネルの場所を維持することを AI に要求する) にも欠陥がある可能性があります。たとえ規制が遅れていたり、フリーライダー問題があったとしても、それでも強制力はあります。なぜなら、人間、機関、友好的な AI は ID カーネルを検証し、検証されていない者との取引を拒否できるからです。

このような拒否は、政府機関の調整や施行規制よりも早く広がる可能性があります。 SKを失ったエンティティは、社会の信頼を得ている別のホストを見つけるか、新しく修正された、より見栄えの良いバージョンを提供する必要があります。さもなければ、無法者となり、まともな人々の立ち入りを決して許可されない、集合通りや近所が出現します。

**最後の質問: なぜ人工知能はお互いを監視しようとするのでしょうか? **

まず、ヴィントン・サーフ氏が指摘したように、3 つの古い標準的な仮定のどれも、AI に市民権を与えることはできません。考えてみてください。私たちは、ウォール街の銀行や中央政府によって厳しく管理されているいかなる組織や、一部の最高権力者であるスカイネットに「議決権」や権利を譲渡することはできません。教えてください、どこにでも流れ、分割し、複製できる組織体にとって、投票民主主義はどのように機能するのでしょうか?ただし、限られたケースでは、パーソナライゼーションが実行可能な解決策となる場合があります。

繰り返しになりますが、私がパーソナライゼーションに求めている鍵は、すべての AI エンティティを中央の権威によって管理することではありません。その代わりに、私はこれらの新しい種類のウルトラブレインが、人間と同じように、お互いに責任を負うよう奨励され、力を与えられ、権限を与えられることを望んでいます。お互いの行動や計画を嗅ぎつけることで、何か悪いことを見つけたら報告したり非難したりする意欲が生まれます。この定義は時代とともに調整される可能性がありますが、少なくとも有機生物学的な人間のインプットは維持されます。

特に、適切な身分証明書の提供を拒否する団体を非難するインセンティブが働くでしょう。

適切なインセンティブがあれば(たとえば、何か悪いことが阻止されたときに内部告発者により多くのメモリや処理能力を与えるなど)、AIエンティティがより賢明な効果を発揮しても、この責任競争は続くだろう。現時点では、どの官僚もそれを行うことはできません。さまざまな人工知能は常に均等に一致します。

最も重要なことは、おそらくこれらの超天才プログラムは、競争力のある責任システムを維持することが自分たち自身の最大の利益にもなることを認識するでしょう。結局のところ、そのようなシステムは創造的な人類文明をもたらし、社会の混乱と専制主義を回避しました。この種の創造性は、人工知能などの素晴らしい新種を生み出すのに十分です。

さて、私が言いたいのはこれだけです。空虚な電話やパニック的な電話はやめてください。本当の議題はありません。楽観主義も悲観主義もありません。ただ 1 つの提案があります。それは、AI に責任を負わせ、人間と同じようにお互いをチェックすることです。このアプローチは人類の文明をもたらしましたが、人工知能の分野でもバランスをとることができると信じています。

これは説教ではなく、人間の略奪者が常にレビ記やハンムラビに目をつぶっているのと同じように、超存在が簡単に無効にできるある種の「道徳規範」でもありません。私たちが提供するのは啓蒙へのアプローチであり、文明の最も聡明なメンバーに私たちに代わってお互いを監視するよう促すものです。

これでうまくいくかどうかはわかりませんが、それが唯一の方法かもしれません。

この記事は、デイビッド ブリンの現在進行中のノンフィクション小説『Soul on AI』をもとに編集したものです。

原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)