ビル・ゲイツ: 人工知能のリスクは現実的だが、管理可能

作者: ビル・ゲイツ

出典: ゲイツノート

画像の出典: Unbounded AI ツールによって生成

私たちは、画期的なイノベーションによってもたらされる問題への対処について多くのことを学びました。

人工知能がもたらすリスクは計り知れないように思えるかもしれません。スマートマシンに仕事を奪われた人々はどうなるでしょうか?人工知能は選挙結果に影響を与えるでしょうか?将来の人工知能が人間はもう必要ないと判断し、人間を排除したいと思ったらどうなるでしょうか?

これらは当然の質問であり、そこから生じる懸念は真剣に受け止められる必要があります。しかし、私たちにはこれらの問題を解決できると信じる十分な理由があります。主要なイノベーションが制御しなければならない新たな脅威をもたらすのはこれが初めてではなく、以前にもそれらの脅威に遭遇したことがあります。

自動車の出現であれ、パーソナルコンピュータとインターネットの台頭であれ、人々は、多くの激動にもかかわらず、最終的には良い方向に向かう変革の瞬間を経験してきました。最初の車が道路に出てすぐに、最初の衝突事故が発生しました。しかし、自動車を禁止する代わりに、制限速度、安全基準、運転免許証の要件、飲酒運転に関する法律、その他の交通規則を採用しました。

私たちは現在、別の大きな変革、つまり人工知能の時代の初期段階にいます。それは、速度制限やシートベルトがなかった不確実性の時代に似ています。 AIは急速に変化しているため、次に何が起こるかは明らかではありません。私たちは、現在のテクノロジーがどのように機能するのか、人々がそれをどのように悪意を持って使用するのか、そして人工知能が社会と個人をどのように変えるのかという大きな疑問に直面しています。

このような瞬間に、不安を感じるのは当然です。しかし、歴史は、新しいテクノロジーによってもたらされる課題に対処することが可能であることを示しています。

私はかつて、人工知能が私たちの生活をどのように完全に変えるかについて記事を書きました。これは、これまで解決が難しいと思われていた健康、教育、気候変動などの問題の解決に役立ちます。ゲイツ財団はこれを優先事項としており、私たちの CEO マーク・スズマンは最近、不平等の削減における AI の役割についての考えを共有しました。

AI のメリットについては今後さらに詳しくお話しますが、この投稿では、私がよく聞いたり読んだりする懸念事項のいくつかに言及し、その多くは私も共有しており、それらについて私がどのように見ているかを説明したいと思います。

AI のリスクに関するこれまでの文章から明らかなことの 1 つは、すべての答えを持っている人はいないということです。もう 1 つの明らかな点は、人工知能の未来は一部の人が想像するほど暗くなく、また他の人が想像するほどバラ色でもないということです。リスクは現実のものですが、私はそれらは管理できると楽観的に思っています。これらの懸念事項のそれぞれに対処しながら、次のテーマに戻ります。

  • 人工知能によって引き起こされる問題の多くには歴史的な前例があります。たとえば、教育に多大な影響を与えるだろうが、数十年前の携帯電卓や、最近では教室にコンピュータが導入されるようになったことも同様だろう。私たちは過去の成功から学ぶことができます。
  • 人工知能によってもたらされる多くの問題も、人工知能の助けを借りて解決できます。
  • 既存の詐欺防止法がオンラインの世界に適応しなければならないのと同じように、私たちは古い法律を適応させ、新しい法律を採用する必要があります。

この記事では、既存または差し迫ったリスクに焦点を当てます。今日の専用 AI とは異なり、あらゆるトピックやタスクを学習できる AI を開発すると何が起こるかについては説明しません。今後 10 年後でも 100 年後でも、この時点に到達するにせよ、社会は深く考える必要があります。超知能AIが独自の目標を設定したらどうなるでしょうか?彼らが人間と衝突したらどうなるでしょうか?超人工知能を構築すべきでしょうか?

ただし、これらの長期的なリスクを考えるときに、より当面のリスクを犠牲にしてはいけません。

AI が生成したディープフェイクと誤報は選挙と民主主義を破壊する可能性がある

テクノロジーを利用して嘘や偽情報を広めることは、何も新しいことではありません。人々は何世紀にもわたって本やチラシを通じてこれを実践してきました。これは、ワード プロセッサ、レーザー プリンタ、電子メール、ソーシャル ネットワーキングの出現により簡単になりました。

人工知能はテキストの偽造の問題を取り上げ、それを拡張して、ディープフェイクとして知られる偽の音声やビデオをほぼ誰でも作成できるようにしました。 「誘拐されたので、10分以内にこの銀行口座に1,000ドルを送金してください。警察には通報しないでください」と言っているかのような音声メッセージを受け取った場合、それがもたらす可能性のある恐ろしい感情的影響は次のとおりです。同じことを伝えるメールよりもはるかに強力です。

より大規模な場合、AI が生成したディープフェイクが選挙に影響を与えるために使用される可能性があります。もちろん、選挙の正当な勝者に疑問を投げかけるのに高度なテクノロジーは必要ありませんが、人工知能を使えばそれがずっと簡単になります。

すでに、有名政治家のフェイク映像が流出している。選挙当日の朝、候補者が銀行強盗をする動画が拡散したと想像してみてください。それは虚偽であったが、報道機関と陣営がそれを証明するのに何時間もかかった。このビデオを見て、土壇場で投票を変える人が何人いるでしょうか?特に接戦の場合は、天秤が傾く可能性がある。

最近、OpenAI の共同創設者であるサム アルトマン氏が米国上院委員会で証言した際、両党の上院議員が AI が選挙と民主主義に与える影響について語った。この話題が引き続きみんなの議題に上ることを願っています。

確かに、誤った情報とディープフェイクの問題は解決されていません。しかし、2 つのことが私を慎重ながらも楽観的にさせます。 1 つは、人間には何事も額面通りに受け取らないように学習する能力があるということです。長年にわたり、電子メールユーザーは、巨額の報酬と引き換えにクレジットカード番号を共有すると約束するナイジェリアの王子を装った詐欺にはまっています。しかし最終的には、ほとんどの人はよく考えることを学びます。欺瞞がより巧妙になるにつれて、多くの標的はより悪質なものになっています。ディープフェイクにも同じ機能を構築する必要があります。

私が希望を感じているもう 1 つのことは、人工知能がディープフェイクの識別とディープフェイクの作成に役立つ可能性があることです。たとえば、インテルはディープフェイク検出器を開発し、政府機関のDARPAはビデオや音声が改ざんされていないかどうかを識別する技術を開発している。

それは反復的なプロセスになります。誰かが偽造品を検出する方法を見つけ、誰かがそれに対抗する方法を見つけ、誰かが対策を開発する、というようになります。完璧ではありませんが、途方に暮れることもありません。

AI により人間や政府への攻撃が容易になる

今日、ハッカーがソフトウェアの悪用可能な脆弱性を見つけたい場合、彼らは「総当たり」によってそれを行います。つまり、コードを作成し、脆弱性が発見されるまで潜在的な弱点を攻撃します。回り道が多く、時間と忍耐が必要です。

ハッカーと戦いたいセキュリティ専門家も同じことをしなければなりません。携帯電話やラップトップにインストールするすべてのソフトウェア パッチには、何時間もの検索が必要です。

AI モデルは、ハッカーがより効率的なコードを作成できるようにすることで、このプロセスを高速化します。また、勤務先や友人などの個人の公開情報を悪用して、現在利用可能なものよりも高度なフィッシング攻撃を開発することもできます。

良いニュースは、AI は両刃の剣であるということです。政府および民間部門のセキュリティ チームは、犯罪者が悪用する前にセキュリティの脆弱性を発見して修正するための最新ツールを備えている必要があります。ソフトウェア セキュリティ業界がこの分野ですでに取り組んでいる取り組みをさらに拡大することを願っています。それが彼らの最大の関心事であるはずです。

もちろん、これは、一部の人が示唆しているように、人々が人工知能の新たな開発を実装することを一時的に妨げるべきではない理由でもあります。サイバー犯罪者は新しいツールの作成をやめません。核兵器やバイオテロ攻撃の設計に人工知能を利用したいと考える人々は止まらないでしょう。それらを阻止する取り組みを同じペースで続ける必要がある。

また、世界レベルでの関連リスクもあります。それは、他国に対するサイバー攻撃を設計し開始するために使用される可能性のある人工知能の軍拡競争です。各国政府は、敵の攻撃を阻止するために利用できる最も強力なテクノロジーを入手したいと考えています。この「誰も先に残さない」という動機は、ますます危険なサイバー兵器の開発競争を引き起こす可能性があります。誰にとっても状況はさらに悪化するでしょう。

恐ろしい考えですが、私たちには歴史がガイドとしてあります。世界の核不拡散体制には欠陥がありますが、その体制は、私の世代が恐怖して育った全面核戦争を阻止してきました。各国政府は、国際原子力機関と同様の世界的なAI機関の設立を検討すべきである。

AI が人々の仕事を奪う

今後数年間、人工知能が仕事に与える主な影響は、人々がより効率的に仕事を行えるよう支援することになるでしょう。これは、工場で働いている場合でも、営業電話や買掛金を処理するオフィスで働いている場合でも当てはまります。最終的には、AI が自分自身をうまく表現し、メールを作成し、受信トレイを管理できるようになります。英語またはその他の言語でリクエストを書くだけで、必要な PPT を入手できます。

2月の記事で私が主張したように、生産性の向上は社会にとって良いことです。これにより、人々は職場や家庭で他のことをする時間が増えます。教育、病人の世話、高齢者の世話など、役に立つ人々の必要性が消えることはありません。しかし、AI 主導の職場への移行に伴い、サポートと再トレーニングが必要な労働者もいます。アメリカの製造業の雇用が失われたときに起こるような人々の生活に混乱が生じることなく、労働者が置き去りにされないよう管理するのが政府と企業の仕事だ。

また、新しいテクノロジーが労働市場に大きな変化をもたらしたのはこれが初めてではないことにも留意してください。人工知能の影響は産業革命ほど大きくないと思いますが、パソコンの登場と同じくらいの影響は確実にあるでしょう。ワープロ アプリケーションはオフィスワークを排除しませんでしたが、オフィスワークを永遠に変えました。雇用主と従業員は適応する必要があり、実際に適応しました。 AI によってもたらされる変革は、でこぼこした移行となるでしょうが、人々の生活と生計への混乱を軽減できると信じる十分な理由があります。

AI は私たちの偏見を継承し、作り上げる

AI が自信を持って事実と一致しない主張をするときの幻覚は、通常、マシンがユーザーの要求を理解できないために発生します。 AI に月旅行についての短い物語を書いてもらうと、想像力豊かな答えが返ってくるかもしれません。しかし、AI にタンザニアの旅行計画を書いてもらうと、存在すらしないホテルに案内されるかもしれません。

人工知能のもう 1 つのリスクは、特定の性別、人種、民族などに関する人々の偏見を反映したり、さらにはそれを強化したりすることです。

幻覚や偏見がなぜ起こるのかを理解するには、現在最も一般的な AI モデルがどのように機能するかを知ることが重要です。これらは本質的に、電子メール アプリにユーザーが入力しようとしている次の単語を予測できるコードの非常に洗練されたバージョンです。膨大な量のテキスト (場合によっては、Web 上で利用可能なほぼすべてのテキスト) をスキャンし、分析して人間の言語のパターンを見つけます。

AI に質問すると、AI はユーザーが使用した単語を調べて、それらの単語によく関連付けられているテキストの塊を検索します。 「パンケーキの材料をリストアップしてください」と書くと、AI はそのフレーズに「小麦粉、砂糖、塩、ベーキングパウダー、牛乳、卵」などの単語が頻繁に出現することに気づくかもしれません。次に、それらの単語が通常出現する順序についての知識に基づいて、回答を生成します。 (このように機能する AI モデルは、いわゆるトランスフォーマーを使用します。GPT-4 はそのようなモデルの 1 つです)。

このプロセスは、AI が幻覚や偏見を抱く理由を説明します。あなたが尋ねた質問やあなたが言ったこととは何の脈絡もありません。 AIに間違いを伝えたら、「ごめんなさい、タイプミスしました」と言うかもしれません。しかし、それは単なる幻想であり、実際には何も入力されていません。これは、「申し訳ありませんが、タイプミスをしました」というフレーズが他の人に修正された後によく書かれるフレーズであることを認識するのに十分な量のテキストをスキャンしているためです。

同様に、AI モデルは、トレーニングに使用されたテキストに埋め込まれたバイアスを継承します。医師に関する記事をたくさん読んで、その記事のほとんどが男性医師について言及している場合、その答えはほとんどの医師が男性であると想定することになります。

幻覚は本質的な問題であると主張する研究者もいますが、私は反対です。私は、時間の経過とともに、AI モデルが事実とフィクションを区別できるようになると楽観的に考えています。たとえば、OpenAI はこの分野で有望な研究を行っています。

アラン・チューリング研究所や国立標準技術研究所などの他のグループも、偏見に対処するために取り組んでいます。アプローチの 1 つは、人間の価値観とより高度な推論を AI に組み込むことです。これは、自己認識を持った人間の仕組みと似ています。おそらく、医師の多くは男性だと思っているかもしれませんが、その思い込みを意識的に戦わなければならないことを十分に認識しているのです。人工知能は、特にモデルが異なる背景を持つ人々によって設計されている場合、同様の方法で動作できます。

結局のところ、AI を使用するすべての人がバイアスの問題を認識し、情報に精通したユーザーになる必要があります。 AI に草稿を依頼した論文には、偏見や事実誤認が含まれている可能性があります。自分自身のバイアスだけでなく、AI のバイアスも調べる必要があります。

AI が代わりに書いてくれるから、学生は書くことを学ぶことはありません

多くの教師は、AI によって生徒とのコラボレーションが妨げられるのではないかと懸念しています。インターネット接続があれば誰でも AI を使用してまともな論文の初稿を書くことができる時代に、学生がそれを自分のものとして提出するのを防ぐにはどうすればよいでしょうか?

エッセイが人間によって書かれたのかコンピュータによって書かれたのかを見分けることを学習できるAIツールはすでに存在しており、教師は生徒がいつ自分の宿題をしているかを知ることができる。しかし、一部の教師は生徒が文章を書く際に AI を使用することを妨げようとしているのではなく、むしろ推奨しているのです。

1 月、チェリー シールズという名前のベテラン英語教師が、教室で ChatGPT をどのように使用しているかについて Education Week に書きました。 ChatGPT は、生徒の書き始めからアウトラインの作成まであらゆる面で手助けし、課題に対するフィードバックも提供します。

「教師はAIテクノロジーを生徒が使用できるもう1つのツールとして受け入れなければなりません」と彼女は書いた。 「かつて私たちが生徒に適切な Google 検索の仕方を教えたように、教師は ChatGPT ボットが作文作成をどのように支援できるかについて、明確なレッスンを設計する必要があります。AI の存在を認識し、生徒がそれを使用できるように支援することで、私たちの教育方法に革命をもたらす可能性があります。」すべての教師には新しいツールを学び、使用する時間がありますが、チェリー シールズのような教育者は、時間がある人には大きなメリットがあると正当に主張しています。

これは、電子計算機が普及した 1970 年代から 1980 年代を思い出させます。一部の数学教師は生徒が基本的な算術の学習をやめてしまうのではないかと懸念していましたが、他の教師は新しいテクノロジーを受け入れ、算術の背後にある考え方に焦点を当てていました。

AI は執筆や批判的思考にも役立ちます。特に、幻覚や偏見が依然として問題となっている初期の段階では、教育者は AI にエッセイを作成させ、それを生徒に事実確認させることができます。私が資金を提供しているカーン アカデミーや OER プロジェクトなどの教育非営利団体は、主張の検証に重点を置いた無料のオンライン ツールを教師と生徒に提供しています。本物と偽物を見分ける方法を知ることほど重要なスキルはありません。

私たちは、教育用ソフトウェアが達成度の差を悪化させるのではなく、埋めるのに役立つようにする必要があります。現在のソフトウェアは主に、すでに学習意欲のある学生を対象としています。学習計画を作成し、適切なリソースを示し、知識をテストできます。ただし、まだ興味のないテーマに興味を持ってもらう方法はまだわかっていません。これは、あらゆるタイプの学生が AI の恩恵を受けることができるように、開発者が対処する必要がある問題です。

## **次は何ですか? **

私たちは、AI のメリットを最大化しながら AI のリスクを管理できると楽観的になる理由がますますあると信じています。しかし、私たちは迅速に行動する必要があります。

政府は、この新しいテクノロジーに対処するための情報に基づいた法律や規制を策定するために、AI の専門知識を開発する必要があります。彼らは、誤った情報やディープフェイク、セキュリティの脅威、雇用市場の変化、教育への影響に対処する必要があります。ほんの一例です。法律は、ディープフェイクのどの使用が合法であるか、そして誰もが見たり聞いたりしたものが偽物であることを理解できるようにディープフェイクにどのようにラベルを付けるかを明確にする必要があります。

政治指導者は、有権者と情報に基づいた思慮深い対話を行うことができる必要があります。また、これらの問題に関して単独で取り組むのではなく、他国とどの程度協力するかを決定する必要もあります。

民間部門では、AI 企業は安全かつ責任を持って作業する必要があります。これには、人々のプライバシーを保護すること、AI モデルが人間の基本的な価値観を確実に反映すること、偏見を最小限に抑えてできるだけ多くの人々に利益をもたらすこと、犯罪者やテロリストによるテクノロジーの悪用を防ぐことが含まれます。経済のさまざまな分野の企業は、誰も取り残されないように、従業員が AI 中心の職場に移行できるよう支援する必要があります。顧客は、人間ではなく AI と対話していることを常に認識する必要があります。

最後に、皆さんには人工知能の発展にできるだけ注意を払うことをお勧めします。これは、私たちが生涯で目にするであろう最も革新的なイノベーションであり、健全な公開討論は、このテクノロジー、その利点とリスクに対する全員の理解にかかっています。人工知能の恩恵は計り知れず、リスクを制御できると信じる最大の理由は、私たちがそれを実現したということです。

原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)