私たちは現在、速度制限やシートベルト以前の不確実性の時代と同様に、別の大きな変革である AI の時代の初期段階にいます。 AIは急速に変化しているため、次に何が起こるかは明らかではありません。私たちは、現在のテクノロジーがどのように機能するのか、人々がそれを悪意のある目的でどのように使用するのか、そして人工知能が社会の一員として、そして個人として私たちをどのように変えることができるのかという大きな疑問に直面しています。
私は、人工知能がどのように私たちの生活に革命を起こし、これまで解決不可能と思われていた健康、教育、気候変動などの問題の解決に役立つことについて書きました。ゲイツ財団はこの問題を優先事項としており、当財団の CEO であるマーク・スズマンは最近、不平等の削減における AI の役割についての考察を共有しました。
AI の利点については今後さらに詳しくお話しますが、この投稿では、私が見聞きしたり読んだりする最も一般的な懸念についてお話し、その多くは私も共有しており、それらの懸念について私がどのように感じているかを説明したいと思います。
最近、Open AI の共同創設者であるサム アルトマン氏が米国上院委員会で証言した際、両党の上院議員は選挙と民主主義に対する AI の影響について懸念を表明しました。このトピックが引き続き皆様の興味を引くことを願っています。偽情報とディープフェイクの問題は実際には解決されていません。しかし、2 つのことが私を慎重ながらも楽観的にさせます。 1つは、人々はすべてを信頼しないことを学ぶ能力を持っているということです。何年もの間、電子メールユーザーはナイジェリアの王子を装った何者かに騙され、クレジットカード番号を共有すると莫大な報酬を約束されてきました。しかし最終的には、ほとんどの人がそれらのメールを再確認することを学びます。欺瞞がより巧妙になり、多くのターゲットがより悪質になるにつれて、私たちはディープフェイクに対しても同様の認識を確立する必要があります。
また、新しいテクノロジーが労働市場に大きな変化をもたらしたのはこれが初めてではないことにも留意してください。人工知能の影響は産業革命ほど大きくはないと思いますが、パーソナルコンピューターの出現と同じくらい巨大になることは間違いありません。ワープロ アプリケーションはオフィスワークを排除しませんでしたが、オフィスワークを永遠に変えました。雇用主と従業員は適応する必要があり、実際に適応しました。 AI によってもたらされる変革は、でこぼこした移行となるでしょうが、人々の生活と生計への混乱を軽減できると信じる十分な理由があります。
AI は私たちの偏見を継承し、それを作り上げます
幻覚とは、AI が自信を持って事実ではない発言をすることであり、通常、マシンがリクエストのコンテキストを理解していないために発生します。 AI に月旅行についての短い物語を書くように依頼したら、非常に想像力豊かな答えが返ってくるかもしれません。しかし、タンザニアへの旅行を計画する際にこのツールを利用すると、存在しないホテルに宿泊させようとする可能性があります。
AI のもう 1 つのリスクは、特定の性同一性、人種、民族などに関する既存の偏見を反映したり、さらには悪化させたりすることです。
このような幻想や偏見がなぜ生じるのかを理解するには、現在の最も一般的な AI モデルがどのように機能するかを理解することが重要です。これらは本質的に、電子メール アプリが次に入力する単語を予測できるコードの非常に複雑なバージョンです。場合によっては、Web 上で利用可能なほぼすべてのテキストが予測され、膨大な量のテキストがスキャンされ、分析され、検索されます。人間の言語のパターン。
AI に質問すると、AI はユーザーが使用する単語を調べて、その単語によく関連付けられるテキストを検索します。 「パンケーキの材料をリストアップする」と書くと、「小麦粉、砂糖、塩、ベーキングパウダー、牛乳、卵」という単語が頻繁に登場することに気づくかもしれません。次に、それらの単語が通常現れる順序についての知識に基づいて、答えを生成します (このように機能する AI モデルは、いわゆるトランスフォーマーを使用しており、GPT-4 はそのようなモデルの 1 つです)。
このプロセスは、AI が尋ねる質問や AI に伝える内容を文脈的に理解することなく、なぜ AI が幻覚を起こしたり、偏見を持ったりするのかを説明します。タイプミスをしたと伝えると、おそらく「ごめんなさい、タイプミスをしました」と言うでしょう。しかし、それは単なる幻想であり、何もタイプミスをしているわけではなく、テキストを十分にスキャンしているため、「申し訳ありません、タイプミスしました」という言葉は、文章を修正された後に人々がよく書く言葉の 1 つであることがわかります。
幻覚は本質的な問題であると主張する研究者もいますが、私は反対です。私は、時間が経てば、AI モデルに事実とフィクションを区別できるようになるだろうと楽観視しています。たとえば、Open AI はこれに関して有望な取り組みを行っています。
アラン・チューリング研究所や国立標準技術研究所などの他の組織も偏見に取り組んでいます。アプローチの 1 つは、人間の価値観とより高度な推論を AI に組み込むことです。これは、自己認識を持った人間の仕組みと似ています。おそらく、医師の多くは男性だと思っているかもしれませんが、その思い込みを意識的に戦わなければならないことを十分に認識しているのです。人工知能も、特にモデルが異なる背景を持つ人々によって設計されている場合、同様の方法で機能します。
結局のところ、AI を使用する全員がバイアスの問題を認識し、十分な情報を得たユーザーになる必要があります。 AI に草稿を依頼した論文は、事実誤認と同様に偏見に満ちたものになる可能性があります。自分自身のバイアスだけでなく、AI のバイアスもチェックする必要があります。
作文が人間によって書かれたのか、それともコンピュータによって書かれたのかを学習する AI ツールがすでにいくつか存在しており、教師は生徒が自分の作品を書いているかどうかを知ることができます。しかし、一部の教師は、生徒が文章で AI を使用することを妨げようとするのではなく、実際に AI を使用することを奨励しています。
AI は執筆や批判的思考にも役立ちます。特に、幻覚や偏見が依然として問題となっている初期の段階では、教育者は AI にエッセイを作成させ、それを生徒に事実確認させることができます。カーン アカデミーや OER プロジェクトなどの教育非営利団体は、主張の検証に重点を置いた無料のオンライン ツールを教師と生徒に提供しています。真実と偽物を見分ける方法を知ることほど重要なスキルはありません。
私たちは、教育用ソフトウェアが達成度の差を悪化させるのではなく、埋めるのに役立つようにする必要があります。現在のソフトウェアは主に、すでに学習意欲のある学生を対象としています。学習計画を作成し、優れたリソースと結びつけ、知識をテストできます。ただし、まだ興味のないテーマに興味を持ってもらう方法はまだわかっていません。これは、あらゆるタイプの学生が AI の恩恵を受けることができるように、開発者が対処する必要がある問題です。
### **次はどうする? **
AI のメリットを最大化しながら、AI のリスクを管理できるという楽観的な理由がもっとあると私は信じていますが、迅速に行動する必要があります。
民間部門では、AI 企業は安全かつ責任を持って業務を遂行する必要があります。これには、人々のプライバシーを保護すること、AI モデルが人間の基本的な価値観を確実に反映すること、偏見を最小限に抑えてできるだけ多くの人々に利益をもたらすこと、犯罪者やテロリストによるテクノロジーの悪用を防ぐことが含まれます。経済のさまざまな分野の企業は、誰も取り残されないように、従業員が AI 中心の職場に移行できるよう支援する必要があります。そして、顧客は自分が対話しているのが AI なのか人間なのかを常に把握する必要があります。
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ビル・ゲイツの最新ブログ投稿: AI のリスクは存在するが、制御可能
著者: 金瓊
ChatGPTは半年以上普及しており、急速な発展に加え、技術的問題の解決に加え、コンプライアンスが次の大きな問題となる可能性がある―議会がサム・アルトマン氏を召喚した後、現在はFTC(連邦取引委員会)も正式にChatGPTを実施している調査。
これはビル・ゲイツが数日前に言ったことと同じです。最新のブログ投稿で同氏は、「AIは最も革新的なイノベーションだ。リスクがあるのは事実だが、そのリスクは制御可能でもある」と述べた。
このブログ投稿の中で、ビル・ゲイツは主に人工知能のリスクと課題、およびそれらへの対処方法について説明し、いくつかの例と提案も提供しています。
ビル・ゲイツは、今日の AI に対する人々の懸念について初めて肯定を表明しました。現在、私たちは人工知能の大きな変化の時代にいますが、これは不確実な時代です。しかし同氏は、こうしたリスクは管理可能だと楽観視している。
第二に、ビル・ゲイツはまた、人工知能によって生み出される重大な捏造や誤った情報など、現在のAIによって引き起こされるリスクを挙げ、選挙や民主主義を破壊し、個人や政府が攻撃を開始しやすくし、人々の仕事を奪う可能性があります。人間の偏見を引き継いででっちあげたり、AI が代わりに書いてくれるから生徒は書き方を学ばなかったり、など。
最後に、ビル・ゲイツも AI を規制するための一連の提案を提出しました。中央政府レベルでは、政府は人工知能に関する専門知識を蓄積し、AIに対処し、偽情報やディープフェイク、安全保障上の脅威、雇用市場の変化、教育への影響に対処するための法律や規制を策定する必要がある。
解決策という点では、政府指導者は単独ではなく他国と協力し、情報に基づいた思慮深い対話を国民と行う能力が必要です。
また、企業にとっては、AI企業が責任ある姿勢を持ち、人々のプライバシー保護などを含めたセキュリティ確保に取り組む必要がある。
以下は、GPT-4 から翻訳され、36 Krypton によって編集された全文です。
AI によってもたらされるリスクは計り知れないように思えます。インテリジェントな機械に取って代わられるために職を失った人々はどうなるでしょうか? AIは選挙結果に影響を与えるのか?将来のAIが人間はもう必要ないと判断し、人間を排除しようとした場合はどうなるでしょうか?
これらは当然の疑問であり、私たちは彼らが提起する懸念を真剣に受け止める必要があります。しかし、私たちがそれらに対処できると信じる十分な理由があります。主要なイノベーションによって封じ込めが必要な新たな脅威が導入されたのはこれが初めてではなく、私たちは以前にもそれらの脅威に遭遇したことがあります。
自動車の出現であれ、パーソナルコンピュータとインターネットの台頭であれ、人々は多くの激変にもかかわらず、最終的にはより良い方向に向かう変革の瞬間を生きてきました。最初の車が道路に出てすぐに、最初の衝突事故が発生しました。しかし、自動車を禁止する代わりに、制限速度、安全基準、運転免許証の要件、飲酒運転に関する法律、その他の交通規則を採用しました。
私たちは現在、速度制限やシートベルト以前の不確実性の時代と同様に、別の大きな変革である AI の時代の初期段階にいます。 AIは急速に変化しているため、次に何が起こるかは明らかではありません。私たちは、現在のテクノロジーがどのように機能するのか、人々がそれを悪意のある目的でどのように使用するのか、そして人工知能が社会の一員として、そして個人として私たちをどのように変えることができるのかという大きな疑問に直面しています。
このような瞬間に、不安を感じるのは当然です。しかし、歴史は、新しいテクノロジーによってもたらされる課題に対処することが可能であることを示しています。
私は、人工知能がどのように私たちの生活に革命を起こし、これまで解決不可能と思われていた健康、教育、気候変動などの問題の解決に役立つことについて書きました。ゲイツ財団はこの問題を優先事項としており、当財団の CEO であるマーク・スズマンは最近、不平等の削減における AI の役割についての考察を共有しました。
AI の利点については今後さらに詳しくお話しますが、この投稿では、私が見聞きしたり読んだりする最も一般的な懸念についてお話し、その多くは私も共有しており、それらの懸念について私がどのように感じているかを説明したいと思います。
人工知能のリスクに関するこれまでの文章から、明らかなことが 1 つあります。それは、すべての答えを持っている人はいないということです。私にとってもう 1 つの明らかな点は、人工知能の未来は、一部の人が想像するほど暗くなく、また他の人が想像するほどバラ色でもないということです。リスクは現実のものですが、私はそれらは管理できると楽観的に思っています。それぞれの問題を 1 つずつ説明しながら、いくつかのトピックに戻ります。
この記事では、既存または差し迫ったリスクに焦点を当てます。あらゆる科目やタスクを学習できる AI を開発すると何が起こるかについては議論するつもりはありません。その代わりに、今日は専用の AI について話します。
10 年後でも 100 年後でも、社会はいくつかの深刻な問題に直面する必要があるでしょう。超AIが独自の目標を設定したらどうなるでしょうか?それらが人間の目標と矛盾する場合はどうなるでしょうか?スーパーAIを構築すべきでしょうか?
ただし、これらの長期的なリスクを考慮する場合、当面のリスクを無視してはなりません。ここで、これらの短期的なリスクに目を向けます。
AI が生成した偽コンテンツと誤った情報は選挙と民主主義を破壊する可能性がある
テクノロジーを利用して嘘や偽情報を広めることは、何も新しいことではありません。人々は何世紀にもわたって本やチラシを通じて嘘を広めてきました。この実践は、ワード プロセッサ、レーザー プリンタ、電子メール、ソーシャル ネットワーキングの出現により容易になりました。
人工知能によってこの偽テキストの問題が増幅され、ディープフェイクとして知られる偽の音声や動画をほぼ誰でも作成できるようになりました。 「誘拐されたので、10 分以内にこの銀行口座に 1,000 ドルを送金してください。警察には通報しないでください」という子供のような音声メッセージを受け取った場合、同じ内容よりもはるかに多くの内容が生成されます。メールの恐ろしい精神的影響。
より大規模な場合、AI が生成したディープフェイクが選挙結果に影響を与えるために使用される可能性があります。もちろん、選挙の正当な勝者に疑問を投げかけるのに高度なテクノロジーは必要ありませんが、人工知能によってそのプロセスがはるかに簡単になります。
すでに、有名政治家の捏造映像を含むフェイクビデオが出現している。重要な選挙の朝、候補者が銀行強盗をする動画が急速に広まったと想像してください。たとえそれが虚偽であったとしても、報道機関やキャンペーンがそれを証明するのに何時間もかかりました。このビデオを見て、土壇場で投票を変える人が何人いるでしょうか?それは、特にレースが接戦の場合、レースの結果を変える可能性があります。
最近、Open AI の共同創設者であるサム アルトマン氏が米国上院委員会で証言した際、両党の上院議員は選挙と民主主義に対する AI の影響について懸念を表明しました。このトピックが引き続き皆様の興味を引くことを願っています。偽情報とディープフェイクの問題は実際には解決されていません。しかし、2 つのことが私を慎重ながらも楽観的にさせます。 1つは、人々はすべてを信頼しないことを学ぶ能力を持っているということです。何年もの間、電子メールユーザーはナイジェリアの王子を装った何者かに騙され、クレジットカード番号を共有すると莫大な報酬を約束されてきました。しかし最終的には、ほとんどの人がそれらのメールを再確認することを学びます。欺瞞がより巧妙になり、多くのターゲットがより悪質になるにつれて、私たちはディープフェイクに対しても同様の認識を確立する必要があります。
私が期待を寄せているもう 1 つのことは、AI がディープフェイクを作成するだけでなく、ディープフェイクの識別にも役立つ可能性があるということです。たとえば、インテルはディープフェイク検出器を開発し、政府機関の DARPA はビデオや音声が改ざんされているかどうかを特定する方法に取り組んでいます。
それは循環プロセスになります。誰かが偽造品を検出する方法を見つけ、別の誰かがそれに対抗する方法を見つけ、誰かが対抗策を開発する、というようになります。完璧な成功とは言えませんが、縛られることもありません。
AI により、人間や政府による攻撃の開始が容易になります
今日、ハッカーはソフトウェアのバグを見つけたいとき、総当たりでコードを作成し、バグが見つかるまで潜在的な弱点を攻撃します。回り道が多く、時間と忍耐が必要です。
ハッカーと戦いたいセキュリティ専門家も同じことをしなければなりません。携帯電話やラップトップにインストールするすべてのソフトウェア パッチは、善性または悪意のある誰かがそれを探すのに多くの時間を費やしています。
AI モデルは、ハッカーがより効率的なコードを作成できるようにすることで、このプロセスを高速化します。また、勤務先や友人が誰であるかなど、個人に関する公開情報を利用して、現在見られているものよりも高度なフィッシング攻撃を開発できるようになります。
良いニュースは、AI が悪意のある目的にも良い目的にも使用できることです。政府および民間部門のセキュリティ チームは、犯罪者が悪用する前にセキュリティの脆弱性を発見して修正するための最新ツールを備えている必要があります。ソフトウェア セキュリティ業界がこの分野ですでに行っている取り組みをさらに拡大することを願っています。それが彼らの最大の関心事であるはずです。
これが、一部の人が示唆しているように、人々が人工知能の新たな開発を実装することを一時的に妨げるべきではない理由です。サイバー犯罪者は新しいツールの作成をやめることはなく、AI を使用して核兵器やバイオテロ攻撃を設計しようとする者たちも同様であり、それらを阻止することは同じペースで継続する必要があります。
世界レベルでも関連するリスクがあります。AI 軍拡競争が他国に対するサイバー攻撃の設計と開始に利用される可能性があります。各国政府は、敵の攻撃を阻止するために利用できる最も強力なテクノロジーを入手したいと考えています。この「誰も先に残さない」という動機は、ますます危険なサイバー兵器の開発競争を引き起こす可能性があります。このままでは皆の生活がさらに悪くなってしまいます。
恐ろしい考えですが、私たちには歴史が教訓としてあります。欠陥はあったものの、世界の核兵器不拡散体制は、私の世代が恐怖して育った全面核戦争を阻止しました。各国政府は、国際原子力機関と同様の世界的なAI機関の設立を検討すべきである。
AI が人間の仕事を奪う
今後数年間、人工知能が仕事に与える主な影響は、人々がより効率的に仕事を行えるよう支援することになるでしょう。これは、工場で働いている場合でも、営業電話や買掛金を処理するオフィスで働いている場合でも当てはまります。最終的には、AI の考えを表現するスキルが十分になり、電子メールを作成したり、受信トレイを管理したりできるようになるでしょう。わかりやすい英語またはその他の言語でリクエストを作成し、有益なジョブ レポートを生成できます。
2月の記事で述べたように、生産性の向上は社会にとって良いことです。これにより、職場でも家庭でも、人々が他のことをする時間が増えます。そして、教育、病人の世話、高齢者の世話など、役に立つ人々の必要性が消えることはありません。
しかし、AI 主導の職場への移行に伴い、サポートと再トレーニングが必要な労働者もいます。労働者が置き去りにされないよう、また米国の製造業の雇用が失われたときに起こるような人々の生活への混乱を避けるために、それをうまく管理するのが政府と企業の仕事だ。
また、新しいテクノロジーが労働市場に大きな変化をもたらしたのはこれが初めてではないことにも留意してください。人工知能の影響は産業革命ほど大きくはないと思いますが、パーソナルコンピューターの出現と同じくらい巨大になることは間違いありません。ワープロ アプリケーションはオフィスワークを排除しませんでしたが、オフィスワークを永遠に変えました。雇用主と従業員は適応する必要があり、実際に適応しました。 AI によってもたらされる変革は、でこぼこした移行となるでしょうが、人々の生活と生計への混乱を軽減できると信じる十分な理由があります。
AI は私たちの偏見を継承し、それを作り上げます
幻覚とは、AI が自信を持って事実ではない発言をすることであり、通常、マシンがリクエストのコンテキストを理解していないために発生します。 AI に月旅行についての短い物語を書くように依頼したら、非常に想像力豊かな答えが返ってくるかもしれません。しかし、タンザニアへの旅行を計画する際にこのツールを利用すると、存在しないホテルに宿泊させようとする可能性があります。
AI のもう 1 つのリスクは、特定の性同一性、人種、民族などに関する既存の偏見を反映したり、さらには悪化させたりすることです。
このような幻想や偏見がなぜ生じるのかを理解するには、現在の最も一般的な AI モデルがどのように機能するかを理解することが重要です。これらは本質的に、電子メール アプリが次に入力する単語を予測できるコードの非常に複雑なバージョンです。場合によっては、Web 上で利用可能なほぼすべてのテキストが予測され、膨大な量のテキストがスキャンされ、分析され、検索されます。人間の言語のパターン。
AI に質問すると、AI はユーザーが使用する単語を調べて、その単語によく関連付けられるテキストを検索します。 「パンケーキの材料をリストアップする」と書くと、「小麦粉、砂糖、塩、ベーキングパウダー、牛乳、卵」という単語が頻繁に登場することに気づくかもしれません。次に、それらの単語が通常現れる順序についての知識に基づいて、答えを生成します (このように機能する AI モデルは、いわゆるトランスフォーマーを使用しており、GPT-4 はそのようなモデルの 1 つです)。
このプロセスは、AI が尋ねる質問や AI に伝える内容を文脈的に理解することなく、なぜ AI が幻覚を起こしたり、偏見を持ったりするのかを説明します。タイプミスをしたと伝えると、おそらく「ごめんなさい、タイプミスをしました」と言うでしょう。しかし、それは単なる幻想であり、何もタイプミスをしているわけではなく、テキストを十分にスキャンしているため、「申し訳ありません、タイプミスしました」という言葉は、文章を修正された後に人々がよく書く言葉の 1 つであることがわかります。
同様に、AI モデルは、トレーニングされたテキストに固有のバイアスを継承します。医師に関する記事をたくさん読んで、その記事のほとんどが男性医師について言及している場合、その答えはほとんどの医師が男性であると想定することになります。
幻覚は本質的な問題であると主張する研究者もいますが、私は反対です。私は、時間が経てば、AI モデルに事実とフィクションを区別できるようになるだろうと楽観視しています。たとえば、Open AI はこれに関して有望な取り組みを行っています。
アラン・チューリング研究所や国立標準技術研究所などの他の組織も偏見に取り組んでいます。アプローチの 1 つは、人間の価値観とより高度な推論を AI に組み込むことです。これは、自己認識を持った人間の仕組みと似ています。おそらく、医師の多くは男性だと思っているかもしれませんが、その思い込みを意識的に戦わなければならないことを十分に認識しているのです。人工知能も、特にモデルが異なる背景を持つ人々によって設計されている場合、同様の方法で機能します。
結局のところ、AI を使用する全員がバイアスの問題を認識し、十分な情報を得たユーザーになる必要があります。 AI に草稿を依頼した論文は、事実誤認と同様に偏見に満ちたものになる可能性があります。自分自身のバイアスだけでなく、AI のバイアスもチェックする必要があります。
AI が代わりに書いてくれるからといって、学生は書くことを学ぶことはありません
多くの教師は、AI によって生徒との仕事が混乱するのではないかと心配しています。インターネット接続があれば誰でも人工知能を使って立派な論文の初稿を書くことができる時代に、学生が論文を自分のものとして提出するのを防ぐにはどうすればよいでしょうか?
作文が人間によって書かれたのか、それともコンピュータによって書かれたのかを学習する AI ツールがすでにいくつか存在しており、教師は生徒が自分の作品を書いているかどうかを知ることができます。しかし、一部の教師は、生徒が文章で AI を使用することを妨げようとするのではなく、実際に AI を使用することを奨励しています。
1月、チェリー・シールズというベテラン英語教師がEducation Weekに記事を発表した。さんは、教室で Chat GPT をどのように使用しているかについての記事を公開しました。 Chat GPT は、生徒がエッセイの開始から概要を作成し、課題に対するフィードバックを提供するまでを支援します。
彼女は次のように書いています。「教師は、生徒が使用できるもう 1 つのツールとして AI テクノロジーを採用する必要があります。かつて私たちが生徒に適切な Google 検索の方法を教えたように、教師は Chat GPT ボットが作文作成をどのように支援できるかを明確に設計する必要があります。」 「AI の存在とそれを生徒が使えるよう支援すれば、私たちの教育方法に革命が起こる可能性があります。」 。
1970年代から1980年代にかけて電子計算機が普及した時代を思い出します。数学教師の中には、生徒が基本的な算数を学ばなくなるのではないかと心配する人もいますが、新しいテクノロジーを受け入れ、算術の背後にある考え方に重点を置く人もいます。
AI は執筆や批判的思考にも役立ちます。特に、幻覚や偏見が依然として問題となっている初期の段階では、教育者は AI にエッセイを作成させ、それを生徒に事実確認させることができます。カーン アカデミーや OER プロジェクトなどの教育非営利団体は、主張の検証に重点を置いた無料のオンライン ツールを教師と生徒に提供しています。真実と偽物を見分ける方法を知ることほど重要なスキルはありません。
私たちは、教育用ソフトウェアが達成度の差を悪化させるのではなく、埋めるのに役立つようにする必要があります。現在のソフトウェアは主に、すでに学習意欲のある学生を対象としています。学習計画を作成し、優れたリソースと結びつけ、知識をテストできます。ただし、まだ興味のないテーマに興味を持ってもらう方法はまだわかっていません。これは、あらゆるタイプの学生が AI の恩恵を受けることができるように、開発者が対処する必要がある問題です。
### **次はどうする? **
AI のメリットを最大化しながら、AI のリスクを管理できるという楽観的な理由がもっとあると私は信じていますが、迅速に行動する必要があります。
政府は、この新しいテクノロジーに対処するための法律や規制を整備するために、AI の専門知識を開発する必要があります。彼らは、誤った情報やディープフェイク、セキュリティの脅威、雇用市場の変化、教育への影響に対処する必要があります。ほんの一例です。法は、ディープフェイクのどの使用が合法であるか、そして誰もが見たり聞いたりしたものが偽物であることを理解できるようにディープフェイクにどのようなラベルを付ける必要があるかを明確にする必要があります。
政治指導者は、有権者と情報に基づいた思慮深い対話を行うことができる必要があります。また、これらの問題に関して単独で取り組むのではなく、他国とどの程度協力するかを決定する必要もあります。
民間部門では、AI 企業は安全かつ責任を持って業務を遂行する必要があります。これには、人々のプライバシーを保護すること、AI モデルが人間の基本的な価値観を確実に反映すること、偏見を最小限に抑えてできるだけ多くの人々に利益をもたらすこと、犯罪者やテロリストによるテクノロジーの悪用を防ぐことが含まれます。経済のさまざまな分野の企業は、誰も取り残されないように、従業員が AI 中心の職場に移行できるよう支援する必要があります。そして、顧客は自分が対話しているのが AI なのか人間なのかを常に把握する必要があります。
最後に、皆さんには人工知能の発展にできるだけ注意を払うことをお勧めします。これは、私たちが一生で目にするであろう最も革新的なイノベーションであり、健全な公の議論は、テクノロジーそのもの、その利点、そしてそのリスクに対する全員の理解にかかっています。人工知能の恩恵は計り知れないものになるでしょうが、リスクを制御できると信じる最大の理由は、私たちがそれを制御できてきたということです。