2023 年の初め以来、ChatGPT は世界を AI の熱狂の渦に巻き込みました。 GPT4 のデビューにより、その新たな強力な機能により、人々はわずか数年で AI が全能の存在になると感じています。
しかし、大規模言語モデル Transformer パラダイムに基づく AI の上限はどこにあるのでしょうか?それは本当に私たちを完全に置き換えることができるのでしょうか?これらの質問には多くの答えがありました。大きな言語モデルが新しい時代をもたらすと考える人もいますが、これは人間の仕事をすべて完了できる人工知能に非常に近いものですが、人工知能は世界をまったく理解できない単なるランダムなオウムにすぎないと考える人もいます。現時点では、どの観点から見ても、十分な解釈と整った制度が不足しています。
人々がこの問題をより深く理解できるようにするために、中国科学院の外国人学者であるジョセフ・ヒファキスは、AGIにつながる人工知能についての数十年にわたる彼の理解を次のような観点から説明した『Understanding and Changing the World』を著した。潜在的な経路について考える認知原理。ジョセフ・シファキス氏はヒントン氏らより10年早くチューリング賞を受賞しており、今回は「人工知能の能力と無能力」「AGIに至る道筋」を認知原理の観点から非常に明確に解説した。 」数十年にわたる考え。
丨フォーカス
人間と人工知能は相互に代替するものではなく、補完的なものです。人間は常識的な知識とモデルを形成する抽象的な能力を持っていますが、現在の人工知能のパラダイムでは実現できないため、原則に基づいたイノベーションを形成することはできません。人工知能は、原理を習得していなくても、変数が多数ある複雑なものを予測できます。これは人間の認知能力の限界により達成できないことであり、ヒッパキス氏は「AI神託」と呼んでおり、「新たな科学」をもたらす可能性がある。 2. AI がもたらす最大の脅威は、人間が AI に依存することで、私たちが自らの判断を無期限に放棄し、意思決定権を失い、最終的には「奴隷の奴隷」になる可能性があることです。これを回避するには、人間が知識の開発と応用のすべてのプロセスを習得し、これらの機械が私たちに代わって重要な決定を自分で下さないようにする必要があります。 3. 補完的な能力の状況に応じて、人類にとって最良の将来シナリオは、機械と人間の調和のとれた協力であり、この協力を通じて新たな繁栄を達成することができます。この過程において、社会は人間の生活を向上させることを目的としてテクノロジーを開発し、応用しなければなりません。
Joseph Schiffakis: システムエンジニアリングの問題など、ここには多くの問題があります。 **超知能エージェントを持っているだけでは十分ではありません。エージェントの動作が説明できることも保証する必要があるからです。 **これは私が論文で広く議論している問題でもあり、誰もが話題にしている説明可能な人工知能または安全な人工知能の問題です。
人々が理解していないのは、**ニューラル ネットワークでは彼らの行動を理解できないということです。当然のことながら、その動作を説明する数学的モデルが存在しないため、なぜそのような出力が行われるのかを説明することはできません。もちろん、ニューラル ネットワークの各ノードの数学関数がどのように計算されるかは十分に理解しています。 **これは入力の線形結合にいくつかの非線形関数を加えたものであるため、各ノードの動作を理解できます。 **しかし、ニューラルネットワーク全体の創発的な特性を理解しようとすると、私たちは絶望します。 **しかし、これは AI に特有の問題ではなく、科学における一般的な問題です。
Joseph Schiffakis: GPT は異なる種類のコンピューターです。それは天然のコンピューターです。プログラムを作成しながら実行するコンピューターではなく、システムができることとできないことを完全に制御できます。ニューラル ネットワークをトレーニングすると、その制御が失われます。これらのシステムは自由度があるため、ある意味で創造的になります。
AI が失業を引き起こすということには、今では誰もが同意しています。これは明らかです。 **しかし、人類の歴史を通して、テクノロジーは生産性を向上させることができ、最終的には人々の生活の質を向上させてきました。 **何世紀にもわたって、人々の労働時間は減少してきました。適切な経済社会改革を通じてこの問題を解決することを検討すべきである。教育改革も含めて、新しい時代に適応する人材を教育しなければなりませんから。
**Tencent Technology: 数日前、サム アルトマンを含む AI 分野の多くの著名人が AI 絶滅の脅威に関する声明に署名しました。あなたの本の中で、現在のメディアと業界関係者は次のように述べています。 AI の機能と脅威を誇張しています。その 1 つでしょうか? AI の現在のパラダイムは人類文明の危機を引き起こす可能性があると思いますか? **
Joseph Schiffakis: **AI によってもたらされる危険は明らかであり、主にその誤用に起因する可能性があります。 **残念ながら、現在、この危険に対して関連する規制はありません。政府はこれらのものがどのように開発されているかを知らないため、透明性の欠如は規制を適用できないことを意味します。それは社会にとってあまりにも悪いことです。 AIが悪用される可能性が非常に高いため、私も同社の調査を支持する請願書に署名した。
Joseph Schiffakis: しかし問題は、**人々が安全な人工知能について話すとき、多くの場合、同じことについて話しているわけではないということです。 **エンジニアとして、私にとってセキュリティには非常に明確な定義があります。安全な AI とは、AI を人間と同じように信頼することを意味すると考える人もいるかもしれません。このアイデアの根底にあるロジックは、人工知能を機械ではなく人間として扱うことです。 AI が何をするかは重要ではなく、重要なのは AI の意図であるため、意図と結果などを分離できなければならない、という論文は他にもたくさんあります。それで、たくさんの議論があります。 **このすべての議論が、単なる要望リストではなく、何らかの重大な規制につながることを願っています。 **
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
チューリング賞受賞者ヒッパキスとの対話: AI がもたらす最大の脅威は、人間を「奴隷の奴隷」に変えることです
出典: テンセントテクノロジー
2023 年の初め以来、ChatGPT は世界を AI の熱狂の渦に巻き込みました。 GPT4 のデビューにより、その新たな強力な機能により、人々はわずか数年で AI が全能の存在になると感じています。
しかし、大規模言語モデル Transformer パラダイムに基づく AI の上限はどこにあるのでしょうか?それは本当に私たちを完全に置き換えることができるのでしょうか?これらの質問には多くの答えがありました。大きな言語モデルが新しい時代をもたらすと考える人もいますが、これは人間の仕事をすべて完了できる人工知能に非常に近いものですが、人工知能は世界をまったく理解できない単なるランダムなオウムにすぎないと考える人もいます。現時点では、どの観点から見ても、十分な解釈と整った制度が不足しています。
人々がこの問題をより深く理解できるようにするために、中国科学院の外国人学者であるジョセフ・ヒファキスは、AGIにつながる人工知能についての数十年にわたる彼の理解を次のような観点から説明した『Understanding and Changing the World』を著した。潜在的な経路について考える認知原理。ジョセフ・シファキス氏はヒントン氏らより10年早くチューリング賞を受賞しており、今回は「人工知能の能力と無能力」「AGIに至る道筋」を認知原理の観点から非常に明確に解説した。 」数十年にわたる考え。
丨フォーカス
01 現在の AI は AGI とは程遠い
**Tencent Technology: ChatGPT の出現は人工知能にとって何を意味しますか?それは新しいパラダイムですか、それとも既存のパラダイムの特定の応用ですか? **
Joseph Schiffakis: ChatGPT やその他の言語モデルの出現は、人工知能の開発における重要なステップだと思います。 **実際、私たちはパラダイムシフトを経験しており、事実上あらゆる自然言語クエリに答えることができ、多くの場合、質問に対して非常に関連性の高い答えが得られます。大規模な言語モデルは、自然言語処理における長年の問題を解決します。 **これは研究者たちが何十年も成功していない分野であり、人工知能のルールを構築するために言語の構文と意味論を分離する象徴主義学派が伝統的にアプローチしてきた。
現在、大きな言語モデルは異なるアプローチを採用しており、単語の意味はそれが使用されるすべてのコンテキストによって定義されると考えています。彼らは機械学習を使用して確率分布の計算を実行します。単語の場合、この確率分布は、文内で最も可能性の高い次の単語を予測するために使用されます。これは非常にシンプルですが効果的な方法です。少し単純ですが、テキストを要約するのに最適であることがわかります。もちろん、採用するソリューションの性質によっても、その限界が決まります。言語モデルは、テキストの要約を作成したり、詩を書いたりするのにも最適です。 20世紀の中国史を要約したものにすれば、非常に良い仕事ができるだろう。しかしその一方で、非常に正確な質問をしたり、非常に単純な論理問題を解いたりすると、問題が生じる可能性があります。この種の質問はコンテキストに依存しないモデルであるため、これは理解できます。したがって、テキストとそこから提供される回答の一貫性を確認することができません。
**Tencent テクノロジー: 現在、ロジック ツリー (LOT) など、機械が論理プロセスを理解するよう自らを導くのに役立つ新しいテクノロジーが数多く登場しています。現在、大規模な言語モデルは、より具体的または複雑な論理プロセスを開発するために自らをトレーニングしています。ニューラル ネットワークには多くの層があり、レベルが高くなるほど、理解はより抽象化されます。これらの高次のニューロンに世界のモデルや構造的な理解のようなものが存在する可能性はあるのでしょうか? **
ジョセフ・シファキス: 私の本の中で、人間と機械はさまざまな種類の知識を開発し、応用していると説明しています。この知識により、人間と機械は、その妥当性と一般性の程度に応じて、さまざまな種類の問題を解決できるようになります。 **重要な違いは、「科学的および技術的知識」と「学習によって獲得された触発的な経験的知識」との間にある。 たとえば、私が話したり歩いたりするとき、私の脳は実際に非常に難しい問題を解決しますが、それがどのように機能するのか理解していません。 ニューラル ネットワークは同じ暗黙の経験的知識を生成するため、理解することなく問題を解決できるようになります。彼らがどのように働くのか。 **
これは、データベースまたはデータ駆動型の知識と呼ばれるものです。それどころか、最高の科学的および技術的知識が、物体やコンポーネントの物理現象の深い理解を提供する数学的モデルの使用に基づいていることが非常に重要です。たとえば、橋を建設する場合、その橋が今後何世紀にもわたって崩壊しないことを(その原理により)確信できます。しかし、ニューラル ネットワークを使用すると、特定の予測を行うことはできますが、その仕組みは理解されておらず、ニューラル ネットワークの動作を説明する理論を構築することは不可能です。 **この特性により、人間の関与がなければ、重要なアプリケーションにおいて大規模な言語モデルが大幅に制限されます。
問題は、これらの GPT-LM システムが人間レベルの知能を達成できるかどうかです。これが問題です。インテリジェンスとは何か、そしてそれをどのように達成するかについては、多くの混乱があると思います。なぜなら、インテリジェンスの明確な概念がなければ、インテリジェンスがどのように機能するかについての理論を開発することができず、インテリジェンスを明確に定義することもできないからです。
そして今日、多くの混乱が生じています。最近、私はこの問題について論じた論文を書きました。実際、オックスフォード辞典などの辞書を開くと、**知性とは、世界について学び、理解し、考える能力、および目標を達成し、目的を持って行動する能力として定義されていることがわかります。 **
**機械は素晴らしいことを行うことができます。彼らはゲームでは人間を超えることができます。彼らはさまざまなタスクを実行することができます。最近も大きな成果を上げています。彼らは視覚認識などの感覚能力に関連するタスクを実行できます。しかし、状況認識、環境変化への適応、創造的思考という点では、機械は人間を超えることはできません。 **簡単に言えば、GPT は自然言語の翻訳には非常に優れていますが、車を運転することはできません。 GPT を使用して車を運転することはできません。彼らの間にはまだ大きな隔たりがある。まだまだ先は長いと思います。 **今日、私たちは弱い人工知能しか持っておらず、一般的な知能の一部のコンポーネントしか持っていません。もっと何かが必要です。 **
一般知性への大きな一歩は自律システムになると思います。概念は今や明らかです。自律システムは、人間を自律エージェント に置き換えることによって、既存の組織をさらに自動化する必要性から生まれます。これは、モノのインターネットでも想定されています。実際、私たちは自動運転車、スマート グリッド、スマート ファクトリー、スマート ファーム、よりスマートな通信ネットワークについて話しています。 **これらのシステムは、リアルタイムで制約され、多くの異なる目標に対処する必要があるエージェントで構成されているという点で、Narrow AI とは大きく異なります。これらの目標には、さまざまなドメインでのアクションやアクティビティの変更が含まれますが、GPT はこれが苦手で、自然言語とドキュメント変換を扱うのが得意です。 **さらに、人間のエージェントと調和して動作できるシステムも必要です。これらすべては他の言語モデルでは不可能です。つまり、汎用人工知能にはまだかなり遠いのです。もちろん、結局のところ、私たちが知能を正確に何と考えるかということになります。なぜなら、知能が単なる会話やゲームとして定義されるのであれば、私たちは汎用人工知能に到達することになりますが、私はその定義には同意しません。
**Tencent Technology: 過去の標準的な知能テストはチューリング テストです。明らかに、GPT は対話に関してチューリング テストに合格していますが、自律型知能ではありません。この場合、AIの知能はどのように判断すればよいのでしょうか? **
Joseph Schiffakis: 私は最近、チューリング テストでは十分ではないと主張する論文を書きました。 **私は、置換テストと呼ぶ別のテストを提案します。実際、タスクを実行する別のエージェントをマシンで置き換えることができれば、このエージェントはタスクを実行するエージェントと同じくらい賢いと言えるだろうという考えです。 **人間を機械に置き換えて、車を運転したり、人間に教えたり、優れた外科医になれるとしたら、そのとき私は、機械は人間と同じくらい賢いと言うでしょう。
したがって、その定義を採用する場合、テストではなく、人間の知性は実際にはスキルの組み合わせであると考えるでしょう。それで、私たちが一般知性からどれだけ離れているか理解していますか?この代替テストでは、一部のアクションをロボットなどの機械によって実行する必要がある場合があります。ガーデニングをしたいときは、それを行うためのロボットが必要です。 GPT は単なる言語モデルであり、これらのロボット部分は含まれません。
**テンセントテクノロジー: あなたの定義によると、コンピューティングとシステムが大量のテキストを自動的に実行し、変化する環境に適応できる場合にのみ、人工知能と人間の知能の間のギャップがなくなるのがわかります。そして、AutoGPT や Baby AGI などのアプリケーションは、タスクをさまざまなステップに分割し、さまざまなプロセスを通じてタスクの目標を達成しようとすることができるようになりました。ある意味かなり自動化されています。その過程でAGIに近づいていると思いますか? **
Joseph Schiffakis: システムエンジニアリングの問題など、ここには多くの問題があります。 **超知能エージェントを持っているだけでは十分ではありません。エージェントの動作が説明できることも保証する必要があるからです。 **これは私が論文で広く議論している問題でもあり、誰もが話題にしている説明可能な人工知能または安全な人工知能の問題です。
人々が理解していないのは、**ニューラル ネットワークでは彼らの行動を理解できないということです。当然のことながら、その動作を説明する数学的モデルが存在しないため、なぜそのような出力が行われるのかを説明することはできません。もちろん、ニューラル ネットワークの各ノードの数学関数がどのように計算されるかは十分に理解しています。 **これは入力の線形結合にいくつかの非線形関数を加えたものであるため、各ノードの動作を理解できます。 **しかし、ニューラルネットワーク全体の創発的な特性を理解しようとすると、私たちは絶望します。 **しかし、これは AI に特有の問題ではなく、科学における一般的な問題です。
酸素原子と水素原子の性質だけから水の性質を推測することはできません。このことを十分に理解しているとしても、規模と複雑さの問題があります。ここが絶望の境地だ。 **テクノロジーの組み合わせや還元主義のロジックを使用して、ニューラル ネットワーク内の要素の動作を通じてニューラル ネットワークの全体的な動作を理解することはできません。したがって、これをニューラル ネットワークに適用できる唯一の方法は、テストすることです。その動作を検証することも、それについて推論することもできないからです。 **しかし、テストのみが適用される場合、それは理論的な理解ではなく、純粋に実験的なアプローチを採用していることを意味します。したがって、実際にテストできるコンテンツの種類は大きく異なります。たとえば、全体的な動作を分析できないため、総合的なセキュリティ問題をテストすることはできません。ただし、防御的にセキュリティ テストを行うことはできます。
私たちは常にハードウェアとソフトウェアにテストを適用してきました。ただし、テストを行うには、テストをどのくらいの時間継続するかについての基準が必要です。ハードウェアとソフトウェアについては、モデルと適用範囲の標準があります。しかし、ニューラル ネットワークに関しては、そのような標準がありません。これが解決するのが非常に難しい問題であると言っているわけではありません。 **ニューラル ネットワークの場合、敵対的サンプルなど、いくつかの代替の可能性があります。しかし、これらの操作は、その動作におけるある種の堅牢性を破壊します。 **つまり、私が質問すると、あなたは答えてくれるでしょう。あなたの質問を少し修正すると、あなたが人間だったら、同じような答えが返ってくるでしょう。しかし、ニューロンへの入力をわずかに変更すると、応答が大きく異なる可能性があることがわかっています。したがって、これも考慮すべき点です。
02 創発は決して理解できない
**Tencent Technology: この概念の出現、つまり基本的な機能からより高度な機能への変換は説明できないと思いますか? **
ジョセフ・シファキス: はい。物理などの科目を取り出します。物理学は非常に成熟した主題です。物理学者は素粒子論、量子論、または一般相対性理論を論理的に結び付けようとしますが、規模の問題があるため、彼らがそれを成功させることは決してないと思います。同様の問題はどのようなシステムにも存在すると思います。
**Tencent Technology: では、この説明不能な現象のせいで、大きな言語モデルで何ができるかを実際に予測することはできない、ということでしょうか? **
Joseph Schiffakis: 明らかに、何ができるかを予測するモデルを構築することはできません。私たちはモデル、つまり数学的モデルを構築することはできません。ここで、AI コミュニティではニューラル ネットワークを意味するモデルという言葉が使用されており、これが混乱の原因となっています。
別の総合的なアプローチをとる必要があると思います。関連するモデルを構築することはできないため、**おそらく、テストと経験的観察に基づいて理論を構築する方法があるでしょう。それは統計的性質に関する検定理論であるはずです。 **しかし、私の理解によれば、今日のニューラル ネットワークでは技術的に満たすのが難しいニーズがいくつかあります。
**テンセントテクノロジー: はい。では、そこから生まれる能力を理解するには、心理学のような学問を確立する必要があるのでしょうか? **
ジョセフ・シファキス: その通りです。それは良い質問です。しかし、そのような理解を確立するために GPT 自体を使用するのは少し問題があります。なぜなら、実際に今、GPT は弁護士や医師になるための試験に合格すると言う人もいますが、なぜそのような GPT は医師や弁護士になれないのでしょうか?
これは非常に興味深い議論だと思いますが、先ほど述べた堅牢性の問題が関係しています。試験にも合格しましたが、人間とニューラルネットワークの能力は大きく異なります。
堅牢性の問題は、正気の人に質問に答えてもらった場合、質問を少し変えても同じような答えが返ってくるということです。 GPT は回答の均一性を保証しません。もう 1 つの問題は、人間が論理に頼って自分の行動や発言を制御できることです。しかし、通常、ChatGPT などのニューラル ネットワークは、その動作をセマンティックに制御できないため、明らかに間違った動作を行う可能性があります。まともな人ならこんな間違いはしないだろう。したがって、議論全体の結論は、GPT が発言の一貫性を論理的に制御でき、それに応じて堅牢であれば、GPT に弁護士を認めるのは素晴らしいことだということです。しかし実際には、私たちはこのレベルの人工知能には程遠いのです。 **
**Tencent Technology: ChatGPT の制御が非常に難しいのはなぜですか?それはコンピュータの分散コンピューティング機能だからでしょうか? **
Joseph Schiffakis: GPT は異なる種類のコンピューターです。それは天然のコンピューターです。プログラムを作成しながら実行するコンピューターではなく、システムができることとできないことを完全に制御できます。ニューラル ネットワークをトレーニングすると、その制御が失われます。これらのシステムは自由度があるため、ある意味で創造的になります。
さて、これらの自由度を制御し、それらがどのように動作するかを理解できれば、問題はありません。 **問題は、ニューラルネットワークのこの巨大な自由度を制御できないこと、そして理論的に制御することはほぼ不可能であるということです。 **それらがどのように動作するかを大まかに推定することはできますが、正確な結果は得られません。従来のコンピューター プログラムがある場合、それが長いプログラムであっても、セマンティック モデルを抽出して、その中で何が起こっているかを理解することができます。これは非常に重要な違いです。
**Tencent Technology: 自然機械の概念について詳しく話してもらえますか? **
ジョセフ・シファキス: **自然機械は、自然現象を利用する知性です。たとえば、ニューラル ネットワークは、量子コンピューターや他のコンピューターと同様の自然の機械です。 昔、私が学生だった頃は、我が家にもパソコンがたくさんありました。この自然の機械を構築する際には、物理現象のいくつかの原理を使用します。これは、どの物理現象にも何らかの情報コンテンツが含まれているためです。たとえば、私が石を投げるとき、石はコンピューターのようなもので、放物線を計算し、アルゴリズムを形成します。あらゆる現象を観察することができ、自然現象を利用してコンピューターを構築することもできます。しかし これらのコンピュータは事前にプログラムされていません。彼らは物理学や数学における特定の法則を悪用します。これはニューラルネットワークの場合に当てはまります。 **
**Tencent Technology: あなたの本の他の内容について話しましょう。あなたはいくつかの研究とイノベーションの問題について議論しました。ニューラル ネットワークのアイデアの多くはヨーロッパや日本から来ていますが、OpenAI や Deepmind など、ニューラル ネットワークを使用して製品を製造している企業はすべて米国にあることは誰もが知っています。その理由は何だと思いますか? **
ジョセフ・シファキス: 注目と革新の間には違いがあります。 **イノベーションとは、研究を応用して新しい製品やサービスを開発し、技術的なブレークスルーを達成する能力だからです。 **
これは米国の非常に強い利点だと思います。米国はイノベーションにおいて素晴らしい仕事をしてきました。これはカリフォルニアで始まりました。カリフォルニアには、私がイノベーションエコシステムと呼ぶものがあります。 **イノベーション エコシステムには、非常に優れた学術機関、大手テクノロジー企業、新興企業、ベンチャー キャピタルや資本が集まります。この一貫性により、新しい結果やアプリケーションの効果的かつ効率的な変換が可能になります。他の国もこのモデルを採用しています。イノベーションエコシステムという考え方は一般的なものであり、イスラエルやスイスのような小規模な国は多くの成功を収めています。 **まとめると、イノベーションを達成するには、優れた大学と優れた産業を結び付ける必要があると思います。それは物質的な資源だけでなく、文化的要因にも左右され、教育や機関は個人の創造性や起業家精神を認識する必要があります。
03 ニューラル ネットワーク オラクル: 理解できない新しい科学
**Tencent Technology: ニューラル ネットワークは生物学的な脳と物理世界をシミュレートするプロセスであると先ほどおっしゃいました。生物学的な脳についての理解がまだ非常に限られているのに、どのようにしてこのシミュレーションが可能なのでしょうか?この神経ネットワークは私たちの生物学的な脳からどのくらい離れているのでしょうか? **
ジョセフ・シファキス: それは良い質問ですね。ニューラル ネットワークは一種の自然なコンピューターであり、従来のコンピューターとは異なるパラダイムを採用していると先ほど言いました。具体的には、ニューラル ネットワークは、私たちの脳の神経の働きからインスピレーションを受けています。それは、神経が機能する自然なプロセスの一部を模倣します。 **ただし、ニューラル ネットワークは脳の計算原理を模倣しているだけです。脳は領域ごとに異なる構造と機能を備えているため、より複雑です。そして、これらのさまざまな機能は、より複雑なアーキテクチャの上に構築されており、私たちはそれをまだ理解しようとしています。 **そして、脳のニューラルネットワークは並列計算モードです。ニューラル ネットワークもこの点でそれとはまったく異なります。
また、**脳を生物学的レベルで研究するだけでは、人間の意図をすべて完全に捉えることはできないと思います。 **例として、ラップトップを使用してソフトウェアを実行します。次に、このハードウェアがどのように機能するかを測定を通じて研究するための電子機器を提供します。プログラムをコンパイルすると、すべての知識がハードウェア レベルの電気信号の形で存在します。しかし、この規模の問題があるため、この電気信号を分析するだけでは、問題のあるソフトウェアのソースコードを見つけることは不可能です。 **これが人間の知性を理解する鍵だと思います。私たちは脳を研究する必要がありますが、脳だけではありません。したがって、脳の計算現象は、電気信号、物理化学的現象、心理的現象の組み合わせです。 **
**そして今日の問題は、精神的現象を脳の計算にどのように結び付けるかです。これは私の意見では大きな課題です。これが成功しなければ、人間の知性を理解することは決してできないと思います。 **
**Tencent Technology: あなたは、人工知能が人間の知識の発展に新たな道を切り開き、複雑な問題に対処する際の人間の脳の限界を打ち破っているとおっしゃいました。 AI はどの時点で人間を完全に超えることができると思いますか? **
ジョセフ・シファキス: はい。私の本の中で、**機械は私たちの思考の限界の一部を克服するのに役立つと説明しています。 **これは心理学者によって確認されています。ここでの制限には、認知の複雑さによって人間の心が制限されることが含まれます。 **私たち人間は、5 つを超える独立したパラメーター間の関係を理解することはできません。これが、私たちが開発する理論が非常にシンプルである理由です。何千もの独立したパラメータが形成された理論はありません。 **
したがって、これは将来的に非常に重要な方向性だと思います。複雑な現象や複雑なシステムの発展を予測するのに役立つ「神託」がさらに増えるでしょう。 ** たとえば、予測を行うのに役立つインテリジェントなデジタル ツイン システムが登場しますが、(予測のロジックを) 理解することはできません。つまり私たちは新しい種類の科学を手に入れることになるのです。 **この種の科学を利用できるのは興味深いことだと思いますが、生み出される知識の質を管理する必要もあります。 **人間は知識を生み出す唯一の特権をもはや持たなくなるので、これについて考えるべきです。今、人間は機械と競争しなければなりません。 **
したがって、私たちの社会にとって重要な問題は、私たちが機械と協力し、機械によって開発された知識の発展と進化を習得できるかどうかです。 **あるいは、人間主導の科学と機械主導の科学が共存する状況を発展させるでしょう。 **これらのマシンを活用した並行科学があれば、興味深いシナリオになるでしょう。
**Tencent Technology: 人間の心もコンピューティング システムであるとおっしゃいました。どちらのシステムも自動機械と比較すると、コンポーネントの点で非常に似ています。では、強力な人工知能と比較して、人間のユニークな能力は何でしょうか? **
ジョセフ・シファキス: とても良い質問ですね。私は自律システムに取り組んでいたので、自動運転車の設計に挑戦しました。自動運転車の場合は、感覚情報を概念に変える知覚などの機能が必要になります。外界をモデル化し、意思決定を行う反射機能を持つことになります。意思決定を行うということは、さまざまな目標を管理することを意味します。これらの目標を達成するには、計画などが必要です。実際、自律システムと人間の心の間には多くの類似点があります。
ただし、人間と自律システムの間にはいくつかの重要な違いがあります。 **非常に重要な違いの 1 つは、人間はいわゆる常識知識を持っているということです。常識知識は、私たちが生まれたときから培ってきた知識のネットワークです。私たちにはメカニズムがありますが、それがどのように機能するかはわかりません。しかし、毎日の経験を通じて、あなたはこのネットワークを豊かにし、世界を理解するための常識的な知識を獲得します。 ** 人間の場合、考えるとき、感覚情報をこの常識的な概念モデルに結び付けます。解析結果は概念モデルから感覚情報にフィードバックされます。これはニューラルネットワークとは大きく異なります。例を挙げてみましょう。部分的に雪に覆われた一時停止の標識を見せると、あなたはすぐに、それは間違いなく一時停止の標識だと言いました。
ここで、部分的に雪に覆われた一時停止標識を認識できるようにニューラル ネットワークをトレーニングしたい場合、ニューラル ネットワークは感覚情報を概念モデルに結び付けることができないため、全天候を理解できるようにニューラル ネットワークをトレーニングする必要があることを意味します。状態です。 **これが、子供たちがニューラル ネットワークよりも学習しやすい理由です。一度子供に車を見せると、次からは車だと言うでしょう。 **なぜなら、それらは観察を通じて車とは何かについての抽象的なモデルを形成するからです。彼らは感覚情報をこの概念モデルに関連付けることができます。 **これは、今日人工知能が直面している最大の課題の 1 つです。 **これは自動運転車にとっても重要な問題です。自動運転車は感覚情報を収集し、その情報を地図などとリンクできる必要があります。感覚情報のみに基づいて意思決定を行うのは危険です。以前にもこの例がありました。
なぜ人間が多くの分析や計算を行わずに複雑な状況を理解できるのかは明らかではありません。私たちがこれを行うことができるのは、感覚情報をある概念的な情報、抽象的な情報と結び付けることができるからです。したがって、私たちがまったく間違ってはいけない場合でも、ニューラル ネットワークは大いに間違ってしまう可能性があります。月と木の組み合わせが黄色の信号だと思ってテスラが突然止まったときのことを思い出します。人間は情報を文脈化して理解できるため、このようなことは人間には絶対に起こりません。信号機が空に浮かぶはずがないので、それが月であることはすぐにわかりました。
したがって、これらのシステムはある意味で人間と競合できると誰かが言うとき、おそらくそれは可能です。 **しかし、人間の知性は、世界を理解し、目的を持って質問する能力によって特徴付けられます。人工知能はまだこの目標には程遠いです。 **
**Tencent Technology: あなたは自動運転について研究しており、これには環境、認知、知覚についての理解がすでに含まれているからです。 Lecun 氏は、人間は視覚的な動物であるため、世界の理解は主に視覚に基づいていると主張します。大きな言語モデルがマルチモーダルで環境から学習できる場合、世界そのものを理解できるでしょうか? **
Joseph Schiffakis: **AI が具体的な知識と象徴的な知識を結び付けることができない場合、大規模な言語モデルに依存するだけでは世界を理解することは不可能になると思います。 AIは、具体的な知識、つまりデータベース内の知識と記号的な知識を組み合わせることでのみこれを行うことができます。それができなければ、人間の知性が機械を上回ることになるでしょう。私はそれを確信しています。 **Computational Intelligence は何百万ものパラメーターを通じてデータを分析し、抽出できるため、多くの人が私に同意しないことは承知しています。人間はこれをうまくやれません。しかし、人間は抽象的な問題を扱うのが得意です。
**人間の知性は、アナロジーと比喩を使用する能力に依存します。 **人間の創造性がどのように機能するか理解できなくても、それは非常に重要であると言えます。 **人間の創造性においては、発見と発明は区別されるべきだからです。 **機械はデータ分析を使用することで、より複雑で大規模なデータから何かを発見できます。しかし、発明は別の問題です。発明とは、私が理論を発明したことを意味します。私たちは人間の知性のこの部分を理解するには程遠いと思います。
しかし、発見する能力は、人間がより一般的なパターンを推測するのに役立つため、役に立ちます。これは私たち自身の心では発見できないものです。しかし、機械が新しい科学理論を生み出したり、新しい機械を生み出すことはできないと思います。 **彼らは自分が持っている知識を総合して提供します。蒸留プロセスのように、彼らは膨大な量の知識を持っており、それを蒸留してあなたに提示します。 **これは素晴らしいです。しかしそれだけでは十分ではありません。さらなる可能性を実現するには、やはり人間の能力が必要です。
私が書いた論文の中で、知性には実際にはさまざまな種類があると説明しました。人間の知性は非常に特別です。なぜなら、人間の知性の発達の基礎は、私たちが生きようと努めている特別な世界だからです。 **もし私たちが別の世界に生まれていたら、おそらく別の知性を発達させるでしょう。インテリジェンスとは、知識を生み出し、問題を解決する能力です。 ** もちろん、現在では私たちには解決できない問題を解決できる機械が登場していますが、実際には別の種類の知能を備えています。素晴らしいですね、私たちにはある種の補完性があります。 **
04 科学技術の発展は人類の生活を改善することを優先すべきです
**Tencent Technology: 先ほど哲学的な議論をしましたが、これからは AI が社会に与える道徳的影響に関するいくつかの問題について議論します。最初の質問は、新技術が十分な新しい雇用を生み出すという楽観論とは異なり、人工知能が深刻な失業問題を引き起こすとおっしゃっていることです。そして、社会経済システムを変えずにこれらの問題を解決するのは難しいかどうか。なぜそう言えるのか説明できますか?多くの人がそれを気にしているからです。 **
ジョセフ・シファキス氏: AI の発展により生産性は向上します。経済学には非常に単純な法則がいくつかあります。生産性が向上すると、同じ仕事をするのに必要な人数がますます減ります。この点は非常に明確です。
現在、AI が何らかの雇用の機会を生み出すだろうと考える人もいますが、特に優秀な人材にとっては、新たな雇用の機会が生まれるでしょう。 **しかし、AI によって生み出される雇用と、AI によって失われる雇用を天秤にかけてみると、AI の影響はマイナスであるはずです。 **
AI が失業を引き起こすということには、今では誰もが同意しています。これは明らかです。 **しかし、人類の歴史を通して、テクノロジーは生産性を向上させることができ、最終的には人々の生活の質を向上させてきました。 **何世紀にもわたって、人々の労働時間は減少してきました。適切な経済社会改革を通じてこの問題を解決することを検討すべきである。教育改革も含めて、新しい時代に適応する人材を教育しなければなりませんから。
**Tencent Technology: 産業革命において、当初は人々の生活はそれほど改善されませんでした。彼らは工場で働き、1 日 14 時間働くこともあります。技術革新の初期には人々の生活環境はさらに悪化すると思いますか? **
ジョゼフ・シファキス: いいえ、産業革命は一般的に人間の生活の質を向上させたと思います。これが問題の核心です。 **今日の社会の問題は、この目標を真剣に受け止めておらず、技術の進歩が優先されるべきだと考えていることだと思います。しかし、私は、最優先すべきは人間の生活をどう改善するかということだと思います。少なくとも私は人道主義者です。 **
**Tencent Technology: 私は人道主義者でもあり、この問題がどれほど深刻であるかを理解しています。 AI は失業以外にも深刻な結果をもたらす可能性があると思いますか? **
ジョセフ・シファキス: それは可能です。しかし問題は、人工知能は人類にとって脅威となり、私たちも機械の奴隷になるかもしれないと言う人がいることです。私はその発言が好きではありません。私は本の中で、テクノロジーは中立であると述べています。あなたには原子力があり、原子力を使って発電することができ、それを使って爆弾を作ったり、人を殺したりすることもできます。これはあなたの決断です。よく考えてみれば、人工知能が人類の脅威だと言っている人たちは、まったくの愚か者です。なぜならテクノロジーの使用は人間の責任だからです。 **
**これらの人々は、単にこのことに対する人間の責任を軽減したいという理由だけでそのように言っていると思います。 **彼らは人々にAIを受け入れてもらいたいからですが、それはあまりにもひどいことです。人々は起こり得る問題に対して責任を負うべきです。中国で何が起こっているのかは知りませんが、残念ながら西側世界では人々は中国についてあまり敏感ではありません。彼らはテクノロジー(悪影響)はあらかじめ決まっていると考えていますが、それは非常に悪いことです。また、私は著書の中で、最大のリスクは人間が機械に支配されることではなく、重要な意思決定はすべて機械が行うことを人間が受け入れることだと述べました。アラビアの神話のように、自分のやりたいことを何でもできる奴隷がいたら、最終的には私は奴隷の奴隷になってしまうでしょう。 **つまり、危険は人々から来るのです。これはフランスの学校でも見たことがありますが、子供がチャットボットにアクセスできると、文章を書くことも、考えを整理することもできなくなり、最終的にはマシンに依存してしまうのです。これは人類にとってバラ色のシナリオではありません。
**Tencent Technology: 数日前、サム アルトマンを含む AI 分野の多くの著名人が AI 絶滅の脅威に関する声明に署名しました。あなたの本の中で、現在のメディアと業界関係者は次のように述べています。 AI の機能と脅威を誇張しています。その 1 つでしょうか? AI の現在のパラダイムは人類文明の危機を引き起こす可能性があると思いますか? **
Joseph Schiffakis: **AI によってもたらされる危険は明らかであり、主にその誤用に起因する可能性があります。 **残念ながら、現在、この危険に対して関連する規制はありません。政府はこれらのものがどのように開発されているかを知らないため、透明性の欠如は規制を適用できないことを意味します。それは社会にとってあまりにも悪いことです。 AIが悪用される可能性が非常に高いため、私も同社の調査を支持する請願書に署名した。
テクノロジーは非常に優れており、私はテクノロジーに対して何の抵抗もありません。チャットボットがあるのは素晴らしいことであり、その方向に前進する必要があります。 **一般的な人工知能を含む人工知能は良いものであり、私はそれに反対するものではありません。私が反対しているのは、これらのテクノロジーの悪用です。大規模な言語モデル自体が解釈可能性に欠けているため、一定の困難はあるものの、さまざまな国や国際機関が規制を施行する必要があります。しかし、データセットの構築方法やエンジンのトレーニング方法など、開発会社に対してある種の透明性を要求することはできます。 **
**Tencent Technology: 最近、米国議会は人工知能と標準人に関する公聴会を開催しました。サム・アルトマン氏をはじめマーカス氏も参加しており、欧州では関連法案が可決されている。これは良いスタートだと思いますか? **
Joseph Schiffakis: しかし問題は、**人々が安全な人工知能について話すとき、多くの場合、同じことについて話しているわけではないということです。 **エンジニアとして、私にとってセキュリティには非常に明確な定義があります。安全な AI とは、AI を人間と同じように信頼することを意味すると考える人もいるかもしれません。このアイデアの根底にあるロジックは、人工知能を機械ではなく人間として扱うことです。 AI が何をするかは重要ではなく、重要なのは AI の意図であるため、意図と結果などを分離できなければならない、という論文は他にもたくさんあります。それで、たくさんの議論があります。 **このすべての議論が、単なる要望リストではなく、何らかの重大な規制につながることを願っています。 **
**Tencent Technology: それでは、より明るい可能性についてお話しましょう。人工知能が悪用されなければ、私たちの生活をどのように変えることができるでしょうか? **
ジョセフ・シファキス: 人工知能を悪用しなければ、未来は非常に有望です。これは大きな革命です。気候変動、資源管理、人口問題、パンデミックなど、今日人類が直面している大きな課題のいくつかに対処するための知識を開発する大きな可能性を秘めています。
前に、人間と機械の間には明確な補完性があると言いました。 **人間にとって最良のシナリオは、機械と人間が調和して協力することです。そしてこのプロセスにおいて、人間は知識の開発と応用のすべてのプロセスを習得できるようになり、これらの機械が私たちに代わって重要な決定を自ら行うことがなくなるようになります。 **
これからの課題は、人間と機械の間の適切なバランス、役割の適切なバランスを見つけることです。これが成功することを願っています。