出典: 新志源
人間の認知においては、汎用人工知能 (AGI) が人工知能の究極の形と開発の最終目標を設定するために長い間使われてきたようです。
OpenAI は長い間、AGI を達成することを会社の目標として設定してきましたが。しかし、AGI とは何かについて、OpenAI CEO のサム アルトマン自身は具体的な定義を与えることができませんでした。
AGIがいつ来るのかというと、ボスが投げる近未来の物語のシナリオの中にのみ存在しており、手の届くところにあるようで遠い。
今日、有名な海外のポッドキャスト Web サイト Substack で、ヴァレンティノ ゾッカという人工知能業界のベテランが、人類の歴史の物語的立場に立って、人類と一般的な人工知能の物語を包括的かつ深く伝える壮大な記事を書きました。知性、知性間の距離。
記事ではAGIを単に「世界を記述するモデル」ではなく「世界を理解できるモデル」と大まかに定義しています。
人間が本当に AGI の世界を実現したいのであれば、「自分自身の現実に疑問を持ち、自分自身を探索できるシステム」を構築する必要があると彼は考えています。
この偉大な探求のプロセスにおいて、具体的なロードマップを与える資格や能力を持っている人はおそらく誰もいないでしょう。
OpenAI の科学者 Kenneth Stanley と Joel Lehman が近著「Why Greatness Can't Be Planned」で説明しているように、偉大さの追求には方向性がありますが、具体的な結果は予期せぬものになる可能性があります。
約20万年前、ホモ・サピエンスは地球上を直立して歩き始め、同時に思考や知識の分野でも旅を始めました。
人類の歴史における一連の発見と発明は、人類の歴史を形作ってきました。これらの中には、私たちの言語や思考に影響を与えるだけでなく、潜在的に私たちの生物学的構成に影響を与えるものもあります。
たとえば、火の発見により、原始人は食べ物を調理できるようになりました。調理された食べ物は脳により多くのエネルギーを供給し、人間の知能の発達を促進します。
車輪の発明から蒸気エンジンの創造に至るまで、人類は産業革命の到来を告げました。電気は今日の技術発展への道をさらに切り開き、印刷は新しいアイデアや文化の広範な普及を加速し、人類のイノベーションの発展を促しました。
しかし、進歩は新しい物理的次元の発見だけでなく、新しいアイデアからもたらされます。
西洋世界の歴史は、ローマ帝国の崩壊から中世に至るまでであり、ルネサンスと啓蒙時代に再生を経験します。
しかし人類の知識が発展するにつれて、人類は自らの無意味さを認識し始めました。
ソクラテスから2000年以上が経ち、人類は「自分たちが何も知らなかったと知り」始め、地球はもはや宇宙の中心とは見なされなくなった。宇宙自体は膨張していますが、私たちはその中のほんの一粒にすぎません。
しかし、人類の世界認識に最大の変化が起きたのは 20 世紀です。
1931 年、クルト ゲーデルは不完全性定理を発表しました。
わずか 4 年後、「完全性」のテーマを継続するために、アインシュタイン、ポドルスキー、ローゼンは「物理的現実の量子力学的な定義は完全であると考えられるか?」というタイトルの論文を発表しました。
その後、ニールス・ボーアがこの論文に反論し、量子物理学の正当性を証明した。
ゲーデルの定理は、数学ですらすべてを決定的に証明することはできないこと、つまり人間は常に証明できない事実を抱えていることを示していますが、量子論は、私たちの世界には確実性が欠けており、電子の速度や速さなどの特定の出来事を予測することができないことを示しています。
「神は宇宙でサイコロを振らない」というアインシュタインの有名な言葉にもかかわらず、本質的には、物理学で物事を単に予測したり理解したりする場合、人間の限界が全面的に表れます。
人間が定式化したルールによって運営される数学的宇宙を人間がどれほど一生懸命設計しようとしても、そのような抽象的な宇宙は常に不完全であり、そこには証明できない、否定できない客観的な公理が隠されています。
人間の世界は、数学という抽象的な定式化に加えて、現実を説明する哲学によっても表現されます。
しかし、人間は、これらの表現を説明したり、完全に表現したり、理解したり、あるいは定義することさえできないことに気づきました。
20世紀初頭、「真実」という概念はいまだ不明確で、「芸術」「美」「生命」などの概念も定義レベルでの基本的な合意がありませんでした。
他の多くの重要な概念についても同様で、「知恵」や「意識」も人間自身が明確に定義することはできません。
インテリジェンスの定義のギャップを埋めるために、2007 年にレッグとハートは著書『General Intelligence』で機械インテリジェンスの定義を提案しました。「インテリジェンスとは、変化する環境で目標を達成するためのエージェント (エージェント) の能力を測定します。 。」
同様に、ハンブリック、バーゴイン、アルトマンは、「問題解決と知能」の中で、問題解決は単なる知能の側面や特性ではなく、知能の本質であると主張しています。
これら 2 つのステートメントは言語記述において類似しており、両方とも「目標の達成」が「問題の解決」に関連付けられると信じています。
ゴットフレッドソン氏は、著書『知能に関する主流科学: 52 人の署名者による論説』の中で、数人の研究者による知能の定義をより広い観点から要約しています。
「知性とは、推論、計画、問題解決、抽象的思考、複雑なアイデアの理解、迅速な学習、経験からの学習を含む、非常に一般的な精神的能力です。それは単なる本の知識、狭い学力、または試験のスキルではありません。 、それは自分の周囲を理解するためのより広く深い能力、つまり物事を「捉える」、「理解する」、または何をすべきかを「理解する」能力を反映しています。
この定義は、知性の構築を単なる「問題解決スキル」を超えたものとし、経験から学ぶ能力と周囲の環境を理解する能力という 2 つの重要な側面を導入します。
言い換えれば、知性は一般的な問題の解決策を見つけるための抽象的な能力として見られるべきではなく、むしろ、これまでの経験から学んだことを、起こり得るさまざまな状況に対応する環境能力に適用する具体的な能力として見なされるべきです。
これは、知性と学習の間に本質的なつながりがあることを強調しています。
スタニスラス・デハエンは、著書「How We Learn」の中で、学習を「学習とは世界のモデルを形成するプロセスである」と定義しています。これは、知能もまた、周囲の環境を理解し、世界を記述するための内部モデルを作成する必要がある能力であることを意味します。環境。
したがって、知能には、この能力だけではありませんが、世界のモデルを作成する能力も必要です。
汎用人工知能 (AGI) と狭い人工知能 (狭い AI) について議論するとき、私たちはしばしばそれらの違いを強調します。
狭い人工知能 (または弱い人工知能) は非常に一般的で成功しており、特定のタスクでは人間を上回ることがよくあります。
例えば、この有名な例ですが、2016年に狭義の人工知能AlphaGoが囲碁で世界チャンピオンの李世ドルを4対1で破りましたが、これが良い例です。
しかし、2023 年、アマチュア チェス プレーヤーのケリン パーラインは、囲碁のフィールドで人間の試合に勝つために、人工知能が対応できない戦術を使用しました。これは、狭い範囲の人工知能には場合によっては限界があることを示しています。
異常な戦術を認識し、それに応じて調整する人間の能力が欠けています。
さらに、最も基本的なレベルでは、初心者のデータ サイエンティストでも、人工知能が依存するすべての機械学習モデルはバイアスと分散のバランスを取る必要があることを理解しています。
これは、単に暗記するのではなく、データから学び、解決策を理解して一般化することを意味します。
Narrow AI は、コンピューターの計算能力とメモリ容量を使用して、大量の観測データに基づいて複雑なモデルを比較的簡単に生成します。
ただし、条件がわずかに変化すると、これらのモデルは一般化できないことがよくあります。
それは、観測に基づいて地球を説明するために重力理論を思いついたのに、月では物体がはるかに軽いことが判明したようなものです。
重力に関する理論的な知識に基づいて数値の代わりに変数を使用すると、正しい値を使用して各惑星や月の重力の大きさを迅速に予測する方法を理解できます。
しかし、変数を持たない数値方程式を単に使用した場合、これらの方程式を書き直すことなく他の惑星に適切に一般化することはできません。
言い換えれば、人工知能は真に「学習」することはできず、情報や経験を抽出するだけである可能性があります。 AIは世界の包括的なモデルを形成して理解するのではなく、表現するための要約を作成することによってのみ理解します。
現在、AGI とは、人間レベル以上の複数の認知領域を理解して推論できる人工知能システム、つまり強力な人工知能を指すものとして理解されています。
そして、現在の特定のタスクのための人工知能は、囲碁のAlphaGOのような弱い人工知能にすぎません。
AGI は、抽象的思考の分野のさまざまな分野をカバーする人間レベルの知能を備えた人工知能システムを表します。
これは、AGI に必要なのは、経験と一致し、正確な予測ができる世界のモデルであることを意味します。
Everitt、Lea、Hutter が「安全文献レビュー」(AGI 安全文献レビュー) で指摘しているように、AGI はまだ完成していません。
「真の AGI からどのくらい離れていますか?」という質問については、さまざまな予測が大きく異なります。
しかし、これはほとんどの人工知能研究者や権威ある機関の見解と一致しており、人類が真の汎用人工知能を実現するには少なくとも数年はかかるということです。
GPT-4 のリリース後、現在最も強力な人工知能に直面しているため、多くの人が GPT-4 を AGI の火付け役とみなしています。
OpenAIのパートナーであるMicrosoftは4月13日、論文「汎用人工知能の火花: GPT-4による初期実験」(一般人工知能の火花: GPT-4による初期実験)を発表した。
用紙のアドレス:
それは次のように述べています:
「GPT-4 は言語を習得するだけでなく、特別なプロンプトを必要とせずに、数学、コーディング、視覚、医学、法律、心理学、その他の分野をカバーする最先端のタスクを解決します。
そして、上記のすべてのタスクにおいて、GPT-4 のパフォーマンス レベルは人間のレベルとほぼ同等です。 GPT-4 の機能の幅広さと深さに基づいて、GPT-4 は一般的な人工知能のほぼ完全ではないバージョンとみなすことができると考えられます。 」
しかし、カーネギーメロン大学のマールテン・サップ教授がコメントしたように、「AGIの火花」は、広報として研究論文を掲載する一部の大企業の一例にすぎない。
一方で、研究者で機械起業家のロドニー・ブルックス氏は、「ChatGPT のようなシステムの機能を評価するとき、パフォーマンスと能力を同一視してしまうことが多い」と誤解を指摘しています。
パフォーマンスと能力を誤って同一視するということは、GPT-4 が現実世界の理解を考慮した世界の総括的な記述を生成することを意味します。
これは、AI モデルがトレーニングされるデータに関係します。
今日のモデルのほとんどはテキストでのみトレーニングされており、現実世界で話したり、聞いたり、匂いを嗅いだり、生きたりする能力を持っていません。
この状況は、プラトンの洞窟の寓意と似ており、洞窟に住む人々は壁に映る影しか見えず、物の実在を認識することができません。
テキストのみでトレーニングされた世界モデルは、文法的に正しいことが保証されるだけです。しかし本質的には、その言語が何を指すのか理解できず、環境と直接接触するという常識も欠如している。
大規模言語モデル (LLM) の最も物議を醸している課題は、幻覚を起こす傾向があることです。
幻覚とは、モデルが参照や事実を改ざんしたり、論理的推論や因果推論などを混乱させたり、無意味なコンテンツを生成したりする状況を指します。
大規模な言語モデルの幻想は、イベント間の因果関係の理解の欠如に起因します。
「ChatGPT は優れた因果推論者ですか? 包括的な評価」という論文で、研究者らはこの事実を確認しました。
ChatGPT のような大規模な言語モデルでは、実際に関係があるかどうかに関係なく、イベント間に因果関係があると想定する傾向があります。
研究者らは最終的に次のように結論づけた。
「ChatGPT は因果関係を説明するのには優れていますが、因果関係を推論するのには適していません。」
同様に、この結論は他の LLM にも拡張できます。
これは、LLM には本質的に観察による因果帰納の能力のみがあり、因果推論の能力はないことを意味します。
これは LLM の限界にもつながります. インテリジェンスが経験から学習し、学習した内容を周囲の環境を理解するための世界モデルに変換することを意味する場合、学習の基本要素である因果推論はインテリジェンスには不可能です。
既存の LLM にはこの側面が欠けているため、Yann LeCun 氏は、現在の大規模な言語モデルは AGI になり得ないと考えています。
## 結論は
20 世紀初頭の量子力学の誕生によって明らかになったように、現実は、日常の観察によって形成される私たちの直観とは異なることがよくあります。
私たちが構築する言語、知識、テキストデータ、さらにはビデオ、オーディオ、その他の素材は、私たちが経験できる現実のごく限られた部分にすぎません。
私たちが直感や経験に反する現実を探索し、学習し、習得するのと同じように、AGI は、自らの現実を問い、自己探求できるシステムを構築できる場合にのみ真に実現されます。
そして少なくとも現段階では、因果推論を行って世界を理解できるモデルを構築する必要があります。
この見通しは人類の歴史におけるさらなる前進であり、私たちの世界の性質に対するより深い理解が暗示されています。
AGIの出現により、私たちの固有の価値や存在の重要性は薄れますが、継続的な進歩と認知境界の拡大を通じて、私たちは宇宙における人類の地位、そして人類と人類の関係をより明確に理解するでしょう。大宇宙。
参考文献:
33k 人気度
12k 人気度
5k 人気度
16k 人気度
61k 人気度
31k 人気度
2k 人気度
95k 人気度
27k 人気度
GPT-4 は単なる AGI の火花でしょうか? LLMは最終的には撤退する、世界モデルが未来だ
出典: 新志源
人間の認知においては、汎用人工知能 (AGI) が人工知能の究極の形と開発の最終目標を設定するために長い間使われてきたようです。
AGIがいつ来るのかというと、ボスが投げる近未来の物語のシナリオの中にのみ存在しており、手の届くところにあるようで遠い。
今日、有名な海外のポッドキャスト Web サイト Substack で、ヴァレンティノ ゾッカという人工知能業界のベテランが、人類の歴史の物語的立場に立って、人類と一般的な人工知能の物語を包括的かつ深く伝える壮大な記事を書きました。知性、知性間の距離。
人間が本当に AGI の世界を実現したいのであれば、「自分自身の現実に疑問を持ち、自分自身を探索できるシステム」を構築する必要があると彼は考えています。
この偉大な探求のプロセスにおいて、具体的なロードマップを与える資格や能力を持っている人はおそらく誰もいないでしょう。
OpenAI の科学者 Kenneth Stanley と Joel Lehman が近著「Why Greatness Can't Be Planned」で説明しているように、偉大さの追求には方向性がありますが、具体的な結果は予期せぬものになる可能性があります。
**AGIからどれくらい離れていますか? **
約20万年前、ホモ・サピエンスは地球上を直立して歩き始め、同時に思考や知識の分野でも旅を始めました。
人類の歴史における一連の発見と発明は、人類の歴史を形作ってきました。これらの中には、私たちの言語や思考に影響を与えるだけでなく、潜在的に私たちの生物学的構成に影響を与えるものもあります。
たとえば、火の発見により、原始人は食べ物を調理できるようになりました。調理された食べ物は脳により多くのエネルギーを供給し、人間の知能の発達を促進します。
車輪の発明から蒸気エンジンの創造に至るまで、人類は産業革命の到来を告げました。電気は今日の技術発展への道をさらに切り開き、印刷は新しいアイデアや文化の広範な普及を加速し、人類のイノベーションの発展を促しました。
しかし、進歩は新しい物理的次元の発見だけでなく、新しいアイデアからもたらされます。
西洋世界の歴史は、ローマ帝国の崩壊から中世に至るまでであり、ルネサンスと啓蒙時代に再生を経験します。
しかし人類の知識が発展するにつれて、人類は自らの無意味さを認識し始めました。
ソクラテスから2000年以上が経ち、人類は「自分たちが何も知らなかったと知り」始め、地球はもはや宇宙の中心とは見なされなくなった。宇宙自体は膨張していますが、私たちはその中のほんの一粒にすぎません。
現実の認識を変える
しかし、人類の世界認識に最大の変化が起きたのは 20 世紀です。
1931 年、クルト ゲーデルは不完全性定理を発表しました。
わずか 4 年後、「完全性」のテーマを継続するために、アインシュタイン、ポドルスキー、ローゼンは「物理的現実の量子力学的な定義は完全であると考えられるか?」というタイトルの論文を発表しました。
その後、ニールス・ボーアがこの論文に反論し、量子物理学の正当性を証明した。
ゲーデルの定理は、数学ですらすべてを決定的に証明することはできないこと、つまり人間は常に証明できない事実を抱えていることを示していますが、量子論は、私たちの世界には確実性が欠けており、電子の速度や速さなどの特定の出来事を予測することができないことを示しています。
「神は宇宙でサイコロを振らない」というアインシュタインの有名な言葉にもかかわらず、本質的には、物理学で物事を単に予測したり理解したりする場合、人間の限界が全面的に表れます。
人間が定式化したルールによって運営される数学的宇宙を人間がどれほど一生懸命設計しようとしても、そのような抽象的な宇宙は常に不完全であり、そこには証明できない、否定できない客観的な公理が隠されています。
人間の世界は、数学という抽象的な定式化に加えて、現実を説明する哲学によっても表現されます。
しかし、人間は、これらの表現を説明したり、完全に表現したり、理解したり、あるいは定義することさえできないことに気づきました。
20世紀初頭、「真実」という概念はいまだ不明確で、「芸術」「美」「生命」などの概念も定義レベルでの基本的な合意がありませんでした。
他の多くの重要な概念についても同様で、「知恵」や「意識」も人間自身が明確に定義することはできません。
知能の定義
インテリジェンスの定義のギャップを埋めるために、2007 年にレッグとハートは著書『General Intelligence』で機械インテリジェンスの定義を提案しました。「インテリジェンスとは、変化する環境で目標を達成するためのエージェント (エージェント) の能力を測定します。 。」
同様に、ハンブリック、バーゴイン、アルトマンは、「問題解決と知能」の中で、問題解決は単なる知能の側面や特性ではなく、知能の本質であると主張しています。
これら 2 つのステートメントは言語記述において類似しており、両方とも「目標の達成」が「問題の解決」に関連付けられると信じています。
「知性とは、推論、計画、問題解決、抽象的思考、複雑なアイデアの理解、迅速な学習、経験からの学習を含む、非常に一般的な精神的能力です。それは単なる本の知識、狭い学力、または試験のスキルではありません。 、それは自分の周囲を理解するためのより広く深い能力、つまり物事を「捉える」、「理解する」、または何をすべきかを「理解する」能力を反映しています。
この定義は、知性の構築を単なる「問題解決スキル」を超えたものとし、経験から学ぶ能力と周囲の環境を理解する能力という 2 つの重要な側面を導入します。
言い換えれば、知性は一般的な問題の解決策を見つけるための抽象的な能力として見られるべきではなく、むしろ、これまでの経験から学んだことを、起こり得るさまざまな状況に対応する環境能力に適用する具体的な能力として見なされるべきです。
これは、知性と学習の間に本質的なつながりがあることを強調しています。
スタニスラス・デハエンは、著書「How We Learn」の中で、学習を「学習とは世界のモデルを形成するプロセスである」と定義しています。これは、知能もまた、周囲の環境を理解し、世界を記述するための内部モデルを作成する必要がある能力であることを意味します。環境。
したがって、知能には、この能力だけではありませんが、世界のモデルを作成する能力も必要です。
**現在のマシンはどの程度賢いのでしょうか? **
汎用人工知能 (AGI) と狭い人工知能 (狭い AI) について議論するとき、私たちはしばしばそれらの違いを強調します。
狭い人工知能 (または弱い人工知能) は非常に一般的で成功しており、特定のタスクでは人間を上回ることがよくあります。
例えば、この有名な例ですが、2016年に狭義の人工知能AlphaGoが囲碁で世界チャンピオンの李世ドルを4対1で破りましたが、これが良い例です。
しかし、2023 年、アマチュア チェス プレーヤーのケリン パーラインは、囲碁のフィールドで人間の試合に勝つために、人工知能が対応できない戦術を使用しました。これは、狭い範囲の人工知能には場合によっては限界があることを示しています。
異常な戦術を認識し、それに応じて調整する人間の能力が欠けています。
さらに、最も基本的なレベルでは、初心者のデータ サイエンティストでも、人工知能が依存するすべての機械学習モデルはバイアスと分散のバランスを取る必要があることを理解しています。
これは、単に暗記するのではなく、データから学び、解決策を理解して一般化することを意味します。
Narrow AI は、コンピューターの計算能力とメモリ容量を使用して、大量の観測データに基づいて複雑なモデルを比較的簡単に生成します。
ただし、条件がわずかに変化すると、これらのモデルは一般化できないことがよくあります。
それは、観測に基づいて地球を説明するために重力理論を思いついたのに、月では物体がはるかに軽いことが判明したようなものです。
重力に関する理論的な知識に基づいて数値の代わりに変数を使用すると、正しい値を使用して各惑星や月の重力の大きさを迅速に予測する方法を理解できます。
しかし、変数を持たない数値方程式を単に使用した場合、これらの方程式を書き直すことなく他の惑星に適切に一般化することはできません。
言い換えれば、人工知能は真に「学習」することはできず、情報や経験を抽出するだけである可能性があります。 AIは世界の包括的なモデルを形成して理解するのではなく、表現するための要約を作成することによってのみ理解します。
**本当に AGI に到達しましたか? **
現在、AGI とは、人間レベル以上の複数の認知領域を理解して推論できる人工知能システム、つまり強力な人工知能を指すものとして理解されています。
そして、現在の特定のタスクのための人工知能は、囲碁のAlphaGOのような弱い人工知能にすぎません。
AGI は、抽象的思考の分野のさまざまな分野をカバーする人間レベルの知能を備えた人工知能システムを表します。
これは、AGI に必要なのは、経験と一致し、正確な予測ができる世界のモデルであることを意味します。
Everitt、Lea、Hutter が「安全文献レビュー」(AGI 安全文献レビュー) で指摘しているように、AGI はまだ完成していません。
「真の AGI からどのくらい離れていますか?」という質問については、さまざまな予測が大きく異なります。
しかし、これはほとんどの人工知能研究者や権威ある機関の見解と一致しており、人類が真の汎用人工知能を実現するには少なくとも数年はかかるということです。
GPT-4 のリリース後、現在最も強力な人工知能に直面しているため、多くの人が GPT-4 を AGI の火付け役とみなしています。
OpenAIのパートナーであるMicrosoftは4月13日、論文「汎用人工知能の火花: GPT-4による初期実験」(一般人工知能の火花: GPT-4による初期実験)を発表した。
それは次のように述べています:
「GPT-4 は言語を習得するだけでなく、特別なプロンプトを必要とせずに、数学、コーディング、視覚、医学、法律、心理学、その他の分野をカバーする最先端のタスクを解決します。
そして、上記のすべてのタスクにおいて、GPT-4 のパフォーマンス レベルは人間のレベルとほぼ同等です。 GPT-4 の機能の幅広さと深さに基づいて、GPT-4 は一般的な人工知能のほぼ完全ではないバージョンとみなすことができると考えられます。 」
しかし、カーネギーメロン大学のマールテン・サップ教授がコメントしたように、「AGIの火花」は、広報として研究論文を掲載する一部の大企業の一例にすぎない。
一方で、研究者で機械起業家のロドニー・ブルックス氏は、「ChatGPT のようなシステムの機能を評価するとき、パフォーマンスと能力を同一視してしまうことが多い」と誤解を指摘しています。
パフォーマンスと能力を誤って同一視するということは、GPT-4 が現実世界の理解を考慮した世界の総括的な記述を生成することを意味します。
これは、AI モデルがトレーニングされるデータに関係します。
今日のモデルのほとんどはテキストでのみトレーニングされており、現実世界で話したり、聞いたり、匂いを嗅いだり、生きたりする能力を持っていません。
この状況は、プラトンの洞窟の寓意と似ており、洞窟に住む人々は壁に映る影しか見えず、物の実在を認識することができません。
現在の大型モデルの主な制限
大規模言語モデル (LLM) の最も物議を醸している課題は、幻覚を起こす傾向があることです。
幻覚とは、モデルが参照や事実を改ざんしたり、論理的推論や因果推論などを混乱させたり、無意味なコンテンツを生成したりする状況を指します。
大規模な言語モデルの幻想は、イベント間の因果関係の理解の欠如に起因します。
「ChatGPT は優れた因果推論者ですか? 包括的な評価」という論文で、研究者らはこの事実を確認しました。
ChatGPT のような大規模な言語モデルでは、実際に関係があるかどうかに関係なく、イベント間に因果関係があると想定する傾向があります。
研究者らは最終的に次のように結論づけた。
「ChatGPT は因果関係を説明するのには優れていますが、因果関係を推論するのには適していません。」
同様に、この結論は他の LLM にも拡張できます。
これは、LLM には本質的に観察による因果帰納の能力のみがあり、因果推論の能力はないことを意味します。
これは LLM の限界にもつながります. インテリジェンスが経験から学習し、学習した内容を周囲の環境を理解するための世界モデルに変換することを意味する場合、学習の基本要素である因果推論はインテリジェンスには不可能です。
既存の LLM にはこの側面が欠けているため、Yann LeCun 氏は、現在の大規模な言語モデルは AGI になり得ないと考えています。
## 結論は
20 世紀初頭の量子力学の誕生によって明らかになったように、現実は、日常の観察によって形成される私たちの直観とは異なることがよくあります。
私たちが構築する言語、知識、テキストデータ、さらにはビデオ、オーディオ、その他の素材は、私たちが経験できる現実のごく限られた部分にすぎません。
私たちが直感や経験に反する現実を探索し、学習し、習得するのと同じように、AGI は、自らの現実を問い、自己探求できるシステムを構築できる場合にのみ真に実現されます。
そして少なくとも現段階では、因果推論を行って世界を理解できるモデルを構築する必要があります。
この見通しは人類の歴史におけるさらなる前進であり、私たちの世界の性質に対するより深い理解が暗示されています。
AGIの出現により、私たちの固有の価値や存在の重要性は薄れますが、継続的な進歩と認知境界の拡大を通じて、私たちは宇宙における人類の地位、そして人類と人類の関係をより明確に理解するでしょう。大宇宙。
参考文献: