同氏の見解では、大規模な言語モデルでトレーニングされた AI システムは、純粋にテキストトレーニングであり、現実世界での人間の実際の経験を学習できないため、依然として非常に限定的です。彼はかつて、今日のAIは米国の司法試験に合格できるが、食器洗い機を使用することはできないが、10歳の子供は「10分で学習できる」と語った。
AIの分野では、ヤン・リクンとメタが早起きしたが、後半のエピソードに急いだ。 2013 年には人工知能の研究を行うために Meta に入社しました。同氏のチームは長年にわたってAIテクノロジーを同社のソーシャル製品に適用しており、特にFacebookがフェイクニュースの嵐に巻き込まれた2016年以降は、プラットフォームによる偽情報の制御を支援するためにAIテクノロジーが使用されている。
Yang Likun 氏は、Meta と Google が ChatGPT のような製品を最初にリリースしなかったのは、「できないからではなく、やらないからだ」と主張した。
率直に言って、大企業は世論をより恐れています。生成型 AI はメタのセキュリティ メカニズムを比較的簡単に回避でき、誤った有害な情報を拡散するために使用される可能性があることを考慮すると、生成型 AI のリリースが早すぎると同社が再び世論の奈落に突き落とされるのではないかとメタは懸念している。
しばらくの間、これらの懸念が Meta の社内 AI 戦略に曇りを与えました。 2022 年には、AI 研究者の少なくとも 3 分の 1 が、AI 分野における会社の将来に疑問を抱いており、Meta から離れることを選択しています。 OpenAI が 11 月に ChatGPT をリリースした後、さらに多くの従業員が退職しました。
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
なぜこの「AI ゴッドファーザー」はいつも ChatGPT を攻撃するのでしょうか?
文|林偉信
編集者|蘇建勲
出典丨スマート エマージェンス
トロントの現地時間6月22日、「AIのゴッドファーザー」でメタ社の主任AI科学者であるヤン・リークン氏がムンク討論会に登場し、再びChatGPTを攻撃し、「5年以内に誰もChatGPTを使わなくなるだろう」と彼は信じている。現実世界を実際には理解しておらず、純粋なテキストトレーニングだけです。「そして人間の知識のほとんどはテキストや言語とは何の関係もありません。」
この大胆な予測はすぐに大きな注目を集めました。
楊立坤氏が出席したムンクの討論会でも「人工知能は実存の脅威となる」というテーマがあった。討論中、楊立坤は「人工知能によってもたらされる破滅の予測は新たな曖昧主義にすぎない」と主張した。
楊立坤氏は、人々が心配しているのは、未来のAIがオンになれば数分で世界を征服するだろう、「これはばかばかしい」ということだと考えている。 AI に対するこの恐怖は人間の心理に根ざしており、今のところ科学的証拠はありません。
「脅威論」については、シリコンバレーで議論が白熱しており、合意には至っていないが、今回の議論はその延長線上にあるもので、ネット上ではそれほど騒がれなかった。興味深いことに、討論中に偶然にも楊力坤が ChatGPT を批判した短いビデオが国内のソーシャルメディアで話題になりました。
Yang Likun 氏が ChatGPT について苦情を言ったのはこれが初めてではありません。 6月中旬にパリで開催されたViva Techカンファレンスで、Yang Likun氏は、ChatGPTなどのAIは犬ほど賢くないと信じていた。同氏は4月の生放送で、ChatGPTはAI分野における実際の研究開発ではなく、「製品だ」と述べた。
ChatGPTに対する同氏の疑問は、まず技術レベルで特別な革新がないという点にあるが、その理由は他社も同様の技術を持っており、OpenAIは先進的ではないが「(技術が)うまく組み合わされている」というものだ。
楊立坤氏は後に Twitter で、OpenAI を企業として批判したのではなく、一般大衆とメディアの認識を「修正」したいだけだったと釈明しました - ChatGPT は他社製品を上回る驚くべきイノベーションです。
過去数か月間、Yang Likun は、ChatGPT で使用される基本的な技術的能力を誇張し、さらには自慢する人々を批判することを常に主張してきました。
同氏の見解では、大規模な言語モデルでトレーニングされた AI システムは、純粋にテキストトレーニングであり、現実世界での人間の実際の経験を学習できないため、依然として非常に限定的です。彼はかつて、今日のAIは米国の司法試験に合格できるが、食器洗い機を使用することはできないが、10歳の子供は「10分で学習できる」と語った。
ChatGPT バブルがはじけようとしているかもしれない
ChatGPT がリリースされて以来、世界中で 1 億人以上の人が ChatGPT を使用しており、その多くが ChatGPT Plus サブスクリプションに月額 20 ドルを払っています。しかし、最近多くのユーザーがインターネット上で GPT4 が GPT3.5 よりも悪いと不満を述べています。
あるユーザーは、「2週間前、GPT4は世界で最も優れたライティングアシスタントだったが、少し前までは非常に平凡なものになってしまった」「処理能力が削減されたか、知能が低下したのだと思う」と書いている。
OpenAIの研究者らが「大きなモデルは静的だ」と反論に出てきても、性能が低下するわけではないし、十分な説得力はない。
最近のデータが広く注目を集めています。 SamelikeWeb のデータによると、ChatGPT の訪問数は今年の最初の 3 か月で急増しましたが、4 月には鈍化しました。前月比増加率は 3 月の 55.8% から 12.6% に低下し、5 月も引き続き減少しました。 、残りは 2.8% だけです。予測によると、6月はマイナスになる可能性があります。
多国籍調査報告によると、ChatGPTの利用率は予想ほど高くなく、少なくとも40%の人が「聞いたことがない」または「使ったことがない」という。 ChatGPT も鮮度を失った一般ユーザーを引き留めることはできません。
正確さはユーザーを遠ざける大きな理由です。 ChatGPT は真面目な態度でナンセンスを話すため、ユーザーに不要なトラブルを引き起こすだけでなく、ChatGPT の適用シナリオも制限されます。現在に至るまで、OpenAI は効果的な解決策を見つけていません。
Yang Likun 氏は、ChatGPT の背後にある生成 AI が行き止まりに達していると何度も述べました。彼の主張は客観的ではないかもしれないが、資本市場の反応を見る限り、ビッグモデルは確かに冷え込んでいる。
バンク・オブ・アメリカのアナリスト、マイケル・ハートネット氏は、人工知能は現在「ベビーバブル」の中にあると書いた。現在の人工知能のブームは、21 世紀初頭のインターネット バブルを思い出させます。同氏は、米国株の素晴らしいパフォーマンスにもかかわらず、企業や株主が保有株を大幅に減らしていることを挙げ、人工知能バブルがはじけようとしている可能性があると警告した。
楊力坤氏のChatGPTに対する率直な批判は、AIの波を冷めた目で見ている多くの人々のニーズに応えている。 Redditのネチズンは、ヤン・リークン氏の指摘が正しいかもしれないと信じている。「サム・アルトマン氏は、GPTが収益減少の状況に直面しており、最終的には新しいものが必要であると明らかにした。」
叱責の末、お尻だけでポジションが決まる?
ChatGPT が多くの問題を暴露したにもかかわらず、Yang Likun は繰り返し公の場で攻撃してきたため、久しぶりに一部の人々の怒りを買うことになるでしょう。
Redditのネチズンは、楊立坤氏は国民の誤解を正していると投稿したが、競合する製品や新興企業の一夜にしての成功に対して彼は寛大ではなかったと言わざるを得ない。結局のところ、AI 研究は「トンネルの終わりに到達するまでは役に立たず、研究論文の 99% は最先端技術のマイナーアップデートにすぎない」、そして「内燃エンジンの発明は、車に置くのと同じくらい重要です。」
ムンクの討論会の後、誰かが Twitter でヤン・リークンに「あなたは討論会で、ChatGPT が起こる前に予測していたと言いました。ChatGPT が来ることを本当に知っていますか?」と質問しました。
Yang Likun 氏は、Meta は ChatGPT よりも前に 2 つの対話ロボット、1 つは BlenderBot 3 と呼ばれ、もう 1 つは Gaoptica と呼ばれるものを立ち上げたと答えました。しかし、ギャラクティカが稼働すると、いくつかの虚偽の回答(現在は「幻覚」と呼ばれています)があったとして激しく批判されました。メタは最終的にギャラクティカを倒しました。
彼が憤慨しているのは、ChatGPT がギャラクティカと同じくらいナンセンスであるにもかかわらず、大衆は寛容であることを選択しているということです。
AIの分野では、ヤン・リクンとメタが早起きしたが、後半のエピソードに急いだ。 2013 年には人工知能の研究を行うために Meta に入社しました。同氏のチームは長年にわたってAIテクノロジーを同社のソーシャル製品に適用しており、特にFacebookがフェイクニュースの嵐に巻き込まれた2016年以降は、プラットフォームによる偽情報の制御を支援するためにAIテクノロジーが使用されている。
Yang Likun 氏は、Meta と Google が ChatGPT のような製品を最初にリリースしなかったのは、「できないからではなく、やらないからだ」と主張した。
率直に言って、大企業は世論をより恐れています。生成型 AI はメタのセキュリティ メカニズムを比較的簡単に回避でき、誤った有害な情報を拡散するために使用される可能性があることを考慮すると、生成型 AI のリリースが早すぎると同社が再び世論の奈落に突き落とされるのではないかとメタは懸念している。
しばらくの間、これらの懸念が Meta の社内 AI 戦略に曇りを与えました。 2022 年には、AI 研究者の少なくとも 3 分の 1 が、AI 分野における会社の将来に疑問を抱いており、Meta から離れることを選択しています。 OpenAI が 11 月に ChatGPT をリリースした後、さらに多くの従業員が退職しました。
OpenAI の成功は明らかにヤン・リクンとメタを刺激しました。今年 2 月、Meta は LLaMA と呼ばれる大規模モデル テクノロジーを発表し、そのコードを特定の担当者にオープンソース化して、開発者が LLaMA を使用して独自のチャットボットをトレーニングできるようにしました。先月、Meta は、生成 AI よりも正確で効率的であると主張する最初の「ヒューマノイド」AI モデル I-JEPA をリリースしました。いつものように、関連する論文とコードはオープンソースです。
OpenAIはクローズドソースを選択しました。 Yang Likun 氏はまたしても報復的でした。「オープン性によって研究の進歩は速くなり、誰もが貢献できるよりダイナミックなエコシステムが生まれるでしょう。」
ザッカーバーグ氏は少し前に同社の人工知能の進歩を公に賞賛した。しかし、今年2月にザッカーバーグ氏が2023年を「効率の年」と呼び、メタ社は1万1000人以上の従業員を解雇し、いくつかのプロジェクトを次々と閉鎖したことを忘れてはいけない。
楊立坤氏が競合製品に文句を言い、自社製品を支持するのは理解できるが、ビジネス競争は最終的には結果次第であり、「AIのゴッドファーザー」と呼ばれる楊立坤氏がどのような答案を出すのかも期待される。最後に手を差し出します。