「ChatGPTの父」のケンブリッジ演説はボイコットされ、学界の大物たちはAIセキュリティをめぐって激しく戦った

記事の出典:Titanium Media

著者:林志佳

編集:馬錦南

*この記事は、Titanium Media APPに掲載されたものです。

Google Brainの創設者でスタンフォード大学教授のアンドリュー・ン>氏は、AIを規制することはイノベーションを破壊すると指摘しています。 一方、マスク氏は、AIは核兵器(核爆弾)よりも危険だと考えています。

米国政府が新たなAI規制を発令したことで、最近、大規模なAIモデルの規制をめぐる論争が再燃しています。

北京時間11月2日早朝、「ChatGPTの父」でOpenAIのCEOであるサム・アルトマン氏が英国ケンブリッジで開催されたイベントに参加した際、反AI活動家から強い抵抗を受け、講堂で目の前で「叩き潰された」と、数人の抗議者がAI競争の中止を要求しました。

中には横断幕を掲げたり、バルコニーにビラを撒いたりするデモ隊もおり、現場はしばらく混乱した。 もちろんウルトラマンはとても落ち着いていて、落ち着いてイベントを終えました。

アルトマン氏はスピーチの中で、AIモデルが将来十分に強力になったとしても、実行するには膨大な計算能力が必要になると述べました。 計算能力の閾値を引き上げれば、故意の犯罪のリスクを低減し、説明責任も向上させることができる。 これに先立ち、OpenAIの共同創業者であるIlya Sutskever氏は、ChatGPTは意識している可能性があり、AIには潜在的なリスクがあると率直に述べています。

同時に、Meta AIのチーフサイエンティストで2018年の「チューリング賞」を受賞したヤン・ルカン氏は最近、アルトマン氏、ディープマインドCEOのデミス・ハサビス氏、アンソロピックCEOらを、米国政府への「大規模な企業ロビー活動」としてソーシャルプラットフォームで繰り返し批判しており、最終的にはAI技術を制御できるのはごく少数の大手テック企業だけになる可能性がある。

楊立昆は、これらの人々が恐怖を広めていると指摘した。 「もし彼らが成功すれば、あなたも私も必然的に大惨事を招くでしょう。一握りの企業がAIを支配するでしょう」

その後、ハサビスは「私は楊立坤の発言のほとんどに強く反対する。 同氏は、Google DeepMindは、AIの最適な利用方法を議論する際に「規制の捕捉」を達成しようとはしておらず、潜在的なスーパーAIをどのように規制するかを今から議論し始めることがより重要であると指摘しました。

AIの大規模モデルの競争が激化する中、業界は「混戦」に突入し、AIを支配する巨人をめぐって誰もが熾烈な戦いを繰り広げています。

AIは人類にとって最大の脅威? Musk氏:AIは人間よりも賢くなる

過去12か月で、ChatGPTは世界を席巻し、生成AIは今年、テクノロジーの世界で完全に中心的なトピックになりました。

現在、AppleはAIも採用しています。

北京時間11月3日午前に行われた第4四半期決算説明会で、Appleのティム・クックCEOは、Appleは生成AIでさまざまな取り組みを行っており、それを責任を持って行うために多額の資金を投資していると述べました。 「時間が経つにつれて、これらのテクノロジーを中核とするApple製品が進化していくのがわかるでしょう」

これに先立ち、Bloombergは、AppleがAI分野で競合他社に静かに追いつきつつある一方で、AI関連の採用を増やし、他方ではスタートアップのM&Aを通じてAI技術の成熟と実装を加速させ、社内でAppleGPTとして知られる大規模言語モデルの開発を開始したと報じました。

同時に、世界で最も裕福なテクノロジーマンであり、テスラのCEOであるイーロンマスクによって設立されたxAIチームは、純資産2,200億ドルで、AI情報検索、プロンプトワードワークステーションIDEなどに関連するGrokを含む製品情報の最初のバッチを持っていると噂されていました。 さらに、Google、Microsoft、Amazonなどのテクノロジー大手もAIの波に参加しています。

しかし、イーロンマスクやウルトラマンなどの業界リーダーは最近、AIの潜在的な致死性とAIのリスクについて毎週話しています。 これが「スモールサークルコンセンサス」になっているようです。

マスク氏は11月2日、英国AIサミットで、AIは人類にとって最大の脅威の1つであり、AIは歴史上最も破壊的な力となり、人間よりも賢くなるだろうと述べました。 彼は、AIはいつか誰もが職を失うようになると信じています。

「AIには何でもできる能力があります。それが人間を心地よいと感じるのか、不快に感じるのかはわかりません。 魔法のエルフが欲しい場合、AIはあなたの願いをすべて叶え、制限はなく、良い願いも悪い願いも3つだけの制限はなく、今後の課題は、私たちが人生の意味をどのように見つけるかです。 マスク氏はこう述べている。

マスク氏は、AIは核兵器(核爆弾)よりも危険だと繰り返し警告している。

ウルトラマンも、政府がコントロールしていると繰り返し言っています。 10年以内に、世界は強力なAIシステム(AI)を持つようになるかもしれませんが、今、人類はこれに備える必要があります。

米国政府もAIの安全性を規制し始めています。 10月30日、ジョー・バイデン米大統領はAIに関する新たな大統領令に署名し、AIの安全基準、米国民のプライバシーの保護、公平性と公民権の促進、消費者と労働者の利益の保護、イノベーションと競争の促進、AIの潜在的なリスクを管理するための海外での米国のリーダーシップの推進など、これまでで最も包括的な行動を取りました。

特筆すべきは、今回の大統領令では、研究費などによるAI研究の支援や外国人人材の誘致など、AI大手への支援が強化されていることです。

一石一石が千の波を掻き立てる。

その後、「チューリング・スリー」などのAI学識者によるAIの監督について白熱した議論が交わされ、主に2つの派閥に分かれました:楊立坤(Yang Likun)と呉(ン・エンダ)に代表される人々は、自動車は製造前にブレーキをかけたがっていると信じており、AIは監視の段階に達していないと考えていました。 しかし、イーロンマスク、アルトマン、そして「ディープラーニングの父」であるジェフリー・ヒントンを含む人々は、AIは依然として非常に危険であると信じています。

その中で、楊立坤氏は、米国がハイテク大手のAI研究を支援し続ければ、最終的には少数の大手ハイテク企業がAIを制御できるようになる可能性があり、必然的に大きなリスクと災害につながると率直に述べました。

「多くの人がそうであるように、私もオープンなAIプラットフォームを強く支持しています。 しかし、AIの未来は、人々の創造性、民主主義、市場支配力、規制の組み合わせであるとも信じています。 Yang Likun は X プラットフォームに書き込みました。

Google Brainの創業者でスタンフォード大学教授のAndrew Ng氏もYang氏を支持している。 彼は、AI技術の開発に強力な規制を課すのは「陰謀」だと述べた。

「イノベーションを破壊するでしょう。オープンソースAIとの競争に消極的な大手テクノロジー企業の中には、AIが人類の絶滅につながるのではないかという恐怖を生み出している企業があるのは間違いありません」とNg氏は指摘します。 これは常にロビイストが求めてきた立法上の武器ですが、オープンソースコミュニティにとっては非常に有害です。 多くの国で規制の方向性が進んでいるので、今ほど良い規制はないと思います。 "

しかし同時に、10月25日には、チューリング賞を受賞したヨシュア・ベンジオ氏、「ディープラーニングの父」であるジェフリー・ヒントン氏、アンドリュー・ヤオ氏、チャン・ヤーチン氏などのAI業界の専門家も共同書簡に署名し、AI技術の開発に対する監督の強化を引き続き求め、これらのシステムが開発される前に緊急のガバナンス対策を講じる必要があると考えています。 AIの研究開発における安全で倫理的な実践への大きな転換。

現在も、AIの安全規制をめぐる学界の重鎮たちの激しい戦いが続いています。 AIは今や検索エンジンからソーシャルネットワーキング、金融まであらゆるものに深く浸透しているため、専門家はこのAIの軍拡競争の課題、セキュリティリスク、ディープフェイクについて深刻な懸念を提起しています。

ヨシュア・ベンジオ、ジェフリー・ヒントン、ヤン・ルカン

そして、多くのネチズンは、大物同士の関係が論争によって影響を受けるかどうかを心配しています。 Yang Likunは少し前にYoshua BengioとHintonと一緒に写真を投稿しましたが、この質問によく答えているようです。

11月3日、米国政府は、米国商務省やその他の機関の立法能力を通じて、AIの将来を規制するための基準と規則を策定することを望んでいるため、AIセキュリティ研究所を設立したと発表しました。

今後10年間で規制が加速し、人類は完全に知能の時代に突入するかもしれません

11月1日、英国ロンドンのブレッチリーパークで開催された第1回AIセキュリティサミットにおいて、「ブレッチリー宣言」が発表され、AIは大きな機会をもたらし、人類の幸福、平和、繁栄を高める可能性を秘めているが、同時にAIは重大なリスクももたらすものであり、国際協力を通じて対処する必要があると宣言しました。

会議では、米国、中国、欧州連合(EU)など25以上の国・地域が署名した。 英国のリシ・スナク首相は、「世界で最も強力なAI大国が、次世代の長期的な未来を守るために『AIのリスクを理解する』ことの緊急性を認識しているため、これは画期的な成果です」と述べています。 リーダーとして、私たちには人々を守るために行動を起こし、対策を講じる責任があり、まさにそれが私たちの仕事です。 "

宣言では、AIは日常生活の分野を含め、重大なリスクをもたらすとし、「すべての問題が最重要であり、それらに対処する必要性と緊急性を認識している」と述べています。 "

「これを達成するために、私たちは、すべての人の利益のために、安全で、人間中心で、信頼でき、責任ある方法でAIを設計、開発、展開、使用する必要があることを確認します。」 AIがもたらすリスクの多くは本質的に国際的なものであり、共通の懸念事項であるAIセキュリティリスクを特定し、最先端のAIセキュリティ科学研究の国際的に包括的なネットワークを支援するなど、国際協力を通じて対処するのが最善であると宣言は述べている。

11月3日、北京大学が開催した「新世代人工知能フロンティアフォーラム」で、北京大学コンピュータサイエンス学院教授で北京人工知能学院院長の黄鉄軍氏は、現在の論争は、AIに対する基本的な理解は人それぞれであり、科学的思考に従事する多くの人々は一般的な人工知能(AGI)が実現するとは考えていないが、楊立坤を含む別の技術的思考はAI開発は実現可能だと考えていると述べた。

「この2つは全く異なる考え方で、どちらも誰も納得させることはできません。 したがって、論争の背後では、誰もがまったく異なる立場と異なる考え方からこの問題を見ています。 黄鉄軍は演説で述べた。

Huang Tiejun氏は、AI大規模モデル技術の将来の発展について、3年、10年、20年に期待を寄せています。

・今後3年間で、大規模モデルは視覚、聴覚、身体性知能、行動などの一般知能に拡大され、規模はどんどん大きくなり、身体性知能の「頭脳」となる。 普通の言語は科学的な言語にアップグレードされ、人工知能は主要な科学的問題を解決します。 ・これからの10年で、人類は、体力を解放する産業革命のように、エネルギーの循環を解決する力革命のように、全方位的に知能(能力)の時代に入り、知を核とした科学技術、経済、社会生態学の構築が完成する。 *今後20年:現在の大規模モデルはデータ駆動型の静的知能であり、未来は時空間環境によって駆動される動的知能であり、知能キャリアは脳のようなスパイキングニューラルネットワークにアップグレードされます。 2045年には、構造的な脳を模倣し、機能的な脳のような、そしてパフォーマンス的な超頭脳を持つ物理的な汎用人工知能が到来します。 *さらに、アルの安全保障は少なくとも同等の重要性を与えられなければならず、そうでなければ人類は大きな危険にさらされます。

黄鉄軍氏の見解では、今後10年間で、全世界の経済、社会、科学技術が大きな変化を遂げ、知性が社会運営の基本要素となり、今日の電気がいたるところにあるように、世界が形成される。 2045年には、AI技術の下で、人間がリアルタイムのインテリジェントデータを実現できるようになり、それが反復的にアップグレードされ、脳とその後の意思決定も変化します。

「2045年までには、私たちのようなインスピレーションやイノベーションの能力が生物以外の生物に現れると思いますが、もしそうなれば、大きなリスクになります。私たち人間がこの選択肢を作るべきか、それとももう少し遅くしてもいいのか、これは多くの議論が必要です。」 黄鉄軍は演説の最後に言った。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)