AI 時代の塩と鉄の会議に世界的な AI 巨人が集まったとき、何と言ったでしょうか?

出典: Lei Technology

おそらく、AI の大きなモデルほど、わずか数か月で急速に科学技術界、さらには社会全体のコンセンサスとなった技術はこれまでになかったでしょう。今日、すべてのテクノロジー巨人と主要政府は、AI が世界を変え、すべてを変えるとほぼ確信しています。

しかし、大きな合意の裏には、依然としてあまりにも多くの問題があり、一方では、職場での代替、虚偽のコンテンツの蔓延、不平等な使用基準など、それらは現実のものであり、他方では、それらは長期にわたるものです。 -用語 人間の芸術作品 ここで表現される「文明への脅威」。 **「Wired」誌によると、OpenAIはAIが人間の経済システムを破壊した場合の撤退メカニズムを財務書類に規定したことさえある。 **

今年7月、IBM本社で開催されたイベントで、米国上院多数党院内総務チャック・シューマー氏は、「優秀な人材をテーブルに招いて互いに学び合う」ため、一連の人工知能に関するカンファレンスを招集すると述べた。 、何らかの合意と解決策に達しようと努め、上院議員やスタッフ、その他の人々はただ聞くだけだ。」 ** 最終的に、シューマー氏は会議でのやりとりに基づいて「AI政策立法の基礎を築く」ことを望んでいる。 **

2 か月後、会議が始まりました非公開会議にはトップ テクノロジー企業から 22 名が参加し、その中には OpenAI CEO の Sam Altman、NVIDIA CEO の Huang Jenxun、Google CEO の Sundar らも含まれていました。ピチャイ、Meta CEO のマーク ザッカーバーグ前世代のインターネットの技術リーダーであるマイクロソフトの創設者ビル・ゲイツや元グーグル最高経営責任者エリック・シュミットなども含まれる。

AIは「制御」されなければなりません

人工知能の巨大な可能性を否定する人は誰もいませんが、人工知能のリスク、安全対策、監視、将来についてはまだ多くのコンセンサスが得られていません。唯一確かなことは、人間は人工知能の野蛮な成長を完全に許すことはできないということです。知能。

最初の非公開会合を退席した後、テスラ、スペースX、ニューラリンクのイーロン・マスク最高経営責任者(CEO)は、この会合は「歴史的」なものであり、人工知能を規制する新しい機関を設立するという考えを支持すると公に述べ、改めて強調した。人工知能がもたらす大きなリスク。

マスク氏は「AIが誤った方向に進んだ場合の影響は深刻であるため、私たちは事後対応ではなく積極的に行動する必要がある。この問題は実際には文明リスクの1つであり、世界中のすべての人類に潜在的なリスクをもたらしている」と述べた。

マスク氏は、いわゆる人工知能が人間の文明に与える具体的な害について詳しくは述べなかったが、人工知能が送電網、給水システム、車両システムの管理と制御にさらに関与するようになると、間違いが重大な問題を引き起こすだろう。問題がたくさんあります。コンピューター科学者で人工知能研究者のデブ・ラジ氏も、人工知能の偏った決定が社会のあらゆる側面に影響を与えると述べた。

さらに、人工知能に対する人間の長年の懸念もあります。

しかし、人工知能によってもたらされるリスクをどのように軽減し、防止できるのでしょうか?マイクロソフトのブラッド・スミス社長は、特に送電網や水道システムなどの重要なインフラを管理する人工知能システムにおいて、人工知能がもたらす可能性のある巨大なリスクに対して「緊急ブレーキ」を確立する必要があると提案した。多くの人が恐れている脅威は依然として SF の話であり、新たな現実になることはありません。」

ブラッド・スミス/写真

スミス氏は、必要に応じて電力システムの稼働を即座に停止できる回路ブレーカーがすべての建物や家庭に設置されているのと同じように、人間がそのようなシステムの影響を受けないようにするために、AI システムにも同様の「緊急ブレーキ」が必要になると考えています。

偶然にも、NVIDIA の首席科学者兼上級副社長であるウィリアム・ダリー氏も、コンピューター プログラムとしての人工知能によって引き起こされるエラーや重大な危害の可能性の鍵は「人間の参加」にある、つまり人間が置かれている状況にあると指摘しました。人工知能の作業の主要なリンクでは、人工知能の意思決定権限の一部が制限されています。 **

ウィリアム・デイリー、写真/NVIDIA

「ですから、AIの導入方法に注意して人間をクリティカルリンクに置く限り、AIが乗っ取って送電網を停止させたり、飛行機が空から落ちたりすることを確実に防ぐことができると私は考えています」 」とデイリーは言った。

**AI オープンソースはパンドラの箱になるでしょうか? **

昨年末、ChatGPT がテクノロジー界で初めて普及したとき、AI モデルが詐欺などの悪意のある行為に使用されるのではないかと懸念を表明する人もいました。オープンソースは「悪用」のリスクを高めるようです。

カンファレンスでの議論の1つは、一般の人がダウンロードして変更できる「オープンソース」AIモデルを中心に展開した。これらのモデルのオープン コードにより、企業や研究者は、トレーニングに巨額の資金とリソースを投資することなく、ChatGPT の背後にあるものと同様の AI テクノロジを使用できます。

しかし、悪者がオープンソース AI システムを悪用する可能性もあり、その中には GPT-3.5 以来オープンソースを停止している OpenAI も含まれます。知性は愚かだ。」

Ilya Sutskever 氏が GDC で Jen-Hsun Huang 氏と語る、写真/NVIDIA

**理由を尋ねると、彼はこう言いました。「これらのモデルは非常に強力で、今後ますます強くなり、ある時点で誰かがその気になれば、これらのモデルで簡単に大きなダメージを与えることができるでしょう。」 **

さらに、DeepMind の共同創設者で Inflection AI の CEO であるムスタファ・スレイマン氏も、少し前にオープンソースのリスクについて言及し、オープンソース AI の重要な問題は、「権力の急速な拡散」により、一人の個人が世界に前例のない害をもたらし、「今後 20 年間で、素朴なオープンソースがほぼ確実に災害を引き起こすだろう」という影響を及ぼします。 **

ムスタファ・スレイマン、図/DeepMind

**Meta CEO のザッカーバーグ氏は、オープンソースは「AI を民主化し、公正な競争を促進し、個人と企業のイノベーションを促進する」と反論しました。 **しかし同時に、オープンソースモデルは危険をもたらす可能性があるが、Meta は可能な限り安全にこのテクノロジーを構築しているとも述べました。

AI がオープンソースと出会うとき、これはまだ未解決の問題です。

最後に書きます

2104年前、漢の武帝の死から7年後、漢の朝廷は前例のない政策協議を開催し、主要議題の一つは、武帝の時代に施行された国有の塩と鉄酒の専売政策の廃止と見直しであった。この目的のために、「 60 人以上の有徳で文学的な人々」と帝国の検閲官であるサン・ホンヤンなどの政府関係者は、後に「塩と鉄の会議」と呼ばれました。しかし、この塩鉄会議は本質的には漢代の経済政策の方向性を話し合うものであった。

テーマも時代環境も大きく異なりますが**、2,000年以上前の塩鉄会議であれ、現在の人工知能洞察フォーラムであれ、私たちは皆大きな問題に直面しており、私たちはそれを望んでいます。立法の基礎として「才能あるグループ」の議論を通じてコミュニケーションをとる。 **

写真/グーグル

Google の 25 周年を記念する最近の記事で、Google の現 CEO サンダー・ピチャイは次のように書いています。

(Google) これらのテクノロジーが私たちの社会をどのように形作るかについての重要な議論に参加し、協力して答えを見つけてください。人工知能はこれの重要な部分です。私たちは、人々や社会に利益をもたらす AI の可能性に興奮しています**が、他の初期段階のテクノロジーと同様に、AI には複雑さとリスクが伴うことも承知しています。 AI の開発と使用では、これらのリスクに対処し、責任を持ってテクノロジーを開発できるようにする必要があります。 **

数日後、Adobe、Cohere、IBM、NVIDIA、Palantir、Salesforce、Scale AI、Stabilityを含む8社が、「責任を持って人工知能(AI)技術を開発する」契約に署名する第2陣の企業となった。多くの場合、一個人や一企業・政府だけでは解決できない問題に直面したとき、私たちは「共同努力」の価値を実感することになります。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)