彼らは、超知能 AI (つまり、人間より賢いシステム) がこの 10 年以内 (2030 年まで) に登場する可能性があり、人間は超知能 AI を制御するために現在より優れたテクノロジーを必要とするため、いわゆる A ブレークスルーに入る必要があると予測しています。 AI一貫性研究では、人工知能が人間にとって有益であることを保証することに焦点を当てています。
AI の潜在的な危険性は、AI 研究者や一般の人々にとって長い間最大の懸念事項でした。 4月、AI業界のリーダーと専門家のグループは、社会と人類に対する潜在的なリスクを理由に、OpenAIの新しいGPT-4モデルよりも強力なAIシステムのトレーニングを少なくとも6か月間一時停止するよう求める公開書簡に署名した。
最近の世論調査によると、アメリカ人の 3 分の 2 以上が AI による悪影響の可能性を懸念しており、61% が AI が人類の文明を脅かす可能性があると考えています。
原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
スーパーAIは7年以内に登場、OpenAIは制御不能防止に「巨額の資金」を投資する意向
**出典: **金融協会
編集:黄俊志
ChatGPT開発者のOpenAIは水曜日(5日)、自社の人工知能(AI)が人間にとって安全であることを確認し、最終的にはAIの自己監視を実現するために、多大なリソースを投資し、新たな研究チームを創設する計画であると述べた。
「現時点では、潜在的に超知能を備えたAIを操作または制御し、制御不能になるのを防ぐための解決策はありません」と彼らは書いている。
制御不能な AI の問題を解決するために 20% のコンピューティング能力が使用されます
彼らは、超知能 AI (つまり、人間より賢いシステム) がこの 10 年以内 (2030 年まで) に登場する可能性があり、人間は超知能 AI を制御するために現在より優れたテクノロジーを必要とするため、いわゆる A ブレークスルーに入る必要があると予測しています。 AI一貫性研究では、人工知能が人間にとって有益であることを保証することに焦点を当てています。
彼らによると、Microsoft (マイクロソフト) の支援を受けて、**OpenAI は今後 4 年間でそのコンピューティング能力の 20% を費やして、AI が制御不能になる問題を解決する予定です。 **さらに、同社はこの作業を組織するために、Super Consistency Team と呼ばれる新しいチームを結成しています。
専門家に質問
しかし、この動きは発表されるや否や専門家から疑問の声が上がっている。 AIの安全性擁護活動家であるコナー・リーヒー氏は、「人間のレベル」に達する初歩的なバージョンのAIは、AIの安全性の問題を解決する前に制御不能になり、大混乱を引き起こす可能性があるため、OpenAIの計画には根本的な欠陥があると述べた。 」
「人間レベルの知能を構築する前に、一貫性の問題を解決する必要があります。そうしないと、デフォルトでは制御できません。個人的には、これが特に良い計画でも安全な計画でもないと思います」と彼はインタビューで述べた。
AI の潜在的な危険性は、AI 研究者や一般の人々にとって長い間最大の懸念事項でした。 4月、AI業界のリーダーと専門家のグループは、社会と人類に対する潜在的なリスクを理由に、OpenAIの新しいGPT-4モデルよりも強力なAIシステムのトレーニングを少なくとも6か月間一時停止するよう求める公開書簡に署名した。
最近の世論調査によると、アメリカ人の 3 分の 2 以上が AI による悪影響の可能性を懸念しており、61% が AI が人類の文明を脅かす可能性があると考えています。