OpenAIは、AIの「壊滅的なリスク」を評価するために、新しいチームである準備を結成しています

10月27日、OpenAIは、AIに関連する「壊滅的なリスク」を評価および軽減するために、新しいチームである準備を創設すると発表しました。 チームの主な使命は、核の脅威を含むAIによって引き起こされる潜在的に重大な問題を「追跡、評価、予測、保護」することです。 さらに、チームは「化学的、生物学的、放射線学的脅威」とAIの「自律複製」動作の軽減に取り組みます。 チームはまた、リスク情報に基づいた開発ポリシー(RDP)の開発と維持も担当しています。 RDPは、厳格な最先端のモデル能力評価と監視を開発し、一連の保全行動を作成し、開発プロセス全体を通じて説明責任と監視ガバナンス構造を確立するためのアプローチを詳述します。

さらに、OpenAIは、壊滅的な悪用を防ぐためにAI準備チャレンジを開始します。 OpenAIは、最大25,000の最高のタイトルに10ドルのAPIクレジットを提供します。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)