10月27日、OpenAIは、AIに関連する「壊滅的なリスク」を評価および軽減するために、新しいチームである準備を創設すると発表しました。 チームの主な使命は、核の脅威を含むAIによって引き起こされる潜在的に重大な問題を「追跡、評価、予測、保護」することです。 さらに、チームは「化学的、生物学的、放射線学的脅威」とAIの「自律複製」動作の軽減に取り組みます。 チームはまた、リスク情報に基づいた開発ポリシー(RDP)の開発と維持も担当しています。 RDPは、厳格な最先端のモデル能力評価と監視を開発し、一連の保全行動を作成し、開発プロセス全体を通じて説明責任と監視ガバナンス構造を確立するためのアプローチを詳述します。さらに、OpenAIは、壊滅的な悪用を防ぐためにAI準備チャレンジを開始します。 OpenAIは、最大25,000の最高のタイトルに10ドルのAPIクレジットを提供します。
OpenAIは、AIの「壊滅的なリスク」を評価するために、新しいチームである準備を結成しています
10月27日、OpenAIは、AIに関連する「壊滅的なリスク」を評価および軽減するために、新しいチームである準備を創設すると発表しました。 チームの主な使命は、核の脅威を含むAIによって引き起こされる潜在的に重大な問題を「追跡、評価、予測、保護」することです。 さらに、チームは「化学的、生物学的、放射線学的脅威」とAIの「自律複製」動作の軽減に取り組みます。 チームはまた、リスク情報に基づいた開発ポリシー(RDP)の開発と維持も担当しています。 RDPは、厳格な最先端のモデル能力評価と監視を開発し、一連の保全行動を作成し、開発プロセス全体を通じて説明責任と監視ガバナンス構造を確立するためのアプローチを詳述します。
さらに、OpenAIは、壊滅的な悪用を防ぐためにAI準備チャレンジを開始します。 OpenAIは、最大25,000の最高のタイトルに10ドルのAPIクレジットを提供します。