オリジナルソース: AIGCオープンコミュニティ
画像ソース:無制限のAIによって生成
10月26日、Microsoft、OpenAI、Google、Anthropicは公式ウェブサイトで共同声明を発表し、Chris Meseroleを「フロンティアモデルフォーラム」のエグゼクティブディレクターに任命し、ChatGPTやBardなどのジェネレーティブAI製品のセキュリティを強化するためにセキュリティファンドに1,000万ドルを投資しました。
この声明は、安全で信頼性が高く安定した生成AIを開発するための4つの主要なテクノロジー企業の重要なパフォーマンスであり、グローバルな生成AIの健全な発展に不可欠な、当局と署名した「AI安全コミットメント」の一部でもあります。
今年7月26日にマイクロソフト、OpenAI、グーグル、アンソロピックが共同設立したフロンティアモデルフォーラムは、主に最先端のAIモデルの安全で責任ある開発を確保する責任を負っています。
フォーラムの4つの主要目的:
1)AIの安全性研究を促進し、最先端のモデルの責任ある開発を促進し、リスクを最小限に抑え、AIの機能と安全性の独立した標準化された評価を可能にします。
2)最先端のモデルを責任を持って開発および展開するためのベストプラクティスを特定し、テクノロジーの性質、機能、制限、および影響を一般の人々が理解できるようにします。
3)政策立案者、学者、市民社会、企業と協力して、信頼とセキュリティのリスクに関する知識を共有します。
4)気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威への対応など、社会的課題の解決に役立つAIアプリケーションの開発を強力にサポートします。
Chrisは、テクノロジーポリシーに関する深い専門知識を持ち、新しいテクノロジーと将来のアプリケーションのガバナンスとセキュリティに長年取り組んできました。 最近では、ブルッキングス研究所のAIおよび新興技術イニシアチブのディレクターも務めました。
フロンティアモデルフォーラムでは、クリスは以下の職務を遂行します。
・AIの安全性研究を推進し、最先端モデルの開発を推進し、潜在的なリスクを最小化する。 最先端のモデルのセキュリティのベスト プラクティスを特定します。 *政策立案者、学界、社会、その他の利害関係者と知識を共有して、責任あるAI開発を推進します。 ・AIを活用して社会の最大の課題を解決する取り組みを支援する。
クリス氏は、最も強力なAIモデルは社会的に大きな可能性を秘めていますが、その可能性を発揮するには、それらを安全に開発および評価する方法をよりよく理解する必要があると述べています。 フロンティアモデルフォーラムと協力して、この課題に取り組むことを嬉しく思います。
昨年、ジェネレーティブAIは、多くの潜在的なセキュリティリスクとともに、目覚ましい進歩を遂げました。 この課題に対処するために、マイクロソフト、OpenAI、Google、およびアンソロピックは、世界中の学術機関、研究機関、およびスタートアップからの独立した研究者が協力して健康で安全なAIセキュリティエコシステムを構築することを支援するAIセキュリティ基金を設立しました。
今年初め、Microsoft、OpenAI、Google、Anthropicは、ビッグ4テクノロジー企業におけるAIの脆弱性のサードパーティの発見と報告を促進するというコミットメントを含む「AIセキュリティ誓約」に署名しました。
AIセキュリティ基金の主な焦点は、最先端のAIモデルの開発とテストを支援するための新しいモデル評価技術の開発を支援することです。
AIの安全性に対する資金の増加は、安全性とセキュリティの基準を改善し、業界や開発者がAIシステムによってもたらされる課題に対処するための効果的な制御を提供するのに役立ちます。
5k 人気度
159k 人気度
14k 人気度
99k 人気度
84k 人気度
マイクロソフト、OpenAIなどが1000万ドルを投資、「フロンティアモデルフォーラム」とは何ですか?
オリジナルソース: AIGCオープンコミュニティ
10月26日、Microsoft、OpenAI、Google、Anthropicは公式ウェブサイトで共同声明を発表し、Chris Meseroleを「フロンティアモデルフォーラム」のエグゼクティブディレクターに任命し、ChatGPTやBardなどのジェネレーティブAI製品のセキュリティを強化するためにセキュリティファンドに1,000万ドルを投資しました。
この声明は、安全で信頼性が高く安定した生成AIを開発するための4つの主要なテクノロジー企業の重要なパフォーマンスであり、グローバルな生成AIの健全な発展に不可欠な、当局と署名した「AI安全コミットメント」の一部でもあります。
フロンティアモデルフォーラムの紹介
今年7月26日にマイクロソフト、OpenAI、グーグル、アンソロピックが共同設立したフロンティアモデルフォーラムは、主に最先端のAIモデルの安全で責任ある開発を確保する責任を負っています。
フォーラムの4つの主要目的:
1)AIの安全性研究を促進し、最先端のモデルの責任ある開発を促進し、リスクを最小限に抑え、AIの機能と安全性の独立した標準化された評価を可能にします。
2)最先端のモデルを責任を持って開発および展開するためのベストプラクティスを特定し、テクノロジーの性質、機能、制限、および影響を一般の人々が理解できるようにします。
3)政策立案者、学者、市民社会、企業と協力して、信頼とセキュリティのリスクに関する知識を共有します。
4)気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威への対応など、社会的課題の解決に役立つAIアプリケーションの開発を強力にサポートします。
クリス・メセロールの責任
Chrisは、テクノロジーポリシーに関する深い専門知識を持ち、新しいテクノロジーと将来のアプリケーションのガバナンスとセキュリティに長年取り組んできました。 最近では、ブルッキングス研究所のAIおよび新興技術イニシアチブのディレクターも務めました。
フロンティアモデルフォーラムでは、クリスは以下の職務を遂行します。
・AIの安全性研究を推進し、最先端モデルの開発を推進し、潜在的なリスクを最小化する。 最先端のモデルのセキュリティのベスト プラクティスを特定します。 *政策立案者、学界、社会、その他の利害関係者と知識を共有して、責任あるAI開発を推進します。 ・AIを活用して社会の最大の課題を解決する取り組みを支援する。
クリス氏は、最も強力なAIモデルは社会的に大きな可能性を秘めていますが、その可能性を発揮するには、それらを安全に開発および評価する方法をよりよく理解する必要があると述べています。 フロンティアモデルフォーラムと協力して、この課題に取り組むことを嬉しく思います。
AIセキュリティファンド
昨年、ジェネレーティブAIは、多くの潜在的なセキュリティリスクとともに、目覚ましい進歩を遂げました。 この課題に対処するために、マイクロソフト、OpenAI、Google、およびアンソロピックは、世界中の学術機関、研究機関、およびスタートアップからの独立した研究者が協力して健康で安全なAIセキュリティエコシステムを構築することを支援するAIセキュリティ基金を設立しました。
AIセキュリティ基金の主な焦点は、最先端のAIモデルの開発とテストを支援するための新しいモデル評価技術の開発を支援することです。
AIの安全性に対する資金の増加は、安全性とセキュリティの基準を改善し、業界や開発者がAIシステムによってもたらされる課題に対処するための効果的な制御を提供するのに役立ちます。