OpenAI forme une nouvelle équipe, Preparedness, pour évaluer les « risques catastrophiques » de l’IA

Le 27 octobre, OpenAI a annoncé la création d’une nouvelle équipe, Preparedness, chargée d’évaluer et d’atténuer les « risques catastrophiques » associés à l’IA. La mission principale de l’équipe est de « suivre, évaluer, prédire et protéger » les problèmes potentiellement importants causés par l’IA, y compris les menaces nucléaires. En outre, l’équipe s’efforcera d’atténuer les « menaces chimiques, biologiques et radiologiques », ainsi que le comportement de « réplication autonome » de l’IA. L’équipe est également chargée d’élaborer et de maintenir une politique de développement tenant compte des risques (PDR). Le PDR détaillera son approche pour l’élaboration d’une évaluation et d’un suivi rigoureux des capacités des modèles de pointe, la création d’un ensemble de mesures de conservation et la mise en place de structures de gouvernance de responsabilisation et de surveillance tout au long du processus d’élaboration.

En outre, OpenAI lancera le défi de préparation à l’IA pour prévenir les abus catastrophiques. OpenAI fournira 25 000 $ en crédits API pour un maximum de 10 des meilleurs titres.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)