OpenAI está formando un nuevo equipo, Preparedness, para evaluar los "riesgos catastróficos" de la IA

El 27 de octubre, OpenAI anunció que está creando un nuevo equipo, Preparedness, para evaluar y mitigar los "riesgos catastróficos" asociados con la IA. La misión principal del equipo es "rastrear, evaluar, predecir y proteger" problemas potencialmente significativos causados por la IA, incluidas las amenazas nucleares. Además, el equipo trabajará para mitigar las "amenazas químicas, biológicas y radiológicas", así como el comportamiento de "replicación autónoma" de la IA. El equipo también tiene la tarea de desarrollar y mantener una política de desarrollo informada sobre riesgos (PDR). El PDR detallará su enfoque para desarrollar una evaluación y monitoreo rigurosos de la capacidad del modelo de vanguardia, la creación de un conjunto de acciones de conservación y el establecimiento de estructuras de gobernanza de rendición de cuentas y supervisión a lo largo del proceso de desarrollo.

Además, OpenAI lanzará el Desafío de Preparación para la IA para prevenir abusos catastróficos. OpenAI proporcionará 25.000 dólares en créditos API para hasta 10 de los mejores títulos.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)