El 27 de octubre, OpenAI anunció que está creando un nuevo equipo, Preparedness, para evaluar y mitigar los "riesgos catastróficos" asociados con la IA. La misión principal del equipo es "rastrear, evaluar, predecir y proteger" problemas potencialmente significativos causados por la IA, incluidas las amenazas nucleares. Además, el equipo trabajará para mitigar las "amenazas químicas, biológicas y radiológicas", así como el comportamiento de "replicación autónoma" de la IA. El equipo también tiene la tarea de desarrollar y mantener una política de desarrollo informada sobre riesgos (PDR). El PDR detallará su enfoque para desarrollar una evaluación y monitoreo rigurosos de la capacidad del modelo de vanguardia, la creación de un conjunto de acciones de conservación y el establecimiento de estructuras de gobernanza de rendición de cuentas y supervisión a lo largo del proceso de desarrollo.
Además, OpenAI lanzará el Desafío de Preparación para la IA para prevenir abusos catastróficos. OpenAI proporcionará 25.000 dólares en créditos API para hasta 10 de los mejores títulos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
OpenAI está formando un nuevo equipo, Preparedness, para evaluar los "riesgos catastróficos" de la IA
El 27 de octubre, OpenAI anunció que está creando un nuevo equipo, Preparedness, para evaluar y mitigar los "riesgos catastróficos" asociados con la IA. La misión principal del equipo es "rastrear, evaluar, predecir y proteger" problemas potencialmente significativos causados por la IA, incluidas las amenazas nucleares. Además, el equipo trabajará para mitigar las "amenazas químicas, biológicas y radiológicas", así como el comportamiento de "replicación autónoma" de la IA. El equipo también tiene la tarea de desarrollar y mantener una política de desarrollo informada sobre riesgos (PDR). El PDR detallará su enfoque para desarrollar una evaluación y monitoreo rigurosos de la capacidad del modelo de vanguardia, la creación de un conjunto de acciones de conservación y el establecimiento de estructuras de gobernanza de rendición de cuentas y supervisión a lo largo del proceso de desarrollo.
Además, OpenAI lanzará el Desafío de Preparación para la IA para prevenir abusos catastróficos. OpenAI proporcionará 25.000 dólares en créditos API para hasta 10 de los mejores títulos.