El 26 de octubre, Microsoft, OpenAI, Google y Anthropic emitieron una declaración conjunta en su sitio web oficial, nombrando a Chris Meserole como director ejecutivo del "Frontier Model Forum" e invirtiendo 10 millones de dólares en fondos de seguridad para mejorar la seguridad de los productos de IA generativa como ChatGPT y Bard.
Esta declaración es un desempeño importante de las cuatro principales empresas de tecnología para desarrollar una IA generativa segura, confiable y estable, y también forma parte del "Compromiso de Seguridad de la IA" firmado con el funcionario, que es crucial para el desarrollo saludable de la IA generativa global.
Introducción al Foro del Modelo de Frontera
El Frontier Model Forum, cofundado por Microsoft, OpenAI, Google y Anthropic el 26 de julio de este año, es el principal responsable de garantizar el desarrollo seguro y responsable de modelos de IA de vanguardia.
4 objetivos principales del foro:
Promover la investigación sobre la seguridad de la IA, promover el desarrollo responsable de modelos de vanguardia, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de las capacidades y la seguridad de la IA.
Identificar las mejores prácticas para desarrollar e implementar de manera responsable modelos de vanguardia para ayudar al público a comprender la naturaleza, las capacidades, las limitaciones y los impactos de la tecnología.
Trabajar con los responsables políticos, los académicos, la sociedad civil y las empresas para compartir conocimientos sobre los riesgos de confianza y seguridad.
Fuerte apoyo al desarrollo de aplicaciones de IA que ayuden a abordar los desafíos sociales, como la mitigación y adaptación al cambio climático, la detección temprana y prevención del cáncer y el abordaje de las amenazas cibernéticas.
Responsabilidades de Chris Meserole
Chris tiene una amplia experiencia en política tecnológica, con un compromiso de larga data con la gobernanza y la seguridad de las tecnologías emergentes y las aplicaciones futuras. Más recientemente, Chris también se desempeñó como director de la Iniciativa de IA y Tecnologías Emergentes en la Brookings Institution.
En el Frontier Model Forum, Chris desempeñará las siguientes funciones:
Promover la investigación de seguridad de IA, promover el desarrollo de modelos de vanguardia y minimizar los riesgos potenciales.
Identifique las mejores prácticas de seguridad para los modelos de vanguardia.
Compartir conocimientos con los responsables políticos, el mundo académico, la sociedad y otras partes interesadas para impulsar el desarrollo responsable de la IA.
Apoyar los esfuerzos para utilizar la IA para resolver los mayores desafíos de la sociedad.
Chris dice que los modelos de IA más poderosos son enormemente prometedores para la sociedad, pero para alcanzar su potencial, debemos comprender mejor cómo desarrollarlos y evaluarlos de manera segura. Me complace trabajar con el Frontier Model Forum para abordar este desafío.
Fondo de Seguridad de IA
En el último año, la IA generativa ha hecho enormes progresos, junto con muchos riesgos potenciales de seguridad. Para hacer frente a este desafío, Microsoft, OpenAI, Google y Anthropic han establecido un Fondo de Seguridad de IA para apoyar a investigadores independientes de instituciones académicas, instituciones de investigación y startups de todo el mundo para que trabajen juntos para construir un ecosistema de seguridad de IA saludable y seguro.
A principios de este año, Microsoft, OpenAI, Google y Anthropic firmaron el "Compromiso de seguridad de la IA", que incluye el compromiso de facilitar el descubrimiento y la notificación por parte de terceros de las vulnerabilidades de la IA en las cuatro grandes empresas tecnológicas.
El objetivo principal del Fondo de Seguridad de la IA es apoyar el desarrollo de nuevas técnicas de evaluación de modelos para ayudar a desarrollar y probar modelos de IA de vanguardia.
El aumento de la financiación para la seguridad de la IA ayudará a mejorar las normas de seguridad y protección y proporcionará controles eficaces para que las industrias y los desarrolladores aborden los desafíos que plantean los sistemas de IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Microsoft, OpenAI, etc. invirtieron 10 millones de dólares, ¿qué es el "Frontier Model Forum"?
Fuente original: AIGC Open Community
El 26 de octubre, Microsoft, OpenAI, Google y Anthropic emitieron una declaración conjunta en su sitio web oficial, nombrando a Chris Meserole como director ejecutivo del "Frontier Model Forum" e invirtiendo 10 millones de dólares en fondos de seguridad para mejorar la seguridad de los productos de IA generativa como ChatGPT y Bard.
Esta declaración es un desempeño importante de las cuatro principales empresas de tecnología para desarrollar una IA generativa segura, confiable y estable, y también forma parte del "Compromiso de Seguridad de la IA" firmado con el funcionario, que es crucial para el desarrollo saludable de la IA generativa global.
Introducción al Foro del Modelo de Frontera
El Frontier Model Forum, cofundado por Microsoft, OpenAI, Google y Anthropic el 26 de julio de este año, es el principal responsable de garantizar el desarrollo seguro y responsable de modelos de IA de vanguardia.
4 objetivos principales del foro:
Promover la investigación sobre la seguridad de la IA, promover el desarrollo responsable de modelos de vanguardia, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de las capacidades y la seguridad de la IA.
Identificar las mejores prácticas para desarrollar e implementar de manera responsable modelos de vanguardia para ayudar al público a comprender la naturaleza, las capacidades, las limitaciones y los impactos de la tecnología.
Trabajar con los responsables políticos, los académicos, la sociedad civil y las empresas para compartir conocimientos sobre los riesgos de confianza y seguridad.
Fuerte apoyo al desarrollo de aplicaciones de IA que ayuden a abordar los desafíos sociales, como la mitigación y adaptación al cambio climático, la detección temprana y prevención del cáncer y el abordaje de las amenazas cibernéticas.
Responsabilidades de Chris Meserole
Chris tiene una amplia experiencia en política tecnológica, con un compromiso de larga data con la gobernanza y la seguridad de las tecnologías emergentes y las aplicaciones futuras. Más recientemente, Chris también se desempeñó como director de la Iniciativa de IA y Tecnologías Emergentes en la Brookings Institution.
En el Frontier Model Forum, Chris desempeñará las siguientes funciones:
Chris dice que los modelos de IA más poderosos son enormemente prometedores para la sociedad, pero para alcanzar su potencial, debemos comprender mejor cómo desarrollarlos y evaluarlos de manera segura. Me complace trabajar con el Frontier Model Forum para abordar este desafío.
Fondo de Seguridad de IA
En el último año, la IA generativa ha hecho enormes progresos, junto con muchos riesgos potenciales de seguridad. Para hacer frente a este desafío, Microsoft, OpenAI, Google y Anthropic han establecido un Fondo de Seguridad de IA para apoyar a investigadores independientes de instituciones académicas, instituciones de investigación y startups de todo el mundo para que trabajen juntos para construir un ecosistema de seguridad de IA saludable y seguro.
El objetivo principal del Fondo de Seguridad de la IA es apoyar el desarrollo de nuevas técnicas de evaluación de modelos para ayudar a desarrollar y probar modelos de IA de vanguardia.
El aumento de la financiación para la seguridad de la IA ayudará a mejorar las normas de seguridad y protección y proporcionará controles eficaces para que las industrias y los desarrolladores aborden los desafíos que plantean los sistemas de IA.