Lima Task Force evaluará, sincronizará y aprovechará las capacidades generativas de IA en todo el Departamento de Defensa y también aprovechará las asociaciones entre el Departamento de Defensa y la comunidad de inteligencia y otras agencias gubernamentales.
El riesgo de "alucinar" es demasiado alto para modelos de lenguaje grandes en muchos casos de uso, como "cualquier cosa que se mueva" o cuando se trata de armas letales.
El 10 de agosto, hora local, el Departamento de Defensa de EE. UU. anunció el establecimiento de un grupo de trabajo de inteligencia artificial generativa (IA), denominado grupo de trabajo de Lima (Lima), que analizará e integrará la inteligencia artificial generativa como el modelo de lenguaje grande ( LLM) del Departamento de Defensa. Las herramientas inteligentes juegan un papel clave.
"Implementación Responsable"
"La formación del Grupo de Trabajo de Lima subraya el fuerte compromiso del Departamento de Defensa para liderar la innovación de la IA”, dijo la subsecretaria de Defensa Kathleen Hicks, quien dirigió la formación del grupo. "A medida que aprovechamos el poder generativo de la inteligencia artificial, nuestro enfoque sigue siendo garantizar la seguridad nacional, minimizar el riesgo e integrar responsablemente estas tecnologías. El futuro de la defensa nacional no se trata solo de adoptar tecnologías de vanguardia, sino con previsión, responsabilidad y un mayor compromiso con nuestra nación. Una comprensión profunda de las amplias implicaciones para lograrlo".
Dirigido por la Oficina Principal de Inteligencia Digital y Artificial, el Grupo de Trabajo de Lima evaluará, sincronizará y aprovechará las capacidades generativas de IA en todo el Departamento de Defensa y también aprovechará las asociaciones entre el Departamento de Defensa y la comunidad de inteligencia y otras agencias gubernamentales.
La Oficina Principal de Inteligencia Digital y Artificial comienza a operar en junio de 2022 y se dedica a integrar y optimizar las capacidades de IA en todo el Departamento de Defensa.
El Departamento de Defensa de EE. UU. dijo que mediante el uso de modelos de inteligencia artificial generativa, su objetivo es mejorar sus operaciones en los campos de la guerra, el comercio, la salud, la preparación para el combate y la política. "También debemos considerar hasta qué punto nuestros adversarios utilizarán esta tecnología y buscarán socavar nuestra comprensión de las soluciones basadas en IA", dijo Craig Martell, jefe de inteligencia digital y artificial del Departamento de Defensa.
"El Departamento de Defensa reconoce el potencial de la inteligencia artificial generativa para mejorar significativamente la inteligencia, la planificación operativa y los procesos administrativos y comerciales. Sin embargo, la implementación responsable es clave para gestionar de manera efectiva los riesgos asociados". Manuel Xavier Lugo, miembro del Consejo de Guerra Algorítmica de la Jefatura de Inteligencia Artificial.
Según el medio militar estadounidense "Defense One", el grupo de trabajo también ayudará al Pentágono a comprender mejor lo que se necesita comprar para lograr nuevos objetivos de inteligencia artificial, que pueden incluir más servicios en la nube, datos o datos sintéticos y modelos.
** ¿Cómo resolver el problema de la "ilusión"? **
La inteligencia artificial generativa genera nueva salida basada en datos entrenados. Tales herramientas para el público incluyen chatbots basados en modelos de lenguaje grandes como ChatGPT, que pueden escribir texto nuevo que parece salida humana. Se ha utilizado para escribir documentos, planes de negocios e incluso articulos cientificos. Pero debido a que los modelos de lenguaje grandes se entrenan en corpus de datos de Internet, a veces pueden mentir, lo que se conoce como "alucinación". Por esta razón, los funcionarios del Pentágono han expresado su renuencia a adoptar la IA generativa.
“El Departamento de Defensa debe buscar de manera responsable adoptar modelos generativos de IA mientras identifica las salvaguardas apropiadas y mitiga los riesgos de seguridad nacional que pueden surgir de problemas como la mala gestión de los datos de capacitación”, dijo Martell. Señaló que hay muchos casos de uso en los que el riesgo de "alucinar" es demasiado alto para emplear grandes modelos de lenguaje, como "cualquier cosa que se mueva", o cuando se trata de armas letales. El Departamento de Defensa debe comprender dónde se pueden usar de manera segura y dónde los adversarios pueden desplegarlos.
Una pregunta es si el Departamento de Defensa tiene suficientes datos para que funcione la IA generativa. Si bien el departamento tiene una gran cantidad de datos internos cuidadosamente seleccionados, montones de diagnósticos de motores a reacción o años de imágenes de vigilancia de aviones no tripulados en el Medio Oriente no constituyen grandes modelos lingüísticos.
"Es una pregunta abierta si tenemos suficientes datos que cubran un rango suficientemente amplio para mantener el valor del modelo sin datos preentrenados. Por otro lado, mi hipótesis es que los datos preentrenados cuanto más, más probable es que a alucinar. Así que es una compensación que tenemos que explorar. No lo sé, y en realidad no creo que la comunidad científica sepa la respuesta todavía", dijo Martel.
Al menos una de las razones por las que herramientas como ChatGPT no son adecuadas para el Departamento de Defensa en este momento es la cantidad de ingeniería necesaria para generar resultados adecuados. Un árbol de avisos largo está bien para los aficionados, pero los operadores que tienen que realizar tareas complejas necesitan una interfaz que sea intuitiva y más funcional desde el principio, dijo Martel.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El Departamento de Defensa forma un grupo de trabajo generativo de IA para ayudar a mejorar la inteligencia y la planificación de combate
Fuente: El Papel
Reportero Fang Xiao
Lima Task Force evaluará, sincronizará y aprovechará las capacidades generativas de IA en todo el Departamento de Defensa y también aprovechará las asociaciones entre el Departamento de Defensa y la comunidad de inteligencia y otras agencias gubernamentales.
El riesgo de "alucinar" es demasiado alto para modelos de lenguaje grandes en muchos casos de uso, como "cualquier cosa que se mueva" o cuando se trata de armas letales.
El 10 de agosto, hora local, el Departamento de Defensa de EE. UU. anunció el establecimiento de un grupo de trabajo de inteligencia artificial generativa (IA), denominado grupo de trabajo de Lima (Lima), que analizará e integrará la inteligencia artificial generativa como el modelo de lenguaje grande ( LLM) del Departamento de Defensa. Las herramientas inteligentes juegan un papel clave.
"Implementación Responsable"
"La formación del Grupo de Trabajo de Lima subraya el fuerte compromiso del Departamento de Defensa para liderar la innovación de la IA”, dijo la subsecretaria de Defensa Kathleen Hicks, quien dirigió la formación del grupo. "A medida que aprovechamos el poder generativo de la inteligencia artificial, nuestro enfoque sigue siendo garantizar la seguridad nacional, minimizar el riesgo e integrar responsablemente estas tecnologías. El futuro de la defensa nacional no se trata solo de adoptar tecnologías de vanguardia, sino con previsión, responsabilidad y un mayor compromiso con nuestra nación. Una comprensión profunda de las amplias implicaciones para lograrlo".
Dirigido por la Oficina Principal de Inteligencia Digital y Artificial, el Grupo de Trabajo de Lima evaluará, sincronizará y aprovechará las capacidades generativas de IA en todo el Departamento de Defensa y también aprovechará las asociaciones entre el Departamento de Defensa y la comunidad de inteligencia y otras agencias gubernamentales.
La Oficina Principal de Inteligencia Digital y Artificial comienza a operar en junio de 2022 y se dedica a integrar y optimizar las capacidades de IA en todo el Departamento de Defensa.
El Departamento de Defensa de EE. UU. dijo que mediante el uso de modelos de inteligencia artificial generativa, su objetivo es mejorar sus operaciones en los campos de la guerra, el comercio, la salud, la preparación para el combate y la política. "También debemos considerar hasta qué punto nuestros adversarios utilizarán esta tecnología y buscarán socavar nuestra comprensión de las soluciones basadas en IA", dijo Craig Martell, jefe de inteligencia digital y artificial del Departamento de Defensa.
"El Departamento de Defensa reconoce el potencial de la inteligencia artificial generativa para mejorar significativamente la inteligencia, la planificación operativa y los procesos administrativos y comerciales. Sin embargo, la implementación responsable es clave para gestionar de manera efectiva los riesgos asociados". Manuel Xavier Lugo, miembro del Consejo de Guerra Algorítmica de la Jefatura de Inteligencia Artificial.
Según el medio militar estadounidense "Defense One", el grupo de trabajo también ayudará al Pentágono a comprender mejor lo que se necesita comprar para lograr nuevos objetivos de inteligencia artificial, que pueden incluir más servicios en la nube, datos o datos sintéticos y modelos.
** ¿Cómo resolver el problema de la "ilusión"? **
La inteligencia artificial generativa genera nueva salida basada en datos entrenados. Tales herramientas para el público incluyen chatbots basados en modelos de lenguaje grandes como ChatGPT, que pueden escribir texto nuevo que parece salida humana. Se ha utilizado para escribir documentos, planes de negocios e incluso articulos cientificos. Pero debido a que los modelos de lenguaje grandes se entrenan en corpus de datos de Internet, a veces pueden mentir, lo que se conoce como "alucinación". Por esta razón, los funcionarios del Pentágono han expresado su renuencia a adoptar la IA generativa.
“El Departamento de Defensa debe buscar de manera responsable adoptar modelos generativos de IA mientras identifica las salvaguardas apropiadas y mitiga los riesgos de seguridad nacional que pueden surgir de problemas como la mala gestión de los datos de capacitación”, dijo Martell. Señaló que hay muchos casos de uso en los que el riesgo de "alucinar" es demasiado alto para emplear grandes modelos de lenguaje, como "cualquier cosa que se mueva", o cuando se trata de armas letales. El Departamento de Defensa debe comprender dónde se pueden usar de manera segura y dónde los adversarios pueden desplegarlos.
Una pregunta es si el Departamento de Defensa tiene suficientes datos para que funcione la IA generativa. Si bien el departamento tiene una gran cantidad de datos internos cuidadosamente seleccionados, montones de diagnósticos de motores a reacción o años de imágenes de vigilancia de aviones no tripulados en el Medio Oriente no constituyen grandes modelos lingüísticos.
"Es una pregunta abierta si tenemos suficientes datos que cubran un rango suficientemente amplio para mantener el valor del modelo sin datos preentrenados. Por otro lado, mi hipótesis es que los datos preentrenados cuanto más, más probable es que a alucinar. Así que es una compensación que tenemos que explorar. No lo sé, y en realidad no creo que la comunidad científica sepa la respuesta todavía", dijo Martel.
Al menos una de las razones por las que herramientas como ChatGPT no son adecuadas para el Departamento de Defensa en este momento es la cantidad de ingeniería necesaria para generar resultados adecuados. Un árbol de avisos largo está bien para los aficionados, pero los operadores que tienen que realizar tareas complejas necesitan una interfaz que sea intuitiva y más funcional desde el principio, dijo Martel.