Цільова група Ліми оцінюватиме, синхронізуватиме та використовуватиме генеративні можливості ШІ в Міністерстві оборони, а також сприятиме партнерству між Міністерством оборони та розвідувальною спільнотою та іншими урядовими установами.
Ризик «галюцинації» занадто високий для великих мовних моделей у багатьох випадках використання, наприклад «усе, що рухається», або під час роботи зі смертоносною зброєю.
10 серпня за місцевим часом Міністерство оборони США оголосило про створення робочої групи з генеративного штучного інтелекту (ШІ), яка називається робочою групою Ліми (Lima), яка аналізуватиме та інтегруватиме генеративний штучний інтелект, такий як модель великої мови ( LLM) Міністерства оборони Розумні інструменти відіграють ключову роль.
"Відповідальне впровадження"
«Створення оперативної групи Lima Task Force підкреслює рішучу прихильність Міністерства оборони провідним інноваціям штучного інтелекту, – сказала заступник міністра оборони Кетлін Хікс, яка керувала формуванням групи. ми зосереджені на забезпеченні національної безпеки, мінімізації ризиків і відповідальному застосуванні цих технологій. Майбутнє національної оборони полягає не лише в застосуванні передових технологій, а в передбачливості, відповідальності та більшій відданості нашій країні. Глибоке розуміння широкі наслідки для досягнення цього».
Під керівництвом Головного офісу цифрового та штучного інтелекту цільова група Ліми оцінюватиме, синхронізуватиме та використовуватиме генеративні можливості штучного інтелекту в Міністерстві оборони, а також сприятиме партнерству між Міністерством оборони та розвідувальною спільнотою та іншими урядовими установами.
Головний офіс цифрового та штучного інтелекту розпочинає свою роботу в червні 2022 року і займається інтеграцією та оптимізацією можливостей штучного інтелекту в Міністерстві оборони.
Міністерство оборони США заявило, що за допомогою генеративних моделей штучного інтелекту воно прагне покращити свою діяльність у сферах війни, торгівлі, охорони здоров’я, боєготовності та політики. «Ми також повинні розглянути, якою мірою наші супротивники використовуватимуть цю технологію та намагатимуться підірвати наше розуміння рішень на основі штучного інтелекту», — сказав Крейг Мартелл, керівник відділу цифрового та штучного інтелекту Міністерства оборони.
"Міністерство оборони визнає потенціал генеративного штучного інтелекту для значного вдосконалення розвідки, оперативного планування, адміністративних і бізнес-процесів. Однак відповідальне впровадження є ключовим для ефективного управління пов'язаними ризиками", - командувач місії оперативної групи в Лімі, цифровий і морський капітан. Мануель Ксав’є Луго, член Ради з алгоритмічної війни Головного офісу штучного інтелекту.
За даними американського військового ЗМІ «Defence One», цільова група також допоможе Пентагону краще зрозуміти, що потрібно придбати для досягнення нових цілей у сфері штучного інтелекту, які можуть включати більше хмарних сервісів, даних або синтетичних даних і моделей.
** Як вирішити проблему "ілюзії"? **
Генеративний штучний інтелект генерує нові результати на основі навчених даних. Такі інструменти для громадськості включають чат-боти на основі великих мовних моделей, як-от ChatGPT, які можуть писати новий текст, схожий на людський результат. Його використовували для написання документів, бізнес-планів і навіть наукові праці. Але оскільки великі мовні моделі навчаються на сукупності даних з Інтернету, іноді вони можуть брехати, відомі як «галюцинації». З цієї причини представники Пентагону активно заявили про своє небажання використовувати генеративний ШІ.
«Міністерство оборони має відповідально прагнути до впровадження генеративних моделей штучного інтелекту, водночас визначаючи відповідні гарантії та пом’якшуючи ризики національній безпеці, які можуть виникнути через такі проблеми, як неправильне управління навчальними даними», — сказав Мартел. Він зазначив, що існує багато випадків використання, коли ризик «галюцинації» занадто високий, щоб використовувати великі мовні моделі, такі як «все, що рухається», або при роботі зі смертоносною зброєю. Міністерство оборони повинно розуміти, де їх можна використовувати безпечно і де вороги можуть їх застосувати.
Одне питання полягає в тому, чи має Міністерство оборони достатньо даних для роботи генеративного ШІ. Незважаючи на те, що відділ має велику кількість ретельно підібраних внутрішніх даних, величезна кількість діагностичних даних реактивних двигунів або багаторічні відеозаписи спостереження з безпілотників на Близькому Сході не дають великих мовних моделей.
«Залишається відкритим питання, чи ми маємо достатньо даних, що охоплюють досить широкий діапазон, щоб зберегти цінність моделі без попередньо підготовлених даних. З іншого боку, моя гіпотеза полягає в тому, що попередньо підготовлені дані чим більше, тим імовірніше галюцинувати. Отже, це компроміс, який ми повинні дослідити. Я не знаю, і я насправді не думаю, що наукове співтовариство ще знає відповідь", - сказав Мартел.
Принаймні однією з причин, чому такі інструменти, як ChatGPT, зараз не підходять для Міністерства оборони, є кількість інженерних робіт, необхідних для отримання відповідних результатів. Довге дерево підказок підходить для любителів, але операторам, яким доводиться виконувати складні завдання, потрібен інтуїтивно зрозумілий і функціональніший інтерфейс із самого початку, сказав Мартел.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Міністерство оборони формує робочу групу генеративного штучного інтелекту для покращення розвідки та планування бойових дій
Джерело: The Paper
Репортер Фан Сяо
Цільова група Ліми оцінюватиме, синхронізуватиме та використовуватиме генеративні можливості ШІ в Міністерстві оборони, а також сприятиме партнерству між Міністерством оборони та розвідувальною спільнотою та іншими урядовими установами.
Ризик «галюцинації» занадто високий для великих мовних моделей у багатьох випадках використання, наприклад «усе, що рухається», або під час роботи зі смертоносною зброєю.
10 серпня за місцевим часом Міністерство оборони США оголосило про створення робочої групи з генеративного штучного інтелекту (ШІ), яка називається робочою групою Ліми (Lima), яка аналізуватиме та інтегруватиме генеративний штучний інтелект, такий як модель великої мови ( LLM) Міністерства оборони Розумні інструменти відіграють ключову роль.
"Відповідальне впровадження"
«Створення оперативної групи Lima Task Force підкреслює рішучу прихильність Міністерства оборони провідним інноваціям штучного інтелекту, – сказала заступник міністра оборони Кетлін Хікс, яка керувала формуванням групи. ми зосереджені на забезпеченні національної безпеки, мінімізації ризиків і відповідальному застосуванні цих технологій. Майбутнє національної оборони полягає не лише в застосуванні передових технологій, а в передбачливості, відповідальності та більшій відданості нашій країні. Глибоке розуміння широкі наслідки для досягнення цього».
Під керівництвом Головного офісу цифрового та штучного інтелекту цільова група Ліми оцінюватиме, синхронізуватиме та використовуватиме генеративні можливості штучного інтелекту в Міністерстві оборони, а також сприятиме партнерству між Міністерством оборони та розвідувальною спільнотою та іншими урядовими установами.
Головний офіс цифрового та штучного інтелекту розпочинає свою роботу в червні 2022 року і займається інтеграцією та оптимізацією можливостей штучного інтелекту в Міністерстві оборони.
Міністерство оборони США заявило, що за допомогою генеративних моделей штучного інтелекту воно прагне покращити свою діяльність у сферах війни, торгівлі, охорони здоров’я, боєготовності та політики. «Ми також повинні розглянути, якою мірою наші супротивники використовуватимуть цю технологію та намагатимуться підірвати наше розуміння рішень на основі штучного інтелекту», — сказав Крейг Мартелл, керівник відділу цифрового та штучного інтелекту Міністерства оборони.
"Міністерство оборони визнає потенціал генеративного штучного інтелекту для значного вдосконалення розвідки, оперативного планування, адміністративних і бізнес-процесів. Однак відповідальне впровадження є ключовим для ефективного управління пов'язаними ризиками", - командувач місії оперативної групи в Лімі, цифровий і морський капітан. Мануель Ксав’є Луго, член Ради з алгоритмічної війни Головного офісу штучного інтелекту.
За даними американського військового ЗМІ «Defence One», цільова група також допоможе Пентагону краще зрозуміти, що потрібно придбати для досягнення нових цілей у сфері штучного інтелекту, які можуть включати більше хмарних сервісів, даних або синтетичних даних і моделей.
** Як вирішити проблему "ілюзії"? **
Генеративний штучний інтелект генерує нові результати на основі навчених даних. Такі інструменти для громадськості включають чат-боти на основі великих мовних моделей, як-от ChatGPT, які можуть писати новий текст, схожий на людський результат. Його використовували для написання документів, бізнес-планів і навіть наукові праці. Але оскільки великі мовні моделі навчаються на сукупності даних з Інтернету, іноді вони можуть брехати, відомі як «галюцинації». З цієї причини представники Пентагону активно заявили про своє небажання використовувати генеративний ШІ.
«Міністерство оборони має відповідально прагнути до впровадження генеративних моделей штучного інтелекту, водночас визначаючи відповідні гарантії та пом’якшуючи ризики національній безпеці, які можуть виникнути через такі проблеми, як неправильне управління навчальними даними», — сказав Мартел. Він зазначив, що існує багато випадків використання, коли ризик «галюцинації» занадто високий, щоб використовувати великі мовні моделі, такі як «все, що рухається», або при роботі зі смертоносною зброєю. Міністерство оборони повинно розуміти, де їх можна використовувати безпечно і де вороги можуть їх застосувати.
Одне питання полягає в тому, чи має Міністерство оборони достатньо даних для роботи генеративного ШІ. Незважаючи на те, що відділ має велику кількість ретельно підібраних внутрішніх даних, величезна кількість діагностичних даних реактивних двигунів або багаторічні відеозаписи спостереження з безпілотників на Близькому Сході не дають великих мовних моделей.
«Залишається відкритим питання, чи ми маємо достатньо даних, що охоплюють досить широкий діапазон, щоб зберегти цінність моделі без попередньо підготовлених даних. З іншого боку, моя гіпотеза полягає в тому, що попередньо підготовлені дані чим більше, тим імовірніше галюцинувати. Отже, це компроміс, який ми повинні дослідити. Я не знаю, і я насправді не думаю, що наукове співтовариство ще знає відповідь", - сказав Мартел.
Принаймні однією з причин, чому такі інструменти, як ChatGPT, зараз не підходять для Міністерства оборони, є кількість інженерних робіт, необхідних для отримання відповідних результатів. Довге дерево підказок підходить для любителів, але операторам, яким доводиться виконувати складні завдання, потрібен інтуїтивно зрозумілий і функціональніший інтерфейс із самого початку, сказав Мартел.