Gugus Tugas Lima akan menilai, menyinkronkan, dan memanfaatkan kemampuan AI generatif di seluruh DoD dan juga akan memanfaatkan kemitraan antara DoD dan komunitas intelijen serta lembaga pemerintah lainnya.
Risiko "berhalusinasi" terlalu tinggi untuk model bahasa besar dalam banyak kasus penggunaan, seperti "apa pun yang bergerak", atau saat berhadapan dengan senjata mematikan.
Pada 10 Agustus waktu setempat, Departemen Pertahanan AS mengumumkan pembentukan kelompok kerja kecerdasan buatan generatif (AI), yang disebut kelompok kerja Lima (Lima), yang akan menganalisis dan mengintegrasikan kecerdasan buatan generatif seperti model bahasa besar ( LLM) dari Departemen Pertahanan Alat pintar memainkan peran kunci.
"Pelaksanaan yang Bertanggung Jawab"
“Pembentukan Gugus Tugas Lima menggarisbawahi komitmen kuat Departemen Pertahanan untuk memimpin inovasi AI,” kata Wakil Menteri Pertahanan Kathleen Hicks, yang mengarahkan pembentukan kelompok tersebut. fokus kami tetap pada memastikan keamanan nasional, meminimalkan risiko, dan mengintegrasikan teknologi ini secara bertanggung jawab. Masa depan pertahanan nasional bukan hanya tentang mengadopsi teknologi mutakhir, tetapi dengan pandangan jauh ke depan, tanggung jawab, dan komitmen yang lebih besar terhadap bangsa kita. Pemahaman mendalam tentang implikasi luas untuk mencapai hal ini."
Dipimpin oleh Kepala Kantor untuk Kecerdasan Digital dan Buatan, Satuan Tugas Lima akan menilai, menyinkronkan, dan memanfaatkan kemampuan AI generatif di seluruh DoD dan juga akan memanfaatkan kemitraan antara DoD dan komunitas intelijen serta lembaga pemerintah lainnya.
Kantor Pusat Kecerdasan Digital dan Buatan mulai beroperasi pada Juni 2022 dan berdedikasi untuk mengintegrasikan dan mengoptimalkan kemampuan AI di seluruh Departemen Pertahanan.
Departemen Pertahanan AS mengatakan bahwa dengan menggunakan model kecerdasan buatan generatif, itu bertujuan untuk meningkatkan operasinya di bidang peperangan, perdagangan, kesehatan, kesiapan tempur, dan kebijakan. "Kita juga harus mempertimbangkan sejauh mana musuh kita akan menggunakan teknologi ini dan berusaha merusak pemahaman kita tentang solusi berbasis AI," kata Craig Martell, kepala kecerdasan buatan dan digital di Departemen Pertahanan.
"Departemen Pertahanan mengakui potensi kecerdasan buatan generatif untuk secara signifikan meningkatkan intelijen, perencanaan operasional, dan proses administrasi dan bisnis. Namun, implementasi yang bertanggung jawab adalah kunci untuk mengelola risiko terkait secara efektif." Komandan Misi Gugus Tugas Lima, Kapten Digital dan Angkatan Laut Manuel Xavier Lugo, anggota Algorithmic Warfare Council dari Chief Office of Artificial Intelligence.
Menurut media militer AS "Defense One", satuan tugas juga akan membantu Pentagon lebih memahami apa yang perlu dibeli untuk mencapai tujuan kecerdasan buatan baru, yang mungkin mencakup lebih banyak layanan cloud, data atau data sintetis, dan model.
** Bagaimana cara mengatasi masalah "ilusi"? **
Kecerdasan buatan generatif menghasilkan keluaran baru berdasarkan data terlatih. Alat tersebut untuk umum termasuk chatbot berdasarkan model bahasa besar seperti ChatGPT, yang dapat menulis teks baru yang terlihat seperti keluaran manusia. Telah digunakan untuk menulis makalah, rencana bisnis, dan bahkan karya tulis ilmiah. Tetapi karena model bahasa besar dilatih pada kumpulan data dari internet, mereka terkadang bisa berbohong, yang dikenal sebagai "berhalusinasi". Karena alasan ini, pejabat Pentagon telah bersuara tentang keengganan mereka untuk merangkul AI generatif.
“DoD harus secara bertanggung jawab mengadopsi model AI generatif sambil mengidentifikasi perlindungan yang tepat dan memitigasi risiko keamanan nasional yang mungkin timbul dari masalah seperti salah urus data pelatihan,” kata Martell. Dia mencatat bahwa ada banyak kasus penggunaan di mana risiko "berhalusinasi" terlalu tinggi untuk menggunakan model bahasa yang besar, seperti "apa pun yang bergerak", atau saat berhadapan dengan senjata mematikan. DoD harus memahami di mana mereka dapat digunakan dengan aman dan di mana musuh dapat menyebarkannya.
Satu pertanyaan adalah apakah DoD memiliki cukup data untuk membuat AI generatif bekerja. Sementara departemen memiliki banyak data internal yang dikuratori dengan hati-hati, rim diagnostik mesin jet atau rekaman pengawasan drone selama bertahun-tahun di Timur Tengah tidak cocok untuk model bahasa yang besar.
"Ini adalah pertanyaan terbuka apakah kita memiliki cukup data yang mencakup rentang yang cukup luas untuk mempertahankan nilai model tanpa data pra-terlatih. Di sisi lain, hipotesis saya adalah bahwa data pra-terlatih Semakin banyak, semakin besar kemungkinannya untuk berhalusinasi. Jadi ini pertukaran yang harus kita jelajahi. Saya tidak tahu, dan menurut saya komunitas ilmiah belum tahu jawabannya," kata Martel.
Setidaknya salah satu alasan alat seperti ChatGPT tidak cocok untuk Departemen Pertahanan saat ini adalah banyaknya teknik yang diperlukan untuk menghasilkan hasil yang sesuai. Pohon prompt yang panjang baik untuk penghobi, tetapi operator yang harus melakukan tugas kompleks memerlukan antarmuka yang intuitif dan lebih fungsional sejak awal, kata Martel.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
DoD membentuk gugus tugas AI generatif untuk membantu meningkatkan kecerdasan dan perencanaan tempur
Sumber: Makalah
Reporter Fang Xiao
Gugus Tugas Lima akan menilai, menyinkronkan, dan memanfaatkan kemampuan AI generatif di seluruh DoD dan juga akan memanfaatkan kemitraan antara DoD dan komunitas intelijen serta lembaga pemerintah lainnya.
Risiko "berhalusinasi" terlalu tinggi untuk model bahasa besar dalam banyak kasus penggunaan, seperti "apa pun yang bergerak", atau saat berhadapan dengan senjata mematikan.
Pada 10 Agustus waktu setempat, Departemen Pertahanan AS mengumumkan pembentukan kelompok kerja kecerdasan buatan generatif (AI), yang disebut kelompok kerja Lima (Lima), yang akan menganalisis dan mengintegrasikan kecerdasan buatan generatif seperti model bahasa besar ( LLM) dari Departemen Pertahanan Alat pintar memainkan peran kunci.
"Pelaksanaan yang Bertanggung Jawab"
“Pembentukan Gugus Tugas Lima menggarisbawahi komitmen kuat Departemen Pertahanan untuk memimpin inovasi AI,” kata Wakil Menteri Pertahanan Kathleen Hicks, yang mengarahkan pembentukan kelompok tersebut. fokus kami tetap pada memastikan keamanan nasional, meminimalkan risiko, dan mengintegrasikan teknologi ini secara bertanggung jawab. Masa depan pertahanan nasional bukan hanya tentang mengadopsi teknologi mutakhir, tetapi dengan pandangan jauh ke depan, tanggung jawab, dan komitmen yang lebih besar terhadap bangsa kita. Pemahaman mendalam tentang implikasi luas untuk mencapai hal ini."
Dipimpin oleh Kepala Kantor untuk Kecerdasan Digital dan Buatan, Satuan Tugas Lima akan menilai, menyinkronkan, dan memanfaatkan kemampuan AI generatif di seluruh DoD dan juga akan memanfaatkan kemitraan antara DoD dan komunitas intelijen serta lembaga pemerintah lainnya.
Kantor Pusat Kecerdasan Digital dan Buatan mulai beroperasi pada Juni 2022 dan berdedikasi untuk mengintegrasikan dan mengoptimalkan kemampuan AI di seluruh Departemen Pertahanan.
Departemen Pertahanan AS mengatakan bahwa dengan menggunakan model kecerdasan buatan generatif, itu bertujuan untuk meningkatkan operasinya di bidang peperangan, perdagangan, kesehatan, kesiapan tempur, dan kebijakan. "Kita juga harus mempertimbangkan sejauh mana musuh kita akan menggunakan teknologi ini dan berusaha merusak pemahaman kita tentang solusi berbasis AI," kata Craig Martell, kepala kecerdasan buatan dan digital di Departemen Pertahanan.
"Departemen Pertahanan mengakui potensi kecerdasan buatan generatif untuk secara signifikan meningkatkan intelijen, perencanaan operasional, dan proses administrasi dan bisnis. Namun, implementasi yang bertanggung jawab adalah kunci untuk mengelola risiko terkait secara efektif." Komandan Misi Gugus Tugas Lima, Kapten Digital dan Angkatan Laut Manuel Xavier Lugo, anggota Algorithmic Warfare Council dari Chief Office of Artificial Intelligence.
Menurut media militer AS "Defense One", satuan tugas juga akan membantu Pentagon lebih memahami apa yang perlu dibeli untuk mencapai tujuan kecerdasan buatan baru, yang mungkin mencakup lebih banyak layanan cloud, data atau data sintetis, dan model.
** Bagaimana cara mengatasi masalah "ilusi"? **
Kecerdasan buatan generatif menghasilkan keluaran baru berdasarkan data terlatih. Alat tersebut untuk umum termasuk chatbot berdasarkan model bahasa besar seperti ChatGPT, yang dapat menulis teks baru yang terlihat seperti keluaran manusia. Telah digunakan untuk menulis makalah, rencana bisnis, dan bahkan karya tulis ilmiah. Tetapi karena model bahasa besar dilatih pada kumpulan data dari internet, mereka terkadang bisa berbohong, yang dikenal sebagai "berhalusinasi". Karena alasan ini, pejabat Pentagon telah bersuara tentang keengganan mereka untuk merangkul AI generatif.
“DoD harus secara bertanggung jawab mengadopsi model AI generatif sambil mengidentifikasi perlindungan yang tepat dan memitigasi risiko keamanan nasional yang mungkin timbul dari masalah seperti salah urus data pelatihan,” kata Martell. Dia mencatat bahwa ada banyak kasus penggunaan di mana risiko "berhalusinasi" terlalu tinggi untuk menggunakan model bahasa yang besar, seperti "apa pun yang bergerak", atau saat berhadapan dengan senjata mematikan. DoD harus memahami di mana mereka dapat digunakan dengan aman dan di mana musuh dapat menyebarkannya.
Satu pertanyaan adalah apakah DoD memiliki cukup data untuk membuat AI generatif bekerja. Sementara departemen memiliki banyak data internal yang dikuratori dengan hati-hati, rim diagnostik mesin jet atau rekaman pengawasan drone selama bertahun-tahun di Timur Tengah tidak cocok untuk model bahasa yang besar.
"Ini adalah pertanyaan terbuka apakah kita memiliki cukup data yang mencakup rentang yang cukup luas untuk mempertahankan nilai model tanpa data pra-terlatih. Di sisi lain, hipotesis saya adalah bahwa data pra-terlatih Semakin banyak, semakin besar kemungkinannya untuk berhalusinasi. Jadi ini pertukaran yang harus kita jelajahi. Saya tidak tahu, dan menurut saya komunitas ilmiah belum tahu jawabannya," kata Martel.
Setidaknya salah satu alasan alat seperti ChatGPT tidak cocok untuk Departemen Pertahanan saat ini adalah banyaknya teknik yang diperlukan untuk menghasilkan hasil yang sesuai. Pohon prompt yang panjang baik untuk penghobi, tetapi operator yang harus melakukan tugas kompleks memerlukan antarmuka yang intuitif dan lebih fungsional sejak awal, kata Martel.