تشكل وزارة الدفاع فريق عمل للذكاء الاصطناعي للمساعدة في تحسين الذكاء والتخطيط القتالي

المصدر: الورقة

المراسل فانغ شياو

مصدر الصورة: تم إنشاؤه بواسطة Unbounded AI

ستقوم فرقة عمل ليما بتقييم ومزامنة والاستفادة من قدرات الذكاء الاصطناعي التوليدية عبر وزارة الدفاع وستستفيد أيضًا من الشراكات بين وزارة الدفاع ومجتمع الاستخبارات والوكالات الحكومية الأخرى.

خطر "الهلوسة" مرتفع للغاية بالنسبة للنماذج اللغوية الكبيرة في العديد من حالات الاستخدام ، مثل "أي شيء يتحرك" ، أو عند التعامل مع أسلحة فتاكة.

في 10 أغسطس ، بالتوقيت المحلي ، أعلنت وزارة الدفاع الأمريكية عن إنشاء مجموعة عمل ذكاء اصطناعي توليدي (AI) ، تسمى مجموعة عمل ليما (ليما) ، والتي ستحلل وتدمج الذكاء الاصطناعي التوليدي مثل نموذج اللغة الكبير ( ماجستير في القانون) من وزارة الدفاع. تلعب الأدوات الذكية دورًا رئيسيًا.

** "التنفيذ المسؤول" **

قالت وكيلة وزارة الدفاع كاثلين هيكس ، التي وجهت تشكيل المجموعة: "يؤكد تشكيل فريق عمل ليما على التزام وزارة الدفاع القوي بقيادة ابتكار الذكاء الاصطناعي. بينما نستغل التوليد بينما نطور القوة التحويلية للذكاء الاصطناعي ، يظل تركيزنا على ضمان الأمن القومي ، وتقليل المخاطر ، ودمج هذه التقنيات بشكل مسؤول. لا يقتصر مستقبل الدفاع الوطني على تبني التقنيات المتطورة فحسب ، بل يتعلق بالتبصر والمسؤولية والالتزام الأكبر تجاه أمتنا. الآثار واسعة النطاق لتحقيق ذلك ".

بقيادة المكتب الرئيسي للذكاء الرقمي والاصطناعي ، ستقوم فرقة عمل ليما بتقييم ومزامنة والاستفادة من قدرات الذكاء الاصطناعي التوليدية عبر وزارة الدفاع وستستفيد أيضًا من الشراكات بين وزارة الدفاع ومجتمع الاستخبارات والوكالات الحكومية الأخرى.

يبدأ المكتب الرئيسي للذكاء الرقمي والاصطناعي عملياته في يونيو 2022 وهو مكرس لدمج وتحسين قدرات الذكاء الاصطناعي عبر وزارة الدفاع.

قالت وزارة الدفاع الأمريكية إنها تهدف من خلال استخدام نماذج الذكاء الاصطناعي التوليدية إلى تعزيز عملياتها في مجالات الحرب والتجارة والصحة والاستعداد القتالي والسياسة. قال كريج مارتيل ، رئيس قسم الذكاء الرقمي والاصطناعي في وزارة الدفاع: "يجب علينا أيضًا النظر في مدى استخدام خصومنا لهذه التكنولوجيا والسعي لتقويض فهمنا للحلول القائمة على الذكاء الاصطناعي".

"تدرك وزارة الدفاع إمكانات الذكاء الاصطناعي التوليدي لتحسين الذكاء والتخطيط التشغيلي والعمليات الإدارية والتجارية بشكل كبير. ومع ذلك ، فإن التنفيذ المسؤول هو المفتاح لإدارة المخاطر المرتبطة بفعالية." مانويل كزافييه لوجو ، عضو مجلس الحرب الخوارزمية التابع للمكتب الرئيسي للذكاء الاصطناعي.

وفقًا لوسائل الإعلام العسكرية الأمريكية "Defense One" ، ستساعد فرقة العمل أيضًا البنتاغون على فهم أفضل لما يجب شراؤه لتحقيق أهداف ذكاء اصطناعي جديدة ، والتي قد تشمل المزيد من الخدمات السحابية والبيانات أو البيانات التركيبية والنماذج.

** كيف تحل مشكلة "الوهم"؟ **

يولد الذكاء الاصطناعي التوليدي مخرجات جديدة بناءً على البيانات المدربة. وتشمل هذه الأدوات للجمهور روبوتات المحادثة القائمة على نماذج لغة كبيرة مثل ChatGPT ، والتي يمكنها كتابة نص جديد يشبه المخرجات البشرية. وقد تم استخدامه لكتابة الأوراق وخطط العمل وحتى أوراق علمية. ولكن نظرًا لأن النماذج اللغوية الكبيرة يتم تدريبها على مجموعة بيانات من الإنترنت ، فيمكنها أحيانًا الكذب ، والمعروفة باسم "الهلوسة". لهذا السبب ، تحدث مسؤولو البنتاغون عن ترددهم في تبني الذكاء الاصطناعي التوليدي.

قال مارتل: "يجب أن تسعى وزارة الدفاع بمسؤولية إلى تبني نماذج الذكاء الاصطناعي التوليدية مع تحديد الضمانات المناسبة والتخفيف من مخاطر الأمن القومي التي قد تنشأ عن قضايا مثل سوء إدارة بيانات التدريب". وأشار إلى أن هناك العديد من حالات الاستخدام التي يكون فيها خطر "الهلوسة" مرتفعًا جدًا لاستخدام نماذج لغوية كبيرة ، مثل "أي شيء يتحرك" ، أو عند التعامل مع الأسلحة الفتاكة. يجب أن تفهم وزارة الدفاع أين يمكن استخدامها بأمان وأين يمكن للخصوم نشرها.

أحد الأسئلة هو ما إذا كانت وزارة الدفاع لديها بيانات كافية لكي يعمل الذكاء الاصطناعي التوليدي. في حين أن القسم لديه ثروة من البيانات الداخلية المنسقة بعناية ، فإن رزم من تشخيصات المحركات النفاثة أو سنوات من لقطات مراقبة الطائرات بدون طيار في الشرق الأوسط لا تصنع نماذج لغوية كبيرة.

"إنه سؤال مفتوح عما إذا كانت لدينا بيانات كافية تغطي نطاقًا واسعًا بدرجة كافية للحفاظ على قيمة النموذج بدون بيانات مُدربة مسبقًا. ومن ناحية أخرى ، فإن فرضيتي هي أن البيانات المدربة مسبقًا يهلوس. لذلك ، إنها مقايضة يجب أن نستكشفها. لا أعرف ، ولا أعتقد في الواقع أن المجتمع العلمي يعرف الإجابة حتى الآن ، "قال مارتل.

واحد على الأقل من الأسباب التي تجعل أدوات مثل ChatGPT غير مناسبة لوزارة الدفاع في الوقت الحالي هو مقدار الهندسة المطلوبة لتوليد نتائج مناسبة. قال مارتل إن الشجرة السريعة الطويلة أمر جيد للهواة ، لكن المشغلين الذين يتعين عليهم أداء مهام معقدة يحتاجون إلى واجهة سهلة الاستخدام وأكثر فاعلية منذ البداية.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت