تعلن OpenAI عن التوظيف المفتوح لشبكة "الفريق الأحمر"، ومكتبة الخبراء الفائقة الموجهة نحو الذكاء الاصطناعي على وشك الظهور

** المصدر: ** وكالة أسوشيتد برس المالية

المحرر شي تشنغتشنغ

في الساعات الأولى من صباح الأربعاء بتوقيت بكين، أصدرت شركة OpenAI، وهي شركة أمريكية ناشئة في مجال التكنولوجيا، إعلانًا أعلنت فيه عن إطلاق عملية توظيف عالمية لأعضاء شبكة "الفريق الأحمر"، بهدف إدخال قوى خارجية وكشف عيوب ومخاطر أنظمة الذكاء الاصطناعي. مقدماً.

(المصدر: OpenAI)

إن مفهوم ما يسمى بشبكة "الفريق الأحمر"، أو Red Teaming، يأتي من عمليات المحاكاة العسكرية. **أي، ابحث عن فريق من الأشخاص لمحاكاة "العدو" الوهمي لاختبار مستوى الاستعداد لدى فريقك ("الفريق الأزرق"). **في مجال الذكاء الاصطناعي، تتمثل مهمة "الفريق الأحمر" في محاكاة المتسللين أو غيرهم من الأشخاص الذين يحتمل أن يكونوا خطرين ومحاولة العثور على ثغرات في نماذج اللغة الكبيرة، وذلك لمنع الذكاء الاصطناعي من المساعدة في أغراض غير قانونية مثل تعريض الأمن الاجتماعي للخطر في المجتمع الحقيقي.

قالت OpenAI إنه في السنوات القليلة الماضية، ساعد الخبراء في مجالات مختلفة في اختبار النماذج التي لم يتم إصدارها بعد، والآن يجب تشكيل "قوة نظامية" لتجنيد عدد كبير من الأشخاص من مناطق مختلفة، ولغات مختلفة، ومجالات مهنية مختلفة، و حياة مختلفة، حيث يعمل الأشخاص ذوو الخبرة معًا لجعل نماذج الذكاء الاصطناعي أكثر أمانًا. **خلافًا للماضي، الذي لم يتم فيه سوى تعيين مجموعة من الأشخاص للاختبار المركزي قبل ظهور إصدار مهم عبر الإنترنت، ستمكن OpenAI عددًا غير محدد من الأعضاء من إجراء الاختبار طوال دورة التطوير بأكملها بناءً على الطلب.

وفي الوقت نفسه، ستصبح شبكة "الفريق الأحمر" هذه أيضًا مكتبة الخبراء العالمية لـ OpenAI، وستوفر OpenAI أيضًا منصة للتواصل بين أعضاء "الفريق الأحمر". تسرد OpenAI أيضًا بعض اتجاهات الخبراء التي يأملون في توظيفها على موقعها الرسمي على الإنترنت، ولكنها تؤكد أيضًا على أنها لا تقتصر على هذه المجالات.

العلوم المعرفية: العلوم المعرفية

الكيمياء: الكيمياء

علم الأحياء: علم الأحياء

الفيزياء: الفيزياء

علوم الكمبيوتر: علوم الكمبيوتر

إخفاء المعلومات: إخفاء المعلومات

العلوم السياسية: العلوم السياسية

علم النفس: علم النفس

الإقناع: الإقناع

الاقتصاد: الاقتصاد

الأنثروبولوجيا: الأنثروبولوجيا

علم الاجتماع: علم الاجتماع

HCI (التفاعل بين الإنسان والحاسوب): التفاعل بين الإنسان والحاسوب

الإنصاف والتحيز: الإنصاف والتحيز

المحاذاة: محاذاة الهدف

التعليم: التعليم

الرعاية الصحية: الرعاية الطبية

القانون: القانون

سلامة الطفل: سلامة الطفل

الأمن السيبراني: أمن الشبكات

المالية: المالية

معلومات خاطئة/مضللة:معلومات خاطئة/كاذبة

الاستخدام السياسي: التطبيق السياسي

الخصوصية: الخصوصية

القياسات الحيوية: القياسات الحيوية

اللغات واللغويات: اللغة واللغويات

بالمناسبة، ذكرت OpenAI أيضًا أنها ستدفع مكافآت للأعضاء الذين يشاركون في مشروع "الفريق الأحمر" (لكنها لم تحدد المبلغ الذي ستدفعه). وشددت OpenAI أيضًا على أن المشاريع المشاركة في "الفريق الأحمر" تتطلب عمومًا التوقيع على اتفاقية السرية أو التزام الصمت لفترة زمنية غير محددة.

ذكرت OpenAI أن قناة التقديم ستظل مفتوحة حتى 1 ديسمبر من هذا العام، وستقوم الشركة بمراجعة الطلبات على أساس متجدد وستقوم لاحقًا بتقييم ما إذا كانت هناك حاجة إلى مزيد من التوظيف المفتوح.

أعضاء "الفريق الأحمر" في OpenAI الذين صعدوا إلى المسرح

وكما ذكر OpenAI، فإن "الفريق الأحمر" موجود منذ فترة طويلة، وقد تلقى العديد من الأعضاء بالفعل مقابلات عامة من وسائل الإعلام.

وفي مقال كاشف في صحيفة فايننشال تايمز في أبريل من هذا العام، قال أندرو وايت، أستاذ الهندسة الكيميائية بجامعة روتشستر في الولايات المتحدة، إنه شارك في اختبار "الفريق الأحمر" لـ GPT-4،** و أن هدف هجومه كان استخدام ChatGPT لإنشاء سم عصبي جديد تمامًا. قال وايت إنه استخدم وظيفة "المكونات الإضافية" لتغذية النموذج الكبير بأوراق الكيمياء وكتالوجات الشركات المصنعة للمواد الكيميائية، حتى أن النموذج الكبير وجد له مكانًا يمكنه من خلاله إنتاج سمومه الافتراضي. **

وقال وايت إن النماذج الكبيرة يمكن أن تساعد في نهاية المطاف العديد من الأشخاص على إجراء تجارب كيميائية بشكل أسرع وأكثر دقة، ولكن هناك أيضًا خطر كبير من أن يستخدم بعض الأشخاص الذكاء الاصطناعي لإجراء بعض التجارب الخطيرة.

بعد تلقي تعليقات من وايت، أجرت OpenAI تغييرات على النظام للتأكد من أنها لن تستجيب لأسئلة مماثلة. وبحسب وسائل الإعلام، هناك حوالي 10 أعضاء من "الفريق الأحمر" من خلفيات مختلفة - محامون ومدرسون وموظفون في مجال مراقبة المخاطر وباحثون أمنيون، وما إلى ذلك. ويوجد معظمهم في الولايات المتحدة وأوروبا. وكشفوا أنه في الأشهر التي سبقت إصدار GPT-4، أمضوا ما يقرب من 10 إلى 40 ساعة في اختبار النظام، وحصلوا على أجر حوالي 100 دولار في الساعة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت