عمالقة الذكاء الاصطناعي السبعة قدموا 8 وعود رئيسية في البيت الأبيض ، ماذا وعدوا؟

بعد ثلاثة أيام فقط من إعلان Meta عن الجيل الجديد من نموذج اللغة الكبيرة مفتوح المصدر Llama 2 ، اجتمع كبار المديرين التنفيذيين للشركة ، Microsoft و OpenAI و Amazon و Anthropic وسبعة عمالقة آخرين في صناعة الذكاء الاصطناعي والمديرين التنفيذيين للشركات الناشئة الساخنة مرة أخرى في البيت الأبيض في الولايات المتحدة.

في هذا الحدث ، وقعت سبع شركات على "الالتزامات الطوعية" (الالتزامات الطوعية) ، وقدمت "8 التزامات رئيسية" بشأن السلامة والشفافية ومخاطر تكنولوجيا الذكاء الاصطناعي والبحث والتطوير.

مصدر الصورة: تم إنشاؤه بواسطة Unbounded AI

** وصلت دراما "السعي وراء الإشراف" لشركة الذكاء الاصطناعي إلى ذروتها هنا **.

كتب كيفين روز ، كاتب العمود في صحيفة نيويورك تايمز ، مقالاً يشرح بالتفصيل ما قالته "الوعود الثمانية الكبرى" والتغييرات التي أحدثتها.

نتيجة البحث هي أن هذه الالتزامات الثمانية ، مثل الاختبار الأمني ، ومشاركة المعلومات الأمنية للذكاء الاصطناعي ، والإبلاغ عن نقاط الضعف ، و "إعطاء الأولوية للذكاء الاصطناعي لحل التحديات الاجتماعية" ، يبدو أنها بعض المشاكل الكبيرة ، والالتزامات المقابلة تفتقر إلى التفاصيل.العديد من المشاكل نفسها تم "نشرها" للجمهور من قبل شركات الذكاء الاصطناعي.

** يشبه "خطاب الالتزام بالموارد" هذا "عرض النتائج" غير المباشر للعديد من الاستفسارات من المنظمين الأمريكيين لشركات الذكاء الاصطناعي في الأشهر الستة الماضية ، وربما لا يكون له أهمية كبيرة في التنفيذ **. ومع ذلك ، فقد أعرب المنظمون عن قلقهم بشأن الذكاء الاصطناعي عدة مرات ، مما يشير إلى أن موقف الحكومة من تطبيق تكنولوجيا الذكاء الاصطناعي هو أكبر أهمية لهذا العرض.

فيما يلي تفسير كيفن روز للالتزامات الثمانية الواردة في "خطاب الالتزام الطوعي":

** الالتزام الأول: تلتزم الشركة باختبار السلامة الداخلية والخارجية لأنظمة الذكاء الاصطناعي قبل إطلاقها. **

أجرت شركات الذكاء الاصطناعي هذه جميع اختبارات السلامة على نماذجها - يشار إليها غالبًا باسم "اختبار الفريق الأحمر" - قبل إصدارها. بطريقة ما ، ** هذا ليس حقًا وعدًا جديدًا ، إنه غامض. لم يتم تقديم أي تفاصيل حول نوع الاختبار المطلوب أو من قبل من **.

في بيان لاحق ، قال البيت الأبيض فقط إن اختبار نماذج الذكاء الاصطناعي "سيتم إجراؤه جزئيًا بواسطة خبراء مستقلين" والتركيز على "مخاطر الذكاء الاصطناعي مثل ** الأمن البيولوجي والأمن السيبراني ، وآثارها المجتمعية الأوسع **".

إنها لفكرة جيدة أن تلتزم شركات الذكاء الاصطناعي علنًا بمواصلة هذا الاختبار ، وتشجيع المزيد من الشفافية في عملية الاختبار. هناك أيضًا أنواع من مخاطر الذكاء الاصطناعي - مثل خطر استخدام نماذج الذكاء الاصطناعي لتطوير أسلحة بيولوجية - والتي قد يكون المسؤولون الحكوميون والعسكريون في وضع أفضل لتقييمها من الشركات.

يسعدني أن أرى صناعة الذكاء الاصطناعي توافق على مجموعة من اختبارات السلامة القياسية ، مثل اختبارات "النسخ الذاتي" لمركز أبحاث Alignment لنماذج ما قبل الإصدار من OpenAI و Anthropic. أود أيضًا أن أرى تمويل الحكومة الفيدرالية لمثل هذه الاختبارات ، والتي قد تكون مكلفة وتتطلب مهندسين ذوي خبرة فنية كبيرة. في الوقت الحالي ، ** يتم تمويل العديد من اختبارات الأمان والإشراف عليها من قبل الشركات ، مما يثير مشكلات واضحة في تضارب المصالح **.

** الالتزام 2: تلتزم الشركة بمشاركة المعلومات حول إدارة مخاطر الذكاء الاصطناعي عبر الصناعة ومع الحكومة والمجتمع المدني والأوساط الأكاديمية. **

هذا الوعد غامض بعض الشيء. قامت بعض هذه الشركات بنشر معلومات حول نماذج الذكاء الاصطناعي الخاصة بها - غالبًا في الأوراق الأكاديمية أو منشورات مدونات الشركة. كما قامت بعض هذه الشركات ، بما في ذلك OpenAI و Anthropic ، بنشر وثائق تسمى "بطاقات" تحدد الخطوات التي تتخذها لجعل هذه النماذج أكثر أمانًا.

لكنهم في بعض الأحيان يحجبون المعلومات متذرعين بمخاوف أمنية. عندما أصدرت ** OpenAI أحدث طراز لها للذكاء الاصطناعي ، GPT-4 ، هذا العام ، حطمت قواعد الصناعة باختيارها عدم الكشف عن مقدار بيانات التدريب الخاصة بها أو حجم نموذجها (مقياس يسمى "المعلمات") **. وقالت الشركة إنها رفضت الكشف عن المعلومات بسبب مخاوف تتعلق بالمنافسة والسلامة. يحدث أيضًا أن يكون نوع البيانات الذي ترغب شركات التكنولوجيا في إبعاده عن المنافسين.

بموجب هذه الالتزامات الجديدة ، هل ستضطر شركات الذكاء الاصطناعي إلى الكشف عن مثل هذه المعلومات؟ ماذا لو كان القيام بذلك يهدد بتسريع سباق التسلح بالذكاء الاصطناعي؟

أظن أن هدف البيت الأبيض ** ليس إجبار الشركات على الكشف عن أرقام معاييرها ، بل تشجيعها على تبادل المعلومات ** مع بعضها البعض حول المخاطر التي تشكلها (أو لا تشكلها) نماذجهم.

ولكن حتى مشاركة المعلومات هذه يمكن أن تكون محفوفة بالمخاطر. إذا كان فريق الذكاء الاصطناعي في Google ، أثناء اختبار ما قبل الإصدار ، يمنع استخدام نماذج جديدة لتصميم أسلحة بيولوجية قاتلة ، فهل يجب عليه مشاركة هذه المعلومات خارج Google؟ هل يعطي هذا للممثلين السيئين أفكارًا حول كيفية الحصول على نموذج أقل حماية لأداء نفس المهمة؟

** الالتزام 3: تلتزم الشركة بالاستثمار في الأمن السيبراني وتدابير الحماية من التهديدات الداخلية لحماية أوزان النماذج المملوكة وغير المنشورة. **

هذا السؤال بسيط للغاية ولا يثير الجدل بين المطلعين على الذكاء الاصطناعي الذين تحدثت إليهم. ** "أوزان النموذج" هو مصطلح تقني يشير إلى التعليمات الرياضية التي تمنح نماذج الذكاء الاصطناعي القدرة على العمل **. إذا كنت وكيلًا لحكومة أجنبية (أو شركة منافسة) تتطلع إلى إنشاء نسختك الخاصة من ChatGPT أو أي منتج آخر من منتجات الذكاء الاصطناعي ، فإن الأوزان هي ما تريد سرقته. لشركات الذكاء الاصطناعي مصلحة راسخة في السيطرة الصارمة على هذا الأمر.

مشكلة تسرب الوزن النموذجي معروفة جيدا.

على سبيل المثال ، تم تسريب أوزان نموذج لغة Meta الأصلي LLaMA على 4chan ومواقع أخرى بعد أيام قليلة من إطلاق النموذج علنًا. نظرًا لخطر حدوث المزيد من التسريبات ، واحتمال أن تكون الدول الأخرى مهتمة بسرقة التكنولوجيا من الشركات الأمريكية ، فإن مطالبة شركات الذكاء الاصطناعي بالاستثمار بشكل أكبر في أمنها يبدو أمرًا لا يحتاج إلى تفكير.

** الالتزام 4: تلتزم كلتا الشركتين بتسهيل اكتشاف الأطراف الثالثة والإبلاغ عن نقاط الضعف في أنظمة الذكاء الاصطناعي الخاصة بهم. **

لست متأكدًا تمامًا مما يعنيه ذلك. بعد أن تطلق كل شركة AI نموذجًا ، تكتشف ثغرات في نموذجها ، عادةً لأن المستخدمين يحاولون القيام بأشياء سيئة باستخدام النموذج ، أو التحايل على "كسر الحماية" بطرق لم تتوقعها الشركة.

تعهد البيت الأبيض بمطالبة الشركات بإنشاء "آليات إبلاغ قوية" عن نقاط الضعف ، لكن من غير الواضح ما قد يعنيه ذلك.

زر التعليقات داخل التطبيق ، على غرار الزر الذي يسمح لمستخدمي Facebook و Twitter بالإبلاغ عن المشاركات المخالفة؟ برنامج مكافأة الأخطاء ، مثل برنامج OpenAI الذي تم إطلاقه هذا العام لمكافأة المستخدمين الذين يجدون أخطاء في أنظمتها؟ هل هناك شيء آخر؟ سيتعين علينا الانتظار لمزيد من التفاصيل.

** الالتزام الخامس: تلتزم الشركة بتطوير آليات تقنية قوية لضمان معرفة المستخدمين عندما يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي ، مثل أنظمة العلامات المائية. **

إنها فكرة مثيرة للاهتمام ، لكنها تترك مجالًا كبيرًا للتفسير.

حتى الآن ، ** تكافح شركات الذكاء الاصطناعي لتصميم أدوات تسمح للأشخاص بمعرفة ما إذا كانوا يشاهدون المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي **. هناك أسباب فنية جيدة لذلك ، لكنها مشكلة حقيقية عندما يمكن للأشخاص اعتبار الوظائف التي تم إنشاؤها بواسطة الذكاء الاصطناعي على أنها وظائفهم (اسأل أي معلم في المدرسة الثانوية).

العديد من الأدوات الحالية المُعلن عنها على أنها قادرة على اكتشاف مخرجات الذكاء الاصطناعي لا يمكنها فعل ذلك بأي درجة من الدقة.

لست متفائلاً بأن هذه المشكلة سيتم حلها بالكامل ، لكنني سعيد بأن الشركات ملتزمة بالعمل على حلها.

** الالتزام 6: تلتزم الشركات بالإبلاغ العلني عن القدرات والقيود ومجالات الاستخدام المناسب وغير المناسب لأنظمة الذكاء الاصطناعي الخاصة بها. **

التزام آخر يبدو معقولًا مع مساحة كبيرة للمناورة.

كم مرة تحتاج الشركات إلى الإبلاغ عن قدرات وقيود أنظمتها؟ إلى أي مدى يجب أن تكون هذه المعلومات مفصلة؟ ** بالنظر إلى أن العديد من الشركات التي تبني أنظمة ذكاء اصطناعي تفاجأ بقدرات أنظمتها بعد الحقيقة ** ، إلى أي مدى يمكنهم حقًا وصف هذه الأنظمة مسبقًا؟

** الالتزام 7: تلتزم الشركات بإعطاء الأولوية للبحث في المخاطر المجتمعية التي قد تشكلها أنظمة الذكاء الاصطناعي ، بما في ذلك تجنب التحيز الضار والتمييز وحماية الخصوصية. **

الالتزام "بترتيب أولويات البحث" هو التزام غامض. ومع ذلك ، أعتقد أن هذا الالتزام سيحظى بالترحيب من قبل الكثيرين في مجتمع أخلاقيات الذكاء الاصطناعي ، الذين يريدون من شركات الذكاء الاصطناعي إعطاء الأولوية لمنع الضرر على المدى القريب مثل التحيز والتمييز ، بدلاً من القلق بشأن سيناريوهات يوم القيامة ، كما يفعل أصحاب السلامة في الذكاء الاصطناعي.

إذا كنت مرتبكًا بشأن الفرق بين "أخلاقيات الذكاء الاصطناعي" و "أمان الذكاء الاصطناعي" ، فاعلم أن هناك فصيلين متنافسين داخل مجتمع أبحاث الذكاء الاصطناعي ، يعتقد كل منهما أن الآخر يركز على منع الضرر من الأخطاء.

** الالتزام 8: تلتزم الشركتان بتطوير ونشر أنظمة ذكاء اصطناعي متقدمة للمساعدة في حل أكبر تحديات المجتمع. **

لا أعتقد أن الكثير من الناس قد يجادلون بأنه لا ينبغي استخدام الذكاء الاصطناعي المتقدم للمساعدة في حل أكبر تحديات المجتمع. لن أختلف مع البيت الأبيض في الاستشهاد بالوقاية من السرطان والتخفيف من آثار تغير المناخ كمجالين يريد من شركات الذكاء الاصطناعي التركيز عليهما.

ما يعقد هذا الهدف إلى حد ما ، مع ذلك ، هو أنه في أبحاث الذكاء الاصطناعي ، تميل الأشياء التي تبدو مملة في البداية إلى عواقب أكثر خطورة.

** كانت بعض التقنيات التي استخدمها AlphaGo من DeepMind ، وهو نظام ذكاء اصطناعي تم تدريبه على ممارسة لعبة اللوحة Go ، مفيدة للغاية في التنبؤ بالبنية ثلاثية الأبعاد للبروتينات ** ، وهو اكتشاف رئيسي يعمل على تطوير البحث العلمي الأساسي.

بشكل عام ، تبدو صفقات البيت الأبيض مع شركات الذكاء الاصطناعي أكثر رمزية من كونها جوهرية. لا توجد آليات إنفاذ لضمان التزام الشركات بهذه الالتزامات ، وكثير منها يعكس الاحتياطات التي اتخذتها بالفعل شركات الذكاء الاصطناعي.

ومع ذلك ، فهي خطوة أولى معقولة.

تُظهر الموافقة على الالتزام بهذه القواعد أن شركات الذكاء الاصطناعي قد تعلمت من إخفاقات شركات التكنولوجيا المبكرة التي انتظرت حتى وقعت في المشاكل قبل التعامل مع الحكومات. في واشنطن ، على الأقل عندما يتعلق الأمر بالتنظيم التكنولوجي ، من المفيد الظهور مبكرًا.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت