تم اتهام الأوزان النموذجية المفتوحة بالتسبب في خروج الذكاء الاصطناعي عن نطاق السيطرة، وقد تم الاحتجاج على Meta باللافتات.LeCun: مجتمع الذكاء الاصطناعي مفتوح المصدر يسير على قدم وساق.

الذكاء الاصطناعي، وخاصة مفتوح المصدر ومغلق المصدر في عصر النماذج الكبيرة، له مزايا وعيوب، والشيء المهم هو كيفية القيام بعمل جيد في عملية استخدامه.

مصدر الصورة: تم إنشاؤها بواسطة Unbounded AI

لقد انقسم الناس دائمًا حول الاختيار بين المصدر المفتوح والمصدر المغلق في مجال الذكاء الاصطناعي، ومع ذلك، في عصر النماذج الكبيرة، ظهرت القوة القوية للمصدر المفتوح بهدوء. وفقًا لوثيقة داخلية تم تسريبها سابقًا بواسطة Google، حول نماذج مفتوحة المصدر مثل Meta's LLaMA، يقوم المجتمع بأكمله بسرعة ببناء نماذج مشابهة لـ OpenAI وقدرات النماذج الكبيرة من Google.

ليس هناك شك في أن Meta هي الجوهر المطلق لعالم المصادر المفتوحة، مع استمرار الجهود مفتوحة المصدر مثل الإصدار الأخير من Llama 2. ومع ذلك، فإن أي شيء جيد سوف تدمره الريح.مؤخرًا، كانت ميتا في "مشكلة" بسبب المصدر المفتوح.

خارج مكاتب ميتا في سان فرانسيسكو، تجمعت مجموعة من المتظاهرين يحملون لافتات للاحتجاج على استراتيجية ميتا المتمثلة في إطلاق نماذج الذكاء الاصطناعي علنًا، زاعمين أن هذه النماذج التي تم إصدارها تسببت في "انتشار لا رجعة فيه" للتقنيات التي يحتمل أن تكون غير آمنة. حتى أن بعض المتظاهرين قارنوا النماذج الكبيرة التي أصدرتها شركة ميتا بـ "أسلحة الدمار الشامل".

يطلق هؤلاء المتظاهرون على أنفسهم اسم "المواطنين المعنيين" وتقودهم هولي إلمور. وفقًا لمعلومات LinkedIn، فهي مدافعة مستقلة عن حركة AI Pause.

مصدر الصورة: ميشا جوريفيتش

وأشارت إلى أنه إذا ثبت أن النموذج غير آمن، فيمكن إغلاق واجهة برمجة التطبيقات (API)، مثل النماذج الكبيرة مثل Google وOpenAI التي تسمح للمستخدمين بالوصول فقط من خلال واجهة برمجة التطبيقات (API).

في المقابل، فإن سلسلة LLaMA من النماذج مفتوحة المصدر من Meta تجعل أوزان النماذج متاحة للعامة، مما يسمح لأي شخص لديه الأجهزة والخبرة المناسبة بتكرار النموذج وتعديله بنفسه. بمجرد إصدار أوزان النماذج، لم يعد لدى شركة النشر أي وسيلة للتحكم في كيفية استخدام الذكاء الاصطناعي.

وفقا لهولي إلمور، فإن إطلاق أوزان النماذج يعد استراتيجية خطيرة، حيث يمكن لأي شخص تعديل النموذج، ولا يمكن استرجاع هذه النماذج. "كلما كان النموذج أقوى، كلما كانت الإستراتيجية أكثر خطورة."

بالمقارنة مع المصادر المفتوحة، غالبًا ما تحتوي النماذج الكبيرة التي يتم الوصول إليها من خلال واجهات برمجة التطبيقات (APIs) على ميزات أمان مختلفة، مثل تصفية الاستجابة أو تدريب محدد لمنع إخراج استجابات خطيرة أو مسيئة.

إذا تم تحرير أوزان النموذج، يصبح من الأسهل إعادة تدريب النموذج للقفز فوق هذه "الدرابزين". وهذا يجعل من الممكن استخدام هذه النماذج مفتوحة المصدر لإنشاء برامج التصيد الاحتيالي وتنفيذ هجمات الشبكة.

مصدر الصورة: ميشا جوريفيتش

لأنها تعتقد أن جزءًا من المشكلة يكمن في "عدم كفاية إجراءات السلامة لإصدار النموذج" وأنه يجب أن تكون هناك طريقة أفضل لضمان سلامة النموذج.

ميتا لم يعلق بعد على هذا. ومع ذلك، يبدو أن يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، قد استجاب للبيان القائل بأنه "يجب حظر الذكاء الاصطناعي مفتوح المصدر" وكشف عن الوضع الكبير لمجتمع رواد الأعمال في الذكاء الاصطناعي مفتوح المصدر في باريس.

هناك العديد من الأشخاص الذين يختلفون مع هولي إلمور، الذين يعتقدون أن الاستراتيجية المفتوحة لتطوير الذكاء الاصطناعي هي الطريقة الوحيدة لضمان الثقة في التكنولوجيا.

قال بعض مستخدمي الإنترنت إن المصادر المفتوحة لها إيجابيات وسلبيات، فهي يمكن أن تسمح للناس باكتساب قدر أكبر من الشفافية وتعزيز الابتكار، ولكنها ستواجه أيضًا خطر سوء الاستخدام (مثل التعليمات البرمجية) من قبل جهات ضارة.

وكما كان متوقعًا، تعرض OpenAI للسخرية مرة أخرى، حيث قال: "يجب أن يعود إلى المصدر المفتوح".

هناك الكثير من الأشخاص الذين يشعرون بالقلق بشأن المصادر المفتوحة

وقال بيتر س. بارك، باحث ما بعد الدكتوراه في أمن الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا: "إن الإصدار الواسع النطاق لنماذج الذكاء الاصطناعي المتقدمة سيكون مشكلة خاصة في المستقبل لأن منع إساءة استخدام نماذج الذكاء الاصطناعي أمر مستحيل في الأساس".

ومع ذلك، قالت ستيلا بيدرمان، المدير التنفيذي لمنظمة EleutherAI، وهي منظمة غير ربحية لأبحاث الذكاء الاصطناعي: "حتى الآن، هناك القليل من الأدلة على أن النماذج مفتوحة المصدر تسبب أي ضرر محدد. ومن غير الواضح ما إذا كان مجرد وضع نموذج خلف واجهة برمجة التطبيقات سيحل المشكلة". المشكلة. سؤال الأمان."

ويعتقد بيدرمان: "لقد تم الكشف عن العناصر الأساسية لبناء ماجستير إدارة الأعمال في أوراق بحثية مجانية، ويمكن لأي شخص في العالم قراءة الأدبيات الورقية لتطوير نماذجه الخاصة".

وأضافت: "إن تشجيع الشركات على الحفاظ على سرية تفاصيل النماذج يمكن أن يكون له عواقب سلبية خطيرة على شفافية البحث والوعي العام والتطور العلمي في هذا المجال، وخاصة بالنسبة للباحثين المستقلين".

على الرغم من أن الجميع يناقشون بالفعل تأثير المصادر المفتوحة، إلا أنه لا يزال من غير الواضح ما إذا كان نهج ميتا مفتوحًا بدرجة كافية بالفعل ويمكنه الاستفادة من المصادر المفتوحة.

قال ستيفانو مافولي، المدير التنفيذي لمبادرة المصدر المفتوح (OSI): "لم يتم تعريف مفهوم الذكاء الاصطناعي مفتوح المصدر بشكل صحيح. تستخدم المنظمات المختلفة هذا المصطلح للإشارة إلى أشياء مختلفة - مما يشير إلى مستويات مختلفة من" شيء متاح للجمهور ". والذي سوف يربك الناس."

ويشير مافولي إلى أن المشكلة الأساسية بالنسبة للبرمجيات مفتوحة المصدر هي ما إذا كان كود المصدر متاحًا للعامة وقابلاً للتكرار لأي غرض. ومع ذلك، لإعادة إنتاج نموذج الذكاء الاصطناعي، قد يتعين عليك مشاركة بيانات التدريب، وطرق جمع البيانات، وبرامج التدريب، وأوزان النماذج، وكود الاستدلال، وما إلى ذلك. وأهمها هو أن بيانات التدريب قد تكون لها مشكلات تتعلق بالخصوصية وحقوق الطبع والنشر.

تعمل OSI على تعريف دقيق لـ "الذكاء الاصطناعي مفتوح المصدر" منذ العام الماضي ومن المرجح أن تصدر مسودة مبكرة في الأسابيع المقبلة. ولكن بغض النظر عن ذلك، فهو يعتقد أن المصدر المفتوح أمر بالغ الأهمية لتطوير الذكاء الاصطناعي. وقال: "إذا لم يكن الذكاء الاصطناعي مفتوح المصدر، فلن يكون لدينا ذكاء اصطناعي جدير بالثقة ومسؤول".

في المستقبل، ستستمر الاختلافات بين المصدر المفتوح والمصدر المغلق، لكن المصدر المفتوح لا يمكن إيقافه.

الرابط الأصلي:

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت