أصدرت جامعة ستانفورد نموذجا قائما على الذكاء الاصطناعي "مؤشر الشفافية" ، يتصدر اللاما 2 لكنه "يفشل" بنسبة 54٪

وفقا لتقرير IT House في 20 أكتوبر ، أصدرت جامعة ستانفورد مؤخرا النموذج الأساسي الذكاء الاصطناعي "مؤشر الشفافية" ، والذي يعد أعلى مؤشر منه هو Meta's Lama 2 ، لكن "الشفافية" ذات الصلة هي 54٪ فقط ، لذلك يعتقد الباحثون أن جميع نماذج الذكاء الاصطناعي تقريبا في السوق "تفتقر إلى الشفافية".

يذكر أن البحث قاده ريشي بوماساني ، رئيس مركز أبحاث النموذج الأساسي HAI (CRFM) ، وحقق في أكثر 10 نماذج أساسية شعبية في الخارج. يعتقد ريشي بوماساني أن "الافتقار إلى الشفافية" كان دائما مشكلة تواجهها صناعة الذكاء الاصطناعي ، وفيما يتعلق بنموذج محدد "مؤشرات الشفافية" ، وجدت IT House أن محتوى التقييم ذي الصلة يدور بشكل أساسي حول "حقوق الطبع والنشر لمجموعة بيانات التدريب النموذجية" ، "موارد الحوسبة المستخدمة لتدريب النموذج" ، "مصداقية المحتوى الذي تم إنشاؤه بواسطة النموذج" ، "قدرة النموذج نفسه" ، "خطر حث النموذج على إنشاء محتوى ضار" ، "خصوصية المستخدمين الذين يستخدمون النموذج" ، وما إلى ذلك ، ما مجموعه 100 عنصر.

أظهر الاستطلاع النهائي أن Lama 2 من Meta تصدرت الشفافية بنسبة 54٪ ، في حين أن شفافية GPT-4 من OpenAI كانت 48٪ فقط ، واحتلت PaLM 2 من Google المرتبة الخامسة بنسبة 40٪.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت