وفقا لتقرير IT House في 20 أكتوبر ، أصدرت جامعة ستانفورد مؤخرا النموذج الأساسي الذكاء الاصطناعي "مؤشر الشفافية" ، والذي يعد أعلى مؤشر منه هو Meta's Lama 2 ، لكن "الشفافية" ذات الصلة هي 54٪ فقط ، لذلك يعتقد الباحثون أن جميع نماذج الذكاء الاصطناعي تقريبا في السوق "تفتقر إلى الشفافية".
يذكر أن البحث قاده ريشي بوماساني ، رئيس مركز أبحاث النموذج الأساسي HAI (CRFM) ، وحقق في أكثر 10 نماذج أساسية شعبية في الخارج. يعتقد ريشي بوماساني أن "الافتقار إلى الشفافية" كان دائما مشكلة تواجهها صناعة الذكاء الاصطناعي ، وفيما يتعلق بنموذج محدد "مؤشرات الشفافية" ، وجدت IT House أن محتوى التقييم ذي الصلة يدور بشكل أساسي حول "حقوق الطبع والنشر لمجموعة بيانات التدريب النموذجية" ، "موارد الحوسبة المستخدمة لتدريب النموذج" ، "مصداقية المحتوى الذي تم إنشاؤه بواسطة النموذج" ، "قدرة النموذج نفسه" ، "خطر حث النموذج على إنشاء محتوى ضار" ، "خصوصية المستخدمين الذين يستخدمون النموذج" ، وما إلى ذلك ، ما مجموعه 100 عنصر.
أظهر الاستطلاع النهائي أن Lama 2 من Meta تصدرت الشفافية بنسبة 54٪ ، في حين أن شفافية GPT-4 من OpenAI كانت 48٪ فقط ، واحتلت PaLM 2 من Google المرتبة الخامسة بنسبة 40٪.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
أصدرت جامعة ستانفورد نموذجا قائما على الذكاء الاصطناعي "مؤشر الشفافية" ، يتصدر اللاما 2 لكنه "يفشل" بنسبة 54٪
وفقا لتقرير IT House في 20 أكتوبر ، أصدرت جامعة ستانفورد مؤخرا النموذج الأساسي الذكاء الاصطناعي "مؤشر الشفافية" ، والذي يعد أعلى مؤشر منه هو Meta's Lama 2 ، لكن "الشفافية" ذات الصلة هي 54٪ فقط ، لذلك يعتقد الباحثون أن جميع نماذج الذكاء الاصطناعي تقريبا في السوق "تفتقر إلى الشفافية".
يذكر أن البحث قاده ريشي بوماساني ، رئيس مركز أبحاث النموذج الأساسي HAI (CRFM) ، وحقق في أكثر 10 نماذج أساسية شعبية في الخارج. يعتقد ريشي بوماساني أن "الافتقار إلى الشفافية" كان دائما مشكلة تواجهها صناعة الذكاء الاصطناعي ، وفيما يتعلق بنموذج محدد "مؤشرات الشفافية" ، وجدت IT House أن محتوى التقييم ذي الصلة يدور بشكل أساسي حول "حقوق الطبع والنشر لمجموعة بيانات التدريب النموذجية" ، "موارد الحوسبة المستخدمة لتدريب النموذج" ، "مصداقية المحتوى الذي تم إنشاؤه بواسطة النموذج" ، "قدرة النموذج نفسه" ، "خطر حث النموذج على إنشاء محتوى ضار" ، "خصوصية المستخدمين الذين يستخدمون النموذج" ، وما إلى ذلك ، ما مجموعه 100 عنصر.
أظهر الاستطلاع النهائي أن Lama 2 من Meta تصدرت الشفافية بنسبة 54٪ ، في حين أن شفافية GPT-4 من OpenAI كانت 48٪ فقط ، واحتلت PaLM 2 من Google المرتبة الخامسة بنسبة 40٪.