في 13 مارس، أعلن الرئيس التنفيذي لشركة غوغل (GOOG.O)، سوندار بيشاي، عن Gemma-3، أحدث نموذج متعدد الأوضاع مفتوح المصدر الذي يهدف إلى توفير أداء عالي بتكلفة منخفضة. يحتوي Gemma-3 على أربعة مجموعات من المعلمات: 1 مليار، 4 مليار، 12 مليار و 27 مليار. وحتى مع أكبر عدد من المعلمات وهو 27 مليار، يمكن لجهاز H100 القيام بالاستدلال بكفاءة عالية، حيث يتطلب الوصول إلى هذا الأداء على الأقل زيادة بمقدار 10 أضعاف في قوة الحوسبة مقارنة بالنماذج المماثلة، وهو أقوى نموذج بمعلمات صغيرة حتى الآن. ووفقًا لبيانات اختبار الأداء التي أُجريت بشكل عميق من ChatbotArena للنماذج الشهيرة، يظهر أن Gemma-3 يأتي في المرتبة الثانية بعد R1-671B من DeepSeek ويتفوق على o3-mini من OpenAI و Llama3-405B.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
جوجل مفتوح المصدر GEM Gemma-3: يقارن بـ DeepSeek ، قوة الحوسبة تنخفض بشكل كبير
في 13 مارس، أعلن الرئيس التنفيذي لشركة غوغل (GOOG.O)، سوندار بيشاي، عن Gemma-3، أحدث نموذج متعدد الأوضاع مفتوح المصدر الذي يهدف إلى توفير أداء عالي بتكلفة منخفضة. يحتوي Gemma-3 على أربعة مجموعات من المعلمات: 1 مليار، 4 مليار، 12 مليار و 27 مليار. وحتى مع أكبر عدد من المعلمات وهو 27 مليار، يمكن لجهاز H100 القيام بالاستدلال بكفاءة عالية، حيث يتطلب الوصول إلى هذا الأداء على الأقل زيادة بمقدار 10 أضعاف في قوة الحوسبة مقارنة بالنماذج المماثلة، وهو أقوى نموذج بمعلمات صغيرة حتى الآن. ووفقًا لبيانات اختبار الأداء التي أُجريت بشكل عميق من ChatbotArena للنماذج الشهيرة، يظهر أن Gemma-3 يأتي في المرتبة الثانية بعد R1-671B من DeepSeek ويتفوق على o3-mini من OpenAI و Llama3-405B.