في 12 أكتوبر, أعلنت KLCII أن سلسلة نماذج اللغة الكبيرة Aquila Aquila قد تمت ترقيتها بالكامل إلى Aquila2, وأضيفت 34 مليار معلمة Aquila2-34B. يذكر أن النموذج الجديد يعمل بشكل جيد في الاستدلال والتعميم ، وقد حقق سلسلة من الإنجازات في سيناريوهات مثل الوكلاء ، وتوليد التعليمات البرمجية ، واسترجاع الأدبيات.
في الوقت نفسه ، أصدرت KLCII أيضا دلو عائلة مفتوح المصدر ، بما في ذلك سلسلة طرازات Aquila2 ، وإصدار جديد من نموذج المتجه الدلالي BGE ، وإطار التدريب المتوازي الفعال FlagScale ، والمجموعة الفرعية لحساب الانتباه عالي الأداء FlagAttention. ستعزز هذه المشاريع مفتوحة المصدر الابتكار التعاوني في أبحاث النماذج الكبيرة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
KLCII: تمت ترقية عائلة أكويلا من نماذج اللغة الكبيرة Aquila بالكامل بإضافة 34 مليار معلمة Aquila2-34B
في 12 أكتوبر, أعلنت KLCII أن سلسلة نماذج اللغة الكبيرة Aquila Aquila قد تمت ترقيتها بالكامل إلى Aquila2, وأضيفت 34 مليار معلمة Aquila2-34B. يذكر أن النموذج الجديد يعمل بشكل جيد في الاستدلال والتعميم ، وقد حقق سلسلة من الإنجازات في سيناريوهات مثل الوكلاء ، وتوليد التعليمات البرمجية ، واسترجاع الأدبيات.
في الوقت نفسه ، أصدرت KLCII أيضا دلو عائلة مفتوح المصدر ، بما في ذلك سلسلة طرازات Aquila2 ، وإصدار جديد من نموذج المتجه الدلالي BGE ، وإطار التدريب المتوازي الفعال FlagScale ، والمجموعة الفرعية لحساب الانتباه عالي الأداء FlagAttention. ستعزز هذه المشاريع مفتوحة المصدر الابتكار التعاوني في أبحاث النماذج الكبيرة.