10月12日、KLCIIは、Aquila Aquila大規模言語モデルシリーズがAquila2に完全にアップグレードされ、340億パラメータのAquila2-34Bが追加されたと発表しました。 新しいモデルは、推論と汎化において優れたパフォーマンスを発揮し、エージェント、コード生成、文献検索などのシナリオで一連の成果を達成したと報告されています。同時に、KLCIIは、Aquila2モデルシリーズ、セマンティックベクトルモデルBGEの新しいバージョン、FlagScale効率的な並列トレーニングフレームワーク、およびFlagAttention高性能注意計算サブセットを含むオープンソースファミリーバケットもリリースしました。 これらのオープンソースプロジェクトは、大規模モデル研究における共同イノベーションを促進します。
KLCII: Aquila 大規模言語モデルの Aquila ファミリーは、340 億個のパラメータ Aquila2-34B を追加して完全にアップグレードされました
10月12日、KLCIIは、Aquila Aquila大規模言語モデルシリーズがAquila2に完全にアップグレードされ、340億パラメータのAquila2-34Bが追加されたと発表しました。 新しいモデルは、推論と汎化において優れたパフォーマンスを発揮し、エージェント、コード生成、文献検索などのシナリオで一連の成果を達成したと報告されています。
同時に、KLCIIは、Aquila2モデルシリーズ、セマンティックベクトルモデルBGEの新しいバージョン、FlagScale効率的な並列トレーニングフレームワーク、およびFlagAttention高性能注意計算サブセットを含むオープンソースファミリーバケットもリリースしました。 これらのオープンソースプロジェクトは、大規模モデル研究における共同イノベーションを促進します。