KLCII: La familia Aquila de modelos de lenguaje grande de Aquila se ha actualizado por completo con la adición de 34 mil millones de parámetros Aquila2-34B
El 12 de octubre, KLCII anunció que la serie de modelos de lenguaje grande Aquila Aquila se ha actualizado completamente a Aquila2, y se ha agregado el parámetro de 34 mil millones Aquila2-34B. Se informa que el nuevo modelo se desempeña bien en inferencia y generalización, y ha logrado una serie de logros en escenarios como agentes, generación de código y recuperación de literatura.
Al mismo tiempo, KLCII también lanzó un bucket de la familia de código abierto, que incluye la serie de modelos Aquila2, una nueva versión del modelo vectorial semántico BGE, el marco de entrenamiento paralelo eficiente FlagScale y el subconjunto de cálculo de atención de alto rendimiento FlagAttention. Estos proyectos de código abierto fomentarán la innovación colaborativa en la investigación de grandes modelos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
KLCII: La familia Aquila de modelos de lenguaje grande de Aquila se ha actualizado por completo con la adición de 34 mil millones de parámetros Aquila2-34B
El 12 de octubre, KLCII anunció que la serie de modelos de lenguaje grande Aquila Aquila se ha actualizado completamente a Aquila2, y se ha agregado el parámetro de 34 mil millones Aquila2-34B. Se informa que el nuevo modelo se desempeña bien en inferencia y generalización, y ha logrado una serie de logros en escenarios como agentes, generación de código y recuperación de literatura.
Al mismo tiempo, KLCII también lanzó un bucket de la familia de código abierto, que incluye la serie de modelos Aquila2, una nueva versión del modelo vectorial semántico BGE, el marco de entrenamiento paralelo eficiente FlagScale y el subconjunto de cálculo de atención de alto rendimiento FlagAttention. Estos proyectos de código abierto fomentarán la innovación colaborativa en la investigación de grandes modelos.