El 13 de marzo, Jinshi Data informó que anoche, Sundar Pichai, CEO de Google (GOOG.O), anunció el último modelo grande multimodal GEM Gemma-3 de código abierto, que se centra en un rendimiento alto a bajo costo. Gemma-3 tiene cuatro configuraciones de parámetros: 1 mil millones, 4 mil millones, 12 mil millones y 27 mil millones. Incluso con los 27 mil millones de parámetros más grandes, solo se necesita una H100 para inferir de manera eficiente, lo que requiere al menos diez veces menos potencia computacional que modelos similares y es el modelo de menor parámetro más poderoso actualmente. Según los datos de LMSYS ChatbotArena, Gemma-3 está justo detrás de DeepSeek's R1-671B, por encima de o3-mini de OpenAI, Llama3-405B y otros modelos conocidos.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Google GEM Open Source Gemma-3: Comparable to DeepSeek, computational power drastically reduced
El 13 de marzo, Jinshi Data informó que anoche, Sundar Pichai, CEO de Google (GOOG.O), anunció el último modelo grande multimodal GEM Gemma-3 de código abierto, que se centra en un rendimiento alto a bajo costo. Gemma-3 tiene cuatro configuraciones de parámetros: 1 mil millones, 4 mil millones, 12 mil millones y 27 mil millones. Incluso con los 27 mil millones de parámetros más grandes, solo se necesita una H100 para inferir de manera eficiente, lo que requiere al menos diez veces menos potencia computacional que modelos similares y es el modelo de menor parámetro más poderoso actualmente. Según los datos de LMSYS ChatbotArena, Gemma-3 está justo detrás de DeepSeek's R1-671B, por encima de o3-mini de OpenAI, Llama3-405B y otros modelos conocidos.