Google Open Source Gemma-3: Comparable to DeepSeek, Computing Power Plummets

robot
Geração de resumo em curso

Os dados do Jinsan em 13 de março, à noite, Sundar Pichai, CEO da Google (GOOG.O), anunciou que o mais recente modelo grande multimodal, Gemma-3, de Código aberto, é caracterizado por baixo custo e alta performance. Gemma-3 tem quatro conjuntos de parâmetros: 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões. Mas mesmo com o maior conjunto de 27 bilhões de parâmetros, apenas um H100 é necessário para inferência eficiente, sendo o modelo de pequenos parâmetros mais poderoso atualmente, exigindo pelo menos 10 vezes menos Poder de computação para alcançar o mesmo efeito que modelos semelhantes. De acordo com dados de testes cegos da LMSYS ChatbotArena, o Gemma-3 fica em segundo lugar, atrás apenas do R1-671B da DeepSeek, e à frente de modelos conhecidos como o o3-mini da OpenAI e o Llama3-405B.

Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)