A ambição da Nvidia: "IA nativa" subverte completamente o data center

Fonte da imagem: Gerada por Unbounded AI

Fonte: Wall Street News

Autor: Zhao Ying

O CEO da Nvidia, Jensen Huang, disse isso em uma coletiva de imprensa na terça-feira. Ontem, a Nvidia lançou uma nova geração da plataforma de superchip GH200 Grace Hopper, especialmente projetada para a era da computação acelerada e IA generativa.

Huang Renxun apontou que, para atender à crescente demanda de IA generativa, os data centers precisam ter plataformas de computação aceleradas para necessidades especiais. A nova plataforma de chip GH200 oferece tecnologia de memória e largura de banda superiores, a capacidade de conectar GPUs para agregar desempenho sem perda e possui um design de servidor que pode ser facilmente implantado em um data center. **

Vale a pena mencionar que a chegada da onda de modelos em grande escala gerou vários aplicativos nativos de IA, levando a um aumento na demanda por poder de computação.O mercado de data center dedicado a aplicativos de inteligência artificial com uso intensivo de dados está emergindo rapidamente.

O data center introduz novas mudanças

Os analistas observam que, à medida que os provedores de computação em nuvem estabelecidos correm para modernizar data centers com chips avançados e outras atualizações para atender às demandas de software de inteligência artificial, alguns construtores novatos veem uma oportunidade de construir novas instalações do zero.

Um data center é semelhante a um grande armazém, equipado com vários racks de servidores, redes e equipamentos de armazenamento para armazenamento e processamento de dados. Em comparação com os datacenters tradicionais, os datacenters AI têm mais servidores usando chips de alto desempenho, portanto, o consumo médio de energia por rack de servidores de datacenter AI pode chegar a 50 kilowatts ou mais, enquanto cada rack de datacenters tradicionais O consumo de energia é de cerca de 7 kW.

Isso significa que o data center de IA precisa construir mais infraestrutura que possa fornecer maior potência. Como o consumo adicional de energia gerará mais calor, o data center de IA também precisa de outros métodos de resfriamento, como resfriamento líquido sistemas, para proteger o dispositivo de superaquecimento.

Manju Naglapur, vice-presidente sênior da empresa de serviços e consultoria Unisys, observou:

**Datacenters de IA específicos podem abrigar servidores que utilizam chips de IA, como GPUs da Nvidia, permitindo que vários cálculos sejam executados simultaneamente enquanto os aplicativos de IA vasculham vastos armazenamentos de dados. ** Esses data centers também são equipados com redes de fibra ótica e dispositivos de armazenamento mais eficientes para suportar modelos de inteligência artificial em larga escala.

Os data centers de IA são edifícios altamente especializados que exigem um grande investimento de dinheiro e tempo. De acordo com dados da empresa de pesquisa Data Bridge Market Research, até 2029, os gastos com o mercado global de infraestrutura de inteligência artificial devem chegar a US$ 422,55 bilhões, com uma taxa composta de crescimento anual de 44% nos próximos seis anos.

O executivo-chefe do DataBank, Raul Martynek, disse que o ritmo da implantação da IA provavelmente levará a uma escassez de capacidade do data center nos próximos 12 a 24 meses.

Novato em computação de IA recebe US$ 2,3 bilhões em financiamento

Atualmente, vários gigantes estão apostando em data centers de IA, e o "benchmark imobiliário" Blackstone vende casas e muda para data centers de IA. A Meta também disse que construirá um novo data center de IA.

Conforme mencionado no artigo anterior, a CoreWeave, uma novata no poder de computação de IA, tomou um empréstimo hipotecário da Nvidia H100 e obteve um financiamento de dívida de 2,3 bilhões de dólares americanos (cerca de 16,5 bilhões de yuans).

**CoreWeave disse que os recursos serão usados para acelerar a construção de data centers de inteligência artificial, outro financiamento depois que a empresa recebeu US$ 221 milhões em abril deste ano e US$ 200 milhões em maio. Fundada há seis anos, a CoreWeave já possui sete centros de dados de IA online e espera dobrar isso até o final deste ano.

A CoreWeave está trabalhando com a Nvidia e a Inflection AI para construir um cluster de servidores AI supergrande, com o objetivo de rodar 22.000 Nvidia H100s. **Se concluído, ele se tornará o maior cluster de servidores AI do mundo. **

Vale ressaltar que, de acordo com o site oficial da CoreWeave, seus serviços são 80% mais baratos do que os fornecedores tradicionais de computação em nuvem. O mais recente servidor HGX H100 da Nvidia, que contém 8 H100s com 80G de memória de vídeo e 1T de memória, custa a partir de apenas US$ 2,23 por hora (16 RMB). **

Em comparação com a plataforma da geração anterior, a configuração dual-chip da nova plataforma GH200 Grace Hopper aumenta a capacidade de memória em 3,5 vezes e a largura de banda em três vezes. Um servidor possui 144 núcleos de alto desempenho Arm Neoverse, 8 petaflops de desempenho AI e o mais recente HBM3e de tecnologia de memória de 282 GB.

Não é de admirar que, nesta era de explosão do LLM, Huang Renxun ainda tenha dito com ousadia "quanto mais você compra, mais você economiza"!

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)