Nvidia e gigantes da nuvem devem ter uma batalha

Autor: Zhao Jian

Fonte: Jiazi Guangnian

Fonte da imagem: Gerada por Unbounded AI

"Corra para comer, ou corra para não ser comido pelos outros. Em ambos os casos, continue correndo."

Esta é a mensagem do CEO da Nvidia, Huang Renxun, aos graduados em seu discurso na National Taiwan University este ano. Claro, também é uma interpretação da mentalidade desse império de capitalização de mercado de trilhões de dólares criado por Huang Renxun.

Em 2023, a Nvidia em fuga encontrou IA generativa, que Huang Renxun chamou de "momento do iPhone da IA" muitas vezes. Neste momento, Huang Renxun voltou sua atenção para uma oportunidade de se tornar o caçador em vez da presa - Yun.

Parece que a Nvidia não deveria ter motivação para fazer nuvem, não apenas porque os provedores de serviços em nuvem são clientes importantes da Nvidia e compram bilhões de dólares em GPUs da Nvidia todos os anos, mas também porque esse assunto parece não ter chance de ganhar.

O mercado atual de computação em nuvem é firmemente controlado pelos três gigantes da nuvem Amazon AWS, Microsoft Azure e Google Cloud. Segundo dados do Statista, em 2022 a participação de mercado da AWS será de 32%, a do Azure será de 23% e a do Google Cloud será de 10% A participação de mercado combinada das três empresas chegará a 65%.

Não é que não tenhamos visto um desafiante. Nos últimos dez anos, empresas conhecidas, como VMware, Dell e Hewlett-Packard, todas quiseram obter uma fatia do mercado de computação em nuvem, mas todas falharam sem exceção.

No entanto, assim como toda revolução tecnológica produz novos formadores de opinião, nessa onda de IA generativa, a fabricante de chips Nvidia começou a testar o mercado de computação em nuvem passo a passo:

**Na primeira etapa, na conferência GTC em 21 de março deste ano, a NVIDIA lançou o DGX Cloud. **Como pode ser visto pelo nome, este é um produto em nuvem. Os clientes podem obter diretamente os produtos e serviços de IA da Nvidia na nuvem ou em data centers locais, alugando-os mensalmente;

**O segundo passo é investir nos concorrentes das três gigantes da nuvem. **A Nvidia investiu sucessivamente na CoreWeave e na Lambda Labs, dois provedores de serviços de nuvem de pequeno e médio porte nos Estados Unidos, e alocou chips de GPU escassos para eles. Quão exagerada é essa "preferência"? No momento em que os núcleos de GPU são difíceis de encontrar, a CoreWeave conseguiu obter US$ 2,3 bilhões em financiamento de dívidas ao hipotecar suas abundantes GPUs, especialmente o H100.

Embora esteja apenas começando, o layout do negócio de nuvem representa o contra-ataque da Nvidia contra os gigantes da nuvem.

Como todos sabemos, Google, Amazon e Microsoft lançaram sucessivamente projetos de chips de IA autodesenvolvidos internamente - a série TPU do Google, as séries Inferentia e Trainium da Amazon e o chip Athena da Microsoft que foi exposto este ano. Os três gigantes da nuvem têm recursos e motivação suficientes para autodesenvolver chips de IA para reduzir a "taxa de GPU" da Nvidia.

A Nvidia está bem ciente disso. Huang Renxun disse sem rodeios na teleconferência do relatório de lucros do último trimestre que "estamos prestando atenção à concorrência e sempre tivemos concorrência".

Huang Renxun não pode impedir a expansão dos três principais provedores de serviços em nuvem, mas talvez a melhor defesa seja o ataque, e o método de contra-ataque da Nvidia é ir diretamente para a nuvem.

Com os dois trunfos de A100 e H100 em mãos por um longo período de tempo, esses dois chips são a melhor escolha para treinamento e raciocínio de modelos em grande escala, e nenhum deles, a Nvidia tem a oportunidade de se tornar um verdadeiro líder em o mercado de computação em nuvem. operador de bastidores.

Uma batalha aberta e secreta em torno de chips e computação em nuvem está se desenrolando lentamente entre os quatro gigantes da tecnologia com as cinco maiores capitalizações de mercado global.

1. Quase caiu antes do amanhecer

Aqueles que estão familiarizados com a Nvidia saberão como a Nvidia é bonita hoje e como a Nvidia era miserável no ano passado.

Os principais negócios da Nvidia incluem data centers, jogos, visualização profissional e automóveis. No segundo trimestre de 2020, os negócios de data center da Nvidia superaram os jogos pela primeira vez, tornando-se a maior fonte de receita da Nvidia.

Na reunião do relatório financeiro do quarto trimestre de 2022 (correspondente ao ano natural de novembro de 2021 a janeiro de 2022), a Nvidia apresentou um sólido relatório financeiro do quarto trimestre e seus negócios de data center aumentaram 71% ano a ano. Huang Renxun disse com otimismo na época: "A plataforma de computação da Nvidia inaugurou uma demanda extraordinária do mercado." No entanto, uma semana depois, o conflito entre a Rússia e a Ucrânia estourou, interrompendo a cadeia de suprimentos das principais matérias-primas. Juntamente com o impacto da epidemia, a taxa de crescimento dos negócios de data center da Nvidia continuará desacelerando ao longo de 2022.

No relatório financeiro do quarto trimestre de 2023 divulgado em fevereiro deste ano, a taxa de crescimento dos data centers da NVIDIA foi de apenas 11%, uma baixa recorde e a primeira vez desde 2020 que a cadeia caiu.

Em 2022, o preço das ações da Nvidia também cairá pela metade. Claro, voltou a subir hoje, e o nascimento do ChatGPT salvou a Nvidia.

Observação: a Nvidia divulgará seu relatório financeiro do segundo trimestre de 2024 na quarta-feira (23 de agosto), correspondente a maio-julho de 2023.

Entre as muitas razões para a queda no crescimento dos negócios, a redução da demanda dos principais clientes é a mais vigilante. No relatório financeiro do quarto trimestre de 2023, a CFO da Nvidia, Colette Kress, anunciou um número: cerca de 40% dos 15 bilhões de dólares americanos em receita do setor de data centers no ano fiscal de 2023 (cerca de 6 bilhões de dólares americanos) vêm de data centers de hiperescala e serviços de nuvem fornecedores.

Mas se você olhar apenas para o quarto trimestre, é apenas um quarto. Construtores de data centers de hiperescala e provedores de serviços em nuvem estão reduzindo drasticamente os gastos com GPU.

Além do declínio objetivo na demanda, o plano de chip de IA autodesenvolvido dos três gigantes da nuvem está corroendo a participação de mercado da GPU NVIDIA pouco a pouco.

O Google lançou o chip de IA autodesenvolvido de primeira geração TPU em 2016 e, cinco anos depois, em 19 de maio de 2021, lançou o TPU de quarta geração v4. Em um relatório de pesquisa publicado este ano, o Google disse que juntou 4.000 TPU v4s para construir um supercomputador que funcionou 1,7 vezes mais rápido e com mais eficiência do que uma máquina equivalente alimentada por uma GPU Nvidia A100, 1,9 vezes mais.

A Amazon também tem uma tradição de chips autodesenvolvidos, não apenas para a Nvidia, mas para todos os fabricantes de chips. Atualmente, a Amazon lançou quatro séries de chips autodesenvolvidos - chip de rede série Nitro, chip de servidor série Graviton, chip de raciocínio AI série Inferentia, chip de treinamento AI Trainium. Entre eles, os dois últimos chips de IA competem com as GPUs da NVIDIA.

Apesar de sua entrada tardia, a Microsoft "chegou atrasada". Em 18 de abril deste ano, de acordo com o The Information, desde 2019, a Microsoft desenvolve secretamente chips de IA, com o codinome interno "Athena" (Athena), centenas de funcionários estão trabalhando no projeto Athena, a Microsoft investiu cerca de 2 bilhões de dólares . Alguns funcionários da Microsoft e da OpenAI conseguiram chips para testar o desempenho nos modelos de linguagem grandes mais recentes, como o GPT-4.

Os provedores de serviços em nuvem precisam pagar uma grande quantia de "taxa da Nvidia" todos os anos pela compra de GPUs, especialmente após o surto de IA generativa.

Em fevereiro deste ano, a New Street Research fez uma estimativa: o mecanismo de busca Bing baseado no ChatGPT precisa de 8 GPUs para responder às perguntas dos usuários em um segundo. Nesse ritmo, a Microsoft precisaria de mais de 20.000 servidores com 8 GPUs para implantar os modelos no Bing para todos os usuários, o que custaria US$ 4 bilhões à Microsoft. Na escala do Google, que lida com 8 a 9 bilhões de consultas por dia, custaria US$ 80 bilhões.

Os chips de IA autodesenvolvidos dos provedores de serviços em nuvem não serão vendidos externamente e não competirão diretamente com a Nvidia. No entanto, ao implantar chips autodesenvolvidos em vez de GPUs em data centers, os custos podem ser efetivamente cortados. Por exemplo, o Google implantou centenas de supercomputadores TPU v4 em seu serviço de nuvem.

Os três principais provedores de serviços em nuvem têm recursos e motivação suficientes para desenvolver seus próprios chips, o que é visto como uma brecha no império da Nvidia. A Nvidia está bem ciente disso, mas parece não haver maneira melhor.

Até o surgimento do ChatGPT, a Nvidia, que vinha sendo pressionada passo a passo pelos provedores de serviços em nuvem, via um ponto de ruptura para o contra-ataque. Como os provedores de serviços em nuvem podem fazer chips, a Nvidia não pode fazer nuvens na era da IA?

**2. A Nvidia tem chance de fazer nuvem? **

A Nvidia é atualmente a maior beneficiária da revolução generativa da IA, e Huang Renxun sempre falou sobre o "momento do iPhone da IA" este ano. A demanda explosiva por IA generativa tornou a GPU uma moeda forte. Algumas pessoas simplesmente dizem que "a GPU é o novo dólar".

Da GPU para a nuvem, a Nvidia realmente tem uma chance?

O treinamento e o raciocínio da IA generativa são realizados principalmente na nuvem, e os provedores de serviços em nuvem que fornecem infraestrutura de IA serão um dos maiores beneficiários da onda de IA generativa. De acordo com dados estimados pela empresa de capital de risco A16Z do Vale do Silício, 10% a 20% da receita total gerada pela IA generativa eventualmente flui para provedores de serviços em nuvem.

No entanto, esse processo não será rápido. O CEO da Amazon, Andy Jassy, disse na teleconferência de resultados do segundo trimestre de 2023: "A IA generativa sem dúvida mudará a experiência de quase todos os clientes. Mas ainda é muito cedo e a maioria das empresas ainda está considerando como atingir esse objetivo. fase muito inicial."

A essência dos serviços em nuvem é virtualizar os recursos de hardware no data center e depois alugá-los ao mercado. Quase 100% dos servidores em centros de dados tradicionais são construídos com base em CPUs Intel e AMD. A CPU é como um "generalista com o cérebro mais forte", que fornece recursos de "computação geral" - sistemas operacionais de processamento, software de sistema e O programa aplicativo tem tarefas de programa, como escalonamento de instruções complexas, looping, ramificação, julgamento lógico e execução.

Mas as CPUs não são boas em processamento de dados em larga escala e computação paralela, que é o que a inteligência artificial precisa e as GPUs da Nvidia são boas. A GPU é como um "especialista em computação violenta", especializado em processamento de imagem, aprendizado profundo e treinamento, raciocínio e outras tarefas atuais de modelos grandes. Huang Renxun chamou essa capacidade de computação massivamente paralela de "computação acelerada".

Em 2012, Jeff Hinton, o pai do aprendizado profundo, e seus aprendizes tentaram treinar o modelo de rede neural convolucional AlexNet na GPU NVIDIA pela primeira vez e venceram a competição de reconhecimento de imagem de uma só vez. Esse incidente deu origem à explosão do aprendizado profundo nos dez anos seguintes.Toda a indústria de inteligência artificial, incluindo a própria Nvidia, percebeu o potencial da GPU para computação acelerada.

As engrenagens da sorte da Nvidia começaram a girar. Desde então, Huang Renxun gritou "A Lei de Moore está morta" em muitas ocasiões. Ele acredita que a era da expansão da CPU acabou, assim como o aumento de dez vezes no desempenho com o mesmo custo a cada cinco anos. Ele será substituído pela GPU, e Huang Renxun inventou especialmente uma "Lei de Huang" - a GPU promoverá o desempenho da IA para dobrar ano a ano.

Durante os dez anos de 2012 a 2022, podemos chamá-lo de computação acelerada de 0 a 1, e a inteligência artificial pousou em setores e cenários específicos, como reconhecimento de imagem. No entanto, a demanda por IA neste período ainda não é grande o suficiente. A empresa de pesquisa Aletheia prevê que a taxa atual de penetração no mercado de servidores de IA é inferior a 5%. Isso está longe de ser suficiente para realizar o sonho de Huang Renxun de computação acelerada.

Até o nascimento do ChatGPT em novembro de 2022, o "momento AI iPhone" apareceu. Isso pode ser visto como o início da expansão da computação acelerada de 1 a 10.

Receita de IA generativa (imagem via Bloomberg)

Huang Renxun acredita que a combinação de computação acelerada e IA generativa mudará os métodos de computação nos últimos 60 anos. À medida que as empresas correm para aplicar IA generativa a todos os produtos, serviços e processos de negócios, a infraestrutura de data center global de trilhões de dólares fará a transição da computação de uso geral para a computação acelerada, e a reinvenção resultante do data center certamente criará grandes oportunidades de mercado.

Na teleconferência de resultados do último trimestre, Huang Renxun prometeu: "Estamos no primeiro ano de uma década de inteligência de data center."

Huang Renxun disse que a computação acelerada é um desafio de pilha completa. Ela deve integrar todos os softwares, todas as bibliotecas de estrutura e todos os algoritmos de engenharia. Essas tarefas não são apenas para um chip, mas para todo o data center. Um data center é um supercomputador. Para obter o melhor desempenho, é necessário otimizar toda a pilha de sistemas operacionais de rede, mecanismos de computação distribuída, dispositivos de rede, switches e arquiteturas de computação.

Por exemplo, o data center de computação geral usa principalmente Ethernet para conectar todos os servidores sem transmissão de dados em grande escala; o data center de computação acelerada proposto pela Nvidia usa uma tecnologia chamada Infinite Band para conexão, que possui uma taxa de transferência de dados extremamente alta.

A otimização sistemática também permite que os data centers de computação acelerada tenham maior eficiência e custos mais baixos do que os data centers tradicionais.

Huang Renxun levantou uma questão na SIGGRAPH, a conferência anual de computação gráfica realizada em agosto deste ano: "O que posso comprar por US$ 100 milhões?" Huang Renxun se perguntou e respondeu: "No passado, US$ 100 milhões podiam comprar um data center composto por 8.800 x86 CPUs. , o consumo de energia é de 5 MW; hoje, 100 milhões de dólares americanos podem comprar um data center Iso-Budget composto por 2500 GH200, o consumo de energia é de 3 MW, o desempenho do raciocínio AI é 12 vezes maior que os dados da CPU centro mencionado acima, e a eficiência energética é de 20 vezes."

Sob o mesmo desempenho de raciocínio de IA, o custo de um data center de GPU é apenas 1/12 do custo de um data center de CPU. “Quanto mais você compra, mais você economiza.” Este é o manifesto de Huang Renxun para seu Centro de Dados de Computação Acelerada.

Até agora, a Nvidia construiu cinco data centers e ajudou clientes em todo o mundo a construir seus próprios data centers. Além disso, pode levar meses ou até um ano para um data center tradicional ir da entrega à operação, mas na Nvidia. Este tempo é em semanas. "A experiência da equipe nesta área é notável", disse Huang.

Para os três gigantes da nuvem, a transição de data centers de computação de uso geral para data centers de computação acelerada não será rápida. Não se trata apenas de tecnologia e capacidades, mas também da tomada de decisão e dos processos dessas empresas gigantes.

Isso dá à Nvidia a oportunidade de fazer nuvem. Dar um passo à frente do data center para a nuvem é algo natural, e a Nvidia já está tentando fazer isso.

3. Escuridão Chencang

No relatório financeiro do quarto trimestre de 2023 com a menor taxa de crescimento do negócio de data center, a Nvidia também anunciou um novo produto - DGX Cloud. Na conferência GTC um mês depois, o DGX Cloud foi lançado oficialmente.

Como pode ser visto pelo nome, este é um produto de serviço em nuvem. A Nvidia vai entrar no mercado de computação em nuvem?

Vamos primeiro ver o que é DGX. DGX é o primeiro supercomputador lançado pela Nvidia em 2017, que Huang Renxun chamou de "um data center em um chassi".

O DGX de primeira geração integrou 8 GPUs (Tesla P100) e 4 unidades de estado sólido e usou a tecnologia de conexão NVIDIA NVlink. Em termos de treinamento de aprendizado profundo, o desempenho de um único DGX é equivalente a 250 servidores x86 comuns. Claro, também é caro, custando $ 129.000 por uma única unidade.

Após a reunião, Huang Renxun apresentou o primeiro DGX-1 a Elon Musk. Musk é o co-fundador da OpenAI. OpenAI começou a partir deste supercomputador e construiu o ChatGPT de hoje passo a passo.

Hoje, o supercomputador DGX foi desenvolvido para a quinta geração.As primeiras quatro gerações são DGX P100, DGX A100, DGX H100 e a mais recente DGX GH200.

O DGX Cloud lançado pela Nvidia é a versão em nuvem do supercomputador lançado anteriormente.Uma instância DGX Cloud (um computador virtual em um servidor em nuvem) é configurada com 8 A100 ou H100.

No entanto, o preço do DGX Cloud não é barato, $ 36.999 por mês, cerca de 264.000 RMB. Como comparação, a instância do Microsoft Azure ND96asr com 8 A100s e suas especificações equivalentes custam US$ 19.854 por mês, o que é apenas metade do DGX Cloud.

Por que a Nvidia se atreve a definir um preço tão alto? A resposta é que o DGX Cloud é uma solução pronta para uso que integra software e hardware. **A Nvidia não se anuncia mais como uma empresa de chips GPU, mas se posiciona como uma empresa de plataforma de computação. **

Além dos recursos de hardware, a DGX Cloud também lançou duas plataformas de software de suporte: a NVIDIA AI Foundations, que ajuda as empresas a criar modelos personalizados, incluindo linguagem, visão e modelos biomédicos; a outra é a NVIDIA AI Enterprise, que contém 4.000 modelos diferentes. Uma estrutura de IA que ajuda as empresas a usá-la imediatamente. Os produtos de IA da Nvidia são semelhantes ao MaaS lançado por provedores domésticos de serviços em nuvem, como o Alibaba Cloud.

Huang está otimista com esses novos fluxos de receita de software e espera que a receita no espaço de IA generativa cresça de uma parcela de "um dígito" da receita total da empresa para uma parcela "substancial" no próximo ano. "Estamos entusiasmados com a expansão do novo modelo de negócios", disse Huang Renxun.

O lançamento do DGX Cloud formou objetivamente uma certa relação competitiva com os provedores de serviços em nuvem, mas a Nvidia ainda deseja continuar a manter uma estreita cooperação com os provedores de serviços em nuvem. Atualmente, a Nvidia não constrói uma infraestrutura de nuvem completa do zero, mas hospeda a DGX Cloud nas plataformas de nuvem de vários provedores de serviços de nuvem.

A Nvidia vende instalações básicas de hardware para fornecedores de nuvem, depois compra recursos de computação em nuvem deles e, finalmente, vende serviços de nuvem para clientes corporativos e retém toda a receita. Os clientes podem acessar o supercomputador de IA da Nvidia apenas por meio de um navegador para usar os produtos de IA da Nvidia e os serviços de modelo de IA.

No entanto, os provedores de serviços em nuvem irão comprá-lo?

A esse respeito, Huang Renxun explicou: "A cooperação entre os serviços em nuvem da NVIDIA e os provedores de serviços em nuvem será uma situação em que todos sairão ganhando. As duas partes criarão em conjunto novos aplicativos e desenvolverão novos mercados". NVIDIA DGX A proporção de nuvem para nuvem do provedor de serviços de nuvem é de 1:9.

A Oracle é o primeiro provedor de serviços em nuvem a anunciar uma parceria com a Nvidia. A gigante do software tem realizado com urgência a transformação da nuvem nos últimos anos, por isso tem motivação suficiente para formar uma aliança com a Nvidia para dar uma reviravolta no mercado de computação em nuvem. A Nvidia também está trabalhando com Microsoft Azure, Google Cloud e outras plataformas de nuvem, que também devem ser lançadas em breve.

** O desejo da Nvidia é alto, mas nem todos os provedores de serviços em nuvem aceitarão a solicitação da Nvidia. **A AWS recusou-se a cooperar com a Nvidia em produtos DGX Cloud.

Segundo a Reuters, Dave Brown, vice-presidente da Amazon Elastic Cloud Computing, disse: "A NVIDIA entrou em contato conosco e estudamos o modelo de negócios. Mas para a AWS isso não faz muito sentido". servidores confiáveis.Experiência de longo prazo com expertise em cadeia de suprimentos existente.

A AWS começou a comprar o chip H100 da Nvidia em março deste ano, mas apenas como parte de seu sistema autodesenvolvido. A AWS também está considerando usar o mais recente chip de inteligência artificial da AMD, o MI300, mas ainda não tomou uma decisão final.

Diante de um mercado emergente de IA generativa, a distribuição de benefícios entre a Nvidia e os provedores de serviços em nuvem continuará a mudar. Mas é bastante claro que a Nvidia mudou o queijo do provedor de serviços em nuvem.

4. Escorra pelo fundo

O lançamento do DGX Cloud é apenas o primeiro passo, e a participação da Nvidia no mercado de computação em nuvem ainda está se aprofundando. Nessa etapa, a Nvidia não optou por acabar presencialmente, mas optou por dar suporte aos concorrentes das três gigantes da nuvem.

Este ano, um fornecedor de nuvem de pequeno e médio porte chamado CoreWeave surgiu, tornando-se um provedor de serviços de nuvem mais popular do que os três gigantes da nuvem. **CoreWeave afirma ser o único provedor de serviços em nuvem no mundo que pode "fornecer Nvidia H100 em larga escala". **

De acordo com estimativas do site GPU Utils, o número de H100s que o CoreWeave encomendou da Nvidia é de cerca de 35.000 a 40.000. Em comparação, o supercomputador A3 lançado pelo Google em maio deste ano tem cerca de 26.000 H100s, a instância de máquina virtual EC2 P5 lançada pela Amazon AWS em julho é baseada em 20.000 H100s e a máquina virtual Azure ND H100v5 lançada pela Microsoft em agosto, contém apenas 8 peças de H100. No entanto, a Microsoft possui cerca de 285.000 A100s.

Qual é a origem do CoreWeave? A empresa, fundada em 2017, inicialmente se dedicava principalmente ao negócio de mineração de criptomoedas Ethereum e se tornou a maior mineradora de Ethereum na América do Norte em 2018. Naquela época, o CoreWeave implantou mais de 50.000 GPUs, fornecendo mais de 1% do poder de computação da rede Ethereum.

Além da mineração, a CoreWeave também começou a tentar atender alguns clientes corporativos, como inteligência artificial, mídia de entretenimento e química computacional. Em 2019, o CoreWeave mudou totalmente de GPUs de nível de consumidor para GPUs de nível empresarial da Nvidia, porque as GPUs de nível empresarial podem funcionar ininterruptamente, aumentando a utilização da GPU para quase 100%.

Em 2021, a CoreWeave lançou oficialmente a plataforma de nuvem GPU baseada em Nvidia. No terceiro trimestre de 2022, com a fusão da Ethereum, a era da mineração de placas gráficas em grande escala acabou, a CoreWeave se transformou completamente em um provedor de serviços em nuvem e anunciou em novembro deste ano que se tornou o primeiro lote de GPUs usando o superchip NVIDIA HGX H100. Um dos provedores de serviços em nuvem.

Em comparação com os três gigantes da Amazon, Microsoft e Google, o CoreWeave não planeja desenvolver seu próprio chip de IA, que foi muito apreciado pela Nvidia.

Em abril de 2023, a Nvidia aprofundou sua cooperação com a CoreWeave e, além da cooperação comercial, também investiu na rodada de financiamento B1 de $ 221 milhões da CoreWeave. Mais importante ainda, a Nvidia forneceu ao CoreWeave um canal exclusivo para os escassos A100 e H100.

Em uma entrevista recente à Bloomberg, Brannin McBee, co-fundador e diretor de estratégia da CoreWeave, disse que a Nvidia esgotou os chips este ano e os pedidos da CoreWeave também estão programados para o segundo trimestre do ano que vem.

CoreWeave provavelmente tem o maior estoque de GPUs Nvidia do mundo. No contexto da atual escassez de GPU, os chips são ainda mais valiosos do que o patrimônio, e a CoreWeave criou um método de financiamento inovador. Em agosto deste ano, a CoreWeave garantiu US$ 2,3 bilhões em financiamento de dívida ao hipotecar seus chips de GPU. Anteriormente, a rodada B1 de financiamento de capital da CoreWeave recebia apenas US$ 421 milhões.

Com a aliança estratégica "nuvem + GPU" com a Nvidia, o desempenho do CoreWeave também disparou.

Antes deste ano, a CoreWeave era uma empresa pouco conhecida. Mas agora, o CoreWeave está prestes a ganhar bilhões de dólares com isso por meio de suas GPUs. Em entrevista ao VentureBeat, o cofundador e diretor de estratégia da CoreWeave, Brannin McBee, revelou que a receita da CoreWeave em 2022 será de US$ 30 milhões, chegará a US$ 500 milhões este ano e assinou quase US$ 2 bilhões em contratos no ano que vem.

A CoreWeave também anunciou um novo data center de US$ 1,6 bilhão no Texas e planeja expandir para 14 data centers até o final do ano. Atualmente, o unicórnio estrela de IA Inflection está usando a nuvem da CoreWeave para construir um cluster de GPU de cerca de 22.000 H100s. A empresa anunciou uma nova rodada de financiamento de US$ 1,3 bilhão em julho deste ano. Vale ressaltar que a NVIDIA também está entre os investidores da Inflection.

A CoreWeave é a primeira empresa de computação em nuvem na qual a Nvidia investiu este ano, mas não é a única.

De acordo com o The Information, a Nvidia está prestes a fechar um acordo de investimento com outro provedor de serviços em nuvem, a Lambda Labs. A Nvidia pode investir US$ 300 milhões, e a avaliação da Lambda Labs ultrapassará US$ 1 bilhão. Lambda Labs afirma ser capaz de fornecer recursos de poder de computação NVIDIA A100 e H100 com o preço mais baixo do mundo.

Atualmente, com a alocação "razoável" de recursos de GPU, a Nvidia tornou-se um comerciante no mercado de computação em nuvem no sentido real e agarrou o controle do gigante da nuvem desde a raiz - a Microsoft é um bom caso.

A Microsoft adicionou um novo fator de risco ao seu relatório de ganhos mais recente: “Os serviços podem ser interrompidos se não conseguir garantir chips de inteligência artificial suficientes para seus data centers”.

Diante das enormes necessidades de computação de IA, a carga de GPU da Microsoft é escassa e ela ainda precisa buscar ajuda de seus concorrentes, fornecedores de nuvem de pequeno e médio porte. De acordo com a CNBC, a Microsoft "concordou em gastar bilhões de dólares nos próximos anos para comprar a infraestrutura de computação em nuvem da startup CoreWeave". Sob o controle da Nvidia, a Microsoft teve que permitir que provedores de serviços em nuvem de pequeno e médio porte, como o CoreWeave, ganhassem uma diferença de preço em relação à GPU.

Ao investir em provedores de serviços em nuvem de pequeno e médio porte, a Nvidia entrou no campo da computação em nuvem. Embora não haja nenhuma tentativa de construir infraestrutura de nuvem e competir diretamente com os gigantes da nuvem, não ficaremos surpresos se a Nvidia entrar no mercado diretamente adquirindo provedores de serviços de nuvem de pequeno e médio porte no futuro.

Independentemente de a Nvidia entrar ou não no jogo, ela se tornou o maior player nos bastidores do mercado de computação em nuvem na onda da IA generativa.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)