Microsoft, Google e Amazon iniciam a guerra da nuvem na era dos grandes modelos

Autor: Wan Chen Editor: Zheng Xuan

Fonte da imagem: Gerada por Unbounded AI

Com o aperto dos gastos com nuvem em software corporativo de Internet, a desaceleração do crescimento tornou-se gradualmente uma nuvem escura sobre as cabeças dos fornecedores de nuvem.

O nascimento do ChatGPT quebrou esse gargalo e a IA remodelará o software. Clientes de fornecedores de nuvem - empresas de software estão incorporando ativamente os recursos de IA trazidos por grandes modelos em fluxos de trabalho existentes para concluir a automação de nível superior.

Com o esgotamento gradual de novos clientes de nuvem, as empresas de software não vão mais para a nuvem por ir para a nuvem, mas se esforçam para usar a IA para melhorar a produtividade. ** "Este é o maior aumento no mercado de computação em nuvem nos próximos dez anos. A infraestrutura de poder computacional é a beneficiária absoluta do grande modelo." **Uma pessoa na indústria de computação em nuvem que está na indústria há mais de dez anos explicados ao Geek Park.

Sob tal perspectiva, vários grandes gigantes de serviços de nuvem no exterior – Microsoft, Amazon, Google e Oracle fizeram mudanças rapidamente. **Nos últimos meses, os gigantes da nuvem gastaram dinheiro real para desenvolver modelos de grande escala, investimentos estratégicos e chips de IA autodesenvolvidos... A era dos modelos de grande escala está em ascensão e eles já visaram uma nova geração de clientes de software de IA. **

O passado está longe de ser inquebrável, o mercado de nuvem é rapidamente remodelado e os gigantes abriram uma nova cortina de competição.

Afinal, o declínio do irmão mais velho na era da Internet móvel é iminente. Em poucos anos, a Nokia passou de 70% da participação no mercado de telefonia móvel em seu apogeu para ninguém se importar com isso. É apenas entre o pensamento de tomar uma decisão errada. Quanto ao modelo grande, a indústria de nuvem rapidamente chegou a um consenso: desta vez, a IA não é uma variável pequena. A julgar pela rápida velocidade de desenvolvimento da indústria, os atuais líderes também podem ficar para trás.

** Metade de 2023 já passou, este artigo irá resolver vários grandes gigantes da nuvem no exterior, qual é a chave para a competição entre os fornecedores de nuvem hoje? **

01 Pesquisa e desenvolvimento de chips específicos para IA, você não pode dar toda a sua "vida" para a Nvidia

Após o advento da era dos grandes modelos, para provedores de serviços em nuvem, o recurso mais escasso hoje é o poder de computação, ou chips de IA. **Investir na infraestrutura subjacente - chips de aceleração de IA também se tornou o primeiro foco de competição entre os fornecedores de nuvem atualmente. **

A escassez e o alto custo são considerados os principais motivos para os fornecedores de nuvem acelerarem os chips autodesenvolvidos. Mesmo figuras poderosas no círculo de tecnologia como Musk comentaram que "essa coisa (Nvidia GPU) é mais difícil de lidar do que remédios", e comprou secretamente 10.000 placas da Nvidia para sua empresa de IA X.AI, e também recebeu muito patrimônio ocioso em Oráculo.

Esse grau de escassez se reflete nos negócios dos gigantes da nuvem, o que corresponde diretamente à perda de negócios causada pelo “pescoço preso”. Até a Microsoft, que é a primeira a agir primeiro, foi exposta a rumores de que, devido à escassez de GPUs, a equipe interna de P&D de IA implementa um sistema de racionamento de GPU, vários novos planos são adiados e novos clientes precisam fazer fila por meses para vá para o Azure.

Mesmo as instituições de capital de risco precisam contar com o estoque de chips da Nvidia para obter projetos. Por causa de N cartas, as forças de todas as partes chegaram ao ponto em que "tudo é usado".

**Outro nome para escassez é caro. **Considerando que o modelo grande requer mais de dez vezes o poder computacional, o cartão só sairá mais caro. Recentemente, um investidor disse ao Geek Park: “No início do ano, o cartão único A100 era de 80.000, mas agora foi vendido para 160.000, o que ainda está fora de alcance”. os gigantes da nuvem têm que pagar O "imposto da Nvidia" será apenas uma figura astronômica.

É difícil sentir que o "destino" está nas mãos de outros, e a Microsoft, que é a mais popular, tem mais a dizer. Um mês atrás, as informações relataram exclusivamente que a Microsoft estabeleceu um "Tiantuan" de 300 pessoas para acelerar o ritmo de chips de IA autodesenvolvidos. O chip de servidor de codinome Cascade pode ser lançado já no próximo ano.

Não apenas por causa do "pescoço preso", os chips autodesenvolvidos dos fabricantes de nuvem, mas também outra camada de significado - a GPU não é necessariamente o chip mais adequado para executar IA, e a versão autodesenvolvida pode otimizar tarefas específicas de IA.

Reconhecidamente, a maioria dos atuais modelos avançados de IA são alimentados por GPUs, porque as GPUs são melhores para executar cargas de trabalho de aprendizado de máquina do que processadores de uso geral. **No entanto, as GPUs ainda são consideradas chips de uso geral, não plataformas de processamento verdadeiramente nativas para computação de IA. **Como o Yuanchuan Research Institute apontou em "A Crack in the Nvidia Empire", GPUs não nasceram para treinar redes neurais. Quanto mais rápido a inteligência artificial se desenvolver, mais esses problemas serão expostos. Contar com CUDA e várias tecnologias para "mudança mágica" cena por cena é uma opção, mas não é a solução ideal.

Amazon, Google e Microsoft vêm desenvolvendo chips conhecidos como ASICs – circuitos integrados específicos de aplicativos – que são mais adequados para inteligência artificial. The Information entrevistou vários profissionais e analistas da indústria de chips e concluiu que as GPUs da Nvidia ajudaram a treinar o modelo por trás do ChatGPT, mas os ASICs geralmente executam essas tarefas mais rapidamente e consomem menos energia.

Conforme mostrado na figura acima: Amazon, Microsoft e Google aumentaram a importância de chips autodesenvolvidos internamente e desenvolveram dois tipos de chips para o setor de data center: chips de computação padrão e chips dedicados a treinamento e máquina de corrida modelos de aprendizado. Esses modelos podem alimentar chatbots como o ChatGPT.

Atualmente, a Amazon e o Google desenvolveram ASICs personalizados para os principais produtos internos e forneceram esses chips aos clientes por meio da nuvem. Desde 2019, a Microsoft também trabalha no desenvolvimento de chips ASIC personalizados para alimentar grandes modelos de linguagem.

Alguns chips desenvolvidos por esses provedores de nuvem, como os chips de servidor Graviton da Amazon e os chips específicos de IA lançados pela Amazon e Google, já são comparáveis em desempenho aos chips de fabricantes de chips tradicionais, de acordo com dados de desempenho divulgados por clientes de nuvem e pela Microsoft. O Google TPU v4 é 1,2-1,7 vezes mais rápido que o Nvidia A100, enquanto reduz o consumo de energia em 1,3-1,9 vezes.

02 Competição de Investimentos Estratégicos: Gigantes gastam dinheiro para "comprar clientes"

Além da pesquisa e desenvolvimento de chips, o segundo ponto-chave na competição de vários grandes gigantes da nuvem no exterior é investir em investimentos estratégicos estrangeiros para conquistar clientes e projetos de IA. **

Comparado com o capital de risco, o investimento estratégico dos gigantes tem uma vantagem absoluta. A combinação da OpenAI e da Microsoft serve como um excelente exemplo, abrindo um precedente para modelos de larga escala e investimentos estratégicos. Isso ocorre porque as barreiras de recursos necessárias para grandes modelos e aplicativos relacionados são extremamente altas. Somente dinheiro, dinheiro limitado, não é suficiente para agarrar projetos de IA. Afinal, Google, Microsoft, AWS, Oracle ou Nvidia podem não apenas preencher cheques enormes, mas também fornecer recursos escassos, como créditos de nuvem e GPUs.

A partir dessa perspectiva, a conquista de projetos e a conquista de clientes acontecem entre os gigantes da nuvem, e não há outros rivais. Eles estão jogando um novo jogo - buscando promessas de empresas de IA de que usarão seus serviços em nuvem em vez dos concorrentes.

A Microsoft ocupa a posição de provedora de serviços de nuvem exclusiva da OpenAI.Ao mesmo tempo em que paga uma enorme conta da nuvem pela OpenAI, a Microsoft trocou uma série de direitos invejáveis, como o patrimônio da OpenAI e a prioridade de produto.

**Os rivais da Microsoft também estão lutando para conquistar outros clientes de IA. **Esses provedores de nuvem oferecem grandes descontos e créditos para empresas de IA para conquistar seus negócios. Os críticos apontaram que isso é semelhante a comprar clientes, embora a prática de obter participação em clientes futuros ou atuais não seja incomum no mundo do software empresarial.

A Oracle também ofereceu créditos de computação no valor de centenas de milhares de dólares como um incentivo para as startups de IA alugarem servidores em nuvem da Oracle, informou o The Information anteriormente.

O Google pode ser o mais ativo desses principais fornecedores de nuvem, oferecendo às startups de IA uma combinação de dinheiro e créditos do Google Cloud em troca de patrimônio. No início deste ano, o Google investiu US$ 400 milhões na Anthropic, uma das principais empresas empreendedoras da OpenAI. O Google Cloud disse em fevereiro que havia se tornado o provedor de nuvem "preferido" da Anthropic.

Recentemente, o Google investiu US$ 100 milhões na Runway, uma empresa de IA na área de "Vensheng Video". Mas antes disso, a Amazon AWS divulgou a Runway como um cliente-chave de inicialização de IA. Em março deste ano, a AWS e a Runway anunciaram o estabelecimento de uma parceria estratégica de longo prazo, tornando-se seu "provedor de nuvem preferido". Agora, Runway parece ser um dos "peões" no duelo do Google com a Amazon, porque a Runway também deve alugar servidores em nuvem do Google.

Anteriormente, o Google Cloud também anunciou o estabelecimento de parcerias com duas outras empresas populares de IA, a saber: Midjourney no campo gráfico de Vincent e o robô de bate-papo App Character.ai, que anteriormente era um cliente-chave de nuvem da Oracle.

É muito cedo para dizer se esses acordos ajudarão o Google a alcançar seus maiores rivais de computação em nuvem AWS e Microsoft, mas o Google Cloud está se recuperando.

Das 75 empresas de software (IA) no banco de dados The Information, o Google fornece alguns serviços de nuvem para pelo menos 17 empresas, mais do que qualquer outro provedor de nuvem. A Amazon não fica muito atrás, com pelo menos 15 empresas usando a AWS para computação em nuvem. A Microsoft e a Oracle fornecem serviços em nuvem para seis empresas e quatro empresas, respectivamente. Obviamente, usar várias nuvens também é um hábito no setor, e pelo menos 12 dessas 75 empresas usam uma mistura de vários provedores de nuvem.

03 modelo grande é a verdadeira chave para ganhar ou perder

O poder de computação e o investimento em combate são os pontos altos que devem ser contestados no estágio inicial dessa guerra na nuvem. Mas, a longo prazo, o grande modelo é a verdadeira chave para o sucesso da concorrência no mercado.

A capacidade da Microsoft de se tornar líder se deve à cooperação com a OpenAI. Juntamente com os excelentes recursos de engenharia da equipe da Microsoft, o GPT-4 foi incorporado ao "balde da família" da Microsoft em poucos meses. Nos últimos seis meses, a Microsoft primeiro aproveitou o uso prioritário de produtos OpenAI e a redução de preço de produtos de software corporativo para conquistar mais mercados de nuvem. Em seguida, conte com a atualização da linha de produtos para o Microsoft 365 Copilot para aumentar o preço e obter maior receita.

De acordo com a pesquisa da Yunqi Capital, o modelo subjacente da Microsoft depende basicamente do OpenAI e, após acessar o modelo grande, a Microsoft começou a empacotar e vender Teams, Power BI, Azure e outros produtos da camada de aplicativos a um preço mais baixo.

A diretora financeira da Microsoft, Amy Hood, disse aos investidores em abril que o OpenAI gerará receita para o Azure à medida que mais pessoas começarem a usar seus serviços.

Novos relatórios indicam que a Microsoft está cobrando de alguns clientes do Office 365 um prêmio de 40% para testar recursos de IA que automatizam tarefas como escrever texto em documentos do Word e criar slides do PowerPoint, e pelo menos 100 clientes pagaram uma taxa fixa de até US$ 100.000. Os dados mostram que, um mês após seu lançamento, a Microsoft obteve mais de US$ 60 milhões em receita com os recursos de IA do Microsoft 365 Copilot.

**Em total contraste com a Microsoft, a outrora líder Amazon Cloud, um passo atrás no modelo grande, está enfrentando desafios mais severos hoje. **

A AWS foi uma das primeiras desenvolvedoras de serviços de nuvem de IA e está em vigor desde 2016. Mas os clientes não consideram os serviços, que incluem reconhecimento facial, conversão de texto em fala realista e formas primitivas de chatbots para tarefas como atendimento ao cliente, muito úteis. A AWS também lançou o SagaMaker, uma ferramenta digital de IA para engenheiros em 2017, para ajudá-los a desenvolver e usar modelos de aprendizado de máquina, que já se tornou o produto de IA mais importante da AWS.

No entanto, nos anos seguintes, os produtos de IA da AWS não conseguiram acompanhar a onda de grandes modelos de linguagem.Desde novembro de 2021, a Microsoft começou a vender produtos de IA desenvolvidos com base na série de modelos GPT para uso por clientes corporativos. Ao mesmo tempo, o Google também conquistou grandes startups de IA como clientes de nuvem e vendeu software proprietário de IA para seus clientes de nuvem. Mesmo a Oracle, retardatária da computação em nuvem, tem suas próprias vantagens em fornecer recursos de computação para startups de IA.

A AWS, tardiamente, está tentando alcançá-la. Em abril, anunciou um serviço de nuvem que permite aos clientes usar grandes modelos dos laboratórios Stability, Anthropic e AI 21 como base para seus próprios produtos. Em troca, a AWS compartilhará uma parte da receita com esses parceiros.

Na conferência Google I/O de 2023, o CEO Sundar Pichai apresentou o mais recente progresso de IA do Google | Fonte da imagem: site oficial do Google

**O Google acordou cedo, mas chegou tarde. **Como um grande fabricante com o acúmulo mais profundo no campo de modelos em grande escala, a reação do Google após o lançamento do ChatGPT não é desagradável. Ele lançou rapidamente o robô inteligente de conversação Bard e uma nova geração de modelo de linguagem em grande escala PaLM 2 como resposta. Como resultado, a coletiva de imprensa reverteu diretamente , A velocidade de lançamento do produto subseqüente não é ideal, o que contrasta fortemente com os fortes recursos de engenharia da Microsoft.

**A última coisa que vale a pena mencionar é que a Oracle, que saiu da vanguarda do mercado de nuvem muito cedo, inesperadamente tem uma tendência a contra-atacar nessa onda de ascensão. **

A Oracle, há muito retardatária no espaço da nuvem, tem sido surpreendentemente bem-sucedida em alugar servidores em nuvem para startups de IA de alto perfil que competem com a OpenAI. Isso ocorre em parte porque o Oracle Cloud pode executar modelos complexos de aprendizado de máquina de forma mais econômica do que o Amazon Web Services ou o Google Cloud, informou o The Information.

A abordagem da Oracle Cloud para a corrida de IA parece ser semelhante à da AWS, que desenvolve seu próprio software de IA para vender aos clientes, mas também venderá acesso a software de IA de código aberto e produtos de outros desenvolvedores de IA.

Além disso, algumas pessoas familiarizadas com o assunto revelaram que a Oracle começou a testar os produtos da OpenAI para enriquecer sua linha de produtos para clientes B-end, incluindo recursos humanos e software de gerenciamento da cadeia de suprimentos, mas é mais provável que a Oracle desenvolva seu próprio software para essa finalidade. Os recursos do Oracle ajudam os clientes da Oracle a gerar rapidamente descrições de cargos e agendar reuniões entre recrutadores e candidatos, embora a empresa ainda esteja decidindo quais produtos melhorar primeiro.

Materiais de referência:

"Uma rachadura no império Nvidia" | Yuanchuan Research Institute

Grande fábrica e grande modelo: negócio real é a última palavra|"Yunqi FutureScope"

A outra corrida de IA do Google e da Microsoft: chips de servidor|As informações

O ceticismo aumenta com a estratégia de IA da AWS|As informações

Google, Nvidia e Microsoft oferecem o que os VCs não podem|As informações

Pro Weekly: IA generativa estimula a demanda e a concorrência na nuvem|As informações

Google investe em startup de IA para arrancar negócios de nuvem da AWS|As informações

A Microsoft está cobrando 40% a mais de alguns clientes do Office 365 para testar os recursos de IA|As informações

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)