Na tarde de 25 de setembro, a Amazon anunciou no site oficial da empresa que investiria até US$ 4 bilhões na grande empresa de modelos Anthropic, famosa por seu chatbot Claude, que faz benchmark do ChatGPT.
As empresas de computação em nuvem investiram pesadamente em grandes empresas modelo. A Microsoft teve um bom começo em fevereiro deste ano, adquirindo a OpenAI, um importante cliente da nuvem Azure da Microsoft, e o uso prioritário do ChatGPT por US$ 10 bilhões. Agora parece que este negócio é um lucro certo para a Microsoft: desde este ano, o valor de mercado da Microsoft aumentou 40%.
Mas agora, meio ano depois, a relação entre upstream e downstream no campo de grandes modelos está se tornando complicada. Amazon InvestmentAnthropicnão se trata apenas de "prender" clientes para AWS , nem é necessariamente para modelos grandes.
Os detalhes oficiais da cooperação mostram: A Anthropic usará chips AWS Trainium e Inferentia para construir, treinar e implantar seus futuros modelos básicos. Além disso, as duas empresas também colaborarão no desenvolvimento das futuras tecnologias Trainium e Inferentia. É importante notar que o AWS Trainium é um chip de treinamento de ML (aprendizado de máquina) personalizado lançado pela AWS no final de 2020, e o chip Inferentia é um chip de inferência de aprendizado de máquina de alto desempenho lançado pela AWS em 2019.
Ao investir na Anthropic para aprofundar a cooperação, a Amazon pretende acelerar o desenvolvimento de chips de IA autodesenvolvidos.
Há alguns dias, The Information deu exclusivamente a notícia de que a NVIDIA deseja "cobrar uma taxa de manuseio" dos três principais fornecedores de nuvem - a NVIDIA deseja alugar servidores NVIDIA de fornecedores de nuvem, para que possa fornecer aplicativos de IA para usuários de IA por meio do nuvem em vez de servidores ou chips.Fornecendo serviços diretamente, esses aplicativos também incluem os três principais fornecedores de nuvem.
No entanto, apenas a Amazon rejeitou a oferta.
Agora parece que o motivo da Amazon para rejeitar a Nvidia é encontrar maneiras de acelerar a atualização de seus chips de IA desenvolvidos por ela mesma. Na era dos grandes modelos, a principal competitividade da Amazon na estabilização da sua posição número um no mercado de computação em nuvem reside nos seus chips de IA.
01 A primeira plataforma em nuvem entra em ação, o maior inimigo da OpenAI
Para esta cooperação, a Amazon disse que investirá inicialmente 1,25 mil milhões de dólares para adquirir uma participação minoritária na Antrópica. Como parte do acordo, a Amazon disse que tinha a opção de aumentar seu investimento na Anthropic para US$ 4 bilhões.
Como parte da colaboração ampliada:
A Anthropic usará chips AWS Trainium e Inferentia para construir, treinar e implantar seus futuros modelos fundamentais, beneficiando-se do preço, desempenho, escala e segurança da AWS. As duas empresas também colaborarão nas futuras tecnologias Trainium e Inferentia.
*A AWS se tornará o principal provedor de nuvem da Anthropic para cargas de trabalho de missão crítica, incluindo pesquisa de segurança e desenvolvimento futuro de modelos fundamentais. A Anthropic planeja executar a maioria de suas cargas de trabalho na AWS, fornecendo ainda mais à Anthropic tecnologia avançada do provedor de nuvem líder mundial.
A Anthropic assumiu um compromisso de longo prazo para fornecer aos clientes da AWS em todo o mundo acesso aos seus modelos básicos de próxima geração por meio do Amazon Bedrock, um serviço totalmente gerenciado da AWS que fornece acesso seguro aos principais modelos básicos do setor. Além disso, a Anthropic fornecerá aos clientes da AWS a capacidade exclusiva de acesso antecipado à personalização de modelos e recursos de ajuste fino.
Os desenvolvedores e engenheiros da Amazon poderão construir com modelos Antrópicos por meio do Amazon Bedrock, para que possam incorporar recursos generativos de IA em seu trabalho, aprimorar aplicativos existentes e criar novas experiências de cliente em todos os negócios da Amazon.
As empresas não divulgaram a avaliação do investimento da Amazon na Antrópica.
A Anthropic foi fundada pelos ex-funcionários da OpenAI Daniela Amodei e Dario Amodei, que são os principais desenvolvedores do OpenAI GPT2 e GPT3. Atualmente, a Anthropic possui um dos chatbots mais populares, o Claude.
Desafiadora da OpenAI, fabricante do ChatGPT, a Anthropic recebeu um investimento de US$ 400 milhões do Google no início deste ano e foi avaliada em mais de US$ 4 bilhões após uma rodada de financiamento da Spark Capital em março.
**02 O que a Amazon quer fazer? **
Investindo até US$ 4 bilhões na Anthropic. O que exatamente a Amazon quer fazer?
Um motivo óbvio é “agarrar” clientes. Como os maiores clientes da computação em nuvem (no futuro), os grandes fabricantes de modelos e as empresas de aplicações de IA tornaram-se um campo de batalha para os principais fabricantes de nuvens.
Desde este ano, Google, Microsoft, AWS, Oracle e Nvidia fizeram uma coisa tácita e unanimemente: “prender” clientes através de investimentos estratégicos (pagar dinheiro para comprar clientes), embora esta operação seja financeiramente controversa.
Mas, na verdade, a Anthropic é cliente da AWS desde 2021. A AWS aprofundou sua cooperação com a Anthropic por meio de US$ 4 bilhões, visando direitos de cooperação mais profundos: modelos grandes e, o mais importante, chips de IA autodesenvolvidos* *.
Em outras palavras, ao investir estrategicamente essa mensalidade, a Amazon aprende como construir grandes modelos. Ela também desenvolveu chips de IA** que poderiam até mesmo subverter GPUs NVIDIA por meio de discussões com oponentes que competem contra a OpenAI. Afinal, as GPUs não são projetadas para treinar redes neurais. Depender de CUDA e de várias tecnologias para "modificar magicamente" cena por cena é uma opção, mas não é a solução ideal.
O discurso do CEO da Amazon, Andy Jassy, confirmou isso, dizendo: “Acreditamos que podemos ajudar a melhorar muitas experiências de clientes de curto e longo prazo por meio de uma cooperação mais profunda”.
A experiência do cliente de curto e longo prazo corresponde aos grandes modelos e chips de IA autodesenvolvidos da Amazon.
Ele acrescentou ainda: "Os clientes estão muito entusiasmados com o Amazon Bedrock, o novo serviço gerenciado da AWS que permite às empresas criar aplicativos generativos de IA usando uma variedade de modelos subjacentes, e com o AWS Trainium, o chip de treinamento de IA da AWS. O chip de treinamento de IA da AWS e nossa cooperação com a Anthropic deve ajudar os clientes a obter mais valor dessas duas funções.”
Na verdade, no primeiro semestre do ano, a Amazon lançou o seu próprio modelo grande Titan e anunciou o cliente típico deste modelo grande.No entanto, alguns dias depois, este cliente típico saltou sobre ele e revelou à mídia que o modelo grande da Amazon não foi fácil de usar.
Pode-se perceber que a Amazon não está totalmente preparada para grandes modelos autodesenvolvidos. Portanto, a Amazon voltou-se para o mercado para promover vigorosamente a plataforma de grandes modelos Amazon Bedrock, onde os clientes podem recorrer aos serviços de outros grandes fabricantes de modelos convencionais, incluindo a Anthropic.
Por outro lado, a Amazon precisa estabilizar os seus fundamentos na computação em nuvem.
Na era dos grandes modelos, a computação em nuvem enfrenta diferentes cargas de trabalho e precisa explorar novas tecnologias para alcançar capacidades de raciocínio mais rápidas. Nesse aspecto, a Amazon é na verdade pioneira. Chips e servidores de data center desenvolvidos pela própria empresa já foram considerados "uma das coisas mais importantes" que a AWS fez para "se diferenciar da Microsoft e do Google". Seus servidores têm velocidades mais altas e economizam energia.
Em termos de chips e servidores proprietários de IA, a Amazon também é a primeira entre os três principais fornecedores de nuvem (Microsoft Cloud, Google Cloud). No entanto, o progresso e o desempenho dos seus chips de IA não foram divulgados separadamente, mas sim agrupados em servidores e fornecidos aos clientes através de serviços em nuvem. Portanto, os clientes percebem diretamente apenas o desempenho da computação em nuvem, e não o desempenho dos chips nela contidos.
Agora, a Amazon precisa entender quais cargas de trabalho são mais adequadas para quais processadores, e trabalhar com a Anthropic é uma maneira de fazer isso.
Atualmente, das 69 empresas no banco de dados generativo de IA da The Information, 32 usam a Amazon, 26 usam o Google e 13 usam a Microsoft como provedor de nuvem. É claro que algumas empresas usam vários provedores de nuvem.
Na era dos grandes modelos, a cooperação e a concorrência na computação em nuvem, nos grandes modelos e nas aplicações de IA estão se tornando mais complexas. A indústria de computação em nuvem, que não passava por grandes mudanças há muito tempo, finalmente inaugurou uma oportunidade de mudança.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
28 bilhões! Amazon investiu em OpenAI, seu maior inimigo
Na tarde de 25 de setembro, a Amazon anunciou no site oficial da empresa que investiria até US$ 4 bilhões na grande empresa de modelos Anthropic, famosa por seu chatbot Claude, que faz benchmark do ChatGPT.
As empresas de computação em nuvem investiram pesadamente em grandes empresas modelo. A Microsoft teve um bom começo em fevereiro deste ano, adquirindo a OpenAI, um importante cliente da nuvem Azure da Microsoft, e o uso prioritário do ChatGPT por US$ 10 bilhões. Agora parece que este negócio é um lucro certo para a Microsoft: desde este ano, o valor de mercado da Microsoft aumentou 40%.
Mas agora, meio ano depois, a relação entre upstream e downstream no campo de grandes modelos está se tornando complicada. Amazon Investment Anthropic não se trata apenas de "prender" clientes para AWS , nem é necessariamente para modelos grandes.
Os detalhes oficiais da cooperação mostram: A Anthropic usará chips AWS Trainium e Inferentia para construir, treinar e implantar seus futuros modelos básicos. Além disso, as duas empresas também colaborarão no desenvolvimento das futuras tecnologias Trainium e Inferentia. É importante notar que o AWS Trainium é um chip de treinamento de ML (aprendizado de máquina) personalizado lançado pela AWS no final de 2020, e o chip Inferentia é um chip de inferência de aprendizado de máquina de alto desempenho lançado pela AWS em 2019.
Ao investir na Anthropic para aprofundar a cooperação, a Amazon pretende acelerar o desenvolvimento de chips de IA autodesenvolvidos.
Há alguns dias, The Information deu exclusivamente a notícia de que a NVIDIA deseja "cobrar uma taxa de manuseio" dos três principais fornecedores de nuvem - a NVIDIA deseja alugar servidores NVIDIA de fornecedores de nuvem, para que possa fornecer aplicativos de IA para usuários de IA por meio do nuvem em vez de servidores ou chips.Fornecendo serviços diretamente, esses aplicativos também incluem os três principais fornecedores de nuvem.
No entanto, apenas a Amazon rejeitou a oferta.
Agora parece que o motivo da Amazon para rejeitar a Nvidia é encontrar maneiras de acelerar a atualização de seus chips de IA desenvolvidos por ela mesma. Na era dos grandes modelos, a principal competitividade da Amazon na estabilização da sua posição número um no mercado de computação em nuvem reside nos seus chips de IA.
01 A primeira plataforma em nuvem entra em ação, o maior inimigo da OpenAI
Para esta cooperação, a Amazon disse que investirá inicialmente 1,25 mil milhões de dólares para adquirir uma participação minoritária na Antrópica. Como parte do acordo, a Amazon disse que tinha a opção de aumentar seu investimento na Anthropic para US$ 4 bilhões.
Como parte da colaboração ampliada:
As empresas não divulgaram a avaliação do investimento da Amazon na Antrópica.
A Anthropic foi fundada pelos ex-funcionários da OpenAI Daniela Amodei e Dario Amodei, que são os principais desenvolvedores do OpenAI GPT2 e GPT3. Atualmente, a Anthropic possui um dos chatbots mais populares, o Claude.
Desafiadora da OpenAI, fabricante do ChatGPT, a Anthropic recebeu um investimento de US$ 400 milhões do Google no início deste ano e foi avaliada em mais de US$ 4 bilhões após uma rodada de financiamento da Spark Capital em março.
**02 O que a Amazon quer fazer? **
Investindo até US$ 4 bilhões na Anthropic. O que exatamente a Amazon quer fazer?
Um motivo óbvio é “agarrar” clientes. Como os maiores clientes da computação em nuvem (no futuro), os grandes fabricantes de modelos e as empresas de aplicações de IA tornaram-se um campo de batalha para os principais fabricantes de nuvens.
Desde este ano, Google, Microsoft, AWS, Oracle e Nvidia fizeram uma coisa tácita e unanimemente: “prender” clientes através de investimentos estratégicos (pagar dinheiro para comprar clientes), embora esta operação seja financeiramente controversa.
Mas, na verdade, a Anthropic é cliente da AWS desde 2021. A AWS aprofundou sua cooperação com a Anthropic por meio de US$ 4 bilhões, visando direitos de cooperação mais profundos: modelos grandes e, o mais importante, chips de IA autodesenvolvidos* *.
Em outras palavras, ao investir estrategicamente essa mensalidade, a Amazon aprende como construir grandes modelos. Ela também desenvolveu chips de IA** que poderiam até mesmo subverter GPUs NVIDIA por meio de discussões com oponentes que competem contra a OpenAI. Afinal, as GPUs não são projetadas para treinar redes neurais. Depender de CUDA e de várias tecnologias para "modificar magicamente" cena por cena é uma opção, mas não é a solução ideal.
O discurso do CEO da Amazon, Andy Jassy, confirmou isso, dizendo: “Acreditamos que podemos ajudar a melhorar muitas experiências de clientes de curto e longo prazo por meio de uma cooperação mais profunda”.
A experiência do cliente de curto e longo prazo corresponde aos grandes modelos e chips de IA autodesenvolvidos da Amazon.
Ele acrescentou ainda: "Os clientes estão muito entusiasmados com o Amazon Bedrock, o novo serviço gerenciado da AWS que permite às empresas criar aplicativos generativos de IA usando uma variedade de modelos subjacentes, e com o AWS Trainium, o chip de treinamento de IA da AWS. O chip de treinamento de IA da AWS e nossa cooperação com a Anthropic deve ajudar os clientes a obter mais valor dessas duas funções.”
Na verdade, no primeiro semestre do ano, a Amazon lançou o seu próprio modelo grande Titan e anunciou o cliente típico deste modelo grande.No entanto, alguns dias depois, este cliente típico saltou sobre ele e revelou à mídia que o modelo grande da Amazon não foi fácil de usar.
Pode-se perceber que a Amazon não está totalmente preparada para grandes modelos autodesenvolvidos. Portanto, a Amazon voltou-se para o mercado para promover vigorosamente a plataforma de grandes modelos Amazon Bedrock, onde os clientes podem recorrer aos serviços de outros grandes fabricantes de modelos convencionais, incluindo a Anthropic.
Por outro lado, a Amazon precisa estabilizar os seus fundamentos na computação em nuvem.
Na era dos grandes modelos, a computação em nuvem enfrenta diferentes cargas de trabalho e precisa explorar novas tecnologias para alcançar capacidades de raciocínio mais rápidas. Nesse aspecto, a Amazon é na verdade pioneira. Chips e servidores de data center desenvolvidos pela própria empresa já foram considerados "uma das coisas mais importantes" que a AWS fez para "se diferenciar da Microsoft e do Google". Seus servidores têm velocidades mais altas e economizam energia.
Em termos de chips e servidores proprietários de IA, a Amazon também é a primeira entre os três principais fornecedores de nuvem (Microsoft Cloud, Google Cloud). No entanto, o progresso e o desempenho dos seus chips de IA não foram divulgados separadamente, mas sim agrupados em servidores e fornecidos aos clientes através de serviços em nuvem. Portanto, os clientes percebem diretamente apenas o desempenho da computação em nuvem, e não o desempenho dos chips nela contidos.
Agora, a Amazon precisa entender quais cargas de trabalho são mais adequadas para quais processadores, e trabalhar com a Anthropic é uma maneira de fazer isso.
Atualmente, das 69 empresas no banco de dados generativo de IA da The Information, 32 usam a Amazon, 26 usam o Google e 13 usam a Microsoft como provedor de nuvem. É claro que algumas empresas usam vários provedores de nuvem.
Na era dos grandes modelos, a cooperação e a concorrência na computação em nuvem, nos grandes modelos e nas aplicações de IA estão se tornando mais complexas. A indústria de computação em nuvem, que não passava por grandes mudanças há muito tempo, finalmente inaugurou uma oportunidade de mudança.