Fazendo tudo para construir chips personalizados da AWS Amazon está perseguindo Microsoft e Google em IA generativa

Focar em

  • 1 Com a Microsoft e o Google assumindo a liderança no campo da inteligência artificial generativa, a Amazon também está alcançando. É relatado que a empresa projetou secretamente dois chips em Austin, Texas, para treinar e acelerar a inteligência artificial generativa. .
  • 2 Dois chips personalizados desenvolvidos pela Amazon, Inentia e Trainium, oferecem aos clientes do Amazon Cloud Services AWS uma alternativa às GPUs Nvidia cada vez mais difíceis de adquirir para treinar grandes modelos de linguagem.
  • 3 O domínio da AWS na computação em nuvem é uma grande vantagem para a Amazon. A AWS é o maior provedor de computação em nuvem do mundo, respondendo por 40% do mercado em 2022.
  • 4 Analistas acreditam que os chips personalizados da Amazon podem dar uma vantagem em inteligência artificial generativa a longo prazo.

Em duas pequenas salas em um prédio de escritórios indefinido em Austin, Texas, vários funcionários da Amazon estão projetando dois tipos de microchips para treinamento e aceleração de inteligência artificial generativa. Os dois chips personalizados, de codinome Inentia e Trainium, oferecem aos clientes da Amazon Web Services uma alternativa aos processadores gráficos da Nvidia para treinamento de modelos de linguagem grandes. No momento, está ficando mais difícil e caro obter os processadores gráficos da Nvidia.

"O mundo inteiro quer mais chips para IA generativa, sejam unidades de processamento gráfico ou designs da própria Amazon", disse o CEO da AWS, Adam Selipsky, em uma entrevista em junho. Acho que temos mais probabilidade do que qualquer outra empresa no mundo de fornecer nossos clientes esta capacidade que todos desejam.”

Outras empresas, no entanto, foram mais rápidas, despejaram mais dinheiro e tomaram empréstimos com o boom da IA. Quando a OpenAI lançou o ChatGPT em novembro passado, a Microsoft chamou muita atenção por hospedar o explosivo AI chatbot. A Microsoft teria investido US$ 13 bilhões na OpenAI. A Microsoft rapidamente adicionou modelos generativos de inteligência artificial a seus próprios produtos e os integrou ao Bing em fevereiro.

No mesmo mês, o Google lançou seu próprio grande modelo de linguagem, o Bard, e mais tarde investiu US$ 300 milhões no concorrente da OpenAI, Anthropic.

Não foi até abril deste ano que a Amazon anunciou seu próprio modelo de linguagem grande, Titan, e ao mesmo tempo lançou um serviço chamado Bedrock para ajudar os desenvolvedores a usar inteligência artificial generativa para aprimorar os recursos do software.

"A Amazon não está acostumada a perseguir mercados, está acostumada a criá-los", disse Chirag Dekate, vice-presidente e analista do Gartner. "Acho que pela primeira vez em muito tempo eles estão vendo que eu estava em desvantagem e agora estou tentando alcançá-lo."

A Meta também lançou recentemente seu próprio modelo de linguagem grande Llama 2, um concorrente do ChatGPT de código aberto que agora está disponível para teste na nuvem pública do Microsoft Azure.

Chip representa "Verdadeira Diferenciação"

A longo prazo, os chips personalizados da Amazon podem dar uma vantagem em inteligência artificial generativa, disse Decatur. "Acho que a verdadeira diferença são as capacidades técnicas que eles têm, porque a Microsoft não tem Trainium ou Interentia", explicou.

Foto: A AWS começou a produzir o chip personalizado Nitro em 2013, que atualmente é o maior chip da AWS

Em 2013, a AWS discretamente começou a produzir chips personalizados com um hardware especializado chamado Nitro. A Amazon revelou que o Nitro é atualmente o chip AWS com maior capacidade, existindo pelo menos um em cada servidor AWS, com uma utilização total de mais de 20 milhões.

Em 2015, a Amazon adquiriu a Annapurna Labs, uma startup de chips israelense. Então, em 2018, a Amazon lançou o Graviton, um chip de servidor baseado na arquitetura Arm do designer de chips britânico, um concorrente das CPUs x86 de gigantes como AMD e Nvidia.

"Os chips Arm podem representar até 10% das vendas totais de servidores, e uma parte significativa disso virá da Amazon", disse Stacy Rasgon, analista sênior da Bernstein Research. muito bom trabalho."

Também em 2018, a Amazon apresentou chips com foco em inteligência artificial. Há dois anos, o Google lançou sua primeira unidade de processador tensor (TPU). A Microsoft ainda não anunciou o Athena, o chip de inteligência artificial que está desenvolvendo com a AMD.

A Amazon tem um laboratório em um chip em Austin, Texas, onde desenvolve e testa Trainium e Inferentia. Matt Wood, vice-presidente de produtos da empresa, explicou o que os dois chips fazem.

Ele disse: "O aprendizado de máquina é dividido em dois estágios diferentes. Portanto, você precisa treinar modelos de aprendizado de máquina e, em seguida, realizar inferência nesses modelos treinados. Em comparação com outras formas de treinamento de modelos de aprendizado de máquina na AWS, Tradium em O preço/ a taxa de desempenho foi melhorada em cerca de 50%.”

O Trainium estreia em 2021, após o lançamento da segunda geração do Interentia em 2019. A Interentia permite que os clientes "forneçam inferência de aprendizado de máquina de baixo custo, alto rendimento e baixa latência, que são todas as previsões que você obtém quando alimenta um modelo de IA generativo, tudo isso é processado e, em seguida, você obtém um resposta", disse Wood. "

Por enquanto, no entanto, as GPUs da Nvidia ainda são o rei indiscutível quando se trata de modelos de treinamento. Em julho, a AWS revelou um novo hardware de aceleração de IA baseado no H100 da Nvidia.

"Nos últimos 15 anos, a Nvidia construiu um enorme ecossistema de software em torno de seus chips que nenhuma outra empresa possui. No momento, o maior vencedor em IA é a Nvidia", disse Rasgon.

Imagem: Chips personalizados da Amazon, da esquerda para a direita são Inferentia, Trainium e Graviton

Amazon tem a vantagem da computação em nuvem

No entanto, o domínio da AWS na computação em nuvem é uma grande vantagem para a Amazon.

"A Amazon não precisa de atenção extra, a empresa já tem uma base instalada de nuvem muito forte. Tudo o que eles precisam fazer é descobrir como usar a inteligência artificial generativa para tornar os atuais clientes em expansão em movimentos de criação de valor."

Ao escolher inteligência artificial generativa entre Amazon, Google e Microsoft, milhões de clientes da AWS podem ser atraídos para a Amazon porque já estão familiarizados com a Amazon e executam outros aplicativos e armazenam dados lá.

"É uma questão de velocidade", explicou Mai-Lan Tomsen Bukovec, vice-presidente de tecnologia da AWS. "A rapidez com que essas empresas podem desenvolver esses aplicativos generativos de IA. as ferramentas de computação e aprendizado de máquina que fornecemos."

Segundo dados fornecidos pelo Gartner, a AWS é o maior provedor de computação em nuvem do mundo, respondendo por 40% do mercado em 2022. Embora o lucro operacional da Amazon tenha caído ano a ano por três trimestres consecutivos, a AWS ainda representou 70% do lucro operacional de US$ 7,7 bilhões da Amazon no segundo trimestre. A AWS historicamente teve margens operacionais muito mais altas do que o Google Cloud.

Além disso, a AWS possui um portfólio crescente de ferramentas para desenvolvedores focadas em inteligência artificial generativa. Swami Sivasubramanian, vice-presidente de bancos de dados, análises e aprendizado de máquina da AWS, disse: "Vamos voltar no tempo, mesmo antes do ChatGPT. Não é como se isso tivesse acontecido depois disso. , De repente, criamos um plano com pressa, porque você não pode projetar um novo chip tão rapidamente, muito menos construir um serviço básico em dois a três meses.”

A Bedrock oferece aos clientes da AWS acesso a grandes modelos de linguagem desenvolvidos pela Anthropic, Stability AI, AI21 Labs e Amazon Titan. "Não acreditamos que um modelo dominará o mundo, queremos que nossos clientes tenham modelos de última geração de vários fornecedores porque escolherão a ferramenta certa para o trabalho certo", disse Sivasubramanian.

Foto: No AWS Chip Lab em Austin, Texas, funcionários da Amazon estão desenvolvendo chips personalizados de inteligência artificial

Uma das mais recentes ofertas de IA da Amazon é o AWS HealthScribe, um serviço lançado em julho para ajudar os médicos a usar inteligência artificial generativa para redigir resumos de visitas de pacientes. A Amazon também possui um centro de aprendizado de máquina, o SageMaker, que fornece algoritmos, modelos e outros serviços.

Outra ferramenta importante é o CodeWhisperer, que, segundo a Amazon, permite que os desenvolvedores concluam tarefas em média 57% mais rápido. No ano passado, a Microsoft também informou que sua ferramenta de codificação, GitHub Copilot, aumentou a produtividade.

Em junho deste ano, a AWS anunciou o estabelecimento de um centro de inovação de inteligência artificial generativa por US$ 100 milhões. O CEO da AWS, Selipsky, disse: "Temos muitos clientes que desejam tecnologia de inteligência artificial generativa, mas eles não sabem necessariamente o que isso significa para eles no contexto de seus próprios negócios. Portanto, apresentaremos soluções Arquitetos de soluções, engenheiros, estrategistas, e cientistas de dados, trabalhando com eles individualmente."

O CEO Jassy liderou pessoalmente a equipe para construir um grande modelo de linguagem

Embora a AWS até agora tenha se concentrado principalmente no desenvolvimento de ferramentas em vez de criar um concorrente do ChatGPT, um e-mail interno recentemente vazado revelou que o CEO da Amazon, Andy Jassy, está supervisionando diretamente uma nova equipe central, que também está construindo modelos de linguagem escaláveis.

Durante a teleconferência de resultados do segundo trimestre, Jassy disse que uma “parte substancial” dos negócios da AWS agora é impulsionada pela inteligência artificial e pelos mais de 20 serviços de aprendizado de máquina que ela suporta, cujos clientes incluem Philips, 3M, Old Mutual e HSBC.

A explosão da inteligência artificial trouxe consigo uma série de preocupações de segurança, com as empresas preocupadas com funcionários colocando informações proprietárias nos dados de treinamento usados por modelos públicos de linguagem grande.

"Não sei dizer quantas empresas da Fortune 500 com quem conversei que desativaram o ChatGPT", disse Selipsky, CEO da AWS. Qualquer coisa que você fizer, seja qual for o modelo que usar, será em seu próprio ambiente de nuvem privada virtual isolado. Ele será criptografado e terá os mesmos controles de acesso da AWS."

Por enquanto, a Amazon está apenas acelerando seu avanço para a IA generativa, alegando que "mais de 100.000" clientes estão usando aprendizado de máquina na AWS. Embora isso seja uma fração dos milhões de clientes da AWS, os analistas dizem que isso pode mudar.

"Não vemos empresas dizendo: espera, a Microsoft já é líder em IA generativa, vamos lá, vamos mudar nossa estratégia de infraestrutura, migrar tudo para a Microsoft. Se você já é cliente da Amazon, é provável que explore o Ecossistema amazônico de forma mais ampla." (Texto/Jinlu)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)