À medida que piora a escassez de chips para treinar modelos de inteligência artificial, a OpenAI, desenvolvedora por trás do ChatGPT, está explorando a produção de seus próprios chips de IA e avaliou possíveis alvos de aquisição, segundo pessoas familiarizadas com o assunto. Pelo menos desde o ano passado, a OpenAI tem discutido várias opções para resolver a escassez dos caros chips de IA dos quais depende.
Essas opções incluem construir seus próprios chips de IA, trabalhar mais estreitamente com outros fabricantes de chips, incluindo a Nvidia, e diversificar seus fornecedores além da Nvidia (NVDA.O).
Atualmente, a OpenAI, como a maioria de seus concorrentes, depende de hardware baseado em GPU para desenvolver modelos como ChatGPT, GPT-4 e DALL-E 3. A capacidade das GPUs de realizar muitos cálculos em paralelo as torna ideais para treinar os modelos mais avançados da atualidade.
O CEO da OpenAI, Sam Altman, tornou a obtenção de mais chips GPU uma prioridade para a empresa. Ele reclamou publicamente da escassez de GPUs. O mercado de chips de IA é atualmente dominado pela Nvidia, que controla mais de 80% do mercado global de chips de IA.
O esforço para obter mais chips está ligado a dois problemas principais identificados por Altman: a escassez de processadores avançados para alimentar o software OpenAI e a quantidade “tonturante” de hardware necessária para alimentar o trabalho e o custo dos produtos.
Desde 2020, a OpenAI desenvolveu sua tecnologia de IA generativa em um enorme supercomputador construído por um de seus maiores patrocinadores, a Microsoft, que usa 10.000 unidades de processamento gráfico (GPUs) Nvidia.
Mas o boom da inteligência artificial generativa – uma sorte inesperada para fabricantes de GPU como a Nvidia – colocou uma pressão tremenda na cadeia de fornecimento de GPU. A Microsoft alertou em seu relatório de lucros de verão que uma escassez crítica de hardware de servidor necessário para executar a inteligência artificial poderia levar a interrupções no serviço. Os chips de IA de melhor desempenho da Nvidia estarão esgotados até 2024.
As GPUs também são essenciais para executar e servir modelos OpenAI; a empresa depende de clusters de GPU na nuvem para executar as cargas de trabalho dos clientes. Mas eles são extremamente caros.
Executar o ChatGPT é muito caro para o OpenAI. O custo por consulta é de cerca de 4 centavos, segundo análise da analista da Bernstein, Stacy Rasgon. Se as consultas do ChatGPT crescessem para um décimo do tamanho da pesquisa do Google, isso exigiria inicialmente aproximadamente US$ 48,1 bilhões em GPUs e aproximadamente US$ 16 bilhões em chips por ano para continuar funcionando.
A competição de IA generativa entra na era dos chips personalizados
Desde o lançamento do ChatGPT no ano passado, a demanda por chips de IA dedicados disparou. Treinar e executar as mais recentes tecnologias generativas de IA requer chips ou aceleradores de IA específicos. A Nvidia é um dos poucos fabricantes de chips que produz chips de IA úteis e domina o mercado.
O esforço para desenvolver os seus próprios chips de IA colocaria a OpenAI entre um pequeno grupo de grandes empresas tecnológicas, como a Google e a Amazon, que procuraram controlar o design dos chips subjacentes nos quais são construídos.
Não está claro se a OpenAI avançará com planos para chips personalizados. Veteranos da indústria dizem que isso seria um grande movimento estratégico e um enorme investimento que poderia custar centenas de milhões de dólares por ano. Mesmo que a OpenAI dedique recursos à tarefa, o sucesso não é garantido.
A aquisição de uma empresa de chips poderia acelerar o processo da OpenAI de construção de seus próprios chips, como a Amazon fez com a aquisição do Annapurna Labs em 2015.
A OpenAI considerou caminhos para conduzir a devida diligência em potenciais alvos de aquisição, de acordo com uma pessoa familiarizada com o assunto. Porém, ainda não é possível saber a lista de empresas que a OpenAI está analisando para aquisição.
Mesmo que a OpenAI avance com seus planos de chips personalizados, incluindo aquisições, esse trabalho poderá levar anos, e a OpenAI ainda precisará contar com fornecedores comerciais de chips, como Nvidia e AMD.
Algumas grandes empresas de tecnologia vêm construindo seus próprios processadores há anos, com sucesso limitado. O trabalho de chips personalizados da Meta tem sido problemático, levando a empresa a descartar alguns de seus chips de inteligência artificial, informou a Reuters. A Meta está atualmente desenvolvendo um chip mais novo que cobrirá todos os tipos de trabalho de IA.
Microsoft planeja construir um novo chip de IA para treinamento de grandes modelos
A Microsoft (MSFT.O) planeja revelar o primeiro chip da empresa projetado para inteligência artificial em sua conferência anual de desenvolvedores no próximo mês, disse uma pessoa familiarizada com o assunto, de acordo com o The Information. A mudança é o culminar de anos de trabalho e pode ajudar a Microsoft a reduzir sua dependência de chips de inteligência artificial projetados pela Nvidia Corp (NVDA.O). À medida que a demanda aumenta, esses chips estão em falta. O chip da Microsoft foi projetado para servidores de data centers que treinam e executam grandes modelos de linguagem (LLM). Os servidores de data center da Microsoft atualmente usam GPUs da Nvidia para potencializar LLM avançado para clientes de nuvem, incluindo OpenAI e Intuit, bem como oferecer suporte a recursos de inteligência artificial em aplicativos de produtividade da Microsoft.
Esses planos podem marcar mais um distanciamento entre as duas empresas, OpenAI e Microsoft.
Oportunidades e desafios coexistem no campo dos chips de IA. Mesmo que a OpenAI trabalhasse para trazer chips personalizados ao mercado, tal esforço provavelmente levaria anos e custaria centenas de milhões de dólares por ano. Resta saber se os investidores da startup, um dos quais é a Microsoft, estão interessados em fazer uma aposta tão arriscada. O potencial da OpenAI para entrar neste espaço destaca a mudança mais ampla da indústria em direção a soluções mais autossuficientes e personalizadas. Os resultados ainda não foram vistos, mas as implicações para o mundo da inteligência artificial são enormes.
Referências:
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Livrar-se da Nvidia? OpenAI e Microsoft optaram por desenvolver seus próprios chips de IA
À medida que piora a escassez de chips para treinar modelos de inteligência artificial, a OpenAI, desenvolvedora por trás do ChatGPT, está explorando a produção de seus próprios chips de IA e avaliou possíveis alvos de aquisição, segundo pessoas familiarizadas com o assunto. Pelo menos desde o ano passado, a OpenAI tem discutido várias opções para resolver a escassez dos caros chips de IA dos quais depende.
Essas opções incluem construir seus próprios chips de IA, trabalhar mais estreitamente com outros fabricantes de chips, incluindo a Nvidia, e diversificar seus fornecedores além da Nvidia (NVDA.O).
Atualmente, a OpenAI, como a maioria de seus concorrentes, depende de hardware baseado em GPU para desenvolver modelos como ChatGPT, GPT-4 e DALL-E 3. A capacidade das GPUs de realizar muitos cálculos em paralelo as torna ideais para treinar os modelos mais avançados da atualidade.
O CEO da OpenAI, Sam Altman, tornou a obtenção de mais chips GPU uma prioridade para a empresa. Ele reclamou publicamente da escassez de GPUs. O mercado de chips de IA é atualmente dominado pela Nvidia, que controla mais de 80% do mercado global de chips de IA.
O esforço para obter mais chips está ligado a dois problemas principais identificados por Altman: a escassez de processadores avançados para alimentar o software OpenAI e a quantidade “tonturante” de hardware necessária para alimentar o trabalho e o custo dos produtos.
Desde 2020, a OpenAI desenvolveu sua tecnologia de IA generativa em um enorme supercomputador construído por um de seus maiores patrocinadores, a Microsoft, que usa 10.000 unidades de processamento gráfico (GPUs) Nvidia.
Mas o boom da inteligência artificial generativa – uma sorte inesperada para fabricantes de GPU como a Nvidia – colocou uma pressão tremenda na cadeia de fornecimento de GPU. A Microsoft alertou em seu relatório de lucros de verão que uma escassez crítica de hardware de servidor necessário para executar a inteligência artificial poderia levar a interrupções no serviço. Os chips de IA de melhor desempenho da Nvidia estarão esgotados até 2024.
As GPUs também são essenciais para executar e servir modelos OpenAI; a empresa depende de clusters de GPU na nuvem para executar as cargas de trabalho dos clientes. Mas eles são extremamente caros.
Executar o ChatGPT é muito caro para o OpenAI. O custo por consulta é de cerca de 4 centavos, segundo análise da analista da Bernstein, Stacy Rasgon. Se as consultas do ChatGPT crescessem para um décimo do tamanho da pesquisa do Google, isso exigiria inicialmente aproximadamente US$ 48,1 bilhões em GPUs e aproximadamente US$ 16 bilhões em chips por ano para continuar funcionando.
A competição de IA generativa entra na era dos chips personalizados
Desde o lançamento do ChatGPT no ano passado, a demanda por chips de IA dedicados disparou. Treinar e executar as mais recentes tecnologias generativas de IA requer chips ou aceleradores de IA específicos. A Nvidia é um dos poucos fabricantes de chips que produz chips de IA úteis e domina o mercado.
O esforço para desenvolver os seus próprios chips de IA colocaria a OpenAI entre um pequeno grupo de grandes empresas tecnológicas, como a Google e a Amazon, que procuraram controlar o design dos chips subjacentes nos quais são construídos.
Não está claro se a OpenAI avançará com planos para chips personalizados. Veteranos da indústria dizem que isso seria um grande movimento estratégico e um enorme investimento que poderia custar centenas de milhões de dólares por ano. Mesmo que a OpenAI dedique recursos à tarefa, o sucesso não é garantido.
A aquisição de uma empresa de chips poderia acelerar o processo da OpenAI de construção de seus próprios chips, como a Amazon fez com a aquisição do Annapurna Labs em 2015.
A OpenAI considerou caminhos para conduzir a devida diligência em potenciais alvos de aquisição, de acordo com uma pessoa familiarizada com o assunto. Porém, ainda não é possível saber a lista de empresas que a OpenAI está analisando para aquisição.
Mesmo que a OpenAI avance com seus planos de chips personalizados, incluindo aquisições, esse trabalho poderá levar anos, e a OpenAI ainda precisará contar com fornecedores comerciais de chips, como Nvidia e AMD.
Algumas grandes empresas de tecnologia vêm construindo seus próprios processadores há anos, com sucesso limitado. O trabalho de chips personalizados da Meta tem sido problemático, levando a empresa a descartar alguns de seus chips de inteligência artificial, informou a Reuters. A Meta está atualmente desenvolvendo um chip mais novo que cobrirá todos os tipos de trabalho de IA.
Microsoft planeja construir um novo chip de IA para treinamento de grandes modelos
A Microsoft (MSFT.O) planeja revelar o primeiro chip da empresa projetado para inteligência artificial em sua conferência anual de desenvolvedores no próximo mês, disse uma pessoa familiarizada com o assunto, de acordo com o The Information. A mudança é o culminar de anos de trabalho e pode ajudar a Microsoft a reduzir sua dependência de chips de inteligência artificial projetados pela Nvidia Corp (NVDA.O). À medida que a demanda aumenta, esses chips estão em falta. O chip da Microsoft foi projetado para servidores de data centers que treinam e executam grandes modelos de linguagem (LLM). Os servidores de data center da Microsoft atualmente usam GPUs da Nvidia para potencializar LLM avançado para clientes de nuvem, incluindo OpenAI e Intuit, bem como oferecer suporte a recursos de inteligência artificial em aplicativos de produtividade da Microsoft.
Esses planos podem marcar mais um distanciamento entre as duas empresas, OpenAI e Microsoft.
Oportunidades e desafios coexistem no campo dos chips de IA. Mesmo que a OpenAI trabalhasse para trazer chips personalizados ao mercado, tal esforço provavelmente levaria anos e custaria centenas de milhões de dólares por ano. Resta saber se os investidores da startup, um dos quais é a Microsoft, estão interessados em fazer uma aposta tão arriscada. O potencial da OpenAI para entrar neste espaço destaca a mudança mais ampla da indústria em direção a soluções mais autossuficientes e personalizadas. Os resultados ainda não foram vistos, mas as implicações para o mundo da inteligência artificial são enormes.
Referências: