**OpenAI também está montando um burro para encontrar um cavalo e quer se livrar de sua dependência da Nvidia o mais rápido possível. **
Segundo a Reuters, a OpenAI tem discutido várias soluções pelo menos desde o ano passado, na esperança de resolver o problema dos chips caros e escassos. Entre eles, os chips de desenvolvimento próprio são uma das opções, opção que ainda não foi totalmente rejeitada.
Outra opção é adquirir diretamente uma empresa de chips. Pessoas familiarizadas com o assunto disseram que a OpenAI já tem alvos potenciais de aquisição e considerou conduzir a devida diligência sobre eles. No entanto, o relatório não conseguiu identificar a empresa específica do chip.
**Coincidentemente, outra notícia sai junto com ela: a Microsoft lançará seu primeiro chip “Athena” projetado para IA em sua conferência anual de desenvolvedores no próximo mês. **
De acordo com The Information, citando pessoas familiarizadas com o assunto, o Athena será usado em servidores de data center, projetado para treinar grandes modelos de linguagem, etc., ao mesmo tempo em que oferece suporte à inferência e pode fornecer energia para todos os softwares de IA por trás do ChatGPT.
A nuvem se tornou um importante campo de batalha para grandes modelos, e os dois concorrentes da Microsoft nesse campo, Google e Amazon, já possuem seus próprios chips de IA. O lançamento do Athena permitirá à Microsoft preencher suas deficiências.
O progresso da Microsoft e da OpenAI em questões de chips é bastante representativo: em termos de funções, foi a colaboração de três partes da Microsoft, OpenAI e NVIDIA que tornou o ChatGPT uma realidade, o que por sua vez desencadeou uma nova onda de AIGC global; em termos de tempo, próximo Este mês faz exatamente um ano desde que o ChatGPT foi lançado.
**O próximo foco da grande competição de modelos parece ser “quem pode ‘se livrar’ da NVIDIA primeiro.” A NVIDIA, que tem domínio no campo de chips, tornou-se uma algema que precisa ser liberada urgentemente. **
Em 2016, a OpenAI, que tinha apenas um ano, recebeu um ilustre convidado, o CEO da Nvidia, Jensen Huang. Ele pessoalmente deu o primeiro supercomputador leve e pequeno DGX-1 para a OpenAI. OpenAI pode completar os cálculos de um ano em um mês com o DGX-1.
Hoje em dia, as pessoas que olham tardiamente para a assinatura de Huang Renxun no DGX-1 "para o futuro da computação e da humanidade" e exclamam os olhos cruéis do "líder vestido de couro".
Em 2019, a Microsoft juntou-se à OpenAI para construir um supercomputador usando dezenas de milhares de GPUs NVIDIA A100. Desta forma, a OpenAI contribuiu com esforços, a Microsoft contribuiu com dinheiro e a NVIDIA forneceu infraestrutura, usando incrível poder de computação para apoiar a pesquisa e desenvolvimento do grande modelo da OpenAI e, finalmente, trabalhou duro para alcançar milagres.ChatGPT foi lançado em novembro de 2022, surpreendendo o mundo .
OpenAI tornou-se uma empresa estrela, a Microsoft está lutando ferozmente com o Google e outros com sua estratégia de IA, e o valor de mercado da Nvidia disparou de mais de 300 bilhões de dólares americanos em novembro do ano passado para mais de um trilhão de dólares americanos hoje. Há uma mania de grandes modelos em todo o mundo. Como “vendedora”, a NVIDIA não se preocupa em vender chips.
Em julho deste ano, o analista de pesquisa do Citi, Christopher Danely, apontou em um relatório que a Nvidia ocuparia “pelo menos 90%” do mercado de chips de IA.
**No entanto, neste jogo de “três vitórias”, talvez apenas Huang Renxun esteja completamente feliz. Para os “compradores de água” representados pela Microsoft e OpenAI, confiar nos chips da Nvidia traz pelo menos dois problemas. **
O primeiro problema é que é caro. Quanto ao supercomputador construído para OpenAI, segundo a Bloomberg, a Microsoft gastou centenas de milhões de dólares no projeto. Stacy Rasgon, analista da Bernstein Research, analisou que o ChatGPT custa cerca de 4 centavos por consulta. Se o volume de consultas do ChatGPT crescesse para um décimo do tamanho das pesquisas do Google, seriam necessários aproximadamente US$ 48,1 bilhões em GPUs e US$ 16 bilhões adicionais em chips por ano para continuar funcionando.
O segundo problema é a escassez. Apenas em junho deste ano, o CEO da OpenAI, Sam Altman, disse em uma conferência que a escassez de chips atrapalhou o desenvolvimento do ChatGPT. Diante das reclamações dos clientes sobre a confiabilidade e velocidade da API, Altman explicou que a maioria dos problemas é causada pela falta de chips.
O recém-lançado Nvidia H100 este ano é atualmente o chip de IA mais popular, mas só pode atender metade da demanda do mercado. Nvidia H100 e A100 são produzidos pela TSMC.O presidente da TSMC, Liu Deyin, explicou no mês passado que as restrições de fornecimento não se devem à falta de chips físicos, mas à capacidade limitada em serviços avançados de embalagem de chips (CoWos), que é um passo fundamental na fabricação. processo.
**Liu Deyin também prevê que a capacidade técnica de produção será suficiente para atender à demanda dos clientes em um ano e meio, o que significa que a oferta restrita de chips de IA poderá ser aliviada até o final de 2024. **
Embora o Athena possa não ser lançado até este ano, a Microsoft vem se preparando para isso há anos. Em 2019, quando centenas de milhões de dólares foram gastos para construir um supercomputador para OpenAI, o projeto Athena da Microsoft foi lançado. De acordo com a notícia, o Athena será construído usando o processo de 5nm da TSMC, comparando diretamente a Nvidia A100, e deverá reduzir o custo por chip em um terço.
**Para a Nvidia, o egoísmo da Microsoft e da OpenAI é um sinal vermelho. **
A Microsoft é um dos maiores clientes da NVIDIA, e houve até notícias de "arredondamentos" da capacidade de produção anual do H100. OpenAI é o cata-vento mais importante no campo AIGC. A ambição das duas empresas de desenvolver chips de desenvolvimento próprio é uma nuvem negra sobre a cabeça da Nvidia.
O Google foi a primeira empresa a comprar GPUs em larga escala para computação de IA, mas mais tarde desenvolveu seus próprios chips específicos para IA. A primeira geração de TPU (Tensor Processing Unit) foi lançada em 2016 e posteriormente lançada como a infraestrutura do Google Cloud Google TPU em 2017. O Google continuou a iterar ao longo dos anos, em abril deste ano, anunciou os detalhes do TPU v4, dizendo que era 1,7 vezes mais forte que o A100 da Nvidia.
Embora o Google ainda compre GPUs Nvidia em massa, seus serviços em nuvem já usam suas próprias TPUs. Nesta batalha AIGC, a empresa de mapeamento AI Midjourney e a empresa unicórnio Anthropic, que tem um concorrente do ChatGPT Cloude, não compraram chips da Nvidia para construir supercomputadores como o OpenAI, mas usaram o poder de computação do Google.
Outra gigante da tecnologia, a Amazon, também agiu bastante cedo: adquiriu a startup israelense de chips Annapurna Labs em 2015 para desenvolver chips personalizados para sua infraestrutura em nuvem. Três anos depois, lançou o chip de servidor Graviton baseado em Arm. Mais tarde, a Amazon lançou o Inferentia, o Trainium, chip focado em inteligência artificial.
**No mês passado, foi relatado que a Amazon investiria US$ 4 bilhões na Anthropic. Como parte do acordo, a Anthropic usará chips AWS Trainium e Inferentia para construir, treinar e implantar seus futuros modelos básicos. **
Além disso, outros concorrentes da Nvidia também estão lançando ataques na área de chips de IA. AMD, Intel, IBM, etc. estão lançando sucessivamente chips de IA na tentativa de competir com os produtos da Nvidia. Em junho deste ano, a AMD lançou o Instinct MI300, que compara diretamente o NVIDIA H100 e é um acelerador específico para AIGC. O número de transistores integrados chega a 153 bilhões, superior aos 80 bilhões do H100.É o maior chip da AMD desde que foi colocado em produção. A AMD ainda usa a estratégia de ser compatível com CUDA da NVIDIA para reduzir o limite de migração para os clientes.
É inegável que a Nvidia ainda detém quase o monopólio do mercado de chips de IA, nenhum concorrente pode abalar sua posição e nenhum gigante da tecnologia pode se livrar completamente de sua dependência dele.
Mas “reduzir o controle da Nvidia” parece ter se tornado um consenso, e os desafios externos surgem um após o outro. A notícia de que a Microsoft e a OpenAI estão desenvolvendo chips de desenvolvimento próprio é uma nova onda. A Nvidia pode permanecer firme?
Referências:
Coração da Máquina: "A Amazon acaba de investir 4 bilhões de dólares americanos, o Google e outros investirão outros 2 bilhões e a avaliação da Anthropic está disparando"
Sina Technology: "A escassez de chips de IA está reduzindo a receita das empresas de tecnologia. Diz-se que as remessas de Nvidia H100 serão pelo menos triplicadas no próximo ano."
CSDN: "Tendo gasto centenas de milhões de dólares e dezenas de milhares de GPUs Nvidia, a Microsoft revela o passado do supercomputador por trás da construção do ChatGPT!" 》
Wall Street Insights: "Abaixe seu orgulho!" Como a Microsoft está apostando alto no OpenAI》
Jiemian News: "O chip de IA autodesenvolvido pela Microsoft" Athena "surgiu, com o objetivo de quebrar o monopólio do poder de computação da Nvidia"
Instituto de Pesquisa Yuanchuan: “Uma rachadura no Império NVIDIA”
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Quem pode “descartar” a Nvidia primeiro?
Fonte original: Lista do Alfabeto
Autor: Bi Andi
**OpenAI também está montando um burro para encontrar um cavalo e quer se livrar de sua dependência da Nvidia o mais rápido possível. **
Segundo a Reuters, a OpenAI tem discutido várias soluções pelo menos desde o ano passado, na esperança de resolver o problema dos chips caros e escassos. Entre eles, os chips de desenvolvimento próprio são uma das opções, opção que ainda não foi totalmente rejeitada.
Outra opção é adquirir diretamente uma empresa de chips. Pessoas familiarizadas com o assunto disseram que a OpenAI já tem alvos potenciais de aquisição e considerou conduzir a devida diligência sobre eles. No entanto, o relatório não conseguiu identificar a empresa específica do chip.
**Coincidentemente, outra notícia sai junto com ela: a Microsoft lançará seu primeiro chip “Athena” projetado para IA em sua conferência anual de desenvolvedores no próximo mês. **
A nuvem se tornou um importante campo de batalha para grandes modelos, e os dois concorrentes da Microsoft nesse campo, Google e Amazon, já possuem seus próprios chips de IA. O lançamento do Athena permitirá à Microsoft preencher suas deficiências.
O progresso da Microsoft e da OpenAI em questões de chips é bastante representativo: em termos de funções, foi a colaboração de três partes da Microsoft, OpenAI e NVIDIA que tornou o ChatGPT uma realidade, o que por sua vez desencadeou uma nova onda de AIGC global; em termos de tempo, próximo Este mês faz exatamente um ano desde que o ChatGPT foi lançado.
**O próximo foco da grande competição de modelos parece ser “quem pode ‘se livrar’ da NVIDIA primeiro.” A NVIDIA, que tem domínio no campo de chips, tornou-se uma algema que precisa ser liberada urgentemente. **
Hoje em dia, as pessoas que olham tardiamente para a assinatura de Huang Renxun no DGX-1 "para o futuro da computação e da humanidade" e exclamam os olhos cruéis do "líder vestido de couro".
Em 2019, a Microsoft juntou-se à OpenAI para construir um supercomputador usando dezenas de milhares de GPUs NVIDIA A100. Desta forma, a OpenAI contribuiu com esforços, a Microsoft contribuiu com dinheiro e a NVIDIA forneceu infraestrutura, usando incrível poder de computação para apoiar a pesquisa e desenvolvimento do grande modelo da OpenAI e, finalmente, trabalhou duro para alcançar milagres.ChatGPT foi lançado em novembro de 2022, surpreendendo o mundo .
Em julho deste ano, o analista de pesquisa do Citi, Christopher Danely, apontou em um relatório que a Nvidia ocuparia “pelo menos 90%” do mercado de chips de IA.
**No entanto, neste jogo de “três vitórias”, talvez apenas Huang Renxun esteja completamente feliz. Para os “compradores de água” representados pela Microsoft e OpenAI, confiar nos chips da Nvidia traz pelo menos dois problemas. **
O primeiro problema é que é caro. Quanto ao supercomputador construído para OpenAI, segundo a Bloomberg, a Microsoft gastou centenas de milhões de dólares no projeto. Stacy Rasgon, analista da Bernstein Research, analisou que o ChatGPT custa cerca de 4 centavos por consulta. Se o volume de consultas do ChatGPT crescesse para um décimo do tamanho das pesquisas do Google, seriam necessários aproximadamente US$ 48,1 bilhões em GPUs e US$ 16 bilhões adicionais em chips por ano para continuar funcionando.
O segundo problema é a escassez. Apenas em junho deste ano, o CEO da OpenAI, Sam Altman, disse em uma conferência que a escassez de chips atrapalhou o desenvolvimento do ChatGPT. Diante das reclamações dos clientes sobre a confiabilidade e velocidade da API, Altman explicou que a maioria dos problemas é causada pela falta de chips.
O recém-lançado Nvidia H100 este ano é atualmente o chip de IA mais popular, mas só pode atender metade da demanda do mercado. Nvidia H100 e A100 são produzidos pela TSMC.O presidente da TSMC, Liu Deyin, explicou no mês passado que as restrições de fornecimento não se devem à falta de chips físicos, mas à capacidade limitada em serviços avançados de embalagem de chips (CoWos), que é um passo fundamental na fabricação. processo.
**Liu Deyin também prevê que a capacidade técnica de produção será suficiente para atender à demanda dos clientes em um ano e meio, o que significa que a oferta restrita de chips de IA poderá ser aliviada até o final de 2024. **
Embora o Athena possa não ser lançado até este ano, a Microsoft vem se preparando para isso há anos. Em 2019, quando centenas de milhões de dólares foram gastos para construir um supercomputador para OpenAI, o projeto Athena da Microsoft foi lançado. De acordo com a notícia, o Athena será construído usando o processo de 5nm da TSMC, comparando diretamente a Nvidia A100, e deverá reduzir o custo por chip em um terço.
A Microsoft é um dos maiores clientes da NVIDIA, e houve até notícias de "arredondamentos" da capacidade de produção anual do H100. OpenAI é o cata-vento mais importante no campo AIGC. A ambição das duas empresas de desenvolver chips de desenvolvimento próprio é uma nuvem negra sobre a cabeça da Nvidia.
O Google foi a primeira empresa a comprar GPUs em larga escala para computação de IA, mas mais tarde desenvolveu seus próprios chips específicos para IA. A primeira geração de TPU (Tensor Processing Unit) foi lançada em 2016 e posteriormente lançada como a infraestrutura do Google Cloud Google TPU em 2017. O Google continuou a iterar ao longo dos anos, em abril deste ano, anunciou os detalhes do TPU v4, dizendo que era 1,7 vezes mais forte que o A100 da Nvidia.
Embora o Google ainda compre GPUs Nvidia em massa, seus serviços em nuvem já usam suas próprias TPUs. Nesta batalha AIGC, a empresa de mapeamento AI Midjourney e a empresa unicórnio Anthropic, que tem um concorrente do ChatGPT Cloude, não compraram chips da Nvidia para construir supercomputadores como o OpenAI, mas usaram o poder de computação do Google.
Outra gigante da tecnologia, a Amazon, também agiu bastante cedo: adquiriu a startup israelense de chips Annapurna Labs em 2015 para desenvolver chips personalizados para sua infraestrutura em nuvem. Três anos depois, lançou o chip de servidor Graviton baseado em Arm. Mais tarde, a Amazon lançou o Inferentia, o Trainium, chip focado em inteligência artificial.
Além disso, outros concorrentes da Nvidia também estão lançando ataques na área de chips de IA. AMD, Intel, IBM, etc. estão lançando sucessivamente chips de IA na tentativa de competir com os produtos da Nvidia. Em junho deste ano, a AMD lançou o Instinct MI300, que compara diretamente o NVIDIA H100 e é um acelerador específico para AIGC. O número de transistores integrados chega a 153 bilhões, superior aos 80 bilhões do H100.É o maior chip da AMD desde que foi colocado em produção. A AMD ainda usa a estratégia de ser compatível com CUDA da NVIDIA para reduzir o limite de migração para os clientes.
É inegável que a Nvidia ainda detém quase o monopólio do mercado de chips de IA, nenhum concorrente pode abalar sua posição e nenhum gigante da tecnologia pode se livrar completamente de sua dependência dele.
Mas “reduzir o controle da Nvidia” parece ter se tornado um consenso, e os desafios externos surgem um após o outro. A notícia de que a Microsoft e a OpenAI estão desenvolvendo chips de desenvolvimento próprio é uma nova onda. A Nvidia pode permanecer firme?
Referências:
Coração da Máquina: "A Amazon acaba de investir 4 bilhões de dólares americanos, o Google e outros investirão outros 2 bilhões e a avaliação da Anthropic está disparando"
Sina Technology: "A escassez de chips de IA está reduzindo a receita das empresas de tecnologia. Diz-se que as remessas de Nvidia H100 serão pelo menos triplicadas no próximo ano."
CSDN: "Tendo gasto centenas de milhões de dólares e dezenas de milhares de GPUs Nvidia, a Microsoft revela o passado do supercomputador por trás da construção do ChatGPT!" 》
Wall Street Insights: "Abaixe seu orgulho!" Como a Microsoft está apostando alto no OpenAI》
Jiemian News: "O chip de IA autodesenvolvido pela Microsoft" Athena "surgiu, com o objetivo de quebrar o monopólio do poder de computação da Nvidia"
Instituto de Pesquisa Yuanchuan: “Uma rachadura no Império NVIDIA”