Carnaval de computação, quem é a "versão chinesa" da Nvidia?

**Fonte: **Core Tide IC

Texto: Wang Yike Ten Alleys

Editor: Su Yang Xubai

* "As coisas principais são pesadas" Plano de pesquisa da indústria de semicondutores da Tencent Technology, esta edição do Core Tide IC e Tencent Technology, com foco por trás da explosão de grandes modelos, a formação de um novo padrão no mercado global de poder de computação de chip, o layout de empresas líderes e perseguir o crescimento dos fabricantes nacionais. *

Uma onda de revolução da IA desencadeada acidentalmente pelo ChatGPT mais uma vez acendeu o mercado de chips de IA.

"Chips como A800 e H800 mudaram de cerca de 120.000 RMB para 250.000 ou mesmo 300.000, ou até 500.000." Esta é uma cena real no círculo de distribuição de chips doméstico. quantidades, e eles têm que ter um "relacionamento direto" com Huang Renxun.

Como o chamado "sem chip, sem IA", à medida que a demanda por poder de computação de grandes modelos aumenta, os chips, que são a base da tecnologia de IA, inauguram importantes oportunidades de negócios. A OpenAI uma vez previu que, para fazer avanços na pesquisa científica de inteligência artificial, os recursos de computação necessários para consumir dobrariam a cada 3 a 4 meses, e os fundos também precisariam ser acompanhados por um crescimento exponencial. "Lei de Moore".

O CFO da Nvidia, Kress, disse que a demanda atual do mercado por poder de computação de IA excedeu as expectativas da empresa para os próximos trimestres e há muitos pedidos a serem atendidos.

A onda de IA generativa rendeu muito dinheiro à Nvidia. Após 14 anos de listagem, a Nvidia entrou com sucesso no clube de capitalização de mercado de trilhões de dólares. Para atingir esse objetivo, os gigantes do Vale do Silício, como a Apple, levaram 37 anos, a Microsoft levou 33 anos, a Amazon levou 21 anos e a Tesla foi a mais rápida. , levou apenas 11 anos.

Isso também estimulou as empresas de chips chinesas a ficarem ansiosas para tentar. Empresas de chips domésticas, como Haiguang Information, Cambrian, Loongson Zhongke, Biren Technology, Tianshu Zhixin, etc., todas têm a ambição de uma "versão chinesa" da Nvidia e tentam confiar em sua própria pesquisa Capacitação de modelo doméstico em grande escala. Alguns grandes fabricantes também começaram a usar chips de IA autodesenvolvidos para dar suporte a parte das tarefas de treinamento ou raciocínio do modelo, como os chips Baidu Kunlun, Ali Hanguang 800...

Diante do mercado de trilhões de dólares gerado pelo poder de computação da IA, as empresas nacionais podem aproveitar essa onda de dividendos? Como os fabricantes de chips domésticos devem superar a "montanha" da Nvidia? Esse é um problema do qual nenhuma empresa pode escapar.

01. O frenesi da IA criou um valor de mercado de trilhões de dólares Nvidia

Homens que adoram usar roupas de couro são os primeiros a aproveitar os dividendos da IA.

No final de 2022, após o lançamento do ChatGPT, ele rapidamente causou um frenesi de IA em todo o mundo. Entre elas, a Nvidia, que tem apostado no futuro da IA, tornou-se uma das empresas que mais beneficiou com a onda do ChatGPT. Na conferência Nvidia GTC deste ano, o fundador e CEO da Nvidia, Jen-Hsun Huang, revelou uma nova inteligência artificial e tecnologia de chip e disse que o "momento iPhone" para inteligência artificial chegou.

Na coletiva de imprensa, Huang Renxun disse que a implantação de modelos de linguagem em larga escala semelhantes ao ChatGPT é uma nova carga de trabalho de raciocínio importante. Entre eles, uma nova arquitetura é adotada. E o chip H100 com um processo mais avançado é o que mais chama a atenção.

Fonte: site oficial da NVIDIA

Esta GPU é uma H100 baseada na arquitetura NVIDIA Hopper, equipada com um motor Transformer projetado para processar e conduzir modelos pré-treinados semelhantes ao ChatGPT. Um servidor padrão com quatro pares de H100s e NVLink dual-GPU pode acelerar o treinamento em um fator de 10 em comparação com o HGX A100 para processamento GPT-3.

"O H100 pode reduzir o custo de processamento de grandes modelos de linguagem em uma ordem de magnitude", disse Huang Renxun certa vez. Com base no chip H100, a Nvidia também construiu o mais recente supercomputador DGX, equipado com 8 GPUs H100, para que possam ser conectadas para formar uma enorme GPU, fornecendo um "blueprint" para a construção da infraestrutura de IA. O supercomputador DGX foi totalmente colocado em produção.

Depois disso, os chips GPU de alto desempenho da Nvidia, como A100, H100, A800 e H800, aumentaram seus preços de acordo, especialmente o chip principal H100, que foi vendido por mais de 40.000 dólares americanos em plataformas de comércio eletrônico no exterior em meados de abril e alguns vendedores chegaram a precificá-lo em 6,5 dez mil dólares americanos.

Ao mesmo tempo, os chips A800 e H800 específicos da Nvidia para a China também foram saqueados. "É basicamente difícil para empresas domésticas de modelos de grande escala obter esses chips. A demanda em todo o mercado excede a demanda e a escassez é muito séria." Zhang Jue, fundador do fornecedor de aquisição de componentes eletrônicos "Guangxin Century", disse francamente para Xinchao IC: "Este ano, este tipo de chip GPU mudou de cerca de RMB 120.000 para RMB 250.000 ou mesmo RMB 300.000, ou mesmo até RMB 500.000."

Não há dúvida de que a liderança tecnológica da Nvidia em GPUs de alto desempenho e seus dois chips AI, o A100 e o H100, são a principal força motriz para modelos de linguagem grandes como o ChatGPT.

Alguns profissionais de computação em nuvem acreditam que 10.000 chips Nvidia A100 são o limite de poder de computação para um bom modelo de IA. O supercomputador AI que a Microsoft construiu para a OpenAI para treinar seus modelos está equipado com 10.000 chips GPU Nvidia. Coincidentemente, as principais empresas domésticas de Internet também fizeram grandes pedidos à Nvidia. De acordo com um relatório do LatePost, a Byte encomendou mais de US$ 1 bilhão em GPUs da Nvidia este ano. Outra grande empresa que não pode ser identificada tem um pedido de pelo menos mais de 1 bilhão. Yuan Renminbi.

O que é ainda mais exagerado é que se essas empresas podem finalmente pegar o cartão depende mais do relacionamento comercial, especialmente se foi um grande cliente da Nvidia no passado. "Quer você fale com a Nvidia da China ou vá aos Estados Unidos para falar diretamente com Lao Huang (Huang Renxun), há uma diferença."

Como resultado, os dados financeiros da Nvidia mais uma vez subiram para novos máximos. Em 25 de maio, a Nvidia divulgou seu relatório financeiro do primeiro trimestre. A receita do negócio de data center onde os chips de IA estão localizados atingiu um recorde, mantendo uma taxa de crescimento ano a ano de mais de 10%.

Huang Renxun revelou que toda a linha de produtos do data center está agora em produção, e a oferta está sendo bastante aumentada para atender ao aumento da demanda.

Uma série de boas notícias impulsionou diretamente o preço das ações da Nvidia cada vez mais alto. Na noite de 30 de maio, o mercado de ações dos EUA abriu e o valor de mercado da Nvidia ultrapassou diretamente US$ 1 trilhão. Em 19 de julho, o valor de mercado total da Nvidia subiu US$ 175 bilhões durante a noite, provocando novamente um boom de investimentos.

De acordo com o site companiesmarketcap, o valor de mercado total da Nvidia ocupa o sexto lugar no mundo, e também é a empresa de chips com o maior valor de mercado atualmente, perto de dois TSMC ($ 533,6 bilhões). O preço das ações da Nvidia subiu cerca de 180% neste ano. Tenho que admitir que essa onda de frenesi de IA deixou a Nvidia de Huang Renxun cheia.

02. É impossível para a Nvidia aproveitar o frenesi de poder de computação

"A Nvidia não terá o monopólio de chips de treinamento e inferência em larga escala para sempre."

Essa foi a resposta do CEO da Tesla, Elon Musk, a um tweet de Adam D'Angelo, CEO do site social de perguntas e respostas e do mercado de conhecimento on-line Quora, que escreveu: "Uma razão pela qual o boom da IA é subestimado são as GPUs. / Escassez de TPU, o que levou a várias restrições no lançamento de produtos e treinamento de modelos, mas nenhuma delas era aparente. Em vez disso, vimos o preço das ações da Nvidia disparar. Assim que a oferta atendeu à demanda, as coisas aceleraram."

Obviamente, o Homem de Ferro do Vale do Silício discorda disso e também comentou: "Muitos outros chips aceleradores de redes neurais também estão em desenvolvimento e a Nvidia não monopolizará o treinamento e o raciocínio em larga escala para sempre."

Uma tempestade se aproxima.

Qual o tamanho do mercado de poder de computação que o frenesi da IA centrado em modelos grandes pode gerar? A Soochow Securities acredita que a demanda por poder de computação de modelos de IA continua a se expandir, abrindo a demanda do mercado por chips de computação de alto desempenho. Estima-se que o tamanho do mercado de chips de IA do meu país chegará a 178 bilhões de yuans em 2025, e o a taxa de crescimento anual composta de 2019 a 2025 atingirá 42,9%. Do ponto de vista do tamanho do mercado, os chips de IA estão engatinhando, mas têm um enorme potencial de crescimento.

O chip AI é um conceito amplo, que geralmente se refere a um módulo especialmente usado para processar tarefas de computação em aplicativos de inteligência artificial. É um hardware de tarefa de computação nascido na era do rápido desenvolvimento de aplicativos de inteligência artificial. Todos os chips para inteligência artificial aplicativos são chamados de chips AI. Existem três rotas técnicas principais: uso geral (GPU), semipersonalizado (FPGA) e personalizado (ASIC).

Do ponto de vista do treinamento de modelos em larga escala, ajuste fino baseado em cenários e cenários de aplicativos de inferência, o poder de computação heterogêneo fornecido por chips CPU + AI, recursos superiores de computação paralela e alta largura de banda de interconexão podem suportar a eficiência máxima da computação AI e torne-se uma solução inteligente A principal solução para computação.

Em termos de participação de mercado, de acordo com a iResearch, até 2027, o mercado de chips de IA da China deve atingir 216,4 bilhões de yuans. Com a otimização dos modelos de IA implementada, a proporção de chips de raciocínio de IA aumentará dia a dia. Em 2022, os chips de treinamento de IA da China e os chips de raciocínio de IA representarão 47,2% e 52,8%, respectivamente.

Atualmente, existem três tipos de players no campo de chips de IA: um são os antigos gigantes de chips representados por Nvidia e AMD, com excelente desempenho de produto; o outro são os gigantes da computação em nuvem representados por Google, Baidu e Huawei. Modelos , e desenvolveram chips de IA, plataformas de aprendizagem profunda, etc. para apoiar o desenvolvimento de modelos grandes. Por exemplo, Kunpeng Ascend da Huawei, CANN e Mindspore, Kunlun Core da Baidu, etc. Finalmente, existem alguns unicórnios de chip AI pequenos e bonitos, como Cambrian, Biren Technology, Tianshu Zhixin, etc.

Embora o surto de modelos domésticos de grande escala possa causar uma lacuna no poder de computação, é apenas uma questão de tempo até que os fabricantes de chips domésticos aproveitem os dividendos da substituição doméstica. Como desenvolvedora de chips de treinamento de IA, Cambrian, o "primeiro estoque de chips de IA", mais uma vez atraiu a atenção do mercado, e o preço de suas ações continuou a subir. O valor de mercado mais recente ultrapassou 90 bilhões.

Na linha de produtos em nuvem, a Cambricon lançou quatro gerações de produtos de chip: Siyuan 100 em 2018, Siyuan 270 em 2019, Siyuan 290 (veículo) em 2020 e a série Siyuan 370 lançada em 2021. É usado para suportar tarefas de processamento de inteligência artificial com rápido crescimento em complexidade e taxa de transferência de dados em cenários de computação em nuvem e data center. Além disso, a Cambrian também possui um produto em pesquisa, o Siyuan 590, que ainda não foi lançado. Além disso, até o final de 2022, a série Siyuan 370 e o produto AIGC Baidu Flying Paddle concluirão os testes de compatibilidade de Nível II.

No entanto, se as empresas domésticas de modelos em grande escala adotaram chips cambrianos ainda não receberam informações precisas. "No campo de chips de IA de ponta, os fabricantes domésticos estão em sua infância e muitas coisas precisam de tempo e dinheiro para serem verificadas", revelou um engenheiro sênior de chips. Mesmo os chips de empresas como Huawei, Baidu e Haiguang Information têm uma lacuna clara em relação aos produtos da Nvidia.

Alguém disse uma vez francamente que a diferença entre a Nvidia e outros fabricantes de chips é a diferença entre acadêmicos e estudantes do ensino médio. Como disse Huang Renxun, a Nvidia "está funcionando", e outros fabricantes de chips que desejam superar os gigantes só podem funcionar descontroladamente.

03. O "Game of Thrones" por trás do grande modelo de IA

Além da Nvidia, a AMD, outra gigante das GPUs, também entrou em ação recentemente.

Recentemente, a AMD lançou o mais recente cartão acelerador. No local da conferência onde a AMD lançou o mais recente cartão acelerador Instinct MI300X, uma linha de palavras foi especialmente digitada no PPT - dedicado a modelos de linguagem grande. Isso é considerado pela indústria como uma declaração direta de guerra contra a Nvidia!

É relatado que a densidade de memória de alta largura de banda (HBM) do MI300X pode atingir até 2,4 vezes a do NVIDIA H100, e a largura de banda da memória de alta largura de banda pode atingir até 1,6 vezes a do H100. Obviamente, o MI300X pode executar um modelo AI maior do que H100.

A série MI300 onde o MI300X está localizado é uma série das mais recentes placas aceleradoras APU criadas pela AMD para AI e HPC. Entre eles, o MI300A é o "modelo básico" e o MI300X é o "modelo otimizado de modelo grande" com maior desempenho de hardware.

No momento, o MI300A foi testado e estima-se que estará disponível para compra em breve; espera-se que o cartão dedicado em grande escala MI300X e a plataforma de computação AMD Instinct integrando 8 MI300X sejam testados no terceiro trimestre deste ano, e será lançado no quarto trimestre.

Nos últimos anos, em comparação com os grandes movimentos da Nvidia no campo da IA, as ações da AMD parecem um pouco lentas. Como disse Eric Jang, CEO da DeepBrain AI, ele sente que a AMD o decepcionou nos últimos anos e nada mudou nos últimos cinco anos. Especialmente durante o surto de AIGC, se a AMD não trabalhar duro para acompanhar, a diferença só aumentará.

Com o lançamento dos produtos da série MI300 da AMD, podemos finalmente ver a AMD e a Nvidia lutando de frente.

Infelizmente, o mercado não parece estar comprando as novas placas da AMD.

Durante esta conferência da AMD, o preço de suas ações não subiu, mas caiu. Em contraste, o preço das ações da Nvidia também subiu uma onda. O sentimento do mercado não é difícil de entender, porque no campo de alta tecnologia, especialmente nos mercados emergentes, está se tornando uma lógica comum no mercado comercial acompanhar cada passo e manter o forte.

Mas, na verdade, após um estudo cuidadoso das razões, pode-se descobrir que a principal razão pela qual a Nvidia monopoliza o mercado de chips de treinamento de inteligência artificial é sua ecologia CUDA autodesenvolvida. Portanto, se o AMD MI300 quiser substituir o Nvidia, primeiro ele precisa ser compatível com o ecossistema CUDA da Nvidia. A AMD lançou o ecossistema ROCm para esse fim e alcançou compatibilidade total com CUDA por meio do HIP, reduzindo assim o custo conhecido dos usuários.

A esse respeito, Murong Yi, um conhecido blogueiro de investimentos, acredita que a dificuldade de seguir o caminho compatível com NVIDIA CUDA é que sua velocidade de atualização nunca consegue acompanhar CUDA e é difícil obter compatibilidade total, ou seja , por um lado, a iteração é sempre um passo mais lenta. A GPU da Nvidia itera rapidamente na microarquitetura e no conjunto de instruções, e as atualizações de função correspondentes são necessárias em muitos lugares na pilha de software superior, mas é impossível para a AMD conhecer o roteiro do produto da Nvidia, e as atualizações de software sempre serão um passo mais lentas do que Nvidia (por exemplo, AMD pode ter acabado de anunciar suporte para CUDA11, mas Nvidia lançou CUDA12); por outro lado, a dificuldade de compatibilidade total aumentará a carga de trabalho dos desenvolvedores. A arquitetura de software de grande escala como CUDA é muito complicado, e a AMD precisa investir muita mão de obra e recursos materiais. Levará anos ou até mais de dez anos para recuperar o atraso, porque inevitavelmente haverá diferenças funcionais e, se a compatibilidade não for bem feita, afetará o desempenho. Portanto, essas também são as principais razões pelas quais todo mundo não está comprando.

De acordo com estimativas da Khaveen Investments, a participação no mercado de GPU de data center da Nvidia chegará a 88% em 2022, e AMD e Intel compartilharão o restante.

Desde que a OpenAI lançou o ChatGPT no ano passado, uma nova rodada de revolução tecnológica continuou a fermentar. Pode-se dizer que nenhum avanço tecnológico atraiu tanto a atenção do mundo quanto o ChatGPT por muitos anos.

Várias empresas de tecnologia, instituições de pesquisa científica e faculdades e universidades no país e no exterior estão acompanhando. Em menos de meio ano, surgiram muitas empresas iniciantes para aplicações de modelos em grande escala e a escala de financiamento repetidamente atingir novos máximos.

De acordo com o blogueiro wgang, Baidu, iFLYTEK, 4Paradigm, Tsinghua University, Fudan e outras grandes fábricas domésticas, empresas iniciantes e instituições de pesquisa científica lançaram sucessivamente modelos de produtos em grande escala:

Fonte: Zhihu wgwang

Percebe-se que não apenas no campo geral, mas também em cenários específicos da indústria, especialmente em alguns campos com forte profissionalismo e alta densidade de conhecimento, as empresas de tecnologia também estão lançando grandes modelos em campos verticais. Por exemplo, Baijiayun (RTC), uma empresa listada nos EUA, lançou recentemente o produto AIGC "Market Easy" com base em sua visão sobre as necessidades de serviço das empresas. Este também é o primeiro mecanismo de modelo GPT em grande escala adequado para cenários de produção de conteúdo dos departamentos de marketing da empresa.

Alguns membros da indústria disseram com um sorriso: "Os modelos domésticos em grande escala criaram uma situação em que grupos de modelos dançam descontroladamente e cem modelos competem. Espera-se que haja mais de 100 modelos em grande escala até o final do ano."

No entanto, o desenvolvimento de grandes modelos requer o suporte de três fatores importantes: algoritmos, capacidade de computação e dados. na China.

A capacidade do chip afeta diretamente o efeito e a velocidade do treinamento de alta computação. Como mencionado acima, apesar do surgimento frequente de produtos domésticos de modelos em grande escala, a julgar pelos chips por trás deles, todas essas plataformas usam GPUs Nvidia A100 e H100 ou as versões especialmente lançadas da Nvidia A800 e A800 após a proibição no ano passado. H800, a largura de banda desses dois processadores é de cerca de 3/4 e cerca de metade da versão original, evitando a limitação padrão de GPU de alto desempenho.

Em março deste ano, a Tencent saiu na frente ao anunciar que havia utilizado o H800, já havia utilizado o H800 na nova versão de serviços de computação de alto desempenho lançada pela Tencent Cloud, e disse ser a primeira na China.

O Alibaba Cloud também propôs internamente em maio deste ano que a "Batalha da Computação Inteligente" seria a batalha número um deste ano, e o número de GPUs se tornou um indicador importante de sua batalha.

Além disso, a Shangtang também anunciou que cerca de 30.000 GPUs foram implantadas em seu cluster de computação "AI large device", das quais 10.000 são Nvidia A100. Byte e Meituan alocam diretamente GPUs de outras equipes de negócios da empresa para treinamento de modelos grandes. Alguns fabricantes, inclusive, buscam diversos produtos de máquinas completas que possam retirar o A100 do mercado desde o segundo semestre de 2022, com o único objetivo de obter chips de GPU. "Existem muitas máquinas e poucos lugares para armazená-las."

Entende-se que as principais empresas de tecnologia nacionais investiram pesadamente em IA e computação em nuvem.No passado, o acúmulo de A100 atingiu dezenas de milhares.

Ao mesmo tempo, as principais empresas de tecnologia da China ainda estão envolvidas em uma nova rodada de concorrência de compras.

De acordo com um provedor de serviços em nuvem, grandes empresas como Byte e Alibaba negociam principalmente as compras diretamente com a fábrica original da Nvidia, e é difícil para agentes e mercados de segunda mão atender às suas enormes necessidades.

Como mencionado acima, a ByteDance encomendou mais de US$ 1 bilhão em produtos GPU da Nvidia este ano. O volume de compras da Byte sozinho este ano está próximo do total de vendas de GPUs comerciais vendidas pela Nvidia na China no ano passado. Segundo relatos, há outra grande empresa com um pedido de pelo menos mais de 1 bilhão de yuans.

Pode-se ver que as grandes empresas de tecnologia da China são muito urgentes para comprar GPUs.

Não apenas as empresas domésticas, mas também os principais clientes estrangeiros têm uma demanda muito forte pelos chips A100/H100 da Nvidia. Segundo as estatísticas, o Baidu, que começou a testar produtos semelhantes ao ChatGPT, tem um gasto anual de capital entre US$ 800 milhões e US$ 2 bilhões desde 2020, e o do Alibaba entre US$ 6 bilhões e US$ 8 bilhões. Durante o mesmo período, Amazon, Meta, Google e Microsoft, as quatro empresas americanas de tecnologia que construíram seus próprios data centers, tiveram investimentos anuais de pelo menos US$ 15 bilhões.

Atualmente, a visibilidade dos pedidos da Nvidia chegou a 2024 e os chips de última geração estão em falta. Com o cronograma de produção atual, até mesmo o A800/H800 não será entregue até o final deste ano ou no ano que vem. No curto prazo, do ponto de vista de sua popularidade, a única coisa que afeta as vendas de GPUs de ponta da Nvidia pode ser a capacidade de produção da TSMC.

04. Por trás da Nvidia "maluca", os chips nacionais são insuficientes tanto em hardware quanto em software?

A julgar pelo fornecimento de chips de produtos de modelos em grande escala, atualmente não há substitutos para A100, H100 e as versões reduzidas de A800 e H800 especialmente fornecidas à China em termos de treinamento de modelos de IA em grande escala.

Então, por que nesta rodada de boom do GPT, a Nvidia assumiu a liderança e teve um bom desempenho?

Zhang Gaonan, sócio-gerente da Huaying Capital, disse que, por um lado, é porque a Nvidia tem o layout mais antigo e sua estrutura de microkernel também evoluiu e melhorou de geração em geração. Agora, seja em termos de simultaneidade, velocidade do barramento ou suporte maduro do microkernel para transformação de matriz, seus recursos já são muito eficientes, incluindo o fornecimento de uma plataforma de computação CUDA muito completa ao mesmo tempo, que de fato se tornou um padrão potencial da indústria para algoritmos de aprendizado profundo.As instalações de suporte de toda a cadeia industrial também são muito completas, e as barreiras de concorrência abrangentes e a profundidade do fosso são extremamente altas.

Resumindo, a insubstituibilidade atual da GPU Nvidia vem do mecanismo de treinamento de grandes modelos. Suas etapas principais são o pré-treinamento e o ajuste fino. O primeiro é estabelecer as bases, o que equivale a receber educação geral Formar-se na universidade ; este último é otimizado para cenários e tarefas específicas para melhorar o desempenho do trabalho.

Então, os chips de GPU domésticos podem suportar os requisitos de energia de computação de modelos grandes?

Em aplicações práticas, a demanda de poder computacional do modelo grande é dividida em duas etapas: uma é o processo de treinamento do modelo grande ChatGPT e a outra é o processo de raciocínio para comercialização do modelo. Ou seja, o treinamento de IA é fazer modelos e o raciocínio de IA é usar modelos, e o treinamento requer um desempenho de chip mais alto.

Com base nisso, as empresas domésticas de chips de IA continuam surgindo, lançando produtos no mercado um após o outro. Empresas como Suiyuan Technology, Biren Technology, Tianshu Zhixin e Cambrian lançaram seus próprios produtos de GPU em nuvem, e os indicadores de desempenho teóricos não são fracos. O chip DCU da Haiguang Information "Shensu No. 1" possui um ecossistema de software e hardware relativamente completo e é compatível com a arquitetura CUDA. E grandes empresas de Internet, como Tencent, Baidu e Ali, também estão implantando vigorosamente no campo de chips de IA por meio de investimento e incubação.

Entre eles, o treinamento de modelos em larga escala precisa processar informações de alta granularidade, o que requer maior precisão e velocidade de computação para chips de treinamento em nuvem. No momento, a maioria das GPUs domésticas não tem a capacidade de suportar treinamento de modelos em larga escala. É adequado para trabalho de inferência em nuvem que não requer uma granularidade tão alta de informações.

* Produtos de IA e ICs de onda central de aplicativos de algumas empresas domésticas relacionadas são classificados de acordo com informações públicas *

Em março deste ano, Baidu Li Yanhong declarou publicamente que o chip Kunlun agora é muito adequado para o raciocínio de modelos grandes e será adequado para treinamento no futuro.

Zou Wei, vice-presidente da Tianshu Zhixin, também disse ao Xinchao IC que ainda há uma certa lacuna entre os chips domésticos e os produtos mais recentes da Nvidia, mas em termos de cálculos de inferência, os chips domésticos podem atingir o mesmo desempenho dos produtos convencionais e com o aplicativo de popularidade da inteligência artificial, a demanda do mercado por chips de raciocínio acelerará o crescimento e, com a expansão da demanda, os chips domésticos também terão um mercado maior.

Outra pessoa do setor que não quis ser identificada disse: "Os produtos de GPU domésticos de uso geral têm uma lacuna em relação aos principais produtos internacionais em atender ao treinamento de modelos em larga escala, mas não é irreparável. É apenas que a indústria tem não projetado na direção de modelos em grande escala na definição do produto ".

Atualmente, os profissionais da indústria estão fazendo explorações e esforços relevantes, como pensar se o poder de computação do chip pode ser melhorado por meio de chiplets e embalagens avançadas. Atualmente, as empresas domésticas de GPU estão fazendo o desenvolvimento e o layout de chips no campo de modelos grandes.

Do ponto de vista do capital, Zhang Gaonan, sócio-gerente da Huaying Capital, disse ao Xinchao IC que Huaying tem prestado muita atenção à infraestrutura de energia de computação há muito tempo. Seja GPU, DPU ou mais computação híbrida fotoelétrica de ponta, computação quântica , há pesquisa e layout direcionados. No geral, concentra-se na infraestrutura de computação de uso geral, como FPGA e computação de ponta. Em contraste, atualmente, muitos chips de poder de computação em torno de aprendizagem profunda, algoritmos especiais, otimização de poder de computação local, etc. não são o foco de sua consideração.

De fato, além da lacuna no desempenho do hardware, o ecossistema de software também é uma deficiência dos fabricantes domésticos de chips de IA.

O chip precisa se adaptar a vários níveis, como sistema de hardware, cadeia de ferramentas, compilador, etc., e precisa de forte adaptabilidade. Caso contrário, esse chip pode executar 90% do poder de computação em uma cena, mas pode executar apenas 90% em outra cena. Ficar sem 80% do cenário de desempenho.

Como mencionado acima, a Nvidia tem vantagens óbvias a esse respeito. Já em 2006, a Nvidia lançou a plataforma de computação CUDA, que é um mecanismo de software de computação paralela. A estrutura CUDA integra muitos códigos necessários para invocar o poder de computação da GPU. Os engenheiros podem usar esses códigos diretamente sem escrevê-los um por um. Os desenvolvedores podem usar o CUDA para realizar treinamento e raciocínio de IA com mais eficiência e fazer melhor uso do poder de computação da GPU. Hoje, CUDA se tornou uma infraestrutura de IA, e as principais estruturas, bibliotecas e ferramentas de IA são desenvolvidas com base em CUDA.

Sem esse conjunto de linguagens de codificação, será extremamente difícil para os engenheiros de software perceber o valor do hardware.

Se GPUs e chips AI que não sejam Nvidia quiserem acessar CUDA, eles precisarão fornecer seu próprio software de adaptação. De acordo com especialistas do setor, entrei em contato com um fabricante de GPU não NVIDIA. Embora suas cotações de chips e serviços sejam mais baixas do que as da NVIDIA e prometam fornecer serviços mais oportunos, os custos gerais de treinamento e desenvolvimento do uso de sua GPU serão maiores do que os da NVIDIA. Comprometa-se a incerteza dos resultados e do tempo de desenvolvimento.

Embora as GPUs Nvidia sejam caras, elas são realmente as mais baratas de usar. Para empresas que pretendem aproveitar a oportunidade de modelos em grande escala, o dinheiro geralmente não é um problema e o tempo é um recurso mais precioso. Todos devem obter poder de computação avançada o mais rápido possível para garantir a vantagem do primeiro a se mover.

Portanto, para fornecedores de chips domésticos, mesmo que um produto com poder de computação comparável possa ser empilhado empilhando chips, é mais difícil para os clientes aceitarem a adaptação e compatibilidade de software. Além disso, do ponto de vista da operação do servidor, as despesas com a placa-mãe, as tarifas de eletricidade, as despesas operacionais e questões como consumo de energia e dissipação de calor que precisam ser consideradas aumentarão muito os custos operacionais do data center.

Como os recursos de poder de computação geralmente precisam ser apresentados na forma de pooling, os data centers geralmente estão mais dispostos a usar o mesmo chip ou chips da mesma empresa para reduzir a dificuldade de pooling de poder de computação.

A liberação do poder de computação requer uma cooperação complexa de software e hardware para transformar o poder de computação teórico do chip em poder de computação efetivo. Para os clientes, não é fácil usar chips de IA domésticos. A substituição de chips de IA em nuvem requer certos custos e riscos de migração, a menos que o novo produto tenha vantagens de desempenho ou possa fornecer problemas que outros não podem resolver em uma determinada dimensão. Caso contrário, a disposição de clientes para substituir é muito baixo.

Como o único fornecedor de GPU que pode realmente processar o ChatGPT, a Nvidia é o merecido "rei do poder de computação da IA". Seis anos atrás, Huang Renxun entregou pessoalmente o primeiro supercomputador equipado com o chip A100 para a OpenAI, ajudou esta última a criar o ChatGPT e se tornou o líder da era da IA.

No entanto, desde que os Estados Unidos implementaram controles de exportação no ano passado, a Nvidia foi proibida de exportar dois de seus chips GPU mais avançados, o H100 e o A100, para a China. Este é, sem dúvida, um golpe para as empresas de aplicativos downstream.

Do ponto de vista da segurança e do autocontrole, isso também oferece uma nova janela de oportunidade para as empresas de chips domésticas. Embora os chips domésticos sejam inferiores aos gigantes da indústria como Nvidia e AMD em termos de desempenho e ecologia de software, impulsionados por complexas relações comerciais internacionais e fatores geopolíticos, a "substituição doméstica" tornou-se o tema principal do desenvolvimento da indústria doméstica de semicondutores.

05. Conclusão

Cada aumento no poder de computação desencadeará uma onda de mudanças tecnológicas e industriais: as CPUs conduzem a humanidade à era do PC, os chips móveis desencadeiam uma onda de Internet móvel e os chips de IA quebram o gargalo de poder de computação de décadas na IA indústria.

Hoje, o "momento AI iPhone" chegou e o caminho para a próxima era já pode estar à nossa frente.

Embora os campos de chips de IA e sistemas de software nesses centros de dados ainda sejam dominados por fabricantes estrangeiros, a porta do mercado para a "localização do poder de computação" pode estar se abrindo agora.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)