Com o desenvolvimento do boom da inteligência artificial, os concorrentes de longa data da Intel, como a Nvidia e a Broadcom* (Broadcom: a receita de chips cresceu mais do que o esperado no segundo trimestre deste ano e, no próximo ano fiscal, o negócio de chips relacionados à IA da Broadcom deve dobrar para US$ 7 bilhões, tornando-se a segunda maior empresa de chips de IA do mundo depois da Nvidia)* e outras empresas estão brilhando nessa onda de inteligência artificial, mas a Intel não parece ter acompanhado o ritmo da inteligência artificial.
Já em maio de 2023, na conferência de supercomputação na Alemanha, a Intel Corporation (INTC.O) anunciou os parâmetros do chip GPU Falcon Shores planejado para ser lançado em 2025 da seguinte forma: as especificações de memória de alta largura de banda (HBM3) chegarão a 288GB, suportarão aritmética de ponto flutuante de 8 bits e a largura de banda total pode chegar a 9,8 TB/s.
Além disso, há a próxima entrega do supercomputador Aurora, baseado em Ponte Vecchio, ao Laboratório Nacional Argonne, nos Estados Unidos. No entanto, devido à velocidade de lançamento de chips**, por exemplo, os chips de acompanhamento da Falcon Shores não estarão disponíveis até 2025, e ainda é difícil competir com empresas como a Nvidia, que lançaram produtos rapidamente. **
O evento da Intel em 19 de setembro de 2023 no Intel Innovation Center em San Jose, Califórnia, também destacou o pensamento sobre IA, com Pat Gelsinger em particular apresentando vários pontos no primeiro dia da Intel Innovation:
Sobre o progresso da tecnologia de processo: A Intel continua no caminho certo para seu plano de cinco nós de processo ao longo de quatro anos. A empresa apresentou o primeiro pacote multi-chipset para interconexão usando o Universal Chip Interconnect Expression (UCIe).
Processadores Intel Xeon Xeon de próxima geração: A Intel compartilhou detalhes dos próximos processadores Xeon Xeon. Esses processadores oferecerão melhorias significativas na eficiência energética e no desempenho. Eles também lançaram um processador E-core com 288 núcleos. A quinta geração de processadores Intel Xeon Xeon será lançada em 14 de dezembro.
Lançamento de AI PCs: A Intel lançará processadores Intel Core Ultra e lançará AI PCs em 14 de dezembro. Isso marca a primeira incursão da Intel em uma unidade de processamento neural (NPU) integrada para oferecer aceleração eficiente de IA diretamente em PCs.
AI Supercomputer: A Intel está construindo um enorme supercomputador de IA baseado em processadores Intel Xeon Xeon e aceleradores de hardware Intel Gaudi2 AI. A IA de estabilidade é um grande cliente, e o Alibaba também pretende usar processadores Xeon Xeon de quarta geração em seu mecanismo de inferência.
Intel Developer Cloud: A Intel anunciou a disponibilidade geral do Intel Developer Cloud. A plataforma foi projetada para ser usada para construir e testar aplicações de alto desempenho, incluindo inteligência artificial. Ele já está sendo usado por vários clientes e já esteve em versão beta.
Soluções de software: A Intel apresentou as próximas soluções de software, incluindo a versão 2023.1 do kit de ferramentas Intel OpenVINO. Isso ajudará os desenvolvedores a tirar proveito dos novos recursos de IA.
Cliente aposta em IA: O novo processador Core Ultra, codinome "Meteor Lake", é o movimento estratégico da Intel para impulsionar a IA no lado do cliente. Como Gelsinger explica, a combinação de IA, nuvem e PC transformará e melhorará drasticamente a experiência do PC.
Recursos do processador Core Ultra: O processador Core Ultra é equipado com o primeiro NPU integrado da Intel para operações eficientes de IA. Este é o primeiro design de chip de cliente da Intel suportado pela tecnologia de embalagem 3D Foveros. Além da NPU, o processador fez um progresso significativo na eficiência energética graças à tecnologia de processo Intel 4. Além disso, oferece gráficos Intel Arc integrados com desempenho gráfico de nível discreto.
Estratégia mais recente
**Recentemente, a Information informou que a Intel tem um novo arranjo estratégico e está trabalhando com várias empresas de consultoria para construir aplicativos semelhantes ao ChatGPT para clientes que não têm conhecimento especializado. O projeto foi lançado no início deste ano em parceria com o Boston Consulting Group, e será estabelecido com outras empresas de consultoria ao longo do tempo. **
Além disso, a Intel planeja vender aplicativos To B diretamente para clientes corporativos.
No entanto, a maioria dos clientes de IA atualmente compra grandes serviços de modelos de linguagem de empresas como a OpenAI. No entanto, a Intel quer trabalhar com uma grande empresa de consultoria para ajudar os clientes a encontrar o modelo certo para suas necessidades específicas.
Especificamente, a Intel desenvolve software que auxilia os clientes com o ajuste do modelo. Isso permite que os clientes desenvolvam seus próprios aplicativos semelhantes ao ChatGPT e ferramentas de pesquisa baseadas em IA. No entanto, a Intel ainda não anunciou totalmente os recursos, benefícios e custos e preços específicos deste serviço, e estima-se que ele será anunciado oficialmente nos próximos meses.
**As ações da Intel demonstram plenamente a importância da inteligência artificial como layout estratégico nas empresas de tecnologia. O envolvimento da Intel no desenvolvimento de software significa que, neste momento, se os clientes usam os chips da Intel não é o mais importante. A notícia também disse que a Intel planeja direcionar alguns clientes para usar os chips Gaudi e Xeon da Intel para impulsionar LLMs. Ao mesmo tempo, a Nvidia também está trabalhando para construir um negócio significativo de software de IA, embora seu foco esteja em clientes que já estão usando seus processadores gráficos, que dominam a computação de IA.
Mas há uma tendência a favor da Intel: reduzir custos e aumentar a eficiência é importante para todos: depois que muitas empresas lançaram rapidamente novos produtos para ajudar funcionários ou clientes a resumir o conteúdo da reunião, automatizar a codificação de software ou gerar e-mails para leads, as empresas que usam essas ferramentas nos EUA estão procurando reduzir os gastos com LLM.
De acordo com o The Information, os primeiros grandes clientes da OpenAI estão procurando alternativas mais baratas, enquanto a Microsoft, em alguns casos, quer usar modelos de IA de código aberto mais simples e baratos em vez dos da OpenAI, que são mais caros de executar. Como outros provedores de IA com confiança no mercado, a Intel agora pode se beneficiar de uma seleção crescente de grandes necessidades de modelos.
No entanto, a Intel ainda tem que competir com provedores de serviços de nuvem tradicionais, bem como pequenas empresas de consultoria estabelecidas que ajudam os clientes com servidores em nuvem e inteligência artificial. Provedores de serviços em nuvem como Microsoft, Amazon e Google querem absorver a maior parte dos gastos corporativos associados a LLMs de IA alugando servidores dedicados para treinar e executar LLMs de IA (especialmente porque a Microsoft fez algum progresso nessa área). Ao mesmo tempo, a Nvidia está tentando se colocar entre esses provedores de serviços em nuvem e seus clientes, usando seus servidores alimentados por chips para executar seus próprios serviços de nuvem.
Embora possa parecer um pouco tarde, a força da Intel é "muito dinheiro e um forte motor de marketing". **
Bibliografia:***
CEO da Intel: 'Vamos construir IA em todas as plataformas que construímos' -
The VergeAI Laggard Intel expande esforços para ajudar as empresas a construir aplicativos semelhantes ao ChatGPT — As informações
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Diante da onda de inteligência artificial, a escolha da Intel
Fonte: Alpha Rabbit Research Notes
Com o desenvolvimento do boom da inteligência artificial, os concorrentes de longa data da Intel, como a Nvidia e a Broadcom* (Broadcom: a receita de chips cresceu mais do que o esperado no segundo trimestre deste ano e, no próximo ano fiscal, o negócio de chips relacionados à IA da Broadcom deve dobrar para US$ 7 bilhões, tornando-se a segunda maior empresa de chips de IA do mundo depois da Nvidia)* e outras empresas estão brilhando nessa onda de inteligência artificial, mas a Intel não parece ter acompanhado o ritmo da inteligência artificial.
Já em maio de 2023, na conferência de supercomputação na Alemanha, a Intel Corporation (INTC.O) anunciou os parâmetros do chip GPU Falcon Shores planejado para ser lançado em 2025 da seguinte forma: as especificações de memória de alta largura de banda (HBM3) chegarão a 288GB, suportarão aritmética de ponto flutuante de 8 bits e a largura de banda total pode chegar a 9,8 TB/s.
Além disso, há a próxima entrega do supercomputador Aurora, baseado em Ponte Vecchio, ao Laboratório Nacional Argonne, nos Estados Unidos. No entanto, devido à velocidade de lançamento de chips**, por exemplo, os chips de acompanhamento da Falcon Shores não estarão disponíveis até 2025, e ainda é difícil competir com empresas como a Nvidia, que lançaram produtos rapidamente. **
O evento da Intel em 19 de setembro de 2023 no Intel Innovation Center em San Jose, Califórnia, também destacou o pensamento sobre IA, com Pat Gelsinger em particular apresentando vários pontos no primeiro dia da Intel Innovation:
Sobre o progresso da tecnologia de processo: A Intel continua no caminho certo para seu plano de cinco nós de processo ao longo de quatro anos. A empresa apresentou o primeiro pacote multi-chipset para interconexão usando o Universal Chip Interconnect Expression (UCIe).
Processadores Intel Xeon Xeon de próxima geração: A Intel compartilhou detalhes dos próximos processadores Xeon Xeon. Esses processadores oferecerão melhorias significativas na eficiência energética e no desempenho. Eles também lançaram um processador E-core com 288 núcleos. A quinta geração de processadores Intel Xeon Xeon será lançada em 14 de dezembro.
Lançamento de AI PCs: A Intel lançará processadores Intel Core Ultra e lançará AI PCs em 14 de dezembro. Isso marca a primeira incursão da Intel em uma unidade de processamento neural (NPU) integrada para oferecer aceleração eficiente de IA diretamente em PCs.
AI Supercomputer: A Intel está construindo um enorme supercomputador de IA baseado em processadores Intel Xeon Xeon e aceleradores de hardware Intel Gaudi2 AI. A IA de estabilidade é um grande cliente, e o Alibaba também pretende usar processadores Xeon Xeon de quarta geração em seu mecanismo de inferência.
Intel Developer Cloud: A Intel anunciou a disponibilidade geral do Intel Developer Cloud. A plataforma foi projetada para ser usada para construir e testar aplicações de alto desempenho, incluindo inteligência artificial. Ele já está sendo usado por vários clientes e já esteve em versão beta.
Soluções de software: A Intel apresentou as próximas soluções de software, incluindo a versão 2023.1 do kit de ferramentas Intel OpenVINO. Isso ajudará os desenvolvedores a tirar proveito dos novos recursos de IA.
Cliente aposta em IA: O novo processador Core Ultra, codinome "Meteor Lake", é o movimento estratégico da Intel para impulsionar a IA no lado do cliente. Como Gelsinger explica, a combinação de IA, nuvem e PC transformará e melhorará drasticamente a experiência do PC.
Recursos do processador Core Ultra: O processador Core Ultra é equipado com o primeiro NPU integrado da Intel para operações eficientes de IA. Este é o primeiro design de chip de cliente da Intel suportado pela tecnologia de embalagem 3D Foveros. Além da NPU, o processador fez um progresso significativo na eficiência energética graças à tecnologia de processo Intel 4. Além disso, oferece gráficos Intel Arc integrados com desempenho gráfico de nível discreto.
Estratégia mais recente
**Recentemente, a Information informou que a Intel tem um novo arranjo estratégico e está trabalhando com várias empresas de consultoria para construir aplicativos semelhantes ao ChatGPT para clientes que não têm conhecimento especializado. O projeto foi lançado no início deste ano em parceria com o Boston Consulting Group, e será estabelecido com outras empresas de consultoria ao longo do tempo. **
Além disso, a Intel planeja vender aplicativos To B diretamente para clientes corporativos.
No entanto, a maioria dos clientes de IA atualmente compra grandes serviços de modelos de linguagem de empresas como a OpenAI. No entanto, a Intel quer trabalhar com uma grande empresa de consultoria para ajudar os clientes a encontrar o modelo certo para suas necessidades específicas.
Especificamente, a Intel desenvolve software que auxilia os clientes com o ajuste do modelo. Isso permite que os clientes desenvolvam seus próprios aplicativos semelhantes ao ChatGPT e ferramentas de pesquisa baseadas em IA. No entanto, a Intel ainda não anunciou totalmente os recursos, benefícios e custos e preços específicos deste serviço, e estima-se que ele será anunciado oficialmente nos próximos meses.
**As ações da Intel demonstram plenamente a importância da inteligência artificial como layout estratégico nas empresas de tecnologia. O envolvimento da Intel no desenvolvimento de software significa que, neste momento, se os clientes usam os chips da Intel não é o mais importante. A notícia também disse que a Intel planeja direcionar alguns clientes para usar os chips Gaudi e Xeon da Intel para impulsionar LLMs. Ao mesmo tempo, a Nvidia também está trabalhando para construir um negócio significativo de software de IA, embora seu foco esteja em clientes que já estão usando seus processadores gráficos, que dominam a computação de IA.
Mas há uma tendência a favor da Intel: reduzir custos e aumentar a eficiência é importante para todos: depois que muitas empresas lançaram rapidamente novos produtos para ajudar funcionários ou clientes a resumir o conteúdo da reunião, automatizar a codificação de software ou gerar e-mails para leads, as empresas que usam essas ferramentas nos EUA estão procurando reduzir os gastos com LLM.
De acordo com o The Information, os primeiros grandes clientes da OpenAI estão procurando alternativas mais baratas, enquanto a Microsoft, em alguns casos, quer usar modelos de IA de código aberto mais simples e baratos em vez dos da OpenAI, que são mais caros de executar. Como outros provedores de IA com confiança no mercado, a Intel agora pode se beneficiar de uma seleção crescente de grandes necessidades de modelos.
No entanto, a Intel ainda tem que competir com provedores de serviços de nuvem tradicionais, bem como pequenas empresas de consultoria estabelecidas que ajudam os clientes com servidores em nuvem e inteligência artificial. Provedores de serviços em nuvem como Microsoft, Amazon e Google querem absorver a maior parte dos gastos corporativos associados a LLMs de IA alugando servidores dedicados para treinar e executar LLMs de IA (especialmente porque a Microsoft fez algum progresso nessa área). Ao mesmo tempo, a Nvidia está tentando se colocar entre esses provedores de serviços em nuvem e seus clientes, usando seus servidores alimentados por chips para executar seus próprios serviços de nuvem.
Embora possa parecer um pouco tarde, a força da Intel é "muito dinheiro e um forte motor de marketing". **
Bibliografia:***