**OpenAI monte également un âne pour trouver un cheval et souhaite se débarrasser le plus rapidement possible de sa dépendance à l'égard de Nvidia. **
Selon Reuters, OpenAI discute de diverses solutions depuis au moins l'année dernière, dans l'espoir de résoudre le problème des puces coûteuses et rares. Parmi elles, les puces auto-développées sont l’une des options, et cette option n’a pas encore été complètement rejetée.
Une autre option consiste à acquérir directement une entreprise de puces. Des personnes proches du dossier ont déclaré qu'OpenAI avait déjà des cibles d'acquisition potentielles et avait envisagé de procéder à une vérification diligente à leur sujet. Cependant, le rapport n’a pas réussi à identifier le fabricant de puces spécifique.
**Par coïncidence, une autre nouvelle arrive en même temps : Microsoft lancera sa première puce « Athena » conçue pour l'IA lors de sa conférence annuelle des développeurs le mois prochain. **
Selon The Information, citant des personnes proches du dossier, Athena sera utilisé dans des serveurs de centres de données, conçus pour former de grands modèles de langage, etc., tout en prenant en charge l'inférence, et pourra alimenter tous les logiciels d'IA derrière ChatGPT.
Le cloud est devenu un champ de bataille important pour les grands modèles, et les deux concurrents de Microsoft dans ce domaine, Google et Amazon, disposent déjà de leurs propres puces IA. Le lancement d'Athena permettra à Microsoft de combler ses lacunes.
Les progrès de Microsoft et d'OpenAI sur les questions de puces sont tout à fait représentatifs : en termes de rôles, c'est la collaboration tripartite de Microsoft, OpenAI et NVIDIA qui a fait de ChatGPT une réalité, ce qui a déclenché à son tour une nouvelle vague d'AIGC mondiale ; en termes du temps, prochain Ce mois-ci fait exactement un an depuis le lancement de ChatGPT.
**Le prochain objectif de la compétition des grands modèles semble être "qui peut 'vider' NVIDIA en premier. " NVIDIA, qui domine dans le domaine des puces, est devenu une entrave qui doit être libérée de toute urgence. **
En 2016, OpenAI, qui n'avait qu'un an, accueillait un invité de marque, le PDG de Nvidia, Jensen Huang. Il a personnellement offert à OpenAI le premier petit supercalculateur léger DGX-1. OpenAI peut effectuer des calculs d'un an en un mois avec DGX-1.
De nos jours, les gens qui tardent à revenir sur la signature de Huang Renxun sur le DGX-1 « pour l'avenir de l'informatique et de l'humanité » et s'exclament devant les yeux vicieux du « leader vêtu de cuir ».
En 2019, Microsoft s'est associé à OpenAI pour créer un supercalculateur utilisant des dizaines de milliers de GPU NVIDIA A100. De cette façon, OpenAI a contribué aux efforts, Microsoft a contribué de l'argent et NVIDIA a fourni l'infrastructure, en utilisant une puissance de calcul incroyable pour soutenir la recherche et le développement du grand modèle d'OpenAI, et a finalement travaillé dur pour réaliser des miracles. ChatGPT a été lancé en novembre 2022, stupéfiant le monde. .
OpenAI est devenue une entreprise vedette, Microsoft se bat farouchement contre Google et d'autres avec sa stratégie d'IA, et la valeur marchande de Nvidia est passée de plus de 300 milliards de dollars en novembre de l'année dernière à plus de mille milliards de dollars aujourd'hui. Il existe un engouement pour les gros modèles dans le monde entier : en tant que « vendeur », NVIDIA n'a aucun souci pour vendre des puces.
En juillet de cette année, Christopher Danely, analyste de recherche chez Citi, a souligné dans un rapport que Nvidia occuperait « au moins 90 % » du marché des puces IA.
**Cependant, dans ce jeu à « trois victoires », seul Huang Renxun est peut-être complètement heureux. Pour les « acheteurs d’eau » représentés par Microsoft et OpenAI, s’appuyer sur les puces de Nvidia pose au moins deux problèmes. **
Le premier problème est que cela coûte cher. Quant au supercalculateur construit pour OpenAI, selon Bloomberg, Microsoft a dépensé des centaines de millions de dollars pour le projet. Stacy Rasgon, analyste chez Bernstein Research, a analysé que ChatGPT coûte environ 4 cents par requête. Si le volume de requêtes de ChatGPT atteignait un dixième de celui des recherches Google, il faudrait environ 48,1 milliards de dollars en GPU et 16 milliards de dollars supplémentaires en puces par an pour continuer à fonctionner.
Le deuxième problème est la rareté. En juin dernier, Sam Altman, PDG d'OpenAI, a déclaré lors d'une conférence que la pénurie de puces avait entravé le développement de ChatGPT. Face aux plaintes des clients concernant la fiabilité et la vitesse de l'API, Altman a expliqué que la plupart des problèmes sont causés par des pénuries de puces.
La nouvelle Nvidia H100 lancée cette année est actuellement la puce IA la plus populaire, mais elle ne peut répondre qu'à la moitié de la demande du marché. Les Nvidia H100 et A100 sont tous deux produits par TSMC. Le président de TSMC, Liu Deyin, a expliqué le mois dernier que les contraintes d'approvisionnement ne sont pas dues à un manque de puces physiques, mais à une capacité limitée dans les services avancés de conditionnement de puces (CoWos), qui constituent une étape clé dans la fabrication. processus.
** Liu Deyin prédit également que la capacité de production technique sera suffisante pour répondre à la demande des clients dans un an et demi, ce qui signifie que le manque d'approvisionnement en puces d'IA pourrait être atténué d'ici la fin de 2024. **
Même si Athena ne sera peut-être pas lancé avant cette année, Microsoft s'y prépare depuis des années. En 2019, alors que des centaines de millions de dollars ont été dépensés pour construire un supercalculateur pour OpenAI, le projet Athena de Microsoft a été lancé. Selon l'actualité, Athena sera construit à l'aide du processus 5 nm de TSMC, comparant directement le Nvidia A100, et devrait réduire le coût par puce d'un tiers.
**Pour Nvidia, l'égoïsme de Microsoft et d'OpenAI est un signal rouge. **
Microsoft est l'un des plus gros clients de NVIDIA, et il a même été question d'un « arrondi » de la capacité de production du H100 pour une année complète. OpenAI est la girouette la plus importante dans le domaine de l'AIGC. L'ambition des deux sociétés de développer des puces auto-développées constitue un nuage noir au-dessus de la tête de Nvidia.
Google a été la première entreprise à acheter des GPU à grande échelle pour l'informatique IA, mais a ensuite développé ses propres puces spécifiques à l'IA. La première génération de TPU (Tensor Processing Unit) a été lancée en 2016, puis a été lancée sous le nom d'infrastructure Google Cloud Google TPU en 2017. Google a continué à itérer au fil des années : en avril de cette année, il a annoncé les détails du TPU v4, affirmant qu'il était 1,7 fois plus puissant que l'A100 de Nvidia.
Bien que Google achète toujours des GPU Nvidia en gros, ses services cloud utilisent déjà ses propres TPU. Dans cette bataille de l'AIGC, la société de cartographie d'IA Midjourney et la société licorne Anthropic, qui a un concurrent de ChatGPT Cloude, n'ont pas acheté de puces à Nvidia pour construire un supercalculateur comme OpenAI, mais ont utilisé la puissance de calcul de Google.
Un autre géant de la technologie, Amazon, a également agi assez tôt : il a acquis la start-up israélienne de puces Annapurna Labs en 2015 pour développer des puces personnalisées pour son infrastructure cloud et a lancé trois ans plus tard la puce pour serveur Graviton, basée sur Arm. Plus tard, Amazon a lancé Inferentia, Trainium, une puce axée sur l'intelligence artificielle.
**Le mois dernier, il a été annoncé qu'Amazon investirait 4 milliards de dollars dans Anthropic. Dans le cadre de cet accord, Anthropic utilisera les puces AWS Trainium et Inferentia pour construire, former et déployer ses futurs modèles de base. **
Par ailleurs, d’autres concurrents de Nvidia lancent également des attaques dans le domaine des puces IA. AMD, Intel, IBM… lancent successivement des puces IA pour tenter de concurrencer les produits de Nvidia. En juin de cette année, AMD a publié Instinct MI300, qui compare directement NVIDIA H100 et est un accélérateur spécifiquement pour AIGC. Le nombre de transistors intégrés atteint 153 milliards, ce qui est supérieur aux 80 milliards du H100. Il s'agit de la plus grande puce d'AMD depuis sa mise en production. AMD utilise même la stratégie de compatibilité avec le CUDA de NVIDIA pour abaisser le seuil de migration pour les clients.
Il est indéniable que Nvidia détient toujours un quasi-monopole sur le marché des puces IA : aucun concurrent ne peut ébranler sa position et aucun géant de la technologie ne peut se débarrasser complètement de sa dépendance à son égard.
Mais « réduire le contrôle de Nvidia » semble être devenu un consensus, et les défis extérieurs se succèdent. La nouvelle selon laquelle Microsoft et OpenAI développent des puces auto-développées est une nouvelle vague. Nvidia peut-il tenir bon ?
Les références:
Cœur de la machine : « Amazon vient d'investir 4 milliards de dollars américains, Google et d'autres investiront 2 milliards supplémentaires, et la valorisation d'Anthropic s'envole »
Sina Technology : « La pénurie de puces IA pèse sur les revenus des entreprises technologiques. Les livraisons de Nvidia H100 devraient au moins tripler l'année prochaine. »
CSDN : « Après avoir dépensé des centaines de millions de dollars et des dizaines de milliers de GPU Nvidia, Microsoft révèle le passé des supercalculateurs derrière la construction de ChatGPT ! 》
Wall Street Insights : « Déposez votre fierté ! » Comment Microsoft parie gros sur OpenAI》
Jiemian News : « La puce d'intelligence artificielle « Athena » développée par Microsoft a fait surface, dans le but de briser le monopole de Nvidia en matière de puissance de calcul »
Institut de recherche Yuanchuan : « Une fissure dans l'empire NVIDIA »
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Qui peut « vider » Nvidia en premier ?
Source originale : Liste alphabétique
Auteur : Bi Andi
**OpenAI monte également un âne pour trouver un cheval et souhaite se débarrasser le plus rapidement possible de sa dépendance à l'égard de Nvidia. **
Selon Reuters, OpenAI discute de diverses solutions depuis au moins l'année dernière, dans l'espoir de résoudre le problème des puces coûteuses et rares. Parmi elles, les puces auto-développées sont l’une des options, et cette option n’a pas encore été complètement rejetée.
Une autre option consiste à acquérir directement une entreprise de puces. Des personnes proches du dossier ont déclaré qu'OpenAI avait déjà des cibles d'acquisition potentielles et avait envisagé de procéder à une vérification diligente à leur sujet. Cependant, le rapport n’a pas réussi à identifier le fabricant de puces spécifique.
**Par coïncidence, une autre nouvelle arrive en même temps : Microsoft lancera sa première puce « Athena » conçue pour l'IA lors de sa conférence annuelle des développeurs le mois prochain. **
Le cloud est devenu un champ de bataille important pour les grands modèles, et les deux concurrents de Microsoft dans ce domaine, Google et Amazon, disposent déjà de leurs propres puces IA. Le lancement d'Athena permettra à Microsoft de combler ses lacunes.
Les progrès de Microsoft et d'OpenAI sur les questions de puces sont tout à fait représentatifs : en termes de rôles, c'est la collaboration tripartite de Microsoft, OpenAI et NVIDIA qui a fait de ChatGPT une réalité, ce qui a déclenché à son tour une nouvelle vague d'AIGC mondiale ; en termes du temps, prochain Ce mois-ci fait exactement un an depuis le lancement de ChatGPT.
**Le prochain objectif de la compétition des grands modèles semble être "qui peut 'vider' NVIDIA en premier. " NVIDIA, qui domine dans le domaine des puces, est devenu une entrave qui doit être libérée de toute urgence. **
De nos jours, les gens qui tardent à revenir sur la signature de Huang Renxun sur le DGX-1 « pour l'avenir de l'informatique et de l'humanité » et s'exclament devant les yeux vicieux du « leader vêtu de cuir ».
En 2019, Microsoft s'est associé à OpenAI pour créer un supercalculateur utilisant des dizaines de milliers de GPU NVIDIA A100. De cette façon, OpenAI a contribué aux efforts, Microsoft a contribué de l'argent et NVIDIA a fourni l'infrastructure, en utilisant une puissance de calcul incroyable pour soutenir la recherche et le développement du grand modèle d'OpenAI, et a finalement travaillé dur pour réaliser des miracles. ChatGPT a été lancé en novembre 2022, stupéfiant le monde. .
En juillet de cette année, Christopher Danely, analyste de recherche chez Citi, a souligné dans un rapport que Nvidia occuperait « au moins 90 % » du marché des puces IA.
**Cependant, dans ce jeu à « trois victoires », seul Huang Renxun est peut-être complètement heureux. Pour les « acheteurs d’eau » représentés par Microsoft et OpenAI, s’appuyer sur les puces de Nvidia pose au moins deux problèmes. **
Le premier problème est que cela coûte cher. Quant au supercalculateur construit pour OpenAI, selon Bloomberg, Microsoft a dépensé des centaines de millions de dollars pour le projet. Stacy Rasgon, analyste chez Bernstein Research, a analysé que ChatGPT coûte environ 4 cents par requête. Si le volume de requêtes de ChatGPT atteignait un dixième de celui des recherches Google, il faudrait environ 48,1 milliards de dollars en GPU et 16 milliards de dollars supplémentaires en puces par an pour continuer à fonctionner.
Le deuxième problème est la rareté. En juin dernier, Sam Altman, PDG d'OpenAI, a déclaré lors d'une conférence que la pénurie de puces avait entravé le développement de ChatGPT. Face aux plaintes des clients concernant la fiabilité et la vitesse de l'API, Altman a expliqué que la plupart des problèmes sont causés par des pénuries de puces.
La nouvelle Nvidia H100 lancée cette année est actuellement la puce IA la plus populaire, mais elle ne peut répondre qu'à la moitié de la demande du marché. Les Nvidia H100 et A100 sont tous deux produits par TSMC. Le président de TSMC, Liu Deyin, a expliqué le mois dernier que les contraintes d'approvisionnement ne sont pas dues à un manque de puces physiques, mais à une capacité limitée dans les services avancés de conditionnement de puces (CoWos), qui constituent une étape clé dans la fabrication. processus.
** Liu Deyin prédit également que la capacité de production technique sera suffisante pour répondre à la demande des clients dans un an et demi, ce qui signifie que le manque d'approvisionnement en puces d'IA pourrait être atténué d'ici la fin de 2024. **
Même si Athena ne sera peut-être pas lancé avant cette année, Microsoft s'y prépare depuis des années. En 2019, alors que des centaines de millions de dollars ont été dépensés pour construire un supercalculateur pour OpenAI, le projet Athena de Microsoft a été lancé. Selon l'actualité, Athena sera construit à l'aide du processus 5 nm de TSMC, comparant directement le Nvidia A100, et devrait réduire le coût par puce d'un tiers.
Microsoft est l'un des plus gros clients de NVIDIA, et il a même été question d'un « arrondi » de la capacité de production du H100 pour une année complète. OpenAI est la girouette la plus importante dans le domaine de l'AIGC. L'ambition des deux sociétés de développer des puces auto-développées constitue un nuage noir au-dessus de la tête de Nvidia.
Google a été la première entreprise à acheter des GPU à grande échelle pour l'informatique IA, mais a ensuite développé ses propres puces spécifiques à l'IA. La première génération de TPU (Tensor Processing Unit) a été lancée en 2016, puis a été lancée sous le nom d'infrastructure Google Cloud Google TPU en 2017. Google a continué à itérer au fil des années : en avril de cette année, il a annoncé les détails du TPU v4, affirmant qu'il était 1,7 fois plus puissant que l'A100 de Nvidia.
Bien que Google achète toujours des GPU Nvidia en gros, ses services cloud utilisent déjà ses propres TPU. Dans cette bataille de l'AIGC, la société de cartographie d'IA Midjourney et la société licorne Anthropic, qui a un concurrent de ChatGPT Cloude, n'ont pas acheté de puces à Nvidia pour construire un supercalculateur comme OpenAI, mais ont utilisé la puissance de calcul de Google.
Un autre géant de la technologie, Amazon, a également agi assez tôt : il a acquis la start-up israélienne de puces Annapurna Labs en 2015 pour développer des puces personnalisées pour son infrastructure cloud et a lancé trois ans plus tard la puce pour serveur Graviton, basée sur Arm. Plus tard, Amazon a lancé Inferentia, Trainium, une puce axée sur l'intelligence artificielle.
Par ailleurs, d’autres concurrents de Nvidia lancent également des attaques dans le domaine des puces IA. AMD, Intel, IBM… lancent successivement des puces IA pour tenter de concurrencer les produits de Nvidia. En juin de cette année, AMD a publié Instinct MI300, qui compare directement NVIDIA H100 et est un accélérateur spécifiquement pour AIGC. Le nombre de transistors intégrés atteint 153 milliards, ce qui est supérieur aux 80 milliards du H100. Il s'agit de la plus grande puce d'AMD depuis sa mise en production. AMD utilise même la stratégie de compatibilité avec le CUDA de NVIDIA pour abaisser le seuil de migration pour les clients.
Il est indéniable que Nvidia détient toujours un quasi-monopole sur le marché des puces IA : aucun concurrent ne peut ébranler sa position et aucun géant de la technologie ne peut se débarrasser complètement de sa dépendance à son égard.
Mais « réduire le contrôle de Nvidia » semble être devenu un consensus, et les défis extérieurs se succèdent. La nouvelle selon laquelle Microsoft et OpenAI développent des puces auto-développées est une nouvelle vague. Nvidia peut-il tenir bon ?
Les références:
Cœur de la machine : « Amazon vient d'investir 4 milliards de dollars américains, Google et d'autres investiront 2 milliards supplémentaires, et la valorisation d'Anthropic s'envole »
Sina Technology : « La pénurie de puces IA pèse sur les revenus des entreprises technologiques. Les livraisons de Nvidia H100 devraient au moins tripler l'année prochaine. »
CSDN : « Après avoir dépensé des centaines de millions de dollars et des dizaines de milliers de GPU Nvidia, Microsoft révèle le passé des supercalculateurs derrière la construction de ChatGPT ! 》
Wall Street Insights : « Déposez votre fierté ! » Comment Microsoft parie gros sur OpenAI》
Jiemian News : « La puce d'intelligence artificielle « Athena » développée par Microsoft a fait surface, dans le but de briser le monopole de Nvidia en matière de puissance de calcul »
Institut de recherche Yuanchuan : « Une fissure dans l'empire NVIDIA »