Alors que la pénurie de puces pour la formation des modèles d'intelligence artificielle s'aggrave, OpenAI, le développeur derrière ChatGPT, explore la fabrication de ses propres puces d'IA et a évalué des cibles d'acquisition potentielles, selon des personnes proches du dossier. Depuis au moins l’année dernière, OpenAI a discuté de diverses options pour remédier à la pénurie de puces d’IA coûteuses sur lesquelles elle s’appuie.
Ces options incluent la construction de ses propres puces IA, une collaboration plus étroite avec d'autres fabricants de puces, dont Nvidia, et une diversification de ses fournisseurs au-delà de Nvidia (NVDA.O).
Actuellement, OpenAI, comme la plupart de ses concurrents, s'appuie sur du matériel basé sur GPU pour développer des modèles tels que ChatGPT, GPT-4 et DALL-E 3. La capacité des GPU à effectuer de nombreux calculs en parallèle les rend idéaux pour entraîner les modèles les plus avancés d’aujourd’hui.
Le PDG d'OpenAI, Sam Altman, a fait de l'acquisition de davantage de puces GPU une priorité pour l'entreprise. Il s'est plaint publiquement de la rareté des GPU. Le marché des puces IA est actuellement dominé par Nvidia, qui contrôle plus de 80 % du marché mondial des puces IA.
La volonté d'obtenir plus de puces est liée à deux problèmes principaux identifiés par Altman : une pénurie de processeurs avancés pour alimenter le logiciel OpenAI et la quantité « vertigineuse » de matériel nécessaire pour alimenter son travail et son coût.
Depuis 2020, OpenAI a développé sa technologie d'IA générative sur un énorme supercalculateur construit par l'un de ses plus grands bailleurs de fonds, Microsoft, qui utilise 10 000 unités de traitement graphique (GPU) Nvidia.
Mais l’essor de l’intelligence artificielle générative – une aubaine pour les fabricants de GPU tels que Nvidia – a exercé une pression énorme sur la chaîne d’approvisionnement des GPU. Microsoft a averti dans son rapport sur les résultats de l'été qu'une pénurie critique de matériel serveur nécessaire au fonctionnement de l'intelligence artificielle pourrait entraîner des pannes de service. Les puces IA les plus performantes de Nvidia seraient épuisées jusqu'en 2024.
Les GPU sont également essentiels pour exécuter et servir les modèles OpenAI ; la société s'appuie sur des clusters GPU dans le cloud pour exécuter les charges de travail des clients. Mais ils sont extrêmement coûteux.
Exécuter ChatGPT coûte très cher pour OpenAI. Le coût par requête est d'environ 4 cents, selon l'analyse de Stacy Rasgon, analyste chez Bernstein. Si les requêtes ChatGPT atteignaient un dixième de la taille de la recherche Google, cela nécessiterait initialement environ 48,1 milliards de dollars de GPU et environ 16 milliards de dollars de puces par an pour continuer à fonctionner.
La compétition d'IA générative entre dans l'ère des puces personnalisées
Depuis le lancement de ChatGPT l’année dernière, la demande de puces dédiées à l’IA est montée en flèche. La formation et l'exécution des dernières technologies d'IA générative nécessitent des puces ou des accélérateurs d'IA spécifiques. Nvidia est l’un des rares fabricants de puces à produire des puces IA utiles et à dominer le marché.
L’effort visant à développer ses propres puces d’IA placerait OpenAI parmi un petit groupe de grandes entreprises technologiques, telles que Google et Amazon, qui ont cherché à contrôler la conception des puces sous-jacentes sur lesquelles elles sont construites.
On ne sait pas si OpenAI ira de l'avant avec ses projets de puces personnalisées. Les vétérans de l’industrie affirment que cela constituerait une décision stratégique majeure et un investissement énorme qui pourrait coûter des centaines de millions de dollars par an. Même si OpenAI consacre des ressources à cette tâche, le succès n’est pas garanti.
L’acquisition d’une entreprise de puces pourrait accélérer le processus de construction d’OpenAI de ses propres puces, comme Amazon l’a fait avec l’acquisition d’Annapurna Labs en 2015.
OpenAI a envisagé des moyens de mener une diligence raisonnable sur des cibles d'acquisition potentielles, selon une personne proche du dossier. Cependant, il n'est toujours pas possible de connaître la liste des sociétés qu'OpenAI examine en vue d'une acquisition.
Même si OpenAI va de l'avant avec ses projets de puces personnalisées, y compris des acquisitions, le travail pourrait prendre des années, et OpenAI devra toujours s'appuyer sur des fournisseurs de puces commerciaux tels que Nvidia et AMD.
Certaines grandes entreprises technologiques construisent leurs propres processeurs depuis des années, avec un succès limité. Le travail sur les puces personnalisées de Meta a posé problème, ce qui a conduit l'entreprise à abandonner certaines de ses puces d'intelligence artificielle, a rapporté Reuters. Meta développe actuellement une nouvelle puce qui couvrira tous les types de travaux d'IA.
Microsoft prévoit de construire une nouvelle puce IA pour la formation de grands modèles
Microsoft (MSFT.O) prévoit de dévoiler la première puce de l'entreprise conçue pour l'intelligence artificielle lors de sa conférence annuelle des développeurs le mois prochain, a déclaré une personne proche du dossier, selon The Information. Cette décision est l'aboutissement d'années de travail et pourrait aider Microsoft à réduire sa dépendance aux puces d'intelligence artificielle conçues par Nvidia Corp (NVDA.O). À mesure que la demande augmente, ces puces se font rares. La puce de Microsoft est conçue pour les serveurs de centres de données qui entraînent et exécutent des modèles de langage étendus (LLM). Les serveurs des centres de données de Microsoft utilisent actuellement les GPU de Nvidia pour alimenter un LLM avancé pour les clients cloud, notamment OpenAI et Intuit, ainsi que pour prendre en charge les capacités d'intelligence artificielle dans les applications de productivité Microsoft.
Ces projets pourraient marquer une nouvelle distance entre les deux sociétés, OpenAI et Microsoft.
Opportunités et défis coexistent dans le domaine des puces IA. Même si OpenAI s’efforçait de commercialiser des puces personnalisées, un tel effort prendrait probablement des années et coûterait des centaines de millions de dollars chaque année. Reste à savoir si les investisseurs de la startup, parmi lesquels Microsoft, sont intéressés à faire un pari aussi risqué. Le potentiel d'OpenAI à évoluer dans cet espace met en évidence l'évolution de l'industrie dans son ensemble vers plus d'autonomie et des solutions personnalisées. Les résultats restent à voir, mais les implications pour le monde de l’intelligence artificielle sont énormes.
Les références:
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Se débarrasser de Nvidia ? OpenAI et Microsoft ont tous deux choisi de développer leurs propres puces IA
Alors que la pénurie de puces pour la formation des modèles d'intelligence artificielle s'aggrave, OpenAI, le développeur derrière ChatGPT, explore la fabrication de ses propres puces d'IA et a évalué des cibles d'acquisition potentielles, selon des personnes proches du dossier. Depuis au moins l’année dernière, OpenAI a discuté de diverses options pour remédier à la pénurie de puces d’IA coûteuses sur lesquelles elle s’appuie.
Ces options incluent la construction de ses propres puces IA, une collaboration plus étroite avec d'autres fabricants de puces, dont Nvidia, et une diversification de ses fournisseurs au-delà de Nvidia (NVDA.O).
Actuellement, OpenAI, comme la plupart de ses concurrents, s'appuie sur du matériel basé sur GPU pour développer des modèles tels que ChatGPT, GPT-4 et DALL-E 3. La capacité des GPU à effectuer de nombreux calculs en parallèle les rend idéaux pour entraîner les modèles les plus avancés d’aujourd’hui.
Le PDG d'OpenAI, Sam Altman, a fait de l'acquisition de davantage de puces GPU une priorité pour l'entreprise. Il s'est plaint publiquement de la rareté des GPU. Le marché des puces IA est actuellement dominé par Nvidia, qui contrôle plus de 80 % du marché mondial des puces IA.
La volonté d'obtenir plus de puces est liée à deux problèmes principaux identifiés par Altman : une pénurie de processeurs avancés pour alimenter le logiciel OpenAI et la quantité « vertigineuse » de matériel nécessaire pour alimenter son travail et son coût.
Depuis 2020, OpenAI a développé sa technologie d'IA générative sur un énorme supercalculateur construit par l'un de ses plus grands bailleurs de fonds, Microsoft, qui utilise 10 000 unités de traitement graphique (GPU) Nvidia.
Mais l’essor de l’intelligence artificielle générative – une aubaine pour les fabricants de GPU tels que Nvidia – a exercé une pression énorme sur la chaîne d’approvisionnement des GPU. Microsoft a averti dans son rapport sur les résultats de l'été qu'une pénurie critique de matériel serveur nécessaire au fonctionnement de l'intelligence artificielle pourrait entraîner des pannes de service. Les puces IA les plus performantes de Nvidia seraient épuisées jusqu'en 2024.
Les GPU sont également essentiels pour exécuter et servir les modèles OpenAI ; la société s'appuie sur des clusters GPU dans le cloud pour exécuter les charges de travail des clients. Mais ils sont extrêmement coûteux.
Exécuter ChatGPT coûte très cher pour OpenAI. Le coût par requête est d'environ 4 cents, selon l'analyse de Stacy Rasgon, analyste chez Bernstein. Si les requêtes ChatGPT atteignaient un dixième de la taille de la recherche Google, cela nécessiterait initialement environ 48,1 milliards de dollars de GPU et environ 16 milliards de dollars de puces par an pour continuer à fonctionner.
La compétition d'IA générative entre dans l'ère des puces personnalisées
Depuis le lancement de ChatGPT l’année dernière, la demande de puces dédiées à l’IA est montée en flèche. La formation et l'exécution des dernières technologies d'IA générative nécessitent des puces ou des accélérateurs d'IA spécifiques. Nvidia est l’un des rares fabricants de puces à produire des puces IA utiles et à dominer le marché.
L’effort visant à développer ses propres puces d’IA placerait OpenAI parmi un petit groupe de grandes entreprises technologiques, telles que Google et Amazon, qui ont cherché à contrôler la conception des puces sous-jacentes sur lesquelles elles sont construites.
On ne sait pas si OpenAI ira de l'avant avec ses projets de puces personnalisées. Les vétérans de l’industrie affirment que cela constituerait une décision stratégique majeure et un investissement énorme qui pourrait coûter des centaines de millions de dollars par an. Même si OpenAI consacre des ressources à cette tâche, le succès n’est pas garanti.
L’acquisition d’une entreprise de puces pourrait accélérer le processus de construction d’OpenAI de ses propres puces, comme Amazon l’a fait avec l’acquisition d’Annapurna Labs en 2015.
OpenAI a envisagé des moyens de mener une diligence raisonnable sur des cibles d'acquisition potentielles, selon une personne proche du dossier. Cependant, il n'est toujours pas possible de connaître la liste des sociétés qu'OpenAI examine en vue d'une acquisition.
Même si OpenAI va de l'avant avec ses projets de puces personnalisées, y compris des acquisitions, le travail pourrait prendre des années, et OpenAI devra toujours s'appuyer sur des fournisseurs de puces commerciaux tels que Nvidia et AMD.
Certaines grandes entreprises technologiques construisent leurs propres processeurs depuis des années, avec un succès limité. Le travail sur les puces personnalisées de Meta a posé problème, ce qui a conduit l'entreprise à abandonner certaines de ses puces d'intelligence artificielle, a rapporté Reuters. Meta développe actuellement une nouvelle puce qui couvrira tous les types de travaux d'IA.
Microsoft prévoit de construire une nouvelle puce IA pour la formation de grands modèles
Microsoft (MSFT.O) prévoit de dévoiler la première puce de l'entreprise conçue pour l'intelligence artificielle lors de sa conférence annuelle des développeurs le mois prochain, a déclaré une personne proche du dossier, selon The Information. Cette décision est l'aboutissement d'années de travail et pourrait aider Microsoft à réduire sa dépendance aux puces d'intelligence artificielle conçues par Nvidia Corp (NVDA.O). À mesure que la demande augmente, ces puces se font rares. La puce de Microsoft est conçue pour les serveurs de centres de données qui entraînent et exécutent des modèles de langage étendus (LLM). Les serveurs des centres de données de Microsoft utilisent actuellement les GPU de Nvidia pour alimenter un LLM avancé pour les clients cloud, notamment OpenAI et Intuit, ainsi que pour prendre en charge les capacités d'intelligence artificielle dans les applications de productivité Microsoft.
Ces projets pourraient marquer une nouvelle distance entre les deux sociétés, OpenAI et Microsoft.
Opportunités et défis coexistent dans le domaine des puces IA. Même si OpenAI s’efforçait de commercialiser des puces personnalisées, un tel effort prendrait probablement des années et coûterait des centaines de millions de dollars chaque année. Reste à savoir si les investisseurs de la startup, parmi lesquels Microsoft, sont intéressés à faire un pari aussi risqué. Le potentiel d'OpenAI à évoluer dans cet espace met en évidence l'évolution de l'industrie dans son ensemble vers plus d'autonomie et des solutions personnalisées. Les résultats restent à voir, mais les implications pour le monde de l’intelligence artificielle sont énormes.
Les références: