Nvidia et les géants du cloud doivent se battre

Auteur : Zhao Jian

Source : Jiazi Guangnian

Source de l'image : générée par l'IA illimitée

"Courez chercher de la nourriture ou courez pour ne pas être mangé par les autres. Dans les deux cas, continuez à courir."

C'est le message du PDG de Nvidia, Huang Renxun, aux diplômés dans son discours à l'Université nationale de Taiwan cette année.Bien sûr, c'est aussi une interprétation de la mentalité de cet empire de capitalisation boursière d'un billion de dollars créé par Huang Renxun.

En 2023, Nvidia en fuite a rencontré l'IA générative, que Huang Renxun a appelée à plusieurs reprises "le moment iPhone de l'IA". À ce moment, Huang Renxun a jeté son dévolu sur l'opportunité de devenir le chasseur plutôt que la proie - Yun.

Il semble que Nvidia ne devrait pas avoir la motivation de faire du cloud, non seulement parce que les fournisseurs de services cloud sont des clients importants de Nvidia, et achètent des milliards de dollars de GPU à Nvidia chaque année, mais aussi parce que cette affaire semble n'avoir aucune chance de gagner.

Le marché actuel du cloud computing est fermement contrôlé par les trois géants du cloud Amazon AWS, Microsoft Azure et Google Cloud. Selon les données de Statista, la part de marché d'AWS sera de 32 %, celle d'Azure de 23 % et celle de Google Cloud de 10 % en 2022. La part de marché combinée des trois sociétés atteindra 65 %.

Ce n'est pas que nous n'avons pas vu de challenger. Au cours des dix dernières années, des entreprises bien connues telles que VMware, Dell et Hewlett-Packard ont toutes voulu obtenir une part du marché du cloud computing, mais elles ont toutes échoué sans exception.

Cependant, tout comme chaque révolution technologique produit de nouveaux créateurs de tendances, cette vague d'IA générative, le fabricant de puces Nvidia a commencé à tester le marché du cloud computing étape par étape :

** Dans un premier temps, lors de la conférence GTC du 21 mars de cette année, NVIDIA a lancé DGX Cloud. ** Comme son nom l'indique, il s'agit d'un produit cloud.Les clients peuvent obtenir directement les produits et services d'intelligence artificielle de Nvidia dans le cloud ou dans des centres de données locaux en les louant sur une base mensuelle ;

**La deuxième étape consiste à investir chez les concurrents des trois géants du cloud. **Nvidia a successivement investi dans CoreWeave et Lambda Labs, deux fournisseurs de services cloud de petite et moyenne taille aux États-Unis, et leur a alloué des puces GPU rares. À quel point cette « préférence » est-elle exagérée ? Au moment où les cœurs de GPU sont difficiles à trouver, CoreWeave a pu obtenir un financement par emprunt de 2,3 milliards de dollars en hypothéquant ses nombreux GPU, en particulier le H100.

Bien qu'elle ne fasse que commencer, l'agencement de l'activité cloud représente la contre-attaque de Nvidia face aux géants du cloud.

Comme nous le savons tous, Google, Amazon et Microsoft ont successivement lancé en interne des projets de puces IA auto-développés - la série TPU de Google, les séries Inferentia et Trainium d'Amazon et la puce Athena de Microsoft qui a été exposée cette année. Les trois géants du cloud ont suffisamment de ressources et de motivation pour développer eux-mêmes des puces IA afin de réduire la "taxe GPU" de Nvidia.

Nvidia en est bien conscient. Huang Renxun a déclaré sans ambages lors de la conférence téléphonique du rapport sur les résultats du dernier trimestre que "nous avons prêté attention à la concurrence, et nous avons toujours eu de la concurrence".

Huang Renxun ne peut pas empêcher l'expansion des trois principaux fournisseurs de services cloud, mais peut-être que la meilleure défense est l'attaque, et la méthode de contre-attaque de Nvidia consiste à aller directement dans le cloud.

Avec les deux atouts de l'A100 et du H100 en main pendant une longue période, ces deux puces sont le meilleur choix pour la formation et le raisonnement des modèles à grande échelle, et aucune d'entre elles, Nvidia n'a l'opportunité de devenir un véritable leader dans le marché du cloud computing opérateur des coulisses.

Une bataille ouverte et secrète autour des puces et du cloud computing se déroule lentement entre les quatre géants de la technologie avec les cinq premières capitalisations boursières mondiales.

1. A failli tomber avant l'aube

Ceux qui connaissent Nvidia sauront à quel point Nvidia est belle aujourd'hui et à quel point Nvidia était misérable l'année dernière.

Les activités principales de Nvidia comprennent les centres de données, les jeux, la visualisation professionnelle et les automobiles. Au deuxième trimestre 2020, l'activité de centre de données de Nvidia a dépassé les jeux pour la première fois, devenant la plus grande source de revenus de Nvidia.

Lors de la réunion du rapport financier du quatrième trimestre 2022 (correspondant à l'année naturelle de novembre 2021 à janvier 2022), Nvidia a présenté un solide rapport financier au quatrième trimestre et son activité de centre de données a augmenté de 71 % en glissement annuel. Huang Renxun a déclaré avec optimisme à l'époque : « La plate-forme informatique de Nvidia a inauguré une demande extraordinaire du marché. » Cependant, une semaine plus tard, le conflit entre la Russie et l'Ukraine a éclaté, perturbant la chaîne d'approvisionnement des principales matières premières. Couplé à l'impact de l'épidémie, le taux de croissance de l'activité des centres de données de Nvidia continuera de ralentir tout au long de 2022.

Dans le rapport financier 2023Q4 publié en février de cette année, le taux de croissance des centres de données NVIDIA n'était que de 11%, un niveau record et la première fois depuis 2020 que la chaîne déclinait.

En 2022, le cours de l'action Nvidia sera également réduit de moitié. Bien sûr, il est remonté aujourd'hui, et la naissance de ChatGPT a sauvé Nvidia.

Remarque : Nvidia publiera son rapport financier 2024Q2 mercredi 23 août, correspondant à mai-juillet 2023.

Parmi les nombreuses raisons de la baisse de la croissance de l'activité, la baisse de la demande des grands clients est la plus vigilante. Lors du rapport financier 2023Q4, la directrice financière de Nvidia, Colette Kress, a annoncé un chiffre : environ 40 % des 15 milliards de dollars de revenus du secteur des centres de données au cours de l'exercice 2023 (environ 6 milliards de dollars américains) proviennent des centres de données hyperscale et du service cloud fournisseurs.

Mais si vous regardez juste le quatrième trimestre, ce n'est qu'un quart. Les constructeurs de centres de données hyperscale et les fournisseurs de services cloud réduisent considérablement les dépenses en GPU.

Outre la baisse objective de la demande, le plan de puces IA auto-développé des trois géants du cloud érode peu à peu la part de marché du GPU NVIDIA.

Google a lancé le TPU de puce AI auto-développé de première génération en 2016, et cinq ans plus tard, le 19 mai 2021, il a lancé le TPU v4 de quatrième génération. Dans un rapport de recherche publié cette année, Google a déclaré avoir enchaîné 4 000 TPU v4 pour construire un supercalculateur qui fonctionnait 1,7 fois plus vite et plus efficacement qu'une machine équivalente alimentée par un GPU Nvidia A100 1,9 fois supérieur.

Amazon a également une tradition de puces auto-développées, non seulement pour Nvidia, mais pour tous les fabricants de puces. À l'heure actuelle, Amazon a lancé quatre séries de puces auto-développées - la série de puces réseau Nitro, la série de puces de serveur Graviton, la série de puces de raisonnement AI Inferentia, la puce de formation AI Trainium. Parmi elles, ces deux dernières puces IA concurrencent les GPU NVIDIA.

Malgré son entrée tardive, Microsoft "est arrivé en retard". Le 18 avril de cette année, selon The Information, depuis 2019, Microsoft développe secrètement des puces d'IA, nommées en interne "Athena" (Athena), des centaines d'employés travaillent sur le projet Athena, Microsoft a investi environ 2 milliards de dollars . Certains employés de Microsoft et d'OpenAI ont pu obtenir des puces pour tester les performances sur les derniers grands modèles de langage tels que GPT-4.

Les fournisseurs de services cloud doivent payer une grande quantité de "taxe Nvidia" chaque année pour l'achat de GPU, en particulier après l'apparition de l'IA générative.

En février de cette année, New Street Research a fait une estimation : le moteur de recherche Bing basé sur ChatGPT a besoin de 8 GPU pour répondre aux questions des utilisateurs en une seconde. À ce rythme, Microsoft aurait besoin de plus de 20 000 serveurs avec 8 GPU pour déployer le modèle dans Bing à chaque utilisateur, ce qui coûterait à Microsoft 4 milliards de dollars. À l'échelle de Google, qui traite 8 à 9 milliards de requêtes par jour, cela coûterait 80 milliards de dollars.

Les puces IA auto-développées des fournisseurs de services cloud ne seront pas vendues à l'extérieur et ne concurrenceront pas directement Nvidia. Cependant, en déployant des puces auto-développées au lieu de GPU dans les centres de données, les coûts peuvent être efficacement réduits. Par exemple, Google a déployé des centaines de supercalculateurs TPU v4 dans son service cloud.

Les trois principaux fournisseurs de services cloud ont suffisamment de ressources et de motivation pour développer leurs propres puces, ce qui est considéré comme une fissure dans l'empire Nvidia. Nvidia en est bien conscient, mais il ne semble pas y avoir de meilleur moyen.

Jusqu'à l'émergence de ChatGPT, Nvidia, qui était pressée pas à pas par les fournisseurs de services cloud, a vu un point décisif pour contre-attaquer. Puisque les fournisseurs de services cloud peuvent fabriquer des puces, Nvidia ne peut-il pas fabriquer des nuages à l'ère de l'IA ?

**2. Nvidia a-t-il une chance de faire du cloud ? **

Nvidia est actuellement le plus grand bénéficiaire de la révolution de l'IA générative, et Huang Renxun a toujours parlé du "moment iPhone de l'IA" cette année. La demande explosive d'IA générative a fait du GPU une monnaie forte. Certains disent simplement que "le GPU est le nouveau dollar".

Du GPU au cloud, Nvidia a-t-il vraiment une chance ?

La formation et le raisonnement de l'IA générative sont principalement effectués sur le cloud, et les fournisseurs de services cloud qui fournissent l'infrastructure d'IA seront l'un des plus grands bénéficiaires de la vague d'IA générative. Selon les données estimées par la société de capital-risque A16Z de la Silicon Valley, 10 à 20 % du total des revenus générés par l'IA générative finissent par aller aux fournisseurs de services cloud.

Cependant, ce processus ne sera pas rapide. Le PDG d'Amazon, Andy Jassy, a déclaré lors de l'appel aux résultats du deuxième trimestre 2023 : "L'IA générative changera sans aucun doute l'expérience de presque tous les clients. Mais il est encore trop tôt et la plupart des entreprises réfléchissent encore à la manière d'atteindre cet objectif. stade très précoce."

L'essence des services cloud est de virtualiser les ressources matérielles dans le centre de données, puis de les louer sur le marché. Près de 100 % des serveurs des centres de données traditionnels sont construits sur la base de processeurs Intel et AMD. Le processeur est comme un "généraliste avec le cerveau le plus fort", qui fournit des capacités de "informatique générale" - traitement des systèmes d'exploitation, des logiciels système et du programme d'application a des tâches de programme telles que la planification d'instructions complexes, le bouclage, le branchement, le jugement logique et l'exécution.

Mais les processeurs ne sont pas bons pour le traitement de données à grande échelle et le calcul parallèle, ce dont l'intelligence artificielle a besoin et les GPU Nvidia sont bons. Le GPU est comme un "expert en informatique violente", spécialisé dans le traitement d'images, l'apprentissage en profondeur et la formation actuelle de grands modèles, le raisonnement et d'autres tâches. Huang Renxun a qualifié cette capacité de calcul massivement parallèle de « calcul accéléré ».

En 2012, Jeff Hinton, le père de l'apprentissage en profondeur, et ses apprentis ont essayé pour la première fois de former le modèle de réseau neuronal convolutif AlexNet sur NVIDIA GPU, et ont remporté le concours de reconnaissance d'image d'un seul coup. Cet incident a donné naissance à l'explosion de l'apprentissage en profondeur au cours des dix années suivantes.Toute l'industrie de l'intelligence artificielle, y compris Nvidia elle-même, a réalisé le potentiel du GPU pour le calcul accéléré.

Les engrenages de la fortune de Nvidia ont commencé à tourner. Depuis lors, Huang Renxun a crié « La loi de Moore est morte » à plusieurs reprises. Il estime que l'ère de l'expansion du processeur est révolue, tout comme la multiplication par dix des performances au même coût tous les cinq ans. Il sera remplacé par le GPU, et Huang Renxun a spécialement inventé une "loi de Huang" - le GPU favorisera le doublement des performances de l'IA d'année en année.

Au cours des dix années allant de 2012 à 2022, nous pouvons appeler cela le calcul accéléré de 0 à 1, et l'intelligence artificielle a atterri dans des industries spécifiques et des scénarios spécifiques tels que la reconnaissance d'images. Cependant, la demande d'IA au cours de cette période n'est toujours pas assez importante.La société de recherche Aletheia prédit que le taux de pénétration actuel du marché des serveurs d'IA est inférieur à 5%. C'est loin d'être suffisant pour réaliser le rêve de calcul accéléré de Huang Renxun.

Jusqu'à la naissance de ChatGPT en novembre 2022, le "moment AI iPhone" est apparu. Cela peut être considéré comme le début de la mise à l'échelle du calcul accéléré de 1 à 10.

Revenus générés par l'IA (photo via Bloomberg)

Huang Renxun pense que la combinaison de l'informatique accélérée et de l'IA générative changera les méthodes informatiques au cours des 60 dernières années. Alors que les entreprises s'efforcent d'appliquer l'IA générative à chaque produit, service et processus métier, l'infrastructure mondiale des centres de données d'un billion de dollars passera de l'informatique à usage général à l'informatique accélérée, et la réinvention des centres de données qui en résultera créera sûrement d'énormes opportunités de marché.

Lors de la conférence téléphonique sur les résultats du dernier trimestre, Huang Renxun a déclaré : "Nous sommes dans la première année d'une décennie d'intelligence de centre de données."

Huang Renxun a déclaré que le calcul accéléré est un défi complet. Il doit intégrer tous les logiciels, toutes les bibliothèques de framework et tous les algorithmes d'ingénierie. Ces tâches ne concernent pas seulement une puce, mais l'ensemble du centre de données. Un centre de données est un superordinateur. Pour obtenir les meilleures performances, il est nécessaire d'optimiser la pile complète des systèmes d'exploitation réseau, des moteurs de calcul distribué, des périphériques réseau, des commutateurs et des architectures informatiques.

Par exemple, le centre de données informatique général utilise principalement Ethernet pour connecter tous les serveurs sans transmission de données à grande échelle ; le centre de données informatique accéléré proposé par Nvidia utilise une technologie appelée Infinite Band pour la connexion, qui a un débit de données extrêmement élevé.

L'optimisation systématique permet également aux centres de données de calcul accéléré d'avoir une efficacité supérieure et des coûts inférieurs à ceux des centres de données traditionnels.

Huang Renxun s'est posé une question lors du SIGGRAPH, la conférence annuelle sur l'infographie qui s'est tenue en août de cette année : "Que puis-je acheter pour 100 millions de dollars ?" Huang Renxun s'est posé la question et a répondu : "Dans le passé, 100 millions de dollars pouvaient acheter un centre de données composé de 8 800 CPU x86. , la consommation électrique est de 5MW ; aujourd'hui, 100 millions de dollars américains peuvent acheter un centre de données Iso-Budget composé de 2500 GH200, la consommation électrique est de 3MW, la performance de raisonnement de l'IA est 12 fois celle du CPU centre de données mentionné ci-dessus, et l'efficacité énergétique est 20 fois supérieure."

Avec les mêmes performances de raisonnement d'IA, le coût d'un centre de données GPU n'est que de 1/12 de celui d'un centre de données CPU. "Plus vous achetez, plus vous économisez." C'est le manifeste de Huang Renxun pour son centre de données de calcul accéléré.

Jusqu'à présent, Nvidia a construit cinq centres de données et aidé des clients du monde entier à créer leurs propres centres de données. De plus, il peut s'écouler des mois, voire un an, pour qu'un centre de données traditionnel passe de la livraison à l'exploitation, mais en Nvidia. Ce temps est en semaines. "L'expertise de l'équipe dans ce domaine est remarquable", a déclaré Huang.

Pour les trois géants du cloud, la transition des centres de données informatiques à usage général vers des centres de données informatiques accélérés ne sera pas rapide. Il ne s'agit pas seulement de technologie et de capacités, mais aussi de la prise de décision et des processus de ces entreprises géantes.

Cela donne à Nvidia la possibilité de faire du cloud. Faire un pas en avant du centre de données vers le cloud n'est qu'une évidence, et Nvidia essaie déjà de le faire.

** 3. Ténèbres Chencang **

Dans le rapport financier du quatrième trimestre 2023 avec le taux de croissance le plus faible de l'activité des centres de données, Nvidia a également annoncé un nouveau produit, DGX Cloud. Lors de la conférence GTC un mois plus tard, DGX Cloud a été officiellement lancé.

Comme son nom l'indique, il s'agit d'un produit de service cloud. Nvidia va-t-il entrer sur le marché du cloud computing ?

Voyons d'abord ce qu'est DGX. DGX est le premier supercalculateur lancé par Nvidia en 2017, que Huang Renxun a appelé "un centre de données dans un châssis".

Le DGX de première génération intégrait 8 GPU (Tesla P100) et 4 disques SSD, et utilisait la technologie de connexion NVIDIA NVlink. En termes de formation au deep learning, les performances d'un seul DGX sont équivalentes à 250 serveurs x86 ordinaires. Bien sûr, c'est aussi cher, à 129 000 $ pour une seule unité.

Après la réunion, Huang Renxun a présenté le premier DGX-1 à Elon Musk. Musk est le co-fondateur d'OpenAI. OpenAI est parti de ce supercalculateur et a construit étape par étape le ChatGPT d'aujourd'hui.

Aujourd'hui, le supercalculateur DGX a été développé jusqu'à la cinquième génération, les quatre premières générations étant DGX P100, DGX A100, DGX H100 et la dernière DGX GH200.

Le DGX Cloud publié par Nvidia est la version cloud du supercalculateur précédemment publié.Une instance DGX Cloud (un ordinateur virtuel dans un serveur cloud) est configurée avec 8 A100 ou H100.

Cependant, le prix de DGX Cloud n'est pas bon marché, 36 999 $ par mois, soit environ 264 000 RMB. À titre de comparaison, l'instance Microsoft Azure ND96asr avec 8 A100 et ses spécifications équivalentes coûte 19 854 $ par mois, soit seulement la moitié de DGX Cloud.

Pourquoi Nvidia ose-t-il fixer un prix aussi élevé ? La réponse est que DGX Cloud est une solution clé en main qui intègre logiciel et matériel. **Nvidia ne se présente plus comme une société de puces GPU, mais se positionne comme une société de plate-forme informatique. **

En plus des ressources matérielles, DGX Cloud a également lancé deux plates-formes logicielles de support : l'une est NVIDIA AI Foundations, qui aide les entreprises à créer des modèles personnalisés, y compris des modèles de langage, de vision et biomédicaux, l'autre est NVIDIA AI Enterprise, qui contient 4 000 modèles différents. Un cadre d'IA qui aide les entreprises à l'utiliser immédiatement. Les produits AI de Nvidia sont similaires au MaaS lancé par les fournisseurs de services cloud nationaux tels qu'Alibaba Cloud.

Huang est optimiste quant à ces nouvelles sources de revenus logiciels et s'attend à ce que les revenus dans l'espace de l'IA générative passent d'une partie « à un chiffre » du revenu total de l'entreprise à une partie « substantielle » au cours de la prochaine année. "Nous sommes ravis de l'expansion du nouveau modèle commercial", a déclaré Huang Renxun.

Le lancement de DGX Cloud a objectivement formé une certaine relation concurrentielle avec les fournisseurs de services cloud, mais Nvidia souhaite toujours continuer à entretenir une coopération étroite avec les fournisseurs de services cloud. Nvidia ne construit actuellement pas une infrastructure cloud complète à partir de zéro, mais héberge DGX Cloud sur les plates-formes cloud de divers fournisseurs de services cloud.

Nvidia vend des installations matérielles de base aux fournisseurs de cloud, puis leur achète des ressources de cloud computing et vend enfin des services cloud aux entreprises clientes et conserve tous les revenus. Les clients peuvent accéder au supercalculateur IA de Nvidia uniquement via un navigateur pour utiliser les produits IA et les services de modèle IA de Nvidia.

Cependant, les fournisseurs de services cloud l'achèteront-ils ?

À cet égard, Huang Renxun a expliqué : " La coopération entre les services cloud NVIDIA et les fournisseurs de services cloud sera une situation gagnant-gagnant. Les deux parties créeront conjointement de nouvelles applications et développeront de nouveaux marchés. " Huang Renxun a déclaré qu'idéalement, les clients achèteraient NVIDIA DGX Le rapport entre le cloud et le cloud du fournisseur de services cloud est de 1:9.

Oracle est le premier fournisseur de services cloud à annoncer un partenariat avec Nvidia. Le géant du logiciel a mené de toute urgence la transformation du cloud ces dernières années, il a donc suffisamment de motivation pour former une alliance avec Nvidia afin de faire un revirement sur le marché du cloud computing. Nvidia travaille également avec Microsoft Azure, Google Cloud et d'autres plates-formes cloud, qui devraient également être lancées prochainement.

** Le vœu pieux de Nvidia est fort, mais tous les fournisseurs de services cloud n'accepteront pas la demande de Nvidia. ** AWS a refusé de coopérer avec Nvidia sur les produits DGX Cloud.

Selon Reuters, Dave Brown, vice-président d'Amazon Elastic Cloud Computing, a déclaré : "NVIDIA nous a contactés et nous avons étudié le modèle commercial. Mais pour AWS, cela n'a pas beaucoup de sens". serveurs fiables Expérience de longue date avec l'expertise existante de la chaîne d'approvisionnement.

AWS a commencé à acheter la puce H100 de Nvidia en mars de cette année, mais uniquement dans le cadre de son système auto-développé. AWS envisage également d'utiliser la dernière puce d'intelligence artificielle d'AMD, la MI300, mais n'a pas encore pris de décision finale.

Face à l'émergence d'un marché de l'IA générative, la répartition des avantages entre Nvidia et les fournisseurs de services cloud continuera de changer. Mais il est clair que Nvidia a déplacé le fromage du fournisseur de services cloud.

4. Égoutter par le bas

Le lancement de DGX Cloud n'est que la première étape, et la participation de Nvidia au marché du cloud computing ne cesse de s'approfondir. Dans cette étape, Nvidia n'a pas choisi de finir en personne, mais a choisi de soutenir les concurrents des trois géants du cloud.

Cette année, un fournisseur de cloud de petite et moyenne taille nommé CoreWeave a vu le jour, devenant un fournisseur de services cloud plus populaire que les trois géants du cloud. **CoreWeave prétend être le seul fournisseur de services cloud au monde capable de "fournir Nvidia H100 à grande échelle". **

Selon les estimations du site Web GPU Utils, le nombre de H100 commandés par CoreWeave à Nvidia est d'environ 35 000 à 40 000. En comparaison, le supercalculateur A3 publié par Google en mai de cette année compte environ 26 000 H100, l'instance de machine virtuelle EC2 P5 lancée par Amazon AWS en juillet est basée sur 20 000 H100 et la machine virtuelle Azure ND H100v5 lancée par Microsoft en août contient seulement 8 pièces de H100. Cependant, Microsoft possède environ 285 000 A100.

Quelle est l'origine de CoreWeave ? La société, créée en 2017, était initialement principalement engagée dans l'exploitation minière de crypto-monnaie Ethereum et est devenue en 2018 le plus grand mineur d'Ethereum en Amérique du Nord. A cette époque, CoreWeave déployait plus de 50 000 GPU, fournissant plus de 1% de la puissance de calcul du réseau Ethereum.

En plus de l'exploitation minière, CoreWeave a également commencé à essayer de servir certaines entreprises clientes, telles que l'intelligence artificielle, les médias de divertissement et la chimie computationnelle. En 2019, CoreWeave est complètement passé des GPU grand public aux GPU d'entreprise de Nvidia, car les GPU d'entreprise peuvent fonctionner 24 heures sur 24, augmentant l'utilisation du GPU à près de 100 %.

En 2021, CoreWeave a officiellement lancé la plate-forme cloud GPU basée sur Nvidia. Au troisième trimestre 2022, avec la fusion d'Ethereum et la fin de l'ère de l'extraction de cartes graphiques à grande échelle, CoreWeave s'est complètement transformé en fournisseur de services cloud et a annoncé en novembre de cette année qu'il était devenu le premier lot des fournisseurs utilisant la super puce NVIDIA HGX H100. L'un des fournisseurs de services cloud.

Comparé aux trois géants que sont Amazon, Microsoft et Google, CoreWeave n'envisage pas de développer sa propre puce d'IA, ce qui a été très apprécié par Nvidia.

En avril 2023, Nvidia a approfondi sa coopération avec CoreWeave, et en plus de la coopération commerciale, elle a également investi dans le tour de financement B1 de 221 millions de dollars de CoreWeave. Plus important encore, Nvidia a fourni à CoreWeave un canal unique pour les rares A100 et H100.

Dans une récente interview avec Bloomberg, Brannin McBee, co-fondateur et directeur de la stratégie de CoreWeave, a déclaré que Nvidia avait épuisé ses puces cette année et que les commandes de CoreWeave étaient prévues pour le deuxième trimestre de l'année prochaine.

CoreWeave possède probablement le plus grand stock de GPU Nvidia au monde. Dans le contexte de pénurie actuelle de GPU, les puces ont encore plus de valeur que les fonds propres, et CoreWeave a créé une méthode de financement innovante. En août de cette année, CoreWeave a obtenu 2,3 milliards de dollars de financement par emprunt en hypothéquant ses puces GPU. Auparavant, le cycle de financement par actions B1 de CoreWeave n'avait reçu que 421 millions de dollars.

Avec l'alliance stratégique "cloud + GPU" avec Nvidia, les performances de CoreWeave ont également explosé.

Avant cette année, CoreWeave était une entreprise peu connue. Mais maintenant, CoreWeave est sur le point d'en tirer des milliards de dollars grâce à ses GPU. Dans une interview avec VentureBeat, le co-fondateur et directeur de la stratégie de CoreWeave, Brannin McBee, a révélé que les revenus de CoreWeave en 2022 seront de 30 millions de dollars, atteindront 500 millions de dollars cette année et ont signé près de 2 milliards de dollars de contrats l'année prochaine.

CoreWeave a également annoncé un nouveau centre de données de 1,6 milliard de dollars au Texas et prévoit de s'étendre à 14 centres de données d'ici la fin de l'année. Actuellement, la star de l'intelligence artificielle, la licorne Inflection, utilise le cloud de CoreWeave pour construire un cluster GPU d'environ 22 000 H100. La société a annoncé un nouveau cycle de financement de 1,3 milliard de dollars en juillet de cette année. Il convient de mentionner que NVIDIA fait également partie des investisseurs d'Inflection.

CoreWeave est la première société de cloud computing dans laquelle Nvidia a investi cette année, mais ce n'est pas la seule.

Selon The Information, Nvidia est sur le point de conclure un accord d'investissement avec un autre fournisseur de services cloud, Lambda Labs. Nvidia pourrait investir 300 millions de dollars et la valorisation de Lambda Labs dépassera le milliard de dollars. Lambda Labs prétend être en mesure de fournir les ressources de puissance de calcul NVIDIA A100 et H100 au prix le plus bas au monde.

A l'heure actuelle, avec l'allocation "raisonnable" des ressources GPU, Nvidia est devenu un trader sur le marché du cloud computing au sens propre, et a saisi le manche du géant du cloud depuis la racine - Microsoft est un bon cas.

Microsoft a ajouté un nouveau facteur de risque à son dernier rapport sur les résultats : "Les services pourraient être perturbés s'il n'est pas en mesure de sécuriser suffisamment de puces d'intelligence artificielle pour ses centres de données".

Face aux énormes besoins informatiques de l'IA, la charge GPU de Microsoft est rare, et elle doit même demander l'aide de ses concurrents, les petits et moyens fournisseurs de cloud. Selon CNBC, Microsoft "a accepté de dépenser des milliards de dollars au cours des prochaines années pour acheter l'infrastructure de cloud computing de la startup CoreWeave". Sous le contrôle de Nvidia, Microsoft a dû permettre aux petits et moyens fournisseurs de services cloud comme CoreWeave de gagner une différence de prix par rapport au GPU.

En investissant dans des fournisseurs de services cloud de petite et moyenne taille, Nvidia a mis le pied dans le domaine du cloud computing. Bien qu'il n'y ait aucune tentative de construire une infrastructure cloud et de concurrencer directement les géants du cloud, nous ne serons pas surpris si Nvidia entre directement sur le marché en acquérant à l'avenir des fournisseurs de services cloud de petite et moyenne taille.

Indépendamment du fait que Nvidia entrera éventuellement dans le jeu, il est devenu le plus grand acteur en coulisses du marché du cloud computing dans la vague de l'IA générative.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)