Microsoft, Google et Amazon lancent la guerre du cloud à l'ère des grands modèles

Auteur : Wan Chen Editeur : Zheng Xuan

Source de l'image : générée par l'IA illimitée

Avec le resserrement des dépenses liées au cloud pour les logiciels d'entreprise Internet, le ralentissement de la croissance est progressivement devenu un nuage noir au-dessus de la tête des fournisseurs de cloud.

La naissance de ChatGPT a brisé ce goulot d'étranglement et l'IA va remodeler les logiciels. Clients des fournisseurs de cloud, les éditeurs de logiciels intègrent activement les capacités d'IA apportées par les grands modèles dans les flux de travail existants pour compléter l'automatisation de niveau supérieur.

Avec le tarissement progressif des nouveaux clients du cloud, les éditeurs de logiciels ne se tournent plus vers le cloud pour le plaisir d'aller vers le cloud, mais s'efforcent d'utiliser l'IA pour améliorer la productivité. ** "Il s'agit de la plus forte augmentation du marché du cloud computing au cours des dix prochaines années. L'infrastructure de puissance de calcul est le bénéficiaire absolu du grand modèle. " ** Une personne de l'industrie du cloud computing qui est dans l'industrie depuis plus de dix ans expliqués à Geek Park.

Dans une telle perspective, plusieurs grands géants étrangers des services cloud - Microsoft, Amazon, Google et Oracle ont rapidement apporté des changements. **Au cours des derniers mois, les géants du cloud ont dépensé de l'argent réel pour développer des modèles à grande échelle, des investissements stratégiques et des puces d'IA auto-développées... L'ère des modèles à grande échelle est en plein essor, et ils ont déjà ciblé une nouvelle génération de clients de logiciels d'IA. **

Le passé est loin d'être incassable, le marché du cloud est rapidement remanié et les géants ont ouvert un nouveau rideau de concurrence.

Après tout, le déclin du grand frère à l'ère de l'Internet mobile est imminent.En quelques années, Nokia est passé de 70% de part de marché de la téléphonie mobile à son apogée à personne ne s'en soucie.Ce n'est qu'entre la pensée de prendre une mauvaise décision. Quant au grand modèle, l'industrie du cloud a rapidement fait consensus : cette fois, l'IA n'est pas une petite variable et, à en juger par la vitesse de développement rapide de l'industrie, les principaux acteurs actuels pourraient également être laissés pour compte.

** La moitié de 2023 s'est écoulée, cet article va trier plusieurs grands géants du cloud à l'étranger, quelle est la clé de la concurrence entre les fournisseurs de cloud aujourd'hui ? **

01 Recherche et développement de puces spécifiques à l'IA, vous ne pouvez pas donner toute votre "vie" à Nvidia

Après l'avènement de l'ère des grands modèles, pour les fournisseurs de services cloud, la ressource la plus rare aujourd'hui est la puissance de calcul, ou les puces IA. **Investir dans l'infrastructure sous-jacente - les puces d'accélération de l'IA, est également devenu le premier objectif de la concurrence entre les fournisseurs de cloud aujourd'hui. **

La rareté et le coût élevé sont considérés comme les principales raisons pour lesquelles les fournisseurs de cloud accélèrent les puces auto-développées. Même des personnalités puissantes du cercle technologique comme Musk ont déclaré que "cette chose (Nvidia GPU) est plus difficile à gérer que la médecine", et ont secrètement acheté 10 000 cartes à Nvidia pour sa société d'intelligence artificielle X.AI, et ont également reçu beaucoup d'actions inutilisées. dans Oracle.

Ce degré de rareté se reflète dans l'activité des géants du cloud, ce qui correspond directement à la perte d'activité causée par le "collage du cou". Même Microsoft, qui est le premier à agir en premier, a été exposé à des rumeurs selon lesquelles, en raison de la pénurie de GPU, l'équipe interne de R&D en IA met en œuvre un système de rationnement du GPU, divers nouveaux plans sont retardés et les nouveaux clients doivent faire la queue pendant des mois pour allez à Azur.

Même les institutions de capital-risque doivent s'appuyer sur l'inventaire des puces Nvidia pour saisir les projets. Pour le bien des cartes N, les forces de toutes les parties ont atteint le point où "tout est utilisé".

** Un autre nom pour la rareté est cher. **En considérant que le grand modèle nécessite plus de dix fois la puissance de calcul, la carte n'en sera que plus chère. Récemment, un investisseur a déclaré à Geek Park : "Au début de l'année, la carte unique A100 était de 80 000, mais maintenant elle a été vendue à 160 000, ce qui est toujours hors de portée". les géants du cloud doivent payer La "taxe Nvidia" ne sera qu'un chiffre astronomique.

Il est difficile de sentir que le "destin" est entre les mains des autres, et Microsoft, qui est le plus populaire, a le plus son mot à dire. Il y a un mois, les informations rapportaient en exclusivité que Microsoft avait créé un "Tiantuan" de 300 personnes pour accélérer le rythme des puces d'intelligence artificielle auto-développées. La puce de serveur nommée Cascade pourrait être lancée dès l'année prochaine.

Non seulement à cause du "col coincé", des puces auto-développées des fabricants de cloud, mais aussi d'une autre couche de sens - le GPU n'est pas nécessairement la puce la plus appropriée pour exécuter l'IA, et la version auto-développée peut optimiser des tâches d'IA spécifiques.

Certes, la plupart des modèles d'IA avancés actuels sont alimentés par des GPU, car les GPU sont plus efficaces pour exécuter les charges de travail d'apprentissage automatique que les processeurs à usage général. **Cependant, les GPU sont toujours considérés comme des puces à usage général, et non comme des plates-formes de traitement véritablement natives pour l'IA. ** Comme l'a souligné le Yuanchuan Research Institute dans "A Crack in the Nvidia Empire", les GPU ne sont pas nés pour former des réseaux de neurones. Plus l'intelligence artificielle se développera rapidement, plus ces problèmes seront exposés. S'appuyer sur CUDA et diverses technologies pour "changer magiquement" scène par scène est une option, mais ce n'est pas la solution optimale.

Amazon, Google et Microsoft ont développé des puces appelées ASIC – des circuits intégrés spécifiques à l'application – mieux adaptés à l'intelligence artificielle. The Information a interrogé plusieurs praticiens et analystes de l'industrie des puces et a conclu que les GPU Nvidia aidaient à former le modèle derrière ChatGPT, mais les ASIC effectuent généralement ces tâches plus rapidement et consomment moins d'énergie.

Comme le montre la figure ci-dessus : Amazon, Microsoft et Google ont tous souligné l'importance des puces développées en interne et ont développé deux types de puces pour le secteur des centres de données : des puces informatiques standard et des puces dédiées à l'entraînement et à la course à pied. modèles d'apprentissage Ces modèles peuvent alimenter des chatbots tels que ChatGPT.

À l'heure actuelle, Amazon et Google ont développé des ASIC personnalisés pour les principaux produits internes et ont fourni ces puces aux clients via le cloud. Depuis 2019, Microsoft travaille également au développement de puces ASIC personnalisées pour alimenter de grands modèles de langage.

Certaines puces développées par ces fournisseurs de cloud, telles que les puces de serveur Graviton d'Amazon et les puces spécifiques à l'IA publiées par Amazon et Google, ont déjà des performances comparables aux puces des fabricants de puces traditionnels, selon les données de performances publiées par les clients du cloud et Microsoft. Google TPU v4 est 1,2 à 1,7 fois plus rapide que Nvidia A100, tout en réduisant la consommation d'énergie de 1,3 à 1,9 fois.

02 Concours d'investissement stratégique : les géants dépensent de l'argent pour "acheter des clients"

Outre la recherche et le développement de puces, le deuxième point clé de la concurrence de plusieurs grands géants du cloud étrangers est d'investir dans des investissements stratégiques étrangers pour capter des clients et des projets d'IA. **

Par rapport au capital-risque, l'investissement stratégique des géants présente un avantage absolu. La combinaison d'OpenAI et de Microsoft est un excellent exemple, ouvrant un précédent pour les modèles à grande échelle et les investissements stratégiques. En effet, les barrières de ressources requises pour les grands modèles et les applications connexes sont extrêmement élevées.Seul l'argent, l'argent limité, ne suffit pas pour saisir les projets d'IA. Après tout, Google, Microsoft, AWS, Oracle ou Nvidia peuvent non seulement écrire d'énormes chèques, mais aussi fournir des ressources rares telles que des crédits cloud et des GPU.

De ce point de vue, la saisie de projets et la saisie de clients se produisent toutes parmi les géants du cloud, et il n'y a pas d'autres rivaux. Ils jouent à un nouveau jeu en cherchant à obtenir des entreprises d'intelligence artificielle qu'elles utiliseront leurs services cloud plutôt que ceux de leurs concurrents.

Microsoft occupe la position de fournisseur exclusif de services cloud d'OpenAI Tout en payant une énorme facture cloud pour OpenAI, Microsoft a échangé une série de droits enviables tels que l'équité et la priorité des produits d'OpenAI.

** Les rivaux de Microsoft se démènent également pour conquérir d'autres clients de l'IA. **Ces fournisseurs de cloud offrent des remises et des crédits importants aux entreprises d'IA pour gagner leur marché. Les critiques ont souligné que cela s'apparente à l'achat de clients, bien que la pratique consistant à prendre des parts dans des clients futurs ou actuels ne soit pas rare dans le monde des logiciels d'entreprise.

Oracle a également offert des crédits informatiques d'une valeur de centaines de milliers de dollars pour inciter les startups de l'IA à louer des serveurs cloud Oracle, a précédemment rapporté The Information.

Google est peut-être le plus actif de ces principaux fournisseurs de cloud, offrant aux startups d'IA une combinaison d'argent et de crédits Google Cloud en échange de capitaux propres. Plus tôt cette année, Google a investi 400 millions de dollars dans Anthropic, l'un des principaux challengers entrepreneuriaux d'OpenAI. Google Cloud a déclaré en février qu'il était devenu le fournisseur de cloud "préféré" d'Anthropic.

Récemment, Google a investi 100 millions de dollars dans Runway, une société d'intelligence artificielle dans le domaine de "Vensheng Video". Mais avant cela, Amazon AWS a présenté Runway comme un client clé de démarrage de l'IA. En mars de cette année, AWS et Runway ont annoncé la mise en place d'un partenariat stratégique à long terme, devenant son "fournisseur de cloud préféré". Désormais, Runway semble être l'un des "pions" du duel de Google avec Amazon, car Runway devrait également louer des serveurs cloud à Google.

Plus tôt, Google Cloud a également annoncé la mise en place de partenariats avec deux autres sociétés d'IA populaires, à savoir : Midjourney dans le domaine du graphe Vincent et le robot de chat App Character.ai, qui était auparavant un client cloud clé d'Oracle.

Il est trop tôt pour dire si ces accords aideront Google à rattraper ses plus grands rivaux du cloud computing AWS et Microsoft, mais Google Cloud est en voie de guérison.

Sur les 75 éditeurs de logiciels (IA) de la base de données The Information, Google fournit des services cloud à au moins 17 entreprises, plus que tout autre fournisseur de cloud. Amazon n'est pas loin derrière, avec au moins 15 entreprises utilisant AWS pour le cloud computing. Microsoft et Oracle fournissent des services cloud à six entreprises et quatre entreprises, respectivement. Bien sûr, l'utilisation de plusieurs clouds est également une habitude dans l'industrie, et au moins 12 de ces 75 entreprises utilisent un mélange de plusieurs fournisseurs de cloud.

03 grand modèle est la vraie clé pour gagner ou perdre

La puissance de calcul et les investissements de combat sont les points forts qui doivent être contestés au début de cette guerre du cloud. Mais à long terme, le grand modèle est la véritable clé du succès de la concurrence sur le marché.

La capacité de Microsoft à devenir un leader est due à la coopération avec OpenAI. Couplé aux excellentes capacités d'ingénierie de l'équipe Microsoft, GPT-4 a été intégré dans le "seau familial" de Microsoft en quelques mois. Au cours des six derniers mois, Microsoft a d'abord profité de l'utilisation prioritaire des produits OpenAI et de la réduction des prix des produits logiciels d'entreprise pour conquérir davantage de marchés du cloud. Comptez ensuite sur la mise à niveau de la gamme de produits vers Microsoft 365 Copilot pour augmenter le prix afin d'obtenir des revenus plus importants.

Selon les recherches de Yunqi Capital, le modèle sous-jacent de Microsoft repose essentiellement sur OpenAI, et après avoir accédé au grand modèle, Microsoft a commencé à conditionner et à vendre Teams, Power BI, Azure et d'autres produits de couche d'application à un prix inférieur.

La directrice financière de Microsoft, Amy Hood, a déclaré aux investisseurs en avril qu'OpenAI générerait des revenus pour Azure à mesure que de plus en plus de personnes commenceraient à utiliser ses services.

De nouveaux rapports suggèrent que Microsoft facture à certains clients Office 365 une prime de 40 % pour tester les fonctionnalités d'IA qui automatisent des tâches telles que l'écriture de texte dans des documents Word et la création de diapositives PowerPoint, et au moins 100 clients ont payé jusqu'à 100 000 $ de frais fixes. Les données montrent que moins d'un mois après son lancement, Microsoft a réalisé plus de 60 millions de dollars de revenus grâce aux capacités d'IA de Microsoft 365 Copilot.

** À l'opposé de Microsoft, l'ancien leader Amazon Cloud, un cran derrière le grand modèle, est aujourd'hui confronté à des défis plus sévères. **

AWS a été l'un des premiers développeurs de services cloud d'IA, et il est en place depuis environ 2016. Mais les clients ne trouvent pas les services, qui incluent la reconnaissance faciale, la conversion de texte en discours réaliste et les formes primitives de chatbots pour des tâches telles que le service client, très utiles. AWS a également lancé SagaMaker, un outil numérique d'IA pour les ingénieurs en 2017, pour les aider à développer et à utiliser des modèles d'apprentissage automatique, qui sont autrefois devenus le produit d'IA le plus important d'AWS.

Cependant, au cours des années suivantes, les produits d'IA d'AWS n'ont pas réussi à suivre la vague de grands modèles de langage.Depuis novembre 2021, Microsoft a commencé à vendre des produits d'IA développés sur la base de la série de modèles GPT pour une utilisation par les entreprises clientes. Dans le même temps, Google s'est également emparé de grandes startups d'IA en tant que clients du cloud et a vendu des logiciels d'IA propriétaires à ses clients du cloud. Même le retardataire du cloud computing Oracle a ses propres avantages en fournissant des ressources informatiques aux startups d'IA.

AWS, tardivement, tente de rattraper son retard. En avril, il a annoncé un service cloud qui permet aux clients d'utiliser de grands modèles de Stability, Anthropic et AI 21 Labs comme bases pour leurs propres produits. En retour, AWS partagera une partie des revenus avec ces partenaires.

Lors de la conférence Google I/O 2023, le PDG Sundar Pichai a présenté les derniers progrès de Google en matière d'IA | Source de l'image : site officiel de Google

** Google s'est levé tôt, mais a rattrapé tard. ** En tant que fabricant majeur avec la plus grande accumulation dans le domaine des modèles à grande échelle, la réaction de Google après la sortie de ChatGPT n'est pas désagréable. Il a rapidement sorti le robot intelligent conversationnel Bard et une nouvelle génération de modèle de langage à grande échelle PaLM 2 En conséquence, la conférence de presse a directement annulé , La vitesse de sortie du produit qui s'ensuit n'est pas idéale, ce qui contraste fortement avec les solides capacités d'ingénierie de Microsoft.

**La dernière chose qui mérite d'être mentionnée est qu'Oracle, qui s'est retiré très tôt du marché du cloud, a inopinément tendance à contre-attaquer dans cette vague de recrudescence. **

Oracle, longtemps à la traîne dans l'espace cloud, a étonnamment réussi à louer des serveurs cloud à des startups d'IA de haut niveau qui rivalisent avec OpenAI. C'est en partie parce qu'Oracle Cloud peut exécuter des modèles d'apprentissage automatique complexes de manière plus économique qu'Amazon Web Services ou Google Cloud, a rapporté The Information.

L'approche d'Oracle Cloud dans la course à l'IA semble être similaire à celle d'AWS, qui développe son propre logiciel d'IA à vendre aux clients, mais vendra également l'accès à des logiciels d'IA open source et à des produits d'autres développeurs d'IA.

De plus, certaines personnes proches du dossier ont révélé qu'Oracle a commencé à tester les produits d'OpenAI pour enrichir sa gamme de produits pour les clients finaux B, y compris les logiciels de gestion des ressources humaines et de la chaîne d'approvisionnement, mais Oracle est plus susceptible de développer son propre logiciel à cette fin. Les fonctionnalités de .

Matériel de référence:

"Une fissure dans l'empire Nvidia" | Institut de recherche Yuanchuan

Grande usine et grand modèle : le vrai business est le dernier mot|"Yunqi FutureScope"

Google et Microsoft's Other AI Race : Server Chips|L'information

Le scepticisme monte sur la stratégie d'IA d'AWS|Les informations

Google, Nvidia et Microsoft offrent ce que les VC ne peuvent pas|L'information

Pro Weekly : L'IA générative stimule la demande dans le cloud et la concurrence|L'information

Google investit dans AI Startup Runway pour arracher l'activité cloud d'AWS

Microsoft facture 40 % de plus à certains clients Office 365 pour tester les fonctionnalités de l'IA

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)