Dans l'après-midi du 25 septembre, Amazon a annoncé sur le site officiel de l'entreprise qu'il investirait jusqu'à 4 milliards de dollars dans la grande société de mannequins Anthropic, célèbre pour son chatbot Claude qui compare ChatGPT.
Les sociétés de cloud computing ont investi massivement dans de grandes entreprises modèles. Microsoft a pris un bon départ en février de cette année, en acquérant OpenAI, un client majeur du cloud Azure de Microsoft, et l'utilisation prioritaire de ChatGPT pour 10 milliards de dollars. Il semble désormais que cet accord représente un bénéfice certain pour Microsoft : depuis cette année, la valeur marchande de Microsoft a augmenté de 40 %.
Mais aujourd'hui, six mois plus tard, la relation entre l'amont et l'aval dans le domaine des grands modèles se complique. Amazon InvestmentAnthropicne consiste pas seulement à « verrouiller » les clients d'AWS. , ce n'est même pas forcément destiné aux gros modèles.
Les détails officiels de la coopération montrent : Anthropic utilisera les puces AWS Trainium et Inferentia pour construire, former et déployer ses futurs modèles de base. Par ailleurs, les deux sociétés collaboreront également au développement des futures technologies Trainium et Inferentia. Il convient de noter qu'AWS Trainium est une puce de formation ML (apprentissage automatique) personnalisée lancée par AWS fin 2020, et que la puce Inferentia est une puce d'inférence d'apprentissage automatique haute performance lancée par AWS en 2019.
En investissant dans Anthropic pour approfondir la coopération, Amazon entend accélérer le développement de puces d'IA auto-développées.
Il y a quelques jours, The Information a annoncé en exclusivité que NVIDIA souhaitait « facturer des frais de traitement » aux trois principaux fournisseurs de cloud : NVIDIA souhaite louer des serveurs NVIDIA auprès de fournisseurs de cloud, afin de pouvoir fournir des applications d'IA aux utilisateurs d'IA via le cloud au lieu de serveurs ou de puces. Fournissant directement des services, ces applications incluent également les trois principaux fournisseurs de cloud.
Cependant, seul Amazon a rejeté l'offre.
Il semble maintenant que la raison pour laquelle Amazon a rejeté Nvidia est de trouver des moyens d’accélérer la mise à niveau de ses puces d’IA auto-développées. À l'ère des grands modèles, la principale compétitivité d'Amazon pour stabiliser sa position de numéro un sur le marché du cloud computing réside dans ses puces IA.
01 La première plateforme cloud passe à l'action, le plus grand ennemi d'OpenAI
Dans le cadre de cette coopération, Amazon a annoncé qu'il investirait initialement 1,25 milliard de dollars pour acquérir une participation minoritaire dans Anthropic. Dans le cadre de cet accord, Amazon a déclaré avoir la possibilité d'augmenter son investissement dans Anthropic à 4 milliards de dollars.
Dans le cadre de la collaboration élargie :
Anthropic utilisera les puces AWS Trainium et Inferentia pour construire, former et déployer ses futurs modèles de base, bénéficiant du prix, des performances, de l'évolutivité et de la sécurité d'AWS. Les deux sociétés collaboreront également sur les futures technologies Trainium et Inferentia.
AWS deviendra le principal fournisseur de cloud d'Anthropic pour les charges de travail critiques, y compris la recherche sur la sécurité et le développement futur de modèles fondamentaux. Anthropic prévoit d'exécuter la majorité de ses charges de travail sur AWS, fournissant ainsi à Anthropic une technologie avancée du premier fournisseur de cloud au monde.
Anthropic s'est engagé à long terme à fournir aux clients AWS du monde entier un accès à ses modèles de fondation de nouvelle génération via Amazon Bedrock, un service entièrement géré d'AWS qui fournit un accès sécurisé aux meilleurs modèles de fondation du secteur. De plus, Anthropic offrira aux clients AWS la possibilité unique d'accéder en avance aux capacités de personnalisation et de réglage précis des modèles.
Les développeurs et ingénieurs d'Amazon pourront construire avec des modèles Anthropic via Amazon Bedrock, afin de pouvoir intégrer des capacités d'IA générative dans leur travail, améliorer les applications existantes et créer de nouvelles expériences client dans les entreprises Amazon.
Les sociétés n'ont pas divulgué la valorisation de l'investissement d'Amazon dans Anthropic.
Anthropic a été fondée par les anciens employés d'OpenAI, Daniela Amodei et Dario Amodei, qui sont les principaux développeurs d'OpenAI GPT2 et GPT3. Actuellement, Anthropic possède l'un des chatbots les plus populaires, Claude.
Challenger du créateur de ChatGPT OpenAI, Anthropic a reçu un investissement de 400 millions de dollars de Google plus tôt cette année et a été évalué à plus de 4 milliards de dollars après une ronde de financement de Spark Capital en mars.
**02 Que veut faire Amazon ? **
Investir jusqu’à 4 milliards de dollars dans Anthropic. Que veut faire exactement Amazon ?
Une raison évidente est de « saisir » les clients. En tant que plus gros clients du cloud computing (à l’avenir), les grands fabricants de modèles et les sociétés d’applications d’IA sont devenus un champ de bataille pour les principaux fabricants de cloud.
Depuis cette année, Google, Microsoft, AWS, Oracle et Nvidia ont tous tacitement et unanimement fait une chose : « verrouiller » les clients grâce à des investissements stratégiques (payer de l'argent pour acheter des clients), bien que cette opération soit financièrement controversée.
Mais en fait, Anthropic est client d'AWS depuis 2021. AWS a approfondi sa coopération avec Anthropic à hauteur de 4 milliards de dollars américains, visant des droits de coopération plus approfondis : de grands modèles et, surtout, des puces d'IA auto-développées* *.
En d’autres termes, en investissant stratégiquement ces frais de scolarité, Amazon apprend à créer de grands modèles. Il a également développé des puces IA** qui pourraient même renverser les GPU NVIDIA grâce à des discussions avec des adversaires en concurrence avec OpenAI. Après tout, les GPU ne sont pas conçus pour entraîner des réseaux de neurones. S'appuyer sur CUDA et diverses technologies pour « modifier comme par magie » scène par scène est une option, mais ce n'est pas la solution optimale.
Le discours du PDG d'Amazon, Andy Jassy, l'a confirmé en déclarant : « Nous pensons que nous pouvons contribuer à améliorer de nombreuses expériences client à court et à long terme grâce à une coopération plus approfondie. »
L'expérience client à court et à long terme correspond aux grands modèles d'Amazon et aux puces d'IA auto-développées.
Il a ajouté : « Les clients sont très enthousiasmés par Amazon Bedrock, le nouveau service géré d'AWS qui permet aux entreprises de créer des applications d'IA génératives en utilisant une variété de modèles sous-jacents, et par AWS Trainium, la puce de formation en IA d'AWS. La puce de formation en IA d'AWS et notre coopération avec Anthropic devrait aider les clients à tirer davantage de valeur de ces deux fonctions.
En effet, au premier semestre, Amazon a lancé son propre grand modèle Titan et a annoncé le client type de ce grand modèle. Cependant, quelques jours plus tard, ce client type a sauté sur l'occasion et a révélé aux médias que le grand modèle d'Amazon n'était pas facile à utiliser.
On peut voir qu'Amazon n'est pas entièrement préparé pour les grands modèles auto-développés. Par conséquent, Amazon s'est tourné vers le marché pour promouvoir vigoureusement la plate-forme de grands modèles Amazon Bedrock, où les clients peuvent faire appel aux services d'autres grands fabricants de grands modèles, notamment Anthropic.
D’un autre côté, Amazon doit stabiliser ses fondamentaux en matière de cloud computing.
À l’ère des grands modèles, le cloud computing est confronté à des charges de travail différentes et doit explorer de nouvelles technologies pour obtenir des capacités de raisonnement plus rapides. À cet égard, Amazon est effectivement un pionnier. Les puces et les serveurs de centres de données auto-développés étaient autrefois considérés comme « l'une des choses les plus importantes » qu'AWS ait faites pour « se différencier de Microsoft et de Google ». Ses serveurs ont des vitesses plus élevées et économisent de l'énergie.
En termes de puces et de serveurs propriétaires d'IA, Amazon est également le premier parmi les trois principaux fournisseurs de cloud (Microsoft Cloud, Google Cloud). Cependant, les progrès et les performances de ses puces d'IA n'ont pas été publiés séparément, mais sont regroupés dans des serveurs et fournis aux clients via des services cloud. Par conséquent, les clients ne perçoivent directement que les performances du cloud computing, et non celles des puces qu'il contient.
Désormais, Amazon doit comprendre quelles charges de travail sont les mieux adaptées à quels processeurs, et travailler avec Anthropic est un moyen d'y parvenir.
Actuellement, sur les 69 entreprises de la base de données d'IA générative de The Information, 32 utilisent Amazon, 26 utilisent Google et 13 utilisent Microsoft comme fournisseur de cloud. Bien entendu, certaines entreprises font appel à plusieurs fournisseurs de cloud.
À l'ère des grands modèles, la coopération et la concurrence dans le cloud computing, les grands modèles et les applications d'IA deviennent de plus en plus complexes. L'industrie du cloud computing, qui n'a pas connu de changements majeurs depuis longtemps, a finalement ouvert une opportunité de changement.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
28 milliards ! Amazon a investi dans OpenAI, son plus grand ennemi
Dans l'après-midi du 25 septembre, Amazon a annoncé sur le site officiel de l'entreprise qu'il investirait jusqu'à 4 milliards de dollars dans la grande société de mannequins Anthropic, célèbre pour son chatbot Claude qui compare ChatGPT.
Les sociétés de cloud computing ont investi massivement dans de grandes entreprises modèles. Microsoft a pris un bon départ en février de cette année, en acquérant OpenAI, un client majeur du cloud Azure de Microsoft, et l'utilisation prioritaire de ChatGPT pour 10 milliards de dollars. Il semble désormais que cet accord représente un bénéfice certain pour Microsoft : depuis cette année, la valeur marchande de Microsoft a augmenté de 40 %.
Mais aujourd'hui, six mois plus tard, la relation entre l'amont et l'aval dans le domaine des grands modèles se complique. Amazon Investment Anthropic ne consiste pas seulement à « verrouiller » les clients d'AWS. , ce n'est même pas forcément destiné aux gros modèles.
Les détails officiels de la coopération montrent : Anthropic utilisera les puces AWS Trainium et Inferentia pour construire, former et déployer ses futurs modèles de base. Par ailleurs, les deux sociétés collaboreront également au développement des futures technologies Trainium et Inferentia. Il convient de noter qu'AWS Trainium est une puce de formation ML (apprentissage automatique) personnalisée lancée par AWS fin 2020, et que la puce Inferentia est une puce d'inférence d'apprentissage automatique haute performance lancée par AWS en 2019.
En investissant dans Anthropic pour approfondir la coopération, Amazon entend accélérer le développement de puces d'IA auto-développées.
Il y a quelques jours, The Information a annoncé en exclusivité que NVIDIA souhaitait « facturer des frais de traitement » aux trois principaux fournisseurs de cloud : NVIDIA souhaite louer des serveurs NVIDIA auprès de fournisseurs de cloud, afin de pouvoir fournir des applications d'IA aux utilisateurs d'IA via le cloud au lieu de serveurs ou de puces. Fournissant directement des services, ces applications incluent également les trois principaux fournisseurs de cloud.
Cependant, seul Amazon a rejeté l'offre.
Il semble maintenant que la raison pour laquelle Amazon a rejeté Nvidia est de trouver des moyens d’accélérer la mise à niveau de ses puces d’IA auto-développées. À l'ère des grands modèles, la principale compétitivité d'Amazon pour stabiliser sa position de numéro un sur le marché du cloud computing réside dans ses puces IA.
01 La première plateforme cloud passe à l'action, le plus grand ennemi d'OpenAI
Dans le cadre de cette coopération, Amazon a annoncé qu'il investirait initialement 1,25 milliard de dollars pour acquérir une participation minoritaire dans Anthropic. Dans le cadre de cet accord, Amazon a déclaré avoir la possibilité d'augmenter son investissement dans Anthropic à 4 milliards de dollars.
Dans le cadre de la collaboration élargie :
Les sociétés n'ont pas divulgué la valorisation de l'investissement d'Amazon dans Anthropic.
Anthropic a été fondée par les anciens employés d'OpenAI, Daniela Amodei et Dario Amodei, qui sont les principaux développeurs d'OpenAI GPT2 et GPT3. Actuellement, Anthropic possède l'un des chatbots les plus populaires, Claude.
Challenger du créateur de ChatGPT OpenAI, Anthropic a reçu un investissement de 400 millions de dollars de Google plus tôt cette année et a été évalué à plus de 4 milliards de dollars après une ronde de financement de Spark Capital en mars.
**02 Que veut faire Amazon ? **
Investir jusqu’à 4 milliards de dollars dans Anthropic. Que veut faire exactement Amazon ?
Une raison évidente est de « saisir » les clients. En tant que plus gros clients du cloud computing (à l’avenir), les grands fabricants de modèles et les sociétés d’applications d’IA sont devenus un champ de bataille pour les principaux fabricants de cloud.
Depuis cette année, Google, Microsoft, AWS, Oracle et Nvidia ont tous tacitement et unanimement fait une chose : « verrouiller » les clients grâce à des investissements stratégiques (payer de l'argent pour acheter des clients), bien que cette opération soit financièrement controversée.
Mais en fait, Anthropic est client d'AWS depuis 2021. AWS a approfondi sa coopération avec Anthropic à hauteur de 4 milliards de dollars américains, visant des droits de coopération plus approfondis : de grands modèles et, surtout, des puces d'IA auto-développées* *.
En d’autres termes, en investissant stratégiquement ces frais de scolarité, Amazon apprend à créer de grands modèles. Il a également développé des puces IA** qui pourraient même renverser les GPU NVIDIA grâce à des discussions avec des adversaires en concurrence avec OpenAI. Après tout, les GPU ne sont pas conçus pour entraîner des réseaux de neurones. S'appuyer sur CUDA et diverses technologies pour « modifier comme par magie » scène par scène est une option, mais ce n'est pas la solution optimale.
Le discours du PDG d'Amazon, Andy Jassy, l'a confirmé en déclarant : « Nous pensons que nous pouvons contribuer à améliorer de nombreuses expériences client à court et à long terme grâce à une coopération plus approfondie. »
L'expérience client à court et à long terme correspond aux grands modèles d'Amazon et aux puces d'IA auto-développées.
Il a ajouté : « Les clients sont très enthousiasmés par Amazon Bedrock, le nouveau service géré d'AWS qui permet aux entreprises de créer des applications d'IA génératives en utilisant une variété de modèles sous-jacents, et par AWS Trainium, la puce de formation en IA d'AWS. La puce de formation en IA d'AWS et notre coopération avec Anthropic devrait aider les clients à tirer davantage de valeur de ces deux fonctions.
En effet, au premier semestre, Amazon a lancé son propre grand modèle Titan et a annoncé le client type de ce grand modèle. Cependant, quelques jours plus tard, ce client type a sauté sur l'occasion et a révélé aux médias que le grand modèle d'Amazon n'était pas facile à utiliser.
On peut voir qu'Amazon n'est pas entièrement préparé pour les grands modèles auto-développés. Par conséquent, Amazon s'est tourné vers le marché pour promouvoir vigoureusement la plate-forme de grands modèles Amazon Bedrock, où les clients peuvent faire appel aux services d'autres grands fabricants de grands modèles, notamment Anthropic.
D’un autre côté, Amazon doit stabiliser ses fondamentaux en matière de cloud computing.
À l’ère des grands modèles, le cloud computing est confronté à des charges de travail différentes et doit explorer de nouvelles technologies pour obtenir des capacités de raisonnement plus rapides. À cet égard, Amazon est effectivement un pionnier. Les puces et les serveurs de centres de données auto-développés étaient autrefois considérés comme « l'une des choses les plus importantes » qu'AWS ait faites pour « se différencier de Microsoft et de Google ». Ses serveurs ont des vitesses plus élevées et économisent de l'énergie.
En termes de puces et de serveurs propriétaires d'IA, Amazon est également le premier parmi les trois principaux fournisseurs de cloud (Microsoft Cloud, Google Cloud). Cependant, les progrès et les performances de ses puces d'IA n'ont pas été publiés séparément, mais sont regroupés dans des serveurs et fournis aux clients via des services cloud. Par conséquent, les clients ne perçoivent directement que les performances du cloud computing, et non celles des puces qu'il contient.
Désormais, Amazon doit comprendre quelles charges de travail sont les mieux adaptées à quels processeurs, et travailler avec Anthropic est un moyen d'y parvenir.
Actuellement, sur les 69 entreprises de la base de données d'IA générative de The Information, 32 utilisent Amazon, 26 utilisent Google et 13 utilisent Microsoft comme fournisseur de cloud. Bien entendu, certaines entreprises font appel à plusieurs fournisseurs de cloud.
À l'ère des grands modèles, la coopération et la concurrence dans le cloud computing, les grands modèles et les applications d'IA deviennent de plus en plus complexes. L'industrie du cloud computing, qui n'a pas connu de changements majeurs depuis longtemps, a finalement ouvert une opportunité de changement.