1 Alors que Microsoft et Google prennent les devants dans le domaine de l'intelligence artificielle générative, Amazon rattrape également son retard. Il semblerait que la société ait secrètement conçu deux puces à Austin, au Texas, pour former et accélérer l'intelligence artificielle générative. .
2 Deux puces personnalisées développées par Amazon, Inentia et Trainium, offrent aux clients d'Amazon Cloud Services AWS une alternative aux GPU Nvidia de plus en plus difficiles à obtenir pour la formation de grands modèles de langage.
3 La domination d'AWS dans le cloud computing est un gros avantage pour Amazon. AWS est le plus grand fournisseur de cloud computing au monde, représentant 40 % du marché en 2022.
4 Les analystes pensent que les puces personnalisées d'Amazon pourraient lui donner un avantage en matière d'intelligence artificielle générative à long terme.
Dans deux petites pièces d'un immeuble de bureaux indéfinissable à Austin, au Texas, plusieurs employés d'Amazon conçoivent deux types de micropuces pour former et accélérer l'intelligence artificielle générative. Les deux puces personnalisées, nommées Inentia et Trainium, offrent aux clients d'Amazon Web Services une alternative aux processeurs graphiques Nvidia pour la formation de grands modèles de langage. À l'heure actuelle, il devient de plus en plus difficile et coûteux de se procurer les processeurs graphiques de Nvidia.
"Le monde entier veut plus de puces pour l'IA générative, qu'il s'agisse de processeurs graphiques ou des propres conceptions d'Amazon", a déclaré le PDG d'AWS, Adam Selipsky, dans une interview en juin.Je pense que nous sommes plus susceptibles que toute autre entreprise au monde de donner notre clients cette capacité que tout le monde veut.
D'autres entreprises, cependant, ont agi plus rapidement, ont versé plus d'argent et ont emprunté au boom de l'IA. Lorsque OpenAI a lancé ChatGPT en novembre dernier, Microsoft a attiré beaucoup d'attention pour avoir hébergé l'explosif chatbot AI. Microsoft aurait investi 13 milliards de dollars dans OpenAI. Microsoft a rapidement ajouté des modèles d'intelligence artificielle générative à ses propres produits et les a intégrés à Bing en février.
Le même mois, Google a lancé son propre grand modèle de langage, Bard, et a ensuite investi 300 millions de dollars dans le concurrent OpenAI Anthropic.
Ce n'est qu'en avril de cette année qu'Amazon a annoncé son propre grand modèle de langage, Titan, et a lancé en même temps un service appelé Bedrock pour aider les développeurs à utiliser l'intelligence artificielle générative pour améliorer les capacités logicielles.
"Amazon n'a pas l'habitude de chasser des marchés, il a l'habitude d'en créer", a déclaré Chirag Dekate, vice-président et analyste de Gartner. "Je pense que pour la première fois depuis longtemps, ils voient que j'étais désavantagé et maintenant j'essaie de me rattraper."
Meta a également récemment publié son propre grand modèle de langage, Llama 2, un concurrent open source de ChatGPT qui est désormais disponible pour des tests sur le cloud public Microsoft Azure.
La puce représente la "véritable différenciation"
À long terme, les puces personnalisées d'Amazon pourraient lui donner un avantage en matière d'intelligence artificielle générative, a déclaré Decatur. "Je pense que la vraie différence réside dans les capacités techniques dont ils disposent, car Microsoft n'a ni Trainium ni Interentia", a-t-il expliqué.
Image : AWS a commencé à produire la puce personnalisée Nitro en 2013, qui est actuellement la plus grande puce AWS
En 2013, AWS a tranquillement commencé à produire des puces personnalisées avec un matériel spécialisé appelé Nitro. Amazon a révélé que Nitro est actuellement la puce AWS avec la plus grande capacité, et il y en a au moins une sur chaque serveur AWS, avec une utilisation totale de plus de 20 millions.
En 2015, Amazon a acquis Annapurna Labs, une startup israélienne de puces. Puis en 2018, Amazon a lancé Graviton, une puce serveur basée sur l'architecture Arm du concepteur de puces britannique, concurrente des CPU x86 de géants comme AMD et Nvidia.
"Les puces Arm pourraient représenter jusqu'à 10 % des ventes totales de serveurs, et une partie importante de cela proviendra d'Amazon", a déclaré Stacy Rasgon, analyste senior chez Bernstein Research. plutôt du bon boulot."
Toujours en 2018, Amazon a dévoilé des puces axées sur l'intelligence artificielle. Il y a deux ans, Google a lancé son premier Tensor Processor Unit (TPU). Microsoft n'a pas encore annoncé Athena, la puce d'intelligence artificielle qu'il développe avec AMD.
Amazon possède un laboratoire sur puce à Austin, au Texas, où il développe et teste Trainium et Inferentia. Matt Wood, vice-président des produits de la société, a expliqué ce que font les deux puces.
Il a déclaré : « L'apprentissage automatique est divisé en ces deux étapes différentes. Vous devez donc entraîner des modèles d'apprentissage automatique, puis effectuer des inférences sur ces modèles entraînés. Par rapport à d'autres méthodes d'entraînement de modèles d'apprentissage automatique sur AWS, Tradium dans The price/ le rapport de performance a été amélioré d'environ 50%.”
Trainium fait ses débuts en 2021, après le lancement de la deuxième génération d'Interentia en 2019. Interentia permet aux clients de "fournir une inférence d'apprentissage automatique à faible coût, à haut débit et à faible latence, qui correspond à toutes les prédictions que vous obtenez lorsque vous alimentez un signal dans un modèle d'IA génératif, tout cela est traité, puis vous obtenez un réponse », a déclaré Wood. «
Pour l'instant, cependant, les GPU de Nvidia sont toujours le roi incontesté en matière de modèles de formation. En juillet, AWS a dévoilé un nouveau matériel d'accélération de l'IA basé sur le H100 de Nvidia.
"Au cours des 15 dernières années, Nvidia a construit un énorme écosystème logiciel autour de ses puces qu'aucune autre entreprise ne possède. À l'heure actuelle, le plus grand gagnant de l'IA est Nvidia", a déclaré Rasgon.
Image : les puces personnalisées d'Amazon, de gauche à droite, sont Inferentia, Trainium et Graviton
Amazon a l'avantage du cloud computing
Cependant, la domination d'AWS dans le cloud computing est un gros avantage pour Amazon.
"Amazon n'a pas besoin d'attention supplémentaire, l'entreprise dispose déjà d'une base installée cloud très solide. Tout ce qu'ils ont à faire est de trouver comment utiliser l'intelligence artificielle générative pour créer le courant. Il y a des clients qui se développent dans des mouvements de création de valeur."
En choisissant l'intelligence artificielle générative entre Amazon, Google et Microsoft, des millions de clients AWS peuvent être attirés par Amazon car ils connaissent déjà Amazon et y exécutent d'autres applications et y stockent des données.
"C'est une question de rapidité", a expliqué Mai-Lan Tomsen Bukovec, vice-présidente de la technologie chez AWS. "La rapidité avec laquelle ces entreprises peuvent développer ces applications d'IA génératives, c'est à elles de commencer par les données d'AWS et de les piloter avec les outils de calcul et d'apprentissage automatique que nous fournissons."
Selon les données fournies par Gartner, AWS est le plus grand fournisseur de cloud computing au monde, représentant 40 % du marché en 2022. Bien que le bénéfice d'exploitation d'Amazon ait diminué d'une année sur l'autre pendant trois trimestres consécutifs, AWS représentait toujours 70 % du bénéfice d'exploitation de 7,7 milliards de dollars d'Amazon au deuxième trimestre. AWS a toujours eu des marges d'exploitation bien plus élevées que Google Cloud.
En outre, AWS dispose d'un portefeuille croissant d'outils de développement axés sur l'intelligence artificielle générative. Swami Sivasubramanian, vice-président d'AWS pour les bases de données, l'analyse et l'apprentissage automatique, a déclaré : "Revenons en arrière, même avant ChatGPT. Ce n'est pas comme si c'était arrivé après cela. , nous avons soudainement élaboré un plan à la hâte, car vous ne pouvez pas concevoir une nouvelle puce aussi rapidement, et encore moins créer un service de base en deux à trois mois.
Bedrock permet aux clients d'AWS d'accéder à de grands modèles de langage développés par Anthropic, Stability AI, AI21 Labs et Amazon Titan. "Nous ne pensons pas qu'un seul modèle dominera le monde, nous voulons que nos clients disposent de modèles à la pointe de la technologie provenant de plusieurs fournisseurs, car ils choisiront le bon outil pour le bon travail", a déclaré Sivasubramanian.
Photo : Au AWS Chip Lab d'Austin, au Texas, les employés d'Amazon développent des puces d'intelligence artificielle personnalisées
L'une des dernières offres d'IA d'Amazon est AWS HealthScribe, un service lancé en juillet pour aider les médecins à utiliser l'intelligence artificielle générative pour rédiger des résumés des visites de patients. Amazon dispose également d'un centre d'apprentissage automatique, SageMaker, qui fournit des algorithmes, des modèles et d'autres services.
Un autre outil important est CodeWhisperer, qui, selon Amazon, permet aux développeurs d'effectuer des tâches en moyenne 57 % plus rapidement. L'année dernière, Microsoft a également signalé que son outil de codage, GitHub Copilot, avait stimulé la productivité.
En juin de cette année, AWS a annoncé la création d'un centre d'innovation en intelligence artificielle générative pour 100 millions de dollars. Le PDG d'AWS, Selipsky, a déclaré : "Nous avons de nombreux clients qui veulent une technologie d'intelligence artificielle générative, mais ils ne savent pas nécessairement ce que cela signifie pour eux dans le contexte de leur propre entreprise. Par conséquent, nous présenterons des solutions. Architectes de solutions, ingénieurs, stratèges, et des scientifiques des données, travaillant avec eux en tête-à-tête. »
Le PDG Jassy a personnellement dirigé l'équipe pour construire un grand modèle de langage
Alors qu'AWS s'est jusqu'à présent principalement concentré sur le développement d'outils plutôt que sur la création d'un concurrent ChatGPT, un e-mail interne récemment divulgué a révélé que le PDG d'Amazon, Andy Jassy, supervise directement une nouvelle équipe centrale, qui construit également de grands modèles de langage évolutifs.
Lors de l'appel sur les résultats du deuxième trimestre, Jassy avait déclaré qu'une "partie substantielle" de l'activité d'AWS était désormais pilotée par l'intelligence artificielle et les plus de 20 services d'apprentissage automatique qu'elle prend en charge, dont les clients incluent Philips, 3M, Old Mutual et HSBC.
L'explosion de l'intelligence artificielle a entraîné une foule de problèmes de sécurité, les entreprises craignant que les employés ne mettent des informations exclusives dans les données de formation utilisées par les grands modèles de langage publics.
"Je ne peux pas vous dire combien d'entreprises du Fortune 500 à qui j'ai parlé ont désactivé ChatGPT", a déclaré Selipsky, PDG d'AWS.Tout ce que vous faites, quel que soit le modèle que vous utilisez, ce sera dans votre propre environnement de cloud privé virtuel isolé. Il sera crypté, il aura les mêmes contrôles d'accès AWS."
Pour l'instant, Amazon ne fait qu'accélérer sa poussée vers l'IA générative, affirmant que "plus de 100 000" clients utilisent actuellement l'apprentissage automatique sur AWS. Bien que cela ne représente qu'une fraction des millions de clients d'AWS, les analystes disent que cela pourrait changer.
"Nous ne voyons pas d'entreprises dire : "Oh, attendez, Microsoft est déjà leader dans l'IA générative, allons-y, changeons notre stratégie d'infrastructure, migrons tout vers Microsoft. Si vous êtes déjà client Amazon, vous êtes susceptible d'explorer la L'écosystème Amazon plus largement." (Texte / Jinlu)
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Tout mettre en œuvre pour créer des puces AWS personnalisées Amazon poursuit Microsoft et Google dans l'IA générative
Se concentrer sur
Dans deux petites pièces d'un immeuble de bureaux indéfinissable à Austin, au Texas, plusieurs employés d'Amazon conçoivent deux types de micropuces pour former et accélérer l'intelligence artificielle générative. Les deux puces personnalisées, nommées Inentia et Trainium, offrent aux clients d'Amazon Web Services une alternative aux processeurs graphiques Nvidia pour la formation de grands modèles de langage. À l'heure actuelle, il devient de plus en plus difficile et coûteux de se procurer les processeurs graphiques de Nvidia.
"Le monde entier veut plus de puces pour l'IA générative, qu'il s'agisse de processeurs graphiques ou des propres conceptions d'Amazon", a déclaré le PDG d'AWS, Adam Selipsky, dans une interview en juin.Je pense que nous sommes plus susceptibles que toute autre entreprise au monde de donner notre clients cette capacité que tout le monde veut.
D'autres entreprises, cependant, ont agi plus rapidement, ont versé plus d'argent et ont emprunté au boom de l'IA. Lorsque OpenAI a lancé ChatGPT en novembre dernier, Microsoft a attiré beaucoup d'attention pour avoir hébergé l'explosif chatbot AI. Microsoft aurait investi 13 milliards de dollars dans OpenAI. Microsoft a rapidement ajouté des modèles d'intelligence artificielle générative à ses propres produits et les a intégrés à Bing en février.
Le même mois, Google a lancé son propre grand modèle de langage, Bard, et a ensuite investi 300 millions de dollars dans le concurrent OpenAI Anthropic.
Ce n'est qu'en avril de cette année qu'Amazon a annoncé son propre grand modèle de langage, Titan, et a lancé en même temps un service appelé Bedrock pour aider les développeurs à utiliser l'intelligence artificielle générative pour améliorer les capacités logicielles.
"Amazon n'a pas l'habitude de chasser des marchés, il a l'habitude d'en créer", a déclaré Chirag Dekate, vice-président et analyste de Gartner. "Je pense que pour la première fois depuis longtemps, ils voient que j'étais désavantagé et maintenant j'essaie de me rattraper."
Meta a également récemment publié son propre grand modèle de langage, Llama 2, un concurrent open source de ChatGPT qui est désormais disponible pour des tests sur le cloud public Microsoft Azure.
La puce représente la "véritable différenciation"
À long terme, les puces personnalisées d'Amazon pourraient lui donner un avantage en matière d'intelligence artificielle générative, a déclaré Decatur. "Je pense que la vraie différence réside dans les capacités techniques dont ils disposent, car Microsoft n'a ni Trainium ni Interentia", a-t-il expliqué.
En 2013, AWS a tranquillement commencé à produire des puces personnalisées avec un matériel spécialisé appelé Nitro. Amazon a révélé que Nitro est actuellement la puce AWS avec la plus grande capacité, et il y en a au moins une sur chaque serveur AWS, avec une utilisation totale de plus de 20 millions.
En 2015, Amazon a acquis Annapurna Labs, une startup israélienne de puces. Puis en 2018, Amazon a lancé Graviton, une puce serveur basée sur l'architecture Arm du concepteur de puces britannique, concurrente des CPU x86 de géants comme AMD et Nvidia.
"Les puces Arm pourraient représenter jusqu'à 10 % des ventes totales de serveurs, et une partie importante de cela proviendra d'Amazon", a déclaré Stacy Rasgon, analyste senior chez Bernstein Research. plutôt du bon boulot."
Toujours en 2018, Amazon a dévoilé des puces axées sur l'intelligence artificielle. Il y a deux ans, Google a lancé son premier Tensor Processor Unit (TPU). Microsoft n'a pas encore annoncé Athena, la puce d'intelligence artificielle qu'il développe avec AMD.
Amazon possède un laboratoire sur puce à Austin, au Texas, où il développe et teste Trainium et Inferentia. Matt Wood, vice-président des produits de la société, a expliqué ce que font les deux puces.
Il a déclaré : « L'apprentissage automatique est divisé en ces deux étapes différentes. Vous devez donc entraîner des modèles d'apprentissage automatique, puis effectuer des inférences sur ces modèles entraînés. Par rapport à d'autres méthodes d'entraînement de modèles d'apprentissage automatique sur AWS, Tradium dans The price/ le rapport de performance a été amélioré d'environ 50%.”
Trainium fait ses débuts en 2021, après le lancement de la deuxième génération d'Interentia en 2019. Interentia permet aux clients de "fournir une inférence d'apprentissage automatique à faible coût, à haut débit et à faible latence, qui correspond à toutes les prédictions que vous obtenez lorsque vous alimentez un signal dans un modèle d'IA génératif, tout cela est traité, puis vous obtenez un réponse », a déclaré Wood. «
Pour l'instant, cependant, les GPU de Nvidia sont toujours le roi incontesté en matière de modèles de formation. En juillet, AWS a dévoilé un nouveau matériel d'accélération de l'IA basé sur le H100 de Nvidia.
"Au cours des 15 dernières années, Nvidia a construit un énorme écosystème logiciel autour de ses puces qu'aucune autre entreprise ne possède. À l'heure actuelle, le plus grand gagnant de l'IA est Nvidia", a déclaré Rasgon.
Amazon a l'avantage du cloud computing
Cependant, la domination d'AWS dans le cloud computing est un gros avantage pour Amazon.
"Amazon n'a pas besoin d'attention supplémentaire, l'entreprise dispose déjà d'une base installée cloud très solide. Tout ce qu'ils ont à faire est de trouver comment utiliser l'intelligence artificielle générative pour créer le courant. Il y a des clients qui se développent dans des mouvements de création de valeur."
En choisissant l'intelligence artificielle générative entre Amazon, Google et Microsoft, des millions de clients AWS peuvent être attirés par Amazon car ils connaissent déjà Amazon et y exécutent d'autres applications et y stockent des données.
"C'est une question de rapidité", a expliqué Mai-Lan Tomsen Bukovec, vice-présidente de la technologie chez AWS. "La rapidité avec laquelle ces entreprises peuvent développer ces applications d'IA génératives, c'est à elles de commencer par les données d'AWS et de les piloter avec les outils de calcul et d'apprentissage automatique que nous fournissons."
Selon les données fournies par Gartner, AWS est le plus grand fournisseur de cloud computing au monde, représentant 40 % du marché en 2022. Bien que le bénéfice d'exploitation d'Amazon ait diminué d'une année sur l'autre pendant trois trimestres consécutifs, AWS représentait toujours 70 % du bénéfice d'exploitation de 7,7 milliards de dollars d'Amazon au deuxième trimestre. AWS a toujours eu des marges d'exploitation bien plus élevées que Google Cloud.
En outre, AWS dispose d'un portefeuille croissant d'outils de développement axés sur l'intelligence artificielle générative. Swami Sivasubramanian, vice-président d'AWS pour les bases de données, l'analyse et l'apprentissage automatique, a déclaré : "Revenons en arrière, même avant ChatGPT. Ce n'est pas comme si c'était arrivé après cela. , nous avons soudainement élaboré un plan à la hâte, car vous ne pouvez pas concevoir une nouvelle puce aussi rapidement, et encore moins créer un service de base en deux à trois mois.
Bedrock permet aux clients d'AWS d'accéder à de grands modèles de langage développés par Anthropic, Stability AI, AI21 Labs et Amazon Titan. "Nous ne pensons pas qu'un seul modèle dominera le monde, nous voulons que nos clients disposent de modèles à la pointe de la technologie provenant de plusieurs fournisseurs, car ils choisiront le bon outil pour le bon travail", a déclaré Sivasubramanian.
L'une des dernières offres d'IA d'Amazon est AWS HealthScribe, un service lancé en juillet pour aider les médecins à utiliser l'intelligence artificielle générative pour rédiger des résumés des visites de patients. Amazon dispose également d'un centre d'apprentissage automatique, SageMaker, qui fournit des algorithmes, des modèles et d'autres services.
Un autre outil important est CodeWhisperer, qui, selon Amazon, permet aux développeurs d'effectuer des tâches en moyenne 57 % plus rapidement. L'année dernière, Microsoft a également signalé que son outil de codage, GitHub Copilot, avait stimulé la productivité.
En juin de cette année, AWS a annoncé la création d'un centre d'innovation en intelligence artificielle générative pour 100 millions de dollars. Le PDG d'AWS, Selipsky, a déclaré : "Nous avons de nombreux clients qui veulent une technologie d'intelligence artificielle générative, mais ils ne savent pas nécessairement ce que cela signifie pour eux dans le contexte de leur propre entreprise. Par conséquent, nous présenterons des solutions. Architectes de solutions, ingénieurs, stratèges, et des scientifiques des données, travaillant avec eux en tête-à-tête. »
Le PDG Jassy a personnellement dirigé l'équipe pour construire un grand modèle de langage
Alors qu'AWS s'est jusqu'à présent principalement concentré sur le développement d'outils plutôt que sur la création d'un concurrent ChatGPT, un e-mail interne récemment divulgué a révélé que le PDG d'Amazon, Andy Jassy, supervise directement une nouvelle équipe centrale, qui construit également de grands modèles de langage évolutifs.
Lors de l'appel sur les résultats du deuxième trimestre, Jassy avait déclaré qu'une "partie substantielle" de l'activité d'AWS était désormais pilotée par l'intelligence artificielle et les plus de 20 services d'apprentissage automatique qu'elle prend en charge, dont les clients incluent Philips, 3M, Old Mutual et HSBC.
L'explosion de l'intelligence artificielle a entraîné une foule de problèmes de sécurité, les entreprises craignant que les employés ne mettent des informations exclusives dans les données de formation utilisées par les grands modèles de langage publics.
"Je ne peux pas vous dire combien d'entreprises du Fortune 500 à qui j'ai parlé ont désactivé ChatGPT", a déclaré Selipsky, PDG d'AWS.Tout ce que vous faites, quel que soit le modèle que vous utilisez, ce sera dans votre propre environnement de cloud privé virtuel isolé. Il sera crypté, il aura les mêmes contrôles d'accès AWS."
Pour l'instant, Amazon ne fait qu'accélérer sa poussée vers l'IA générative, affirmant que "plus de 100 000" clients utilisent actuellement l'apprentissage automatique sur AWS. Bien que cela ne représente qu'une fraction des millions de clients d'AWS, les analystes disent que cela pourrait changer.
"Nous ne voyons pas d'entreprises dire : "Oh, attendez, Microsoft est déjà leader dans l'IA générative, allons-y, changeons notre stratégie d'infrastructure, migrons tout vers Microsoft. Si vous êtes déjà client Amazon, vous êtes susceptible d'explorer la L'écosystème Amazon plus largement." (Texte / Jinlu)