La fonctionnalité Agents d'Amazon Bedrock permettra aux entreprises de créer des applications d'intelligence artificielle capables d'automatiser des tâches spécifiques, telles que la réservation de restaurants, plutôt que de simplement obtenir des recommandations sur les endroits où manger.
"Beaucoup de gens sont tellement concentrés sur ces modèles et la taille des modèles, mais je pense que ce qui compte vraiment, c'est comment créer des applications avec eux, et c'est une grande raison pour laquelle nous publions la fonctionnalité Agents aujourd'hui."
Le 26 juillet, heure locale, Swami Sivasubramanian, vice-président mondial d'Amazon Cloud Technology Database, Data Analysis and Machine Learning, a pris la parole lors du sommet de New York.
Lors du sommet de New York, l'un des sommets annuels d'Amazon Web Services (AWS), plusieurs annonces ont porté sur l'intelligence artificielle générative. "Cette technologie a atteint un point de basculement", a déclaré Swami Sivasubramanian, vice-président mondial d'Amazon pour les bases de données de technologie cloud, l'analyse de données et l'apprentissage automatique.
Le 26 juillet, heure de l'Est, lors du sommet de New York, AWS a lancé la fonction Agents (agents) d'Amazon Bedrock, un service d'IA générative, pour aider les modèles de base à accomplir des tâches complexes. "Cela permettra aux entreprises de créer des applications d'intelligence artificielle capables d'automatiser des tâches spécifiques, telles que la réservation de restaurants, plutôt que de simplement obtenir des recommandations sur les endroits où manger", a déclaré Sivasubramanian.
En outre, AWS a également lancé de nouveaux outils d'intelligence artificielle, notamment la disponibilité officielle de l'assistant de programmation Amazon CodeWhisperer, Amazon HealthScribe, un nouveau service médical intelligent pour générer des dossiers cliniques après les visites des patients, et Amazon Entity Resolution, un service d'analyse. Dans le même temps, il a annoncé que les instances Amazon EC2 P5 pour les applications d'IA générative accélérée et de calcul haute performance sont officiellement disponibles.
Vasi Philomin, vice-président mondial de l'IA générative chez Amazon Cloud Technology, a partagé avec The Paper que parmi toutes les versions, ce dont il est le plus préoccupé et dont il est le plus fier, c'est la fonction d'agents." Beaucoup de gens se concentrent tellement sur ces modèles et la taille des modèles, mais je pense que ce qui est vraiment important, c'est la façon dont vous construisez des applications à partir d'eux, et c'est une grande raison pour laquelle nous lançons la fonctionnalité Agents aujourd'hui."
Compétition d'agents IA
Les modèles d'IA générative comme GPT-4 d'OpenAI ou Llama 2 de Meta sont puissants, mais ils ne peuvent pas réellement automatiser certaines tâches pour l'utilisateur sans aide supplémentaire, comme les plugins.
Amazon Bedrock offre un moyen de créer des applications d'IA génératives grâce à des modèles pré-formés de startups ainsi qu'à la technologie cloud d'Amazon elle-même, sans investir dans des serveurs. La fonctionnalité Agents d'Amazon Bedrock permet aux entreprises d'utiliser leurs propres données pour enseigner des modèles sous-jacents, puis de créer d'autres applications pour effectuer des tâches. Le développeur peut choisir le modèle de base à utiliser, fournir des instructions et choisir les données lues par le modèle.
Ceci est similaire au système de plugins récemment introduit par OpenAI pour GPT-4 et ChatGPT, qui étend les capacités des modèles en leur permettant d'exploiter des API et des bases de données tierces. En fait, il y a eu récemment une tendance vers des modèles génératifs "personnalisés", avec des startups telles que Contextual AI construisant des outils pour augmenter les modèles avec des données d'entreprise.
Par exemple, une agence de voyage peut utiliser l'intelligence artificielle générative pour fournir des recommandations de voyage, puis créer un autre agent (Agents) pour recevoir l'historique de voyage et les intérêts de l'utilisateur, puis utiliser un agent pour trouver les horaires de vol, et enfin créer un agent pour réserver votre sélection vol.
AWS n'est pas le seul à s'enthousiasmer pour les agents. En avril, le PDG de Meta, Mark Zuckerberg (Mark Zuckerberg), a également déclaré aux investisseurs qu'ils avaient la possibilité d'apporter des agents d'intelligence artificielle (agents) "à des milliards de personnes de manière utile et significative". En juillet, le PDG d'OpenAI, Sam Altman, s'est penché sur les agents d'IA et sur la meilleure façon de les mettre en œuvre dans une interview avec The Atlantic.
Reuters a rapporté en juillet que la course aux agents d'intelligence artificielle "autonomes" (Agents) balayait la Silicon Valley. Il cite une startup, Inflection AI, qui a levé 1,3 milliard de dollars de financement fin juin. Selon ses fondateurs dans un podcast, la société développe un assistant personnel qui, selon elle, peut agir en tant que mentor ou gérer des tâches telles que gagner des crédits de vol et des hôtels après des retards de voyage.
Le 26 juillet, Sivasubramanian a déclaré dans une interview aux médias que des clients tels que Sony (SONY), Ryanair (Ryanair) et Sun Life (Sun Life) avaient essayé Amazon Bedrock. Sivasubramanian a déclaré qu'Amazon Bedrock sera disponible "bientôt" pour tous les clients. Il a refusé de dire quand, ajoutant que la société visait d'abord à s'occuper de la répartition des coûts et du contrôle de l'entreprise.
Le service Amazon Bedrock a été lancé en avril, lorsqu'Amazon Bedrock a proposé Amazon Titan (le propre modèle de base d'AWS) ainsi que des modèles créés par stable.ai, AI21Labs et Anthropic.
Au sommet de New York cette fois, AWS a annoncé l'ajout de Cohere en tant que fournisseur de modèles de base, rejoignant le dernier chatbot de modèle de base d'Anthropic et Stability AI. Le modèle de génération de texte de commande de Cohere est formé pour suivre les invites de l'utilisateur et renvoyer des résumés, des transcriptions et des conversations, et l'outil peut également extraire des informations et répondre aux questions.
La plate-forme AWS peut appeler la puce Nvidia H100
Lors du sommet de New York, AWS a également dévoilé les instances Amazon EC2 P5 alimentées par la puce H100 de Nvidia. D'une certaine manière, il s'agit d'une étape importante dans la coopération de plus de dix ans entre AWS et Nvidia.
L'une des caractéristiques notables du GPU H100 est l'optimisation de Transformer, une technologie clé utilisée dans les grands modèles de langage. Les instances Amazon EC2 P5 offrent 8 GPU NVIDIA H100 avec 640 Go de mémoire GPU à large bande passante, des processeurs AMD EPYC de 3e génération, 2 To de mémoire système et 30 To de stockage NVMe local pour accélérer l'IA générative et les applications informatiques hautes performances.
Amazon EC2 P5 réduit le temps de formation jusqu'à 6 fois (de quelques jours à quelques heures) par rapport aux instances basées sur GPU de la génération précédente. Selon AWS, cette amélioration des performances réduira les coûts de formation de 40 % par rapport à la génération précédente.
En fait, depuis le lancement de la première puce Amazon Nitro en 2013, AWS est le premier fournisseur de cloud à se lancer dans les puces auto-développées.Il a déjà trois gammes de produits de puces réseau, de puces serveur et d'intelligence artificielle. puces développées. Début 2023, l'Amazon Inferentia 2 spécialement conçu (qui peut prendre en charge l'inférence distribuée via des connexions directes ultra-rapides entre les puces) est lancé, prenant en charge jusqu'à 175 milliards de paramètres, ce qui en fait un concurrent sérieux pour l'inférence de modèle à grande échelle.
Quant à savoir s'il craignait que la fourniture de la puce H100 de Nvidia ne réduise l'attractivité de la puce auto-développée d'AWS, Ferromin a répondu à Pengpai Technology ("Nous accueillons la concurrence. Le matériel s'améliorera toutes les quelques années. C'est la norme. Un gros problème à droite C'est maintenant que l'IA générative est assez chère, c'est pourquoi personne ne la met vraiment dans les charges de travail de production, tout le monde est encore au stade expérimental. ". Le meilleur scénario est que vous ne perdez pas d'argent à chaque appel, vous gagnez en fait de l'argent. Pour y parvenir, je pense que nous devons être compétitifs. "
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Amazon cloud lance la fonction d'agent d'IA, faisant de l'IA un assistant au lieu d'un simple chat
Source: Le papier
Journaliste Shao Wen
La fonctionnalité Agents d'Amazon Bedrock permettra aux entreprises de créer des applications d'intelligence artificielle capables d'automatiser des tâches spécifiques, telles que la réservation de restaurants, plutôt que de simplement obtenir des recommandations sur les endroits où manger.
"Beaucoup de gens sont tellement concentrés sur ces modèles et la taille des modèles, mais je pense que ce qui compte vraiment, c'est comment créer des applications avec eux, et c'est une grande raison pour laquelle nous publions la fonctionnalité Agents aujourd'hui."
Lors du sommet de New York, l'un des sommets annuels d'Amazon Web Services (AWS), plusieurs annonces ont porté sur l'intelligence artificielle générative. "Cette technologie a atteint un point de basculement", a déclaré Swami Sivasubramanian, vice-président mondial d'Amazon pour les bases de données de technologie cloud, l'analyse de données et l'apprentissage automatique.
Le 26 juillet, heure de l'Est, lors du sommet de New York, AWS a lancé la fonction Agents (agents) d'Amazon Bedrock, un service d'IA générative, pour aider les modèles de base à accomplir des tâches complexes. "Cela permettra aux entreprises de créer des applications d'intelligence artificielle capables d'automatiser des tâches spécifiques, telles que la réservation de restaurants, plutôt que de simplement obtenir des recommandations sur les endroits où manger", a déclaré Sivasubramanian.
En outre, AWS a également lancé de nouveaux outils d'intelligence artificielle, notamment la disponibilité officielle de l'assistant de programmation Amazon CodeWhisperer, Amazon HealthScribe, un nouveau service médical intelligent pour générer des dossiers cliniques après les visites des patients, et Amazon Entity Resolution, un service d'analyse. Dans le même temps, il a annoncé que les instances Amazon EC2 P5 pour les applications d'IA générative accélérée et de calcul haute performance sont officiellement disponibles.
Vasi Philomin, vice-président mondial de l'IA générative chez Amazon Cloud Technology, a partagé avec The Paper que parmi toutes les versions, ce dont il est le plus préoccupé et dont il est le plus fier, c'est la fonction d'agents." Beaucoup de gens se concentrent tellement sur ces modèles et la taille des modèles, mais je pense que ce qui est vraiment important, c'est la façon dont vous construisez des applications à partir d'eux, et c'est une grande raison pour laquelle nous lançons la fonctionnalité Agents aujourd'hui."
Compétition d'agents IA
Les modèles d'IA générative comme GPT-4 d'OpenAI ou Llama 2 de Meta sont puissants, mais ils ne peuvent pas réellement automatiser certaines tâches pour l'utilisateur sans aide supplémentaire, comme les plugins.
Amazon Bedrock offre un moyen de créer des applications d'IA génératives grâce à des modèles pré-formés de startups ainsi qu'à la technologie cloud d'Amazon elle-même, sans investir dans des serveurs. La fonctionnalité Agents d'Amazon Bedrock permet aux entreprises d'utiliser leurs propres données pour enseigner des modèles sous-jacents, puis de créer d'autres applications pour effectuer des tâches. Le développeur peut choisir le modèle de base à utiliser, fournir des instructions et choisir les données lues par le modèle.
Ceci est similaire au système de plugins récemment introduit par OpenAI pour GPT-4 et ChatGPT, qui étend les capacités des modèles en leur permettant d'exploiter des API et des bases de données tierces. En fait, il y a eu récemment une tendance vers des modèles génératifs "personnalisés", avec des startups telles que Contextual AI construisant des outils pour augmenter les modèles avec des données d'entreprise.
Par exemple, une agence de voyage peut utiliser l'intelligence artificielle générative pour fournir des recommandations de voyage, puis créer un autre agent (Agents) pour recevoir l'historique de voyage et les intérêts de l'utilisateur, puis utiliser un agent pour trouver les horaires de vol, et enfin créer un agent pour réserver votre sélection vol.
AWS n'est pas le seul à s'enthousiasmer pour les agents. En avril, le PDG de Meta, Mark Zuckerberg (Mark Zuckerberg), a également déclaré aux investisseurs qu'ils avaient la possibilité d'apporter des agents d'intelligence artificielle (agents) "à des milliards de personnes de manière utile et significative". En juillet, le PDG d'OpenAI, Sam Altman, s'est penché sur les agents d'IA et sur la meilleure façon de les mettre en œuvre dans une interview avec The Atlantic.
Reuters a rapporté en juillet que la course aux agents d'intelligence artificielle "autonomes" (Agents) balayait la Silicon Valley. Il cite une startup, Inflection AI, qui a levé 1,3 milliard de dollars de financement fin juin. Selon ses fondateurs dans un podcast, la société développe un assistant personnel qui, selon elle, peut agir en tant que mentor ou gérer des tâches telles que gagner des crédits de vol et des hôtels après des retards de voyage.
Le 26 juillet, Sivasubramanian a déclaré dans une interview aux médias que des clients tels que Sony (SONY), Ryanair (Ryanair) et Sun Life (Sun Life) avaient essayé Amazon Bedrock. Sivasubramanian a déclaré qu'Amazon Bedrock sera disponible "bientôt" pour tous les clients. Il a refusé de dire quand, ajoutant que la société visait d'abord à s'occuper de la répartition des coûts et du contrôle de l'entreprise.
Le service Amazon Bedrock a été lancé en avril, lorsqu'Amazon Bedrock a proposé Amazon Titan (le propre modèle de base d'AWS) ainsi que des modèles créés par stable.ai, AI21Labs et Anthropic.
Au sommet de New York cette fois, AWS a annoncé l'ajout de Cohere en tant que fournisseur de modèles de base, rejoignant le dernier chatbot de modèle de base d'Anthropic et Stability AI. Le modèle de génération de texte de commande de Cohere est formé pour suivre les invites de l'utilisateur et renvoyer des résumés, des transcriptions et des conversations, et l'outil peut également extraire des informations et répondre aux questions.
La plate-forme AWS peut appeler la puce Nvidia H100
Lors du sommet de New York, AWS a également dévoilé les instances Amazon EC2 P5 alimentées par la puce H100 de Nvidia. D'une certaine manière, il s'agit d'une étape importante dans la coopération de plus de dix ans entre AWS et Nvidia.
L'une des caractéristiques notables du GPU H100 est l'optimisation de Transformer, une technologie clé utilisée dans les grands modèles de langage. Les instances Amazon EC2 P5 offrent 8 GPU NVIDIA H100 avec 640 Go de mémoire GPU à large bande passante, des processeurs AMD EPYC de 3e génération, 2 To de mémoire système et 30 To de stockage NVMe local pour accélérer l'IA générative et les applications informatiques hautes performances.
Amazon EC2 P5 réduit le temps de formation jusqu'à 6 fois (de quelques jours à quelques heures) par rapport aux instances basées sur GPU de la génération précédente. Selon AWS, cette amélioration des performances réduira les coûts de formation de 40 % par rapport à la génération précédente.
En fait, depuis le lancement de la première puce Amazon Nitro en 2013, AWS est le premier fournisseur de cloud à se lancer dans les puces auto-développées.Il a déjà trois gammes de produits de puces réseau, de puces serveur et d'intelligence artificielle. puces développées. Début 2023, l'Amazon Inferentia 2 spécialement conçu (qui peut prendre en charge l'inférence distribuée via des connexions directes ultra-rapides entre les puces) est lancé, prenant en charge jusqu'à 175 milliards de paramètres, ce qui en fait un concurrent sérieux pour l'inférence de modèle à grande échelle.
Quant à savoir s'il craignait que la fourniture de la puce H100 de Nvidia ne réduise l'attractivité de la puce auto-développée d'AWS, Ferromin a répondu à Pengpai Technology ("Nous accueillons la concurrence. Le matériel s'améliorera toutes les quelques années. C'est la norme. Un gros problème à droite C'est maintenant que l'IA générative est assez chère, c'est pourquoi personne ne la met vraiment dans les charges de travail de production, tout le monde est encore au stade expérimental. ". Le meilleur scénario est que vous ne perdez pas d'argent à chaque appel, vous gagnez en fait de l'argent. Pour y parvenir, je pense que nous devons être compétitifs. "