Faites bon usage des petits modèles et faites une grande différence.
Source d’origine : Machine Energy
Source de l’image : Généré par Unbounded AI
L’utilisation de l’IA est de plus en plus répandue et ne se limite pas à l’utilisation de celle-ci par les individus. Il est également de plus en plus populaire dans les entreprises d’utiliser l’IA pour améliorer les flux de travail et faire progresser le travail. Mais il faut mentionner que les plus puissants sont souvent des modèles plus grands, ce qui entraînera des difficultés de déploiement en entreprise. Silvio Saese a écrit à propos de ses réflexions sur ce problème, ** les modèles ne sont pas plus grands, c’est mieux, les petits modèles peuvent mieux gérer le contenu du travail. **
Ce qui suit est la traduction et l’arrangement du texte original par le cœur de la machine sans changer le sens original.
Adresse d’origine :
Ces derniers mois, j’ai beaucoup écrit sur ce que j’appelle le LAM (Large Action Model), une variante plus active et autonome du LLM. Non seulement il génère du contenu comme du texte ou des images, mais il peut accomplir des tâches entières et même participer à des flux de travail, que ce soit avec des personnes ou seul. Cette année, à l’occasion de Dreamforce 2023, avec le lancement de l’Einstein Copilot, cette vision a fait un grand pas vers la réalité. Einstein Copilot, l’assistant conversationnel basé sur l’IA de Salesforce, sera déployé sur la plateforme Salesforce et prêt à être intégré à presque tout ce que font les clients.
Einstein Copilot : Un aperçu de l’avenir de l’IA générative
Il est difficile de ne pas impressionner avec l’Einstein Copilot prêt à l’emploi. Il a été conçu dès le départ pour être productif de manière sécurisée en aidant les utilisateurs dans presque tous les types de flux de travail. Il peut traiter les questions publiées en langage naturel et fournir des réponses pertinentes et fiables extraites de données propriétaires et sécurisées par l’entreprise. Il s’agit d’une image claire de la direction que prend l’IA dans l’entreprise : une interface unique et fiable conçue autour de l’interaction homme-machine quotidienne et capable d’aider à une variété de tâches. Cela démontre la puissance de l’IA pour s’assurer que la technologie répond aux besoins des entreprises, et je ne doute pas qu’elle changera également la façon dont les clients travaillent. Et LAM, au fur et à mesure qu’il évolue en flexibilité et en fonctionnalité, fera passer cette force déjà très puissante au niveau supérieur.
Rendre les modèles d’IA générative « petits et grands"
Récemment, de nombreux sujets liés à l’IA générative ont tourné autour de l’échelle du modèle et de l’architecture du modèle qui alimentent le LLM et le LAM. Alors que des entreprises comme OpenAI continuent de repousser les limites de l’échelle, avec un nombre de paramètres dépassant largement les 100 milliards, il n’est pas difficile de conclure que plus c’est gros, mieux c’est. En fait, les grands modèles se vantent souvent que leurs performances sont difficiles ou impossibles à atteindre autrement. Et à mesure que la taille du modèle augmente, un comportement incroyablement complexe émerge, ce qui suggère que les stratégies à plus grande échelle peuvent apporter des avantages significatifs.
Comment la réduction stratégique des effectifs des modèles peut apporter d’énormes avantages
Alors que les modèles plus grands continuent de faire la une des journaux, la poursuite de modèles plus grands n’est pas la meilleure stratégie. De toute évidence, les plus grands modèles sont désormais coûteux en termes de calcul et de nombreuses entreprises sont hors de portée. Et même les entreprises qui peuvent se permettre de les déployer doivent reconnaître que la production de haute qualité qu’ils promettent peut être extrêmement lente. En outre, nous sommes toujours confrontés à des problèmes de confiance, de sécurité, de nocivité et de revendications de propriété telles que les droits d’auteur, tous découlant des ensembles de données massifs et d’origine mondiale sur lesquels s’appuient les modèles hyperscale.
Ces lacunes rendent les petits modèles de plus en plus attrayants dans de nombreux domaines. Ils sont relativement rentables et peuvent être réglés à des vitesses incroyables. Aujourd’hui, le LLM spécialement conçu peut même s’exécuter entièrement à la périphérie dans certains cas, y compris sur les appareils mobiles des utilisateurs finaux. Et parce qu’ils nécessitent moins de formation, les clients peuvent jouer un rôle de gestion plus actif dans la préparation de leurs jeux de données. À ce stade, d’énormes améliorations peuvent être apportées en termes de qualité, de sécurité et même de statut juridique du contenu contenu dans l’ensemble de données.
En se concentrant sur des zones plus étroites, la qualité de sortie des petits modèles peut également être comparable à celle de leurs « grands frères ». Des modèles comme ChatGPT sont essentiellement conçus pour tout le monde, aidant aux devoirs, aux recettes de dîner, répondant à des questions sur la science, la technologie, l’histoire et la culture pop. En revanche, l’IA générative pour les entreprises peut et doit se concentrer sur des problèmes plus petits et plus pertinents. Il s’agit clairement d’une situation gagnant-gagnant : il s’agit d’abaisser les barrières à l’entrée sans compromettre la qualité de la production. **
Comment l’orchestration de petits modèles offre un grand potentiel
Même les petits modèles peuvent fournir de grandes solutions, il nous suffit de penser différemment à l’échelle. Au lieu d’agrandir le modèle lui-même, entremêlez plusieurs modèles pour servir un objectif de niveau supérieur. **Chaque modèle est conçu avec un objectif spécifique en tête et entraîné sur un ensemble de données propriétaires, rigoureusement contrôlées et soigneusement organisées. Que se passerait-il si des agents d’IA comme Einstein Copilot pouvaient être combinés ou coordonnés, tout comme plusieurs humains pourraient faire plus de travail en équipe qu’en tant qu’individus ? Par exemple, dans un restaurant, qui est une organisation qui ne peut être réalisée que par un travail d’équipe, chaque membre a ses propres compétences et domaines d’intérêt : les serveurs sont responsables de la commande, les chefs sont responsables de la préparation des aliments, les réceptionnistes sont responsables de la gestion des réservations et des commandes, et les chauffeurs sont responsables de la livraison de la nourriture. Alors, à quoi ressemblerait le LAM s’il était organisé de la même manière ?
J’ai réfléchi à l’orchestration ces derniers temps, et je pense que c’est l’une des technologies les plus excitantes, mais aussi la plus pratique, pour amener des agents utiles et autonomes de manière sûre et efficace. Plus important encore, l’orchestration signifie que même les solutions les plus ambitieuses sont transparentes et connues des créateurs et des personnes qui travaillent à leurs côtés. Gardez à l’esprit que dans ce cas, l’échelle ne provient pas de réseaux neuronaux de plus en plus grands, mais de composants indépendants et bien définis qui sont organisés de manière à avoir du sens pour les humains. Par exemple, au lieu d’entraîner un modèle géant à enregistrer des notes de réunion client, tirez des conclusions à partir des résultats, mettez à jour les enregistrements CRM correspondants, puis envoyez des informations de suivi, attribuez chacune de ces tâches à un modèle entraîné séparément.
En fait, j’ai passé la majeure partie de ma carrière de chercheur en robotique, et je ne peux m’empêcher de regarder plus loin, en imaginant qu’une telle chorégraphie peut être faite dans un espace réel. Dans les usines, les bureaux, les hôpitaux et même les restaurants, les maquettes travaillent côte à côte avec les humains pour accomplir une variété de tâches. Cela semble noble et lointain, mais pour l’instant, le potentiel d’orchestration est énorme.
Parlons de ses avantages. Tout d’abord, l’orchestration nous évite la difficulté d’assembler un ensemble de données suffisamment important et de rendre un modèle unique si flexible pour résoudre les difficultés des agents inter-domaines, et élimine également le risque de mettre une grande quantité de données très différentes dans un seul ensemble d’apprentissage. **De plus, chaque modèle peut être affiné par RLHF. Par conséquent, dans ce système, chaque composant est très spécialisé et utilisé pour effectuer les étapes critiques mais gérables d’une tâche plus vaste.
Lorsque des problèmes surviennent, que ce soit lors de la mise en service ou de la production, les problèmes peuvent être plus facilement identifiés grâce à un modèle unique et dédié pour mieux les comprendre et les résoudre. Même les pannes graves peuvent être traitées de manière modulaire plus robuste. De plus, plusieurs modèles fonctionnent ensemble, les défaillances sont plus faciles à contrôler et à isoler, et il y a plus d’opportunités de continuité lorsqu’un seul composant tombe en panne.
L’Art nouveau de l’IA générative : concevez sur plusieurs modèles
Plus important encore, il fait passer la création de modèles d’IA d’entreprise d’une tâche purement technique à une tâche de modélisation des processus métier en termes compréhensibles par les parties prenantes humaines. Tout comme un bon manager décomposerait un problème pour qu’une équipe le résolve, un orchestrateur d’IA aurait la capacité de décomposer un problème en une série de modèles spécialement conçus.
Ce qui est particulièrement excitant dans cette vision, c’est qu’elle pointe vers une nouvelle compétence, on pourrait même la qualifier d’art émergent, et j’ai hâte de la voir évoluer dans l’entreprise. Les experts en orchestration LAM penseront à un niveau élevé, en traitant les besoins de l’entreprise comme une entreprise, et pas seulement comme une plate-forme technologique, et utiliseront ces informations pour décomposer les tâches importantes et significatives en une série de tâches plus petites à résoudre par des « équipes » LAM.
Leur travail entremêle l’infrastructure, la science des données et la conception d’interfaces homme-machine. Le premier garantit que ces équipes de modèles peuvent se déployer de manière sûre et efficace, tandis que le second s’efforce de collecter des ensembles de données uniques pour résoudre des problèmes plus petits et moins ambigus. En d’autres termes, les experts en orchestration pourraient devenir les nouveaux visages de l’IA d’entreprise, en se concentrant moins sur les spécificités des réseaux neuronaux et plus sur la façon de construire des systèmes robustes et robustes.
En fait, ce que j’espère finalement, c’est que cette compétence ne soit ni rare ni exclusive, mais plutôt répandue, faisant de l’orchestration du LAM une solution puissante et personnalisée qui jouera un rôle de plus en plus important dans nos vies professionnelles. Au fur et à mesure que le marché émerge, la barrière à l’entrée pourrait être encore abaissée, offrant au monde une solution d’orchestration LAM de type copilote qui alimente simplement l’IA générative à une échelle incroyable.
Certains utiliseront directement cette solution du marché, faisant de l’orchestration LAM une réalité. D’autres les traiteront comme des modules et les combineront avec d’autres modules pour former des solutions de différentes tailles en fonction de leurs besoins. Mais dans les deux cas, ce qui m’excite le plus, c’est que l’IA générative n’est pas tant façonnée par un petit groupe d’élite de technologues que par la créativité et la vision de professionnels dans divers domaines.
En fait, ma vision de l’avenir du travail est un monde où l’IA soutient les compétences humaines et nous permet de penser à un niveau supérieur, en simplifiant tout ce que nous faisons tout en conservant la créativité, le style et la perspective qui nous distinguent.
Résumé
La réalisation de toute nouvelle vision est progressive, et LAM ne fait pas exception. Cependant, les dernières années ont montré que chaque étape du processus sera transformatrice. Depuis sa création, le LLM a montré un potentiel rare de perturbation et d’innovation. Les agents d’assistance tels que l’Einstein Copilot font passer cette barre au niveau supérieur grâce à une interface intuitive, à des fonctionnalités de confiance et de sécurité solides et à une intégration transparente avec les systèmes Copilot traditionnels.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Orchestration de petits modèles, de sorte que 1 + 1_2, travail d’entreprise plus flexible et efficace
Source d’origine : Machine Energy
L’utilisation de l’IA est de plus en plus répandue et ne se limite pas à l’utilisation de celle-ci par les individus. Il est également de plus en plus populaire dans les entreprises d’utiliser l’IA pour améliorer les flux de travail et faire progresser le travail. Mais il faut mentionner que les plus puissants sont souvent des modèles plus grands, ce qui entraînera des difficultés de déploiement en entreprise. Silvio Saese a écrit à propos de ses réflexions sur ce problème, ** les modèles ne sont pas plus grands, c’est mieux, les petits modèles peuvent mieux gérer le contenu du travail. **
Ce qui suit est la traduction et l’arrangement du texte original par le cœur de la machine sans changer le sens original.
Ces derniers mois, j’ai beaucoup écrit sur ce que j’appelle le LAM (Large Action Model), une variante plus active et autonome du LLM. Non seulement il génère du contenu comme du texte ou des images, mais il peut accomplir des tâches entières et même participer à des flux de travail, que ce soit avec des personnes ou seul. Cette année, à l’occasion de Dreamforce 2023, avec le lancement de l’Einstein Copilot, cette vision a fait un grand pas vers la réalité. Einstein Copilot, l’assistant conversationnel basé sur l’IA de Salesforce, sera déployé sur la plateforme Salesforce et prêt à être intégré à presque tout ce que font les clients.
Einstein Copilot : Un aperçu de l’avenir de l’IA générative
Il est difficile de ne pas impressionner avec l’Einstein Copilot prêt à l’emploi. Il a été conçu dès le départ pour être productif de manière sécurisée en aidant les utilisateurs dans presque tous les types de flux de travail. Il peut traiter les questions publiées en langage naturel et fournir des réponses pertinentes et fiables extraites de données propriétaires et sécurisées par l’entreprise. Il s’agit d’une image claire de la direction que prend l’IA dans l’entreprise : une interface unique et fiable conçue autour de l’interaction homme-machine quotidienne et capable d’aider à une variété de tâches. Cela démontre la puissance de l’IA pour s’assurer que la technologie répond aux besoins des entreprises, et je ne doute pas qu’elle changera également la façon dont les clients travaillent. Et LAM, au fur et à mesure qu’il évolue en flexibilité et en fonctionnalité, fera passer cette force déjà très puissante au niveau supérieur.
Rendre les modèles d’IA générative « petits et grands"
Récemment, de nombreux sujets liés à l’IA générative ont tourné autour de l’échelle du modèle et de l’architecture du modèle qui alimentent le LLM et le LAM. Alors que des entreprises comme OpenAI continuent de repousser les limites de l’échelle, avec un nombre de paramètres dépassant largement les 100 milliards, il n’est pas difficile de conclure que plus c’est gros, mieux c’est. En fait, les grands modèles se vantent souvent que leurs performances sont difficiles ou impossibles à atteindre autrement. Et à mesure que la taille du modèle augmente, un comportement incroyablement complexe émerge, ce qui suggère que les stratégies à plus grande échelle peuvent apporter des avantages significatifs.
Comment la réduction stratégique des effectifs des modèles peut apporter d’énormes avantages
Alors que les modèles plus grands continuent de faire la une des journaux, la poursuite de modèles plus grands n’est pas la meilleure stratégie. De toute évidence, les plus grands modèles sont désormais coûteux en termes de calcul et de nombreuses entreprises sont hors de portée. Et même les entreprises qui peuvent se permettre de les déployer doivent reconnaître que la production de haute qualité qu’ils promettent peut être extrêmement lente. En outre, nous sommes toujours confrontés à des problèmes de confiance, de sécurité, de nocivité et de revendications de propriété telles que les droits d’auteur, tous découlant des ensembles de données massifs et d’origine mondiale sur lesquels s’appuient les modèles hyperscale.
Ces lacunes rendent les petits modèles de plus en plus attrayants dans de nombreux domaines. Ils sont relativement rentables et peuvent être réglés à des vitesses incroyables. Aujourd’hui, le LLM spécialement conçu peut même s’exécuter entièrement à la périphérie dans certains cas, y compris sur les appareils mobiles des utilisateurs finaux. Et parce qu’ils nécessitent moins de formation, les clients peuvent jouer un rôle de gestion plus actif dans la préparation de leurs jeux de données. À ce stade, d’énormes améliorations peuvent être apportées en termes de qualité, de sécurité et même de statut juridique du contenu contenu dans l’ensemble de données.
En se concentrant sur des zones plus étroites, la qualité de sortie des petits modèles peut également être comparable à celle de leurs « grands frères ». Des modèles comme ChatGPT sont essentiellement conçus pour tout le monde, aidant aux devoirs, aux recettes de dîner, répondant à des questions sur la science, la technologie, l’histoire et la culture pop. En revanche, l’IA générative pour les entreprises peut et doit se concentrer sur des problèmes plus petits et plus pertinents. Il s’agit clairement d’une situation gagnant-gagnant : il s’agit d’abaisser les barrières à l’entrée sans compromettre la qualité de la production. **
Comment l’orchestration de petits modèles offre un grand potentiel
Même les petits modèles peuvent fournir de grandes solutions, il nous suffit de penser différemment à l’échelle. Au lieu d’agrandir le modèle lui-même, entremêlez plusieurs modèles pour servir un objectif de niveau supérieur. **Chaque modèle est conçu avec un objectif spécifique en tête et entraîné sur un ensemble de données propriétaires, rigoureusement contrôlées et soigneusement organisées. Que se passerait-il si des agents d’IA comme Einstein Copilot pouvaient être combinés ou coordonnés, tout comme plusieurs humains pourraient faire plus de travail en équipe qu’en tant qu’individus ? Par exemple, dans un restaurant, qui est une organisation qui ne peut être réalisée que par un travail d’équipe, chaque membre a ses propres compétences et domaines d’intérêt : les serveurs sont responsables de la commande, les chefs sont responsables de la préparation des aliments, les réceptionnistes sont responsables de la gestion des réservations et des commandes, et les chauffeurs sont responsables de la livraison de la nourriture. Alors, à quoi ressemblerait le LAM s’il était organisé de la même manière ?
J’ai réfléchi à l’orchestration ces derniers temps, et je pense que c’est l’une des technologies les plus excitantes, mais aussi la plus pratique, pour amener des agents utiles et autonomes de manière sûre et efficace. Plus important encore, l’orchestration signifie que même les solutions les plus ambitieuses sont transparentes et connues des créateurs et des personnes qui travaillent à leurs côtés. Gardez à l’esprit que dans ce cas, l’échelle ne provient pas de réseaux neuronaux de plus en plus grands, mais de composants indépendants et bien définis qui sont organisés de manière à avoir du sens pour les humains. Par exemple, au lieu d’entraîner un modèle géant à enregistrer des notes de réunion client, tirez des conclusions à partir des résultats, mettez à jour les enregistrements CRM correspondants, puis envoyez des informations de suivi, attribuez chacune de ces tâches à un modèle entraîné séparément.
En fait, j’ai passé la majeure partie de ma carrière de chercheur en robotique, et je ne peux m’empêcher de regarder plus loin, en imaginant qu’une telle chorégraphie peut être faite dans un espace réel. Dans les usines, les bureaux, les hôpitaux et même les restaurants, les maquettes travaillent côte à côte avec les humains pour accomplir une variété de tâches. Cela semble noble et lointain, mais pour l’instant, le potentiel d’orchestration est énorme.
Parlons de ses avantages. Tout d’abord, l’orchestration nous évite la difficulté d’assembler un ensemble de données suffisamment important et de rendre un modèle unique si flexible pour résoudre les difficultés des agents inter-domaines, et élimine également le risque de mettre une grande quantité de données très différentes dans un seul ensemble d’apprentissage. **De plus, chaque modèle peut être affiné par RLHF. Par conséquent, dans ce système, chaque composant est très spécialisé et utilisé pour effectuer les étapes critiques mais gérables d’une tâche plus vaste.
Lorsque des problèmes surviennent, que ce soit lors de la mise en service ou de la production, les problèmes peuvent être plus facilement identifiés grâce à un modèle unique et dédié pour mieux les comprendre et les résoudre. Même les pannes graves peuvent être traitées de manière modulaire plus robuste. De plus, plusieurs modèles fonctionnent ensemble, les défaillances sont plus faciles à contrôler et à isoler, et il y a plus d’opportunités de continuité lorsqu’un seul composant tombe en panne.
L’Art nouveau de l’IA générative : concevez sur plusieurs modèles
Plus important encore, il fait passer la création de modèles d’IA d’entreprise d’une tâche purement technique à une tâche de modélisation des processus métier en termes compréhensibles par les parties prenantes humaines. Tout comme un bon manager décomposerait un problème pour qu’une équipe le résolve, un orchestrateur d’IA aurait la capacité de décomposer un problème en une série de modèles spécialement conçus.
Ce qui est particulièrement excitant dans cette vision, c’est qu’elle pointe vers une nouvelle compétence, on pourrait même la qualifier d’art émergent, et j’ai hâte de la voir évoluer dans l’entreprise. Les experts en orchestration LAM penseront à un niveau élevé, en traitant les besoins de l’entreprise comme une entreprise, et pas seulement comme une plate-forme technologique, et utiliseront ces informations pour décomposer les tâches importantes et significatives en une série de tâches plus petites à résoudre par des « équipes » LAM.
Leur travail entremêle l’infrastructure, la science des données et la conception d’interfaces homme-machine. Le premier garantit que ces équipes de modèles peuvent se déployer de manière sûre et efficace, tandis que le second s’efforce de collecter des ensembles de données uniques pour résoudre des problèmes plus petits et moins ambigus. En d’autres termes, les experts en orchestration pourraient devenir les nouveaux visages de l’IA d’entreprise, en se concentrant moins sur les spécificités des réseaux neuronaux et plus sur la façon de construire des systèmes robustes et robustes.
En fait, ce que j’espère finalement, c’est que cette compétence ne soit ni rare ni exclusive, mais plutôt répandue, faisant de l’orchestration du LAM une solution puissante et personnalisée qui jouera un rôle de plus en plus important dans nos vies professionnelles. Au fur et à mesure que le marché émerge, la barrière à l’entrée pourrait être encore abaissée, offrant au monde une solution d’orchestration LAM de type copilote qui alimente simplement l’IA générative à une échelle incroyable.
Certains utiliseront directement cette solution du marché, faisant de l’orchestration LAM une réalité. D’autres les traiteront comme des modules et les combineront avec d’autres modules pour former des solutions de différentes tailles en fonction de leurs besoins. Mais dans les deux cas, ce qui m’excite le plus, c’est que l’IA générative n’est pas tant façonnée par un petit groupe d’élite de technologues que par la créativité et la vision de professionnels dans divers domaines.
En fait, ma vision de l’avenir du travail est un monde où l’IA soutient les compétences humaines et nous permet de penser à un niveau supérieur, en simplifiant tout ce que nous faisons tout en conservant la créativité, le style et la perspective qui nous distinguent.
Résumé
La réalisation de toute nouvelle vision est progressive, et LAM ne fait pas exception. Cependant, les dernières années ont montré que chaque étape du processus sera transformatrice. Depuis sa création, le LLM a montré un potentiel rare de perturbation et d’innovation. Les agents d’assistance tels que l’Einstein Copilot font passer cette barre au niveau supérieur grâce à une interface intuitive, à des fonctionnalités de confiance et de sécurité solides et à une intégration transparente avec les systèmes Copilot traditionnels.