Ne vous contentez pas de regarder le grand modèle, l’avenir de l’IA dépend du cloud comme jamais auparavant

Source originale : Silicon Star People

Source de l’image : Généré par Unbounded AI

**Nuage! **

Si vous regardez tous les jours les reportages des médias sur les grands modèles, vous serez ébloui par la variété des modèles et les applications effrayantes de courte durée, pensant que l’avenir des modèles réside dans le prochain modèle polyvalent. L’IA semble donc être l’histoire d’OpenAI ou d’Anthropic qui l’emporte.

Les financements qui ont été réalisés avec une rapidité et un volume incroyables semblent prouver cette perception.

Anthropic, qui est considéré comme l’un des plus grands rivaux d’OpenAI, est dans un tour de financement dans un cycle mensuel de 2 milliards - le 27 octobre, Google a déclaré qu’il y avait investi 2 milliards de dollars supplémentaires, moins d’un mois après qu’Amazon y ait investi 4 milliards de dollars, et son modèle Claude, qui rivalise avec des fonctionnalités telles que la longueur du contexte, est considéré comme l’un des concurrents les plus solides de ChatGPT. Dans le même temps, OpenAI rassemble également diverses ressources, et derrière chacun de ses mouvements, SoftBank, Microsoft et Apple sont tous des rumeurs avec lui de diverses manières.

Cependant, en réalité, ce n’est pas toute l’histoire.

Pour les praticiens, l’autre côté de l’histoire est plus profond :

De toute évidence, c’est un meilleur choix de prendre les dollars des investisseurs qui ont plus d’argent et moins à faire, cependant, ils choisissent tous les grandes usines les unes après les autres, et même les grandes usines qui les regardent, juste à cause d’une chose - elles ont des capacités de cloud computing. La contribution d’OpenAI à Microsoft Azure a été trop souvent mentionnée sur la voie du succès, et Anthropic se garantit désormais le support de puissance de cloud computing de Google et d’Amazon en même temps, et il a déclaré que l’un des objectifs importants du financement est de construire une garantie de puissance de calcul pour lui-même afin de former la prochaine génération de modèles.

C’est un excellent témoignage de la nécessité du cloud pour les grands modèles.

Lors de la conférence Apsara du 31 octobre, une série de données d’Alibaba Cloud disait la même chose.

Alibaba Cloud a annoncé certains des modèles qui s’exécutent en plus de ses services, de son propre grand modèle Tongyi à Baichuan Intelligence, Zhipu AI, Zero One Everything, Kunlun Wanwei, vivo, Fudan University, etc., la moitié des grandes entreprises et institutions modèles de Chine sont formées ici.

Ces modèles grand public en Chine fournissent également des services API via Alibaba Cloud, y compris la série Tongyi, la série Baichuan, la série Zhipu AI ChatGLM, le modèle général Jiang Ziya, etc.

Ces modèles rattrapent le niveau supérieur en même temps, mais commencent également à développer leurs propres caractéristiques, parmi lesquelles l’une des grandes entreprises de mannequins les plus importantes de Chine, Baichuan Intelligence, a fixé une moyenne de 28 jours pour itérer une version du record d’un grand modèle, il 30 octobre La dernière version de Baichuan2-192K est devenue le support le plus long au monde pour la fenêtre contextuelle du grand modèle, peut saisir 350 000 mots à la fois, en tête de Claude2-100K.

Ces avantages pointent tous vers des applications plus terre-à-terre. Wang Xiaochuan, PDG de Baichuan Intelligence, a décrit cela comme « un pas plus lent que l’idéal et trois pas plus rapide sur le terrain ». L’infrastructure cloud, quant à elle, offre des possibilités rapides.

Wang Xiaochuan a expliqué qu’une raison importante de l’itération mensuelle du modèle Baichuan est la prise en charge du cloud computing. « L’itération et le déploiement rapides du modèle sont indissociables du cloud computing, et Baichuan Intelligence et Alibaba Cloud ont mené une coopération approfondie. Grâce aux efforts conjoints des deux parties, Baichuan a achevé avec succès la tâche d’entraînement du grand modèle kilocalorie, réduisant efficacement le coût de l’inférence du modèle et améliorant l’efficacité du déploiement du modèle. "

Une autre raison pour laquelle l’importance de l’informatique en nuage a été négligée est que le domaine de l’IA a été distrait par le « manque de cartes pour tous ».

« Les gens accordent trop d’attention aux GPU. » De nombreux praticiens des grands modèles m’ont dit qu’en tant qu’unité de calcul, elle est en effet constamment améliorée, mais que pour résoudre le problème de l’IA, ce qui est finalement nécessaire, c’est une solution de puissance de calcul systématique et optimale. Même le cloud a été une chose qui a résolu le problème d’une seule unité qui n’est pas assez solide depuis sa création.

« Seulement la carte, seulement le modèle étonnant dans le papier, ce n’est pas suffisant, et finalement compter sur le nuage pour atterrir et ensuite réaliser l’idéal. » Dire. Si vous tendez soigneusement l’oreille et écoutez les « cris » de ces vrais participants en première ligne de l’écologie modèle, alors vous entendrez peut-être un mot :

Nuage!

L’évolution de l’avenir de l’IA dépend aujourd’hui plus que jamais du cloud.

Un nouveau nuage

Mais cela ne signifie certainement pas que les fournisseurs de cloud qui ont établi un avantage peuvent se coucher et gagner.

Il suffit de jeter un coup d’œil à ce qui s’est passé après que Google et Microsoft aient récemment publié leurs rapports sur les résultats le même jour.

Le 25 octobre, Google a publié un rapport sur les résultats qui a dépassé les attentes, avec une augmentation de 11 % d’une année sur l’autre, et l’activité publicitaire principale a également augmenté de 9 %. Mais ensuite, le cours de l’action a chuté. Il n’y a qu’une seule raison, le cloud computing a augmenté de 22%, mais le marché estime que ce n’est pas suffisant. En particulier, le rapport financier de Microsoft publié le même jour a montré que sa division de cloud intelligent est devenue la plus grande source de revenus.

Pour la première fois, les géants se retrouvent mis à l’écart avec des activités telles que la publicité, dont ils parlaient autrefois, car le cloud computing est considéré comme une métrique observable par rapport aux revenus directs générés par des modèles encore illusoires. Derrière cet indicateur se cache la capacité des fournisseurs de cloud à s’adapter aux défis posés par l’IA.

Même AWS, la part de marché n° 1, ressent la pression, et l’investissement d’Amazon dans Anthropic s’est également produit pendant ces rapports sur les résultats. Il a été rapporté que 3 % des revenus Azure de Microsoft proviennent de l’IA, et ses clients comprennent un grand nombre d’utilisateurs d’OpenAI, et AWS commence à mettre l’accent sur ses services pour divers modèles. Après avoir déboursé 2 milliards de dollars pour Anthropic, il a été immédiatement annoncé que le LLM après la société modèle serait construit avec la puce d’accélération de formation Trainium d’AWS et la puce d’inférence Inferentia. En outre, comme la nouvelle solution de cluster mise en évidence dans le rapport financier de Microsoft, et Bedrock, un service de modèle de base entièrement géré pour AWS, mettent également l’accent sur leur propre transformation pour répondre aux nouveaux besoins en matière d’IA.

« Face à l’ère de l’intelligence, Alibaba Cloud mettra à niveau son système de cloud computing grâce à l’innovation technologique complète, de la puissance de calcul sous-jacente à la plate-forme d’IA en passant par le service de modèle. » Zhou Jingren, qui détermine la voie technique d’Alibaba Cloud, a également donné sa réponse lors de la conférence Apsara. Les changements reflétés par Alibaba Cloud cette fois-ci sont décisifs et approfondis, de la texture au noyau, tous sont transformés pour l’IA.

Selon l’introduction de Zhou Jingren, Alibaba Cloud a d’abord utilisé un grand modèle pour se transformer, et plus de 30 produits cloud ont été connectés aux capacités du grand modèle.

Par exemple, DataWorks, la plateforme de gouvernance du Big Data d’Alibaba Cloud, a ajouté un nouveau formulaire interactif, Copilot, qui permet aux utilisateurs de générer des instructions SQL avec une entrée en langage naturel et d’exécuter automatiquement les opérations ETL de données correspondantes, améliorant ainsi l’efficacité globale du développement et de l’analyse de plus de 30 %.

Zhou Jingren a décrit cela comme un mode de conduite autonome du cloud computing, qui améliorera considérablement l’efficacité et l’expérience des développeurs utilisant le cloud.

Dans le même temps, Alibaba Cloud a également mis à niveau sa plate-forme d’intelligence artificielle PAI. La couche sous-jacente de PAI utilise l’architecture réseau de cluster d’IA de nouvelle génération HPN 7.0, prend en charge l’échelle évolutive des clusters jusqu’à 100 000 cartes et le taux d’accélération de la formation distribuée à très grande échelle atteint 96 %, dépassant de loin le niveau de l’industrie. Dans les tâches d’entraînement de modèles volumineux, il permet d’économiser plus de 50 % des ressources informatiques, et les performances sont les meilleures au monde.

Ces termes professionnels sont un peu complexes, expliqués par des cas clients simples, et Zhou Jingren a également partagé quelques cas le même jour : « Grâce à notre plateforme PAI, cela peut aider à optimiser le raisonnement, aider Xiaohongshu à économiser 30 % des coûts et peut vraiment promouvoir la croissance rapide de l’entreprise Xiaohongshu, ainsi qu’une variété de besoins commerciaux. » "

Les fournisseurs de cloud, y compris Alibaba Cloud, sont essentiellement en train de trouver une nouvelle infrastructure. Les changements apportés par les technologies d’IA telles que les grands modèles sont full-stack, de la couche inférieure du modèle aux idées d’apprentissage, des exigences en matière de données à l’interface interactive, sont en train de changer, et doivent même être « refaits ».

Le point de départ de toutes les transformations d’Alibaba Cloud est le MaaS (model as a Service) proposé par Zhou Jingren très tôt.

« Le modèle lui-même est une abstraction de haut niveau des données et des calculs. » Zhou Jingren a dit dans un petit échange avec nous ce jour-là.

« Par exemple, dans le passé, nous utilisions davantage de données provenant de journaux ou de bases de données. Quel est le modèle ? Un modèle est une collection de données traitées, qui est une abstraction hautement intellectuelle. Donc, de ce point de vue, vous pouvez penser que les données d’origine sont un matériau de production plus primitif, s’appuyant sur la puissance de calcul d’origine. Le modèle d’aujourd’hui est une couche de traitement, qui est un élément de production plus abstrait basé sur des matières premières de données, et vous pouvez utiliser ces éléments de production pour développer des systèmes d’entreprise de dimension supérieure. Auparavant, nous avions l’infrastructure, qui était un élément de production, et aujourd’hui, le modèle est également un élément de production. "

Cette nouvelle infrastructure autour du modèle nécessite des capacités système plus complexes que par le passé.

Alors que le seuil pour les applications d’IA est de plus en plus bas, le seuil pour fournir un cloud computing qui répond aux besoins de la nouvelle ère de l’IA ne fera que s’élever. Pour explorer cette nouveauté, il est évident que vous devez maîtriser la technologie de base du cloud computing, et vous devez avoir une réelle compréhension de la technologie des grands modèles - vous savez ce que vous avez, et vous savez ce dont vos clients ont besoin.

« Sur la base de notre accumulation dans le cloud computing, nous avons construit une infrastructure complète d’IA. Grâce à la série d’optimisations actuelles en matière de mise en réseau, de stockage, de planification, de compilation, de tolérance aux pannes, etc. Nous avons mis en place une plateforme complète d’entraînement pour les grands modèles d’IA. », a déclaré Zhou Jingren. Dans le même temps, grâce à une série d’optimisations combinées à la grande élasticité du cloud lui-même, nous pouvons vous fournir un service d’entraînement et d’inférence de modèle très complet. "

Le même jour, Alibaba Cloud a également publié le modèle de paramètres de 100 milliards de niveaux Tongyi Qianwen 2.0 développé par ses soins.

Tongyi Qianwen 2.0 a fait de grands progrès en termes de performances et a considérablement amélioré sa capacité à comprendre des instructions complexes, sa capacité de création littéraire, sa capacité de mathématiques générales, sa mémoire de connaissance, sa résistance à l’illusion, etc., et ses performances globales ont dépassé GPT-3.5, accélérant pour rattraper GPT-4.

Dans le même temps, le site officiel du modèle Tongyi a été entièrement mis à jour, ajoutant des fonctions d’interaction multimodale et de plug-in, qui permettent aux utilisateurs d’interagir avec Tongyi Qianwen 2.0 à travers des images, et également d’appeler de nouvelles capacités de plug-in plus riches.

Zhou Jingren a déclaré : « Tongyi Qianwen 2.0 est plus mature et plus facile à utiliser. »

Ouvrir, Ouvrir ou Ouvrir

Avec une transformation aussi complète, cela soulève naturellement la question de savoir si le modèle et l’infrastructure finiront par devenir une situation où vous êtes à la fois un arbitre et un athlète.

La réponse donnée par Alibaba Cloud est l’ouverture maximale.

Alibaba Cloud est la première entreprise technologique en Chine à ouvrir des grands modèles auto-développés, et à l’heure actuelle, Alibaba Cloud propose des versions open source Tongyi Qianwen 7B et 14B, avec plus d’un million de téléchargements. Sur place, Zhou Jingren a annoncé que le modèle Tongyi Qianwen 72B sera bientôt open source et qu’il deviendra le plus grand modèle open source en Chine.

En fait, ce genre d’ouverture n’est pas quelque chose qui se produira après ChatGPT. Lors de la conférence Apsara il y a un an, Alibaba Cloud a commencé à construire un modèle de construction de magie communautaire, en fait, le premier lot d’open source à l’époque était le modèle de base d’Alibaba Cloud. À l’époque, le plan de Moda était d’utiliser Alibaba Cloud pour remettre les éléments au bas de la boîte afin d’inciter tout le monde à changer l’état fermé de l’IA dans le passé, et à utiliser l’ouverture pour la rendre vraiment accessible au public.

Zhou Jingren a révélé que la communauté a rassemblé plus de 2 300 modèles d’IA aujourd’hui, a attiré 2,8 millions de développeurs d’IA et que le nombre de téléchargements de modèles d’IA a dépassé les 100 millions, ce qui en fait la communauté d’IA la plus importante et la plus active en Chine. Cette réalisation est la reconnaissance la plus directe de son ouverture sur le monde extérieur.

Aujourd’hui, sur la communauté Magic, Baichuan Intelligence, Zhipu AI, Shanghai Artificial Intelligence Laboratory, IDEA Research Institute, etc. ont ouvert leurs grands modèles de base, et Alibaba Cloud fournit aux développeurs une puissance de calcul GPU gratuite pour les « premiers utilisateurs » de grands modèles, qui ont dépassé les 30 millions d’heures jusqu’à présent.

« Notre positionnement aujourd’hui est de servir une variété de clients ayant des besoins différents. » », a déclaré Zhou Jingren.

Dans l’écosystème Alibaba Cloud, il existe un supercalculateur construit conjointement avec l’Université Fudan, qui prend en charge l’entraînement de grands modèles avec des centaines de milliards de paramètres, et se classe parmi les 15 premiers au monde en termes de puissance de calcul globale. Le cluster informatique derrière est composé de Jinsi n° 1 sur le campus de Fudan et de Qiewen n° 1 au centre de données d’Alibaba Cloud à Ulanqab, à 1 500 kilomètres de là.

vivo a développé lui-même de grands modèles, de la puissance de calcul, des fonctions de la plate-forme, des performances d’entraînement, etc., au cadre d’optimisation de l’entraînement de la plate-forme d’intelligence artificielle PAI d’Alibaba Cloud en termes de supervision SFT et de réglage fin des grands modèles et d’apprentissage par renforcement, vivo et Alibaba Cloud coopèrent pour itérer plus efficacement les grands modèles.

Il y a aussi le populaire « Wonderful Duck Camera », dont la génération de photos nécessite au moins quelques milliers de serveurs GPU au niveau maximal, et le déploiement hors ligne n’est pas pratique, et le déploiement dans le cloud peut économiser beaucoup de temps et d’argent pour les startups. De plus, des applications comme Miaoya représentent une tendance selon laquelle, à l’avenir, le besoin d’inférence l’emportera sur le besoin de formation, ce qui ne fera que rendre le cloud computing plus essentiel à la durabilité des services d’IA.

Dans un tel positionnement, le grand modèle d’Alibaba Cloud s’apparente davantage à la continuation d’une idée qu’Alibaba a toujours utilisée dans le passé : les meilleures pratiques. Son idée est que ce n’est que lorsqu’elle aura effectué les tâches les plus complexes et testé son infrastructure avec elle qu’elle pourra fournir des services et des technologies plus fiables au monde extérieur. Et tous ces efforts visent finalement un seul objectif : promouvoir l’industrialisation de l’IA.

Avec cet objectif à l’esprit, Alibaba Cloud a également lancé Alibaba Cloud Bailian, une plate-forme unique de développement d’applications modèles à grande échelle. Alibaba Cloud est un intégrateur systématique et ouvert.

Alibaba Cloud a déclaré que sur cette base, les développeurs peuvent développer une application de modèle volumineux en 5 minutes et « affiner » un modèle spécifique à l’entreprise en quelques heures. Après avoir aidé les développeurs à choisir le modèle le plus approprié, il fournit également une variété de méthodes de réglage fin telles que SFT et LoRA, vous permettant d’affiner votre modèle. Une fois la formation terminée, vous pouvez également la déployer via Alibaba Cloud en un seul clic. Le développement d’applications est également grandement simplifié, et même les derniers agents et autres plug-ins sont disponibles pour les utilisateurs.

« Chaque lien et chaque groupe de personnes est une partie importante de l’ensemble de l’écosystème des développeurs aujourd’hui. » », a déclaré Zhou Jingren.

« Notre objectif est de faire d’Alibaba Cloud le cloud le plus ouvert, et nous espérons qu’aujourd’hui, Alibaba Cloud pourra non seulement servir un type de client, mais tous nos clients aujourd’hui, qui sont tous mentionnés de différentes manières, peut leur fournir un soutien efficace à l’ère de l’intelligence artificielle, et peut les aider à innover et à faire des percées dans leurs propres domaines d’expertise. C’est notre objectif et un reflet derrière la conception de nos produits aujourd’hui. "

Dans l'« idéal d’un pas en arrière » d’aujourd’hui, l’écosystème de modèles dynamique a non seulement besoin du cloud dans le développement réel, mais aussi de l’inspiration du cloud computing pour les entreprises technologiques chinoises qui est également extrêmement importante pour les praticiens de l’IA et des modèles d’aujourd’hui.

Le processus de développement de l’informatique en nuage en Chine a toujours eu une signification symbolique, c’est-à-dire que lorsque nous avons de solides talents en développement technologique et les besoins les plus étendus en matière d’applications industrielles, comment saisir spontanément la technologie sous-jacente. Et lorsque vous êtes dans une situation de désavantage technologique, de telles opportunités n’apparaîtront que lorsque le grand système technologique sera complètement transformé.

Lorsque la nouvelle révolution technologique se produit à nouveau et que la technologie sous-jacente doit être reconstruite à nouveau, l’informatique en nuage est devenue la confiance et le coût du modèle chinois pour continuer à lutter avec ses pairs avancés, et c’est aussi une source d’inspiration et un avertissement. Alors que l’industrie et les applications de l’IA s’accélèrent, disposer de notre propre base technologique de pointe, et former une relation ouverte et d’entraide basée sur celle-ci, deviendra important pour que l’ensemble de l’écosystème progresse ensemble, et il est également important de nous rappeler comment appréhender cette innovation technologique, et elle devrait même devenir un avantage dans cette compétition avec des efforts continus.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)