Produit | Tiger Sniff Technology Group
Auteur | Qi Jian
Éditeur | Liao Ying
Source de l'image : générée par l'IA illimitée
Le 7 août, une autre start-up nationale d'IA a publié son propre modèle d'IA open source et commercial gratuit : XVERSE-13B. La société appelée Yuanxiang XVERSE a été fondée par Yao Xing, ancien vice-président de Tencent et fondateur du laboratoire Tencent AI.
Depuis que Meta a publié les modèles à grande échelle de la série LLaMA 2 open-source pour une utilisation commerciale gratuite en juillet, une nouvelle vague de « open source » se prépare sur le marché des modèles à grande échelle de l'IA.
Le 2 août, Wenxin Qianfan, une plate-forme de modèles à grande échelle d'IA sous Baidu, a annoncé l'accès à la série complète de modèles open source de LLaMA2. Le nombre de modèles à grande échelle pouvant être appelés sur la plate-forme est passé à 33. À l'exception de 3 modèles Wenxin, les 30 autres modèles sont tous open-source. Modèles, y compris ChatGLM2, RWKV, MPT, Dolly, OpenLLaMA, Falcon, etc.
Le lendemain, Alibaba Cloud a également annoncé rejoindre les rangs du modèle open source. Le modèle open source Tongyi Qianwen à 7 milliards de paramètres comprend le modèle général Qwen-7B et le modèle de dialogue Qwen-7B-Chat. Les deux modèles ont été lancés sur la communauté Mota. Ils sont open source, gratuits et disponibles dans le commerce.
Fait intéressant, cette attitude positive envers l'open source et l'ouverture a commencé avec Microsoft, le grand propriétaire du modèle source fermé ChatGPT. ** Le 18 juillet, Microsoft a annoncé qu'il coopérerait avec Meta pour publier la version commerciale open source du modèle LLaMA 2, offrant aux entreprises des alternatives aux modèles OpenAI et Google. **La position de monopole d'OpenAI sur le marché des modèles à grande échelle d'IA semble être "ciblée" par l'ensemble de l'industrie, même ses partenaires les plus proches.
En tant que grand modèle de langage mondialement reconnu, le GPT-4 d'OpenAI est actuellement le seul grand modèle de langage avec un grand nombre d'utilisateurs prêts à payer pour cela.
Le meilleur étudiant de la classe n'est généralement pas motivé pour rejoindre le groupe d'étude. De même, **OpenAI n'a aucune raison ou motivation pour l'open source. **
Cependant, avec l'open source complète de LLaMA 2, de plus en plus de développeurs ont investi dans Meta et divers modèles open source. Tout comme Android utilise l'open source pour lutter contre iOS, un grand nombre de modèles d'IA open source contournent activement les barrières techniques de GPT-4 et entourent OpenAI avec un écosystème open source. **
Pourquoi l'open source ?
Lorsque OpenAI a lancé la fonction de plug-in pour la première fois, de nombreuses personnes ont comparé le modèle d'IA aux futurs Windows, iOS et Android. Maintenant, avec la sortie de LLaMA 2, le grand modèle AI n'est pas seulement une fonction, mais même la structure du marché se développe vers la direction du système d'exploitation.
Initié par LMSYS Org, une organisation dirigée par l'UC Berkeley, il s'agit d'un concours de classement pour les grands modèles linguistiques (LLM) ; au 20 juillet, la dernière version du classement comptait 40 grands modèles d'IA, et les cinq premiers sont toujours fermés sources Model (Proprietary), qui sont trois modèles de GPT-4, GPT-3.5-turbo et Claude. Cependant, les 34 modèles suivants, à l'exception du PaLM-Chat-Bison-001 de Google, sont tous des modèles open source, dont 15 sont non commerciaux.
*Leaderboard des LMSYS Org Large Language Models (LLMs) publié le 20 juillet
Chatbot Arena : calcule les notes Elo en utilisant plus de 50 000 votes d'utilisateurs.
MT-Bench : un ensemble de problèmes difficiles à plusieurs tours.
MMLU (5-shot) : Un test qui mesure la précision multi-tâches d'un modèle sur 57 tâches. *
Bien qu'en termes de capacités de modèle, en regardant l'ensemble du marché, aucun modèle, qu'il soit open source ou fermé, ne peut oser concurrencer frontalement GPT-4. Cependant, les Tigres n'ont pas pu tenir tête aux loups, et ils n'ont pas pu battre les gros modèles de GPT-4. Ils ont choisi de "changer de voie et de dépasser" et d'utiliser l'open source pour s'emparer de l'écologie des applications. quelque peu similaire à la lutte d'Android contre iOS.
** "À l'heure actuelle, tous les grands modèles open source ont un seul objectif, et c'est le marketing." **
Le fondateur d'une société nationale de recherche et développement de modèles open source à grande échelle a admis à Tiger Sniff que la principale raison de la promotion de modèles open source à grande échelle et de systèmes Android open source est de s'emparer du marché gratuitement. "De nombreuses grandes entreprises ont publié de grands modèles d'IA, ou même simplement créé une application basée sur un modèle existant, puis ont commencé à en faire la promotion en grande pompe. En fait, pour les utilisateurs de grands modèles de base, dépenser plus d'argent en publicité coûte plus cher. que ce n'est vraiment pas open source pour le modèle." C'est aussi le meilleur moyen pour les entreprises d'IA de prouver leur force.
Premièrement, les modèles open source sont plus faciles à évaluer que les modèles fermés. Étant donné que le code et les ensembles de données des modèles open source sont accessibles au public, les chercheurs peuvent directement inspecter l'architecture du modèle, les données de formation et le processus de formation pour effectuer une analyse plus approfondie du modèle afin de comprendre ses forces et ses faiblesses.
** "Certains grands modèles d'IA semblent être très capables, mais ils ne sont pas open source, et vous ne pouvez voir que les résultats de sa sortie." **
Comparé au modèle open source, le modèle à source fermée ne peut comprendre les avantages et les inconvénients du modèle qu'à travers l'évaluation des performances du modèle. Cela conduit au fait que les performances des modèles à source fermée peuvent être artificiellement exagérées ou leurs lacunes masquées. La transparence du modèle open source peut aider les développeurs à mieux comprendre le modèle et à l'évaluer plus équitablement.
Pour les retardataires, il y a un autre problème avec le modèle des sources fermées : il est facile de remettre en cause l'originalité de la technologie. De nombreux grands développeurs de modèles ont dit un jour à Huxiu : "Pour les modèles qui ne sont pas open source, pour le dire franchement, même s'il s'agit d'un shell LLaMA, ou appelle simplement l'interface ChatGPT en arrière-plan, qui sait ?"
Lorsque la première vague de grands modèles nationaux d'IA est sortie, de telles voix de doute ont été largement diffusées sur Internet. Pour ces grands modèles d'IA qui ne sont pas open source, il est difficile de prouver leur innocence. Afin de prouver qu'ils n'appellent pas l'API ChatGPT, certaines entreprises ont même déplacé le serveur de raisonnement et retiré le câble réseau pour démontrer sur le place.
L'open source est sans aucun doute l'un des meilleurs moyens d'autocertifier les grands modèles d'IA. Mais la vraie valeur de l'**open source n'est pas la capacité d'auto-certification, mais de s'emparer de l'écologie. **
"Après la sortie de LLaMA 2, il saisira certainement l'écosystème OpenAI rapidement." Un grand développeur de modèles a déclaré à Huxiu que bien que GPT-4 soit presque reconnu par l'industrie comme ayant la capacité la plus forte, les modèles après GPT-3 ne sont pas open source De plus, l'ouverture de l'interface API de GPT-4 est également très faible, il existe donc de nombreuses restrictions sur le développement du modèle GPT. En conséquence, de nombreux développeurs choisissent des modèles open source tels que LLaMA.Ces modèles open source peuvent non seulement affiner les instructions, mais également effectuer des recherches sur le modèle sous-jacent.
"LLaMA est définitivement plus populaire parmi les développeurs qu'OpenAI."
Lorsque LLaMA 2 a été publié pour la première fois le 19 juillet, il y avait plus de 5 600 projets sur GitHub avec des mots clés tels que « LLaMA », et plus de 4 100 projets dont « GPT-4 ». Deux semaines après sa sortie, le taux de croissance de LLaMA est plus rapide.Au moment de mettre sous presse, il y a plus de 6 200 "LLaMA" et plus de 4 400 "GPT-4".
D'autre part, les modèles open source peuvent être téléchargés localement pour un déploiement privatisé, ce qui facilite la formation à l'IA pour les entreprises commerciales. Les applications d'IA de ces entreprises doivent être formées sur la base de leurs propres données commerciales, et le modèle d'IA à grande échelle déployé à titre privé peut protéger au maximum la sécurité des données. Dans le même temps, il existe davantage de choix de puissance de calcul pour un déploiement privatisé, qu'il s'agisse d'un service cloud, d'un déploiement local ou même de la puissance de calcul distribuée de plusieurs IDC, ce qui réduit considérablement le coût de la formation et du raisonnement des modèles.
Bien que ChatGPT ait récolté 100 millions d'utilisateurs actifs par mois en seulement deux mois, dans l'écosystème des développeurs, la vitesse à laquelle le modèle open source s'empare de l'esprit des utilisateurs semble être plus rapide.
À l'heure actuelle, de nombreuses entreprises nationales d'IA ont choisi de publier des modèles open source. Ceux-ci incluent le modèle open source ChatGLM-6B publié par Zhipu AI, MOSS publié par l'Université Fudan, Wudao Tianying Aquila publié par Zhiyuan Research Institute et Baichuan-7B (13B) publié par Baichuan Intelligent. Parmi eux, ChatGLM-6B, un grand modèle open source publié par **Zhipu AI, a été téléchargé plus de 4 millions de fois dans le monde et a reçu 32 000 étoiles sur GitHub, 3 000 étoiles de plus que LLaMA. **
"Si nous ne créons pas un modèle open source, le marché sera bientôt plein de LLaMA." Un dirigeant d'une société d'IA qui a lancé un modèle open source a déclaré à Huxiu que l'open source est une étape importante dans le développement de l'IA en Chine. grand modèle.
Certains grands modèles nationaux d'IA open source
En fait, avant le début de la tendance des LLM, l'IA générative avait déjà mené une bataille entre l'open source et la source fermée.
**Avec un grand nombre de développeurs et d'applications de produits, le modèle de graphe open-source de Wensheng Stable Diffusion a presque poussé le premier modèle à source fermée d'OpenAI Dall-E 2 dans un coin. Bien que les utilisateurs pensent généralement que les capacités du modèle de Stable Diffusion ne sont pas aussi bonnes que celles d'un autre produit à source fermée MidJourney, Stable Diffusion s'est emparé d'un grand nombre de marchés de graphes Vincent en raison de ses attributs open source et gratuits, et est devenu le modèle de graphe Vincent le plus courant Sa société de développement RunwayML And Stability AI a également reçu beaucoup d'attention et de financement. **
Le modèle open source de LLaMA 2 semble avoir l'intention de forcer OpenAI dans le domaine des LLM.
Open source avec des marchandises
LLaMA 2 est actuellement open source, les trois modèles de la série : 7 milliards, 13 milliards et 70 milliards de versions de paramètres. Cependant, il y a aussi des rumeurs sur le marché selon lesquelles "Meta a en fait une version avec des paramètres plus grands qui n'a pas été publiée. La prochaine version peut avoir une version avec des paramètres plus grands, mais elle peut ne pas être open source".
Il convient de noter qu'à l'heure actuelle, de nombreux modèles open source ne sont pas tous open source. Dans le modèle Enlightenment 3.0 publié par le Zhiyuan Research Institute, seul le modèle de langage de base "Tianying" est open source ; le ChatGLM publié par Zhipu AI n'ouvre qu'une partie de la série de modèles, et le plus grand modèle de 130 milliards de paramètres est toujours fermé. source. **
Indépendamment du fait que LLaMA 2 soit "réservé" aux modèles plus grands, la forme "libre" accélérera sans aucun doute la formation de Meta sur le marché des grands modèles et le poussera sur "l'ancienne route" d'Android.
Grâce à l'écosystème open source, le système Android a accumulé un grand nombre de développeurs et d'utilisateurs à travers le monde. En termes d'écologie technologique, il a grandement vérifié et équilibré le principal système à source fermée iOS, et a même formé son propre monopole sur certains marchés. Depuis 2018, l'Union européenne a infligé une amende de plus de 4 milliards d'euros à Google en raison du mécanisme de monopole du système Android. De cette amende vertigineuse, nous pouvons également voir à quel point le système Android open source est rentable.
Selon un rapport de la société de recherche Sensor Tower, les dépenses des utilisateurs sur Google Play seront d'environ 53 milliards de dollars américains en 2022, et ce chiffre passera à 60 milliards de dollars américains en 2023. Selon un rapport publié par une autre institution de recherche, Statista, en janvier 2022, il y avait environ 140 000 applications sur le Google Play Store.
À ce stade, le modèle d'IA open source n'est évidemment pas encore aussi populaire que les téléphones mobiles. Cependant, même si l'IA est vraiment aussi populaire que les téléphones portables, des géants comme Meta ne lâcheront pas facilement les entreprises qui ont fait beaucoup d'argent avec LLaMA 2.
Dans l'accord open source de LLaMA 2, il y a une telle stipulation : ** Si les utilisateurs actifs mensuels dépassent 700 millions, vous devez demander une licence auprès de Meta. Meta peut, à sa seule discrétion, vous accorder une licence et vous n'aurez aucun droit d'exercer l'un de ces droits. **
Dans le même temps, en plus de la version à source fermée du modèle open source et de l'application de grands modèles d'IA, cela peut également aider la puissance de calcul à "apporter des marchandises".
Les deux premiers fabricants en Chine à promouvoir des modèles d'IA à grande échelle, Baidu et Ali, sont tous deux des fabricants de cloud. Les deux autres fournisseurs de cloud, Tencent Cloud et Huawei Cloud, bien qu'ils n'aient pas de produits LLM comme Wenxin Yiyan et Tongyi Qianwen, continuent également de crier sur les modèles d'IA. La principale raison derrière cela est "l'effet porteur" du grand modèle sur le cloud.
"L'annonce de certaines actions sur les modèles à grande échelle d'IA est également promue conjointement par le marché et les clients. Au cours des derniers mois, il y a eu trop de clients qui sont venus poser des questions sur les modèles à grande échelle", a déclaré un chef d'entreprise du cloud de Tencent. Huxiu que la puissance de calcul a fait la queue , ce qui est la meilleure preuve de la capacité du grand modèle AI à transporter des marchandises.
**Le modèle n'a pas besoin de gagner de l'argent, mais la puissance de calcul doit être rentable. **Alibaba a ouvert Tongyi Qianwen et Baidu a introduit 30 modèles open source sur la plate-forme de modèles à grande échelle Wenxin Qianfan.Ces deux actions visent à fournir des capacités d'IA "gratuites" aux utilisateurs. Les utilisateurs qui utilisent le modèle open source ne paient plus pour l'IA, mais tant que leur IA fonctionnera sur Alibaba Cloud et Baidu Smart Cloud, ils devront payer pour la puissance de calcul.
"** L'IA devrait également revenir à l'idée du cloud et gagner de l'argent grâce au cloud. **" Xin Zhou, directeur général de Baidu Smart Cloud AI et Big Data Platform, a déclaré que l'intention initiale d'ouvrir le grande plate-forme modèle est de créer de la valeur pour les entreprises des clients.Tout en créant de la valeur, elle peut améliorer la fidélité des anciens clients et développer davantage de nouveaux clients. Ceci est d'une grande aide pour étendre l'effet d'échelle des fournisseurs de cloud.
Gratuit est plus cher
"10 millions, c'est à peu près le même montant que le prix de départ pour personnaliser un grand modèle."
Le fondateur d'une grande entreprise de modélisme open source a fait un devis à l'intermédiaire qui est venu le consulter au téléphone.
"Une fois que le modèle open source a été reconnu par les utilisateurs, vous pouvez parler aux autres des frais de service pour le développement personnalisé." Après que le fondateur a raccroché le téléphone, il a expliqué à Huxiu que pour un modèle comme LLaMA 2, le coût de développement est au moins ce qu'il en coûte des dizaines de millions de dollars. Par conséquent, le marché qu'il vise doit représenter des dizaines ou des centaines de fois le coût de développement.
Du point de vue actuel, la meilleure façon pour les entreprises **IA de gagner de l'argent avec des modèles open source est de commencer par les services. **
Heureusement, la plupart des utilisateurs de grands modèles d'IA ont grandement besoin de ces services.
"Le modèle est open source, gratuit et disponible dans le commerce. Cela signifie qu'à partir du téléchargement du modèle, du déploiement du modèle, de la formation, du réglage et du développement d'applications dans des applications réelles, tout le travail doit être fait par vous-même. " Un développeur d'applications LLaMA a déclaré Huxiu, la plupart des fournisseurs de modèles à source fermée fourniront des services de formation et de déploiement, et pourront personnaliser les fonctions de développement en fonction des besoins des utilisateurs. Mais si vous utilisez un modèle open source, vous devez faire toutes ces tâches vous-même, personne ne vous aidera à vous former, personne ne vous trouvera de puissance de calcul, et personne ne vous aidera à personnaliser le développement.
"En fait, les fabricants de modèles à source fermée vendent des services." Le responsable d'un établissement d'enseignement en ligne qui a effectué des recherches sur les applications d'IA basées sur le modèle LLaMA a déclaré à Huxiu : "Le modèle à source ouverte semble être gratuit , mais pendant le processus de déploiement, il reste encore beaucoup d'argent à dépenser." Après l'ajout du modèle d'IA, le coût de la main-d'œuvre et de la puissance de calcul du service informatique a considérablement augmenté.
Bien que la formation et le réglage basés sur des modèles open source ne soient pas difficiles pour la plupart du personnel informatique. Cependant, afin de mener une recherche et un développement approfondis du modèle, certaines réserves techniques en termes d'algorithmes et d'IA sont encore nécessaires. Alors que le concept de modèles d'IA à grande échelle devient de plus en plus populaire, le prix des talents dans ce domaine augmente également.
"L'augmentation des coûts de main-d'œuvre est en fait flottante, mais le coût des serveurs et du matériel est réel. Depuis l'investissement dans de grands modèles jusqu'à aujourd'hui, nos coûts ont augmenté d'environ 20 % à 30 %." a déclaré le responsable de l'établissement d'enseignement en ligne susmentionné À l'heure actuelle, son organisation en est encore au stade de l'exploration de la scène de l'IA, et la plus grande difficulté est qu'elle doit expérimenter chaque scène. "Si l'un échoue, remplacez-le par un autre. Dans ce processus, chaque étape coûte de l'argent."
À cet égard, Huxiu a interrogé un initié de Baidu Smart Cloud sur le service et le coût de Baidu Wenxin Qianfan en termes de déploiement. Cela permettra d'économiser de l'argent.**"
En fait, qu'il s'agisse d'un modèle open source ou d'un modèle source fermé, le coût de déploiement du modèle est calculé sur une base par personne/jour, et il n'y aura pas de différence essentielle dans les coûts de puissance de calcul pour les versions ultérieures. formation et raisonnement. "** Cependant, l'utilisation de modèles open source pour former, déployer et développer par vous-même ne fera que rendre ce processus très gênant." L'initié de Baidu a déclaré que le coût de déploiement spécifique dépend du projet spécifique et que la différence est très importante. Cependant, il n'y a en réalité aucune différence essentielle entre l'open source et la source fermée en termes de coûts de déploiement et d'utilisation. **Et du point de vue de la sécurité des données, la plupart des modèles à source fermée peuvent également être déployés en privé.
** À ce stade, il est encore difficile pour l'IA d'atteindre l'inclusivité. **
Pour la plupart des entreprises engagées dans le commerce Internet, elles ont leurs propres équipes de R & D informatique. Lorsque le grand modèle arrivera, elles pourront bientôt former une équipe "établie" pour développer des applications d'IA. Mais pour de nombreux secteurs de la vente au détail, de la fabrication traditionnelle et des services, la transformation numérique est un problème difficile.Il leur est vraiment difficile d'étudier la formation, le déploiement et le raisonnement des grands modèles d'IA.
Pour ces entreprises, le meilleur produit d'IA est un plug-in d'IA à usage général. "Ce dont nous avons besoin, c'est juste d'un robot de service client dont les conversations n'ont pas l'air si idiotes. Je m'ai demandé d'apprendre à former le modèle, ce qui est un peu excitant. " Le responsable de ligne métier d'une marque de commerce électronique a déclaré à Huxiu que au cours des six derniers mois, il a juste écouté On dit que la capacité de dialogue de l'IA est plus forte qu'avant, mais ChatGPT n'a pas encore été essayé. Bien qu'il soit également disposé à adopter de nouvelles technologies, ce n'est pas assez pour lui de passer du temps à apprendre et à investir de l'argent dans l'IA maintenant.
"À moins qu'il n'y ait un plug-in dans la plate-forme ou le logiciel que j'utilise actuellement, je peux l'utiliser simplement en le prenant, sinon je ne penserai pas trop à dépenser de l'argent pour mettre à niveau l'assistant AI immédiatement ." Bas.
"** Les commerçants ont besoin de l'IA pour le faire, et elle peut être appliquée et renforcée sans se sentir. **" Le fabricant SaaS Weimob a créé une telle application WAI dans le marketing numérique, qui aide les commerçants à appeler les capacités de l'IA sous la forme d'intégration d'applications existantes. Fournissez aux marchands des capacités de dialogue IA et de génération de texte et d'image basées sur de grands modèles de langage.
La connexion ouverte de grands modèles aux outils de service SaaS est quelque peu similaire à l'invocation de modèle de Baidu Wenxin Qianfan. Bien que seuls les appels d'interface et Finetune soient effectués, il offre aux utilisateurs des capacités d'atterrissage AI plus rapides et plus stables.
"Les modèles open source peuvent faciliter le démarrage des utilisateurs, et maintenant de nombreux modèles open source sont mis à jour plus rapidement que les principaux fabricants." Weimob COO COO Yin Shiming pense que l'open source et l'ouverture peuvent rapidement fournir des capacités d'IA aux utilisateurs Entre vos mains, ce dont les utilisateurs ont vraiment besoin, c'est d'une IA "plug and play". **
Pour la plupart des utilisateurs qui en sont encore au stade de tester, d'expérimenter et d'expérimenter de grands modèles d'IA, le seuil des modèles open source est évidemment plus bas et le coût de démarrage est presque nul.
De nombreux utilisateurs ont utilisé le modèle open source depuis le début, et ils continueront à l'utiliser à l'avenir. Les problèmes de déploiement et de formation mentionnés ci-dessus engendrent une chaîne de services pour les modèles open source.
Chen Ran Dans cette vague de montée en puissance des grands modèles, le nouveau OpenCSG fait des affaires de services autour du grand modèle open source.
Le grand service de modèles fourni par OpenCSG est principalement destiné à la formation et à la mise en œuvre de modèles open source pour les entreprises. De la sélection de modèles open source à la puissance de calcul hybride distribuée, combinée à la formation au modèle commercial et au développement d'applications back-end, etc., il peut fournir des services aux entreprises.
"** Les grands modèles sont similaires à tous les SaaS à mon avis. Les industries en amont et en aval seront progressivement enrichies, et les clients ne se concentreront pas uniquement sur les capacités des modèles. " Chen Ran estime que la demande ultime des clients n'est pas de trouver le plus modèle capable, mais une utilisation meilleure, plus facile et plus simple des grands modèles d'IA pour servir son entreprise.
L'écologie open source autour de l'IA
Dans toute la chaîne de l'industrie de l'IA, l'open source va bien au-delà des modèles. De la recherche et du développement au déploiement en passant par l'application, presque tous les liens sont indissociables du sujet de l'open source.
** Les algorithmes, la puissance de calcul, les données et les trois éléments de l'IA nécessitent chacun une prise en charge open source. **
Au niveau de l'algorithme, les grands modèles d'IA open source sont à un stade relativement avancé. Au début de la recherche et du développement de l'IA, presque tous les modèles d'IA utilisaient des cadres d'apprentissage automatique, ce qui équivaut à la création de boîtes à outils d'IA. Les cadres d'apprentissage automatique courants actuels, y compris TensorFlow, Pytorch et PaddlePaddle (pagaie volante), sont tous des cadres open source.
Au niveau des données, l'ensemble de données open source Commen Crowl est une source de données importante dans le processus de formation du modèle GPT. À l'heure actuelle, de nombreuses institutions et sociétés de données ont publié des produits open source sur des ensembles de données de formation à l'IA, notamment l'ensemble de données COIG-PC de l'Institut de recherche Zhiyuan et l'ensemble de données multimodales DOTS-MM-0526 de l'AAC haïtienne.
Pour les éditeurs d'ensembles de données, l'open source peut non seulement améliorer l'influence et la valeur de la marque, mais les ensembles de données open source peuvent également recueillir des commentaires positifs de la communauté open source pour découvrir et corriger les erreurs ou les incohérences dans les données. Cette revue externe permet d'améliorer la qualité des données tout en enrichissant davantage l'écosystème produit de l'éditeur.
"**Les ingénieurs en algorithmes sont souvent confrontés au problème du manque de données dans la recherche et le développement. Des données de haute qualité peuvent apporter des améliorations qualitatives à l'évaluation des modèles. **Mon pays est actuellement confronté à la rareté d'ensembles de données de haute qualité, ce qui entrave également grands modèles. Le développement de la technologie. » Haitian AAC est l'un des fournisseurs de données de formation du modèle open source LLaMA 2, a déclaré Li Ke, COO de Haitian AAC.
** En termes de puissance de calcul, le plus gros goulot d'étranglement dans le développement de l'IA, le framework de puces open source stimule également le développement de l'industrie. **
Le 4 août, Qualcomm a annoncé la création d'une joint-venture avec quatre sociétés de semi-conducteurs pour accélérer la commercialisation de puces basées sur l'architecture open source RISC-V. Il existe actuellement trois frameworks de puces grand public sur le marché : x86 utilisé par les processeurs Intel, Arm utilisé par les GPU Nvidia et RISC-V, un framework de puces open source.
"RISC-V peut fournir un environnement programmable. L'équipe de développement de puces peut utiliser RISC-V pour effectuer de nombreux travaux de prétraitement et de post-traitement, et peut également ajouter des accélérateurs spéciaux ou des modules fonctionnels qui répondent aux besoins des utilisateurs pour répondre aux besoins des utilisateurs. "Gang Zhijian, vice-président senior du marketing et du développement commercial chez SiFive, a déclaré que l'écosystème RISC-V offre une multitude d'options pour la recherche et le développement de puces, ce qui est d'une grande aide pour la demande croissante de puces IA aujourd'hui.
Arm et x86 ont des écosystèmes relativement fermés par rapport à RISC-V. ** Dans l'écosystème Arm, les utilisateurs ne peuvent choisir que les options limitées fournies par Arm, tandis que l'écosystème RISC-V compte de nombreuses entreprises participantes, et il y aura plus de types de produits et de choix. **
L'architecture open source stimule également l'industrie des puces pour accélérer la concurrence. sorte de compétition En fin de compte, cela favorisera la prospérité et le progrès de l'écosystème RISC-V.**”
Bien que l'architecture du jeu d'instructions RISC-V soit gratuite et open source, la propriété intellectuelle de base formée par les fabricants de conception de puces basée sur le développement secondaire de l'architecture du jeu d'instructions RISC-V possède des droits de propriété intellectuelle indépendants et peut être autorisée par le biais de frais externes. Selon les données de la Fondation internationale RISC-V, le nombre de membres augmentera de plus de 26 % d'une année sur l'autre en 2022, et le nombre total d'unités membres dépassera 3 180, couvrant 70 pays/régions, y compris Qualcomm, Intel, Google, Alibaba, Huawei et UNISOC, Sharp et de nombreuses autres sociétés de puces de premier plan.
L'open source est un avantage pour RISC-V, mais il crée également des problèmes. RISC-V n'a que plus de 40 jeux d'instructions de base, plus des dizaines d'instructions d'extension de module de base.Toute entreprise et développeur peut utiliser RISC-V gratuitement pour créer des puces avec des droits de propriété intellectuelle indépendants.
Cependant, les fonctionnalités open source, hautement personnalisables et modulaires rendent également l'écosystème RISC-V plus fragmenté et complexe.
"Une fois que chaque société de recherche et développement de puces aura mis à niveau le jeu d'instructions de RISC-V, elle produira en fait une nouvelle architecture. Elle s'appelle RISC-V, mais différentes sociétés ne sont pas compatibles avec RISC-V, et l'écologie open source est en fait divisé. .**" Lu Tao, président de Weiwei Technology et directeur général de la Grande Chine, estime que l'open source de l'architecture des puces et l'écologie logicielle sont très importantes, mais il est très difficile pour différentes équipes de trouver un équilibre entre ouverture, personnalisation et fragmentation Testez la sagesse et la capacité de l'équipe R&D.
De plus, l'architecture Arm a déjà produit des GPU, des IPU et d'autres puces adaptées à l'entraînement et au raisonnement de l'IA, et l'écologie technique est plus complète et mature. L'intention initiale de RISC-V est de concevoir des processeurs.Bien qu'il soit très ouvert, la conception de puces IA est encore au stade exploratoire.
Selon la société de recherche Counterpoint Research, d'ici 2025, les expéditions cumulées de processeurs RISC-V dépasseront 80 milliards, avec un taux de croissance annuel composé de 114,9 %. D'ici là, RISC-V occupera 14 % du marché mondial des CPU, 28 % du marché de l'IoT, 12 % du marché industriel et 10 % du marché automobile.
Qualcomm a déjà implémenté RISC-V dans les microcontrôleurs de son SoC Snapdragon 865 en 2019 et a livré plus de 650 millions de puces RISC-V à ce jour. Lors du AI Hardware Summit Forum en septembre 2022, le professeur Krste Asanovic, l'inventeur de RISC-V, a révélé que Google avait commencé à utiliser le SiFive Intelligence X280 basé sur RISC-V pour développer son framework d'apprentissage automatique TensorFlow. **Avant cela, Google a mené des travaux d'auto-recherche sur l'architecture de la puce TPU pendant plus de 10 ans.
Bien qu'il soit difficile de développer des puces RISC-V à partir de zéro, la nature open source de RISC-V a donné aux puces chinoises, qui sont également parties de zéro, une chance de survivre dans le blocus et le monopole. Les entreprises chinoises connaissent la croissance la plus rapide au monde. Les entreprises chinoises de puces sont plus agressives et disposées à relever des défis. » Gang Zhijian a déclaré que le marché chinois est la clé pour stimuler le développement de l'industrie des puces. Le marché chinois des puces est énorme. Par exemple, la demande de puissance de calcul des puces automobiles de la Chine a largement dépassé celle des marchés européen et américain. **Avec la demande croissante des entreprises chinoises pour la puissance de calcul de l'IA, l'industrie chinoise des puces IA ouvrira certainement la voie à davantage d'opportunités à l'avenir.
Conclusion
Outre les considérations commerciales, **l'open source peut également aider les éditeurs techniques à optimiser les modèles. **
"ChatGPT est en fait une victoire de l'ingénierie." Le succès du grand modèle de langue d'aujourd'hui est en fait basé sur une formation et un réglage répétés du modèle. Si, une fois le modèle de base établi, le modèle est promu auprès de la communauté open source et que davantage de développeurs participent au travail d'optimisation du modèle, cela sera sans aucun doute d'une grande aide pour la progression du grand modèle d'IA.
De plus, "les grands modèles open source peuvent éviter de réinventer la roue." Lin Yonghua, vice-président et ingénieur en chef de l'Institut de recherche sur l'intelligence artificielle Zhiyuan de Pékin, a déclaré dans une interview lors de la conférence Zhiyuan 2023, en supposant que tout le monde dans ** vient de The la recherche et le développement de modèles à grande échelle à usage général nécessitent beaucoup de puissance de calcul, de données et d'électricité, c'est une réinvention complète de la roue qui ne favorise pas l'utilisation rationnelle des ressources sociales. **
Pour une organisation à but non lucratif comme le Zhiyuan Research Institute, peu importe si le modèle est open source ou fermé, il n'y a peut-être pas beaucoup de considérations commerciales. Mais pour les entreprises commerciales d'IA, qu'il s'agisse de Microsoft, Google, Meta, OpenAI ou des entreprises nationales Zhipu AI et Baichuan Intelligent, tout grand modèle d'IA ne sera certainement pas uniquement destiné à la "recherche scientifique". **
Bien que les produits d'OpenAI aient un avantage technologique absolu, l'écosystème ChatGPT construit sous forme de plug-ins est faible en termes de construction écologique. Dans les différends sur les sources ouvertes et fermées de l'IA, nous pourrions voir un modèle différent du système d'exploitation mobile à l'avenir.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI est en danger
Produit | Tiger Sniff Technology Group Auteur | Qi Jian Éditeur | Liao Ying
Le 7 août, une autre start-up nationale d'IA a publié son propre modèle d'IA open source et commercial gratuit : XVERSE-13B. La société appelée Yuanxiang XVERSE a été fondée par Yao Xing, ancien vice-président de Tencent et fondateur du laboratoire Tencent AI.
Depuis que Meta a publié les modèles à grande échelle de la série LLaMA 2 open-source pour une utilisation commerciale gratuite en juillet, une nouvelle vague de « open source » se prépare sur le marché des modèles à grande échelle de l'IA.
Le 2 août, Wenxin Qianfan, une plate-forme de modèles à grande échelle d'IA sous Baidu, a annoncé l'accès à la série complète de modèles open source de LLaMA2. Le nombre de modèles à grande échelle pouvant être appelés sur la plate-forme est passé à 33. À l'exception de 3 modèles Wenxin, les 30 autres modèles sont tous open-source. Modèles, y compris ChatGLM2, RWKV, MPT, Dolly, OpenLLaMA, Falcon, etc.
Le lendemain, Alibaba Cloud a également annoncé rejoindre les rangs du modèle open source. Le modèle open source Tongyi Qianwen à 7 milliards de paramètres comprend le modèle général Qwen-7B et le modèle de dialogue Qwen-7B-Chat. Les deux modèles ont été lancés sur la communauté Mota. Ils sont open source, gratuits et disponibles dans le commerce.
Fait intéressant, cette attitude positive envers l'open source et l'ouverture a commencé avec Microsoft, le grand propriétaire du modèle source fermé ChatGPT. ** Le 18 juillet, Microsoft a annoncé qu'il coopérerait avec Meta pour publier la version commerciale open source du modèle LLaMA 2, offrant aux entreprises des alternatives aux modèles OpenAI et Google. **La position de monopole d'OpenAI sur le marché des modèles à grande échelle d'IA semble être "ciblée" par l'ensemble de l'industrie, même ses partenaires les plus proches.
En tant que grand modèle de langage mondialement reconnu, le GPT-4 d'OpenAI est actuellement le seul grand modèle de langage avec un grand nombre d'utilisateurs prêts à payer pour cela.
Le meilleur étudiant de la classe n'est généralement pas motivé pour rejoindre le groupe d'étude. De même, **OpenAI n'a aucune raison ou motivation pour l'open source. **
Cependant, avec l'open source complète de LLaMA 2, de plus en plus de développeurs ont investi dans Meta et divers modèles open source. Tout comme Android utilise l'open source pour lutter contre iOS, un grand nombre de modèles d'IA open source contournent activement les barrières techniques de GPT-4 et entourent OpenAI avec un écosystème open source. **
Pourquoi l'open source ?
Lorsque OpenAI a lancé la fonction de plug-in pour la première fois, de nombreuses personnes ont comparé le modèle d'IA aux futurs Windows, iOS et Android. Maintenant, avec la sortie de LLaMA 2, le grand modèle AI n'est pas seulement une fonction, mais même la structure du marché se développe vers la direction du système d'exploitation.
Initié par LMSYS Org, une organisation dirigée par l'UC Berkeley, il s'agit d'un concours de classement pour les grands modèles linguistiques (LLM) ; au 20 juillet, la dernière version du classement comptait 40 grands modèles d'IA, et les cinq premiers sont toujours fermés sources Model (Proprietary), qui sont trois modèles de GPT-4, GPT-3.5-turbo et Claude. Cependant, les 34 modèles suivants, à l'exception du PaLM-Chat-Bison-001 de Google, sont tous des modèles open source, dont 15 sont non commerciaux.
Bien qu'en termes de capacités de modèle, en regardant l'ensemble du marché, aucun modèle, qu'il soit open source ou fermé, ne peut oser concurrencer frontalement GPT-4. Cependant, les Tigres n'ont pas pu tenir tête aux loups, et ils n'ont pas pu battre les gros modèles de GPT-4. Ils ont choisi de "changer de voie et de dépasser" et d'utiliser l'open source pour s'emparer de l'écologie des applications. quelque peu similaire à la lutte d'Android contre iOS.
** "À l'heure actuelle, tous les grands modèles open source ont un seul objectif, et c'est le marketing." **
Le fondateur d'une société nationale de recherche et développement de modèles open source à grande échelle a admis à Tiger Sniff que la principale raison de la promotion de modèles open source à grande échelle et de systèmes Android open source est de s'emparer du marché gratuitement. "De nombreuses grandes entreprises ont publié de grands modèles d'IA, ou même simplement créé une application basée sur un modèle existant, puis ont commencé à en faire la promotion en grande pompe. En fait, pour les utilisateurs de grands modèles de base, dépenser plus d'argent en publicité coûte plus cher. que ce n'est vraiment pas open source pour le modèle." C'est aussi le meilleur moyen pour les entreprises d'IA de prouver leur force.
Premièrement, les modèles open source sont plus faciles à évaluer que les modèles fermés. Étant donné que le code et les ensembles de données des modèles open source sont accessibles au public, les chercheurs peuvent directement inspecter l'architecture du modèle, les données de formation et le processus de formation pour effectuer une analyse plus approfondie du modèle afin de comprendre ses forces et ses faiblesses.
** "Certains grands modèles d'IA semblent être très capables, mais ils ne sont pas open source, et vous ne pouvez voir que les résultats de sa sortie." **
Comparé au modèle open source, le modèle à source fermée ne peut comprendre les avantages et les inconvénients du modèle qu'à travers l'évaluation des performances du modèle. Cela conduit au fait que les performances des modèles à source fermée peuvent être artificiellement exagérées ou leurs lacunes masquées. La transparence du modèle open source peut aider les développeurs à mieux comprendre le modèle et à l'évaluer plus équitablement.
Pour les retardataires, il y a un autre problème avec le modèle des sources fermées : il est facile de remettre en cause l'originalité de la technologie. De nombreux grands développeurs de modèles ont dit un jour à Huxiu : "Pour les modèles qui ne sont pas open source, pour le dire franchement, même s'il s'agit d'un shell LLaMA, ou appelle simplement l'interface ChatGPT en arrière-plan, qui sait ?"
Lorsque la première vague de grands modèles nationaux d'IA est sortie, de telles voix de doute ont été largement diffusées sur Internet. Pour ces grands modèles d'IA qui ne sont pas open source, il est difficile de prouver leur innocence. Afin de prouver qu'ils n'appellent pas l'API ChatGPT, certaines entreprises ont même déplacé le serveur de raisonnement et retiré le câble réseau pour démontrer sur le place.
L'open source est sans aucun doute l'un des meilleurs moyens d'autocertifier les grands modèles d'IA. Mais la vraie valeur de l'**open source n'est pas la capacité d'auto-certification, mais de s'emparer de l'écologie. **
"Après la sortie de LLaMA 2, il saisira certainement l'écosystème OpenAI rapidement." Un grand développeur de modèles a déclaré à Huxiu que bien que GPT-4 soit presque reconnu par l'industrie comme ayant la capacité la plus forte, les modèles après GPT-3 ne sont pas open source De plus, l'ouverture de l'interface API de GPT-4 est également très faible, il existe donc de nombreuses restrictions sur le développement du modèle GPT. En conséquence, de nombreux développeurs choisissent des modèles open source tels que LLaMA.Ces modèles open source peuvent non seulement affiner les instructions, mais également effectuer des recherches sur le modèle sous-jacent.
"LLaMA est définitivement plus populaire parmi les développeurs qu'OpenAI."
Lorsque LLaMA 2 a été publié pour la première fois le 19 juillet, il y avait plus de 5 600 projets sur GitHub avec des mots clés tels que « LLaMA », et plus de 4 100 projets dont « GPT-4 ». Deux semaines après sa sortie, le taux de croissance de LLaMA est plus rapide.Au moment de mettre sous presse, il y a plus de 6 200 "LLaMA" et plus de 4 400 "GPT-4".
D'autre part, les modèles open source peuvent être téléchargés localement pour un déploiement privatisé, ce qui facilite la formation à l'IA pour les entreprises commerciales. Les applications d'IA de ces entreprises doivent être formées sur la base de leurs propres données commerciales, et le modèle d'IA à grande échelle déployé à titre privé peut protéger au maximum la sécurité des données. Dans le même temps, il existe davantage de choix de puissance de calcul pour un déploiement privatisé, qu'il s'agisse d'un service cloud, d'un déploiement local ou même de la puissance de calcul distribuée de plusieurs IDC, ce qui réduit considérablement le coût de la formation et du raisonnement des modèles.
Bien que ChatGPT ait récolté 100 millions d'utilisateurs actifs par mois en seulement deux mois, dans l'écosystème des développeurs, la vitesse à laquelle le modèle open source s'empare de l'esprit des utilisateurs semble être plus rapide.
À l'heure actuelle, de nombreuses entreprises nationales d'IA ont choisi de publier des modèles open source. Ceux-ci incluent le modèle open source ChatGLM-6B publié par Zhipu AI, MOSS publié par l'Université Fudan, Wudao Tianying Aquila publié par Zhiyuan Research Institute et Baichuan-7B (13B) publié par Baichuan Intelligent. Parmi eux, ChatGLM-6B, un grand modèle open source publié par **Zhipu AI, a été téléchargé plus de 4 millions de fois dans le monde et a reçu 32 000 étoiles sur GitHub, 3 000 étoiles de plus que LLaMA. **
"Si nous ne créons pas un modèle open source, le marché sera bientôt plein de LLaMA." Un dirigeant d'une société d'IA qui a lancé un modèle open source a déclaré à Huxiu que l'open source est une étape importante dans le développement de l'IA en Chine. grand modèle.
En fait, avant le début de la tendance des LLM, l'IA générative avait déjà mené une bataille entre l'open source et la source fermée.
**Avec un grand nombre de développeurs et d'applications de produits, le modèle de graphe open-source de Wensheng Stable Diffusion a presque poussé le premier modèle à source fermée d'OpenAI Dall-E 2 dans un coin. Bien que les utilisateurs pensent généralement que les capacités du modèle de Stable Diffusion ne sont pas aussi bonnes que celles d'un autre produit à source fermée MidJourney, Stable Diffusion s'est emparé d'un grand nombre de marchés de graphes Vincent en raison de ses attributs open source et gratuits, et est devenu le modèle de graphe Vincent le plus courant Sa société de développement RunwayML And Stability AI a également reçu beaucoup d'attention et de financement. **
Le modèle open source de LLaMA 2 semble avoir l'intention de forcer OpenAI dans le domaine des LLM.
Open source avec des marchandises
LLaMA 2 est actuellement open source, les trois modèles de la série : 7 milliards, 13 milliards et 70 milliards de versions de paramètres. Cependant, il y a aussi des rumeurs sur le marché selon lesquelles "Meta a en fait une version avec des paramètres plus grands qui n'a pas été publiée. La prochaine version peut avoir une version avec des paramètres plus grands, mais elle peut ne pas être open source".
Il convient de noter qu'à l'heure actuelle, de nombreux modèles open source ne sont pas tous open source. Dans le modèle Enlightenment 3.0 publié par le Zhiyuan Research Institute, seul le modèle de langage de base "Tianying" est open source ; le ChatGLM publié par Zhipu AI n'ouvre qu'une partie de la série de modèles, et le plus grand modèle de 130 milliards de paramètres est toujours fermé. source. **
Indépendamment du fait que LLaMA 2 soit "réservé" aux modèles plus grands, la forme "libre" accélérera sans aucun doute la formation de Meta sur le marché des grands modèles et le poussera sur "l'ancienne route" d'Android.
Grâce à l'écosystème open source, le système Android a accumulé un grand nombre de développeurs et d'utilisateurs à travers le monde. En termes d'écologie technologique, il a grandement vérifié et équilibré le principal système à source fermée iOS, et a même formé son propre monopole sur certains marchés. Depuis 2018, l'Union européenne a infligé une amende de plus de 4 milliards d'euros à Google en raison du mécanisme de monopole du système Android. De cette amende vertigineuse, nous pouvons également voir à quel point le système Android open source est rentable.
Selon un rapport de la société de recherche Sensor Tower, les dépenses des utilisateurs sur Google Play seront d'environ 53 milliards de dollars américains en 2022, et ce chiffre passera à 60 milliards de dollars américains en 2023. Selon un rapport publié par une autre institution de recherche, Statista, en janvier 2022, il y avait environ 140 000 applications sur le Google Play Store.
À ce stade, le modèle d'IA open source n'est évidemment pas encore aussi populaire que les téléphones mobiles. Cependant, même si l'IA est vraiment aussi populaire que les téléphones portables, des géants comme Meta ne lâcheront pas facilement les entreprises qui ont fait beaucoup d'argent avec LLaMA 2.
Dans l'accord open source de LLaMA 2, il y a une telle stipulation : ** Si les utilisateurs actifs mensuels dépassent 700 millions, vous devez demander une licence auprès de Meta. Meta peut, à sa seule discrétion, vous accorder une licence et vous n'aurez aucun droit d'exercer l'un de ces droits. **
Dans le même temps, en plus de la version à source fermée du modèle open source et de l'application de grands modèles d'IA, cela peut également aider la puissance de calcul à "apporter des marchandises".
Les deux premiers fabricants en Chine à promouvoir des modèles d'IA à grande échelle, Baidu et Ali, sont tous deux des fabricants de cloud. Les deux autres fournisseurs de cloud, Tencent Cloud et Huawei Cloud, bien qu'ils n'aient pas de produits LLM comme Wenxin Yiyan et Tongyi Qianwen, continuent également de crier sur les modèles d'IA. La principale raison derrière cela est "l'effet porteur" du grand modèle sur le cloud.
"L'annonce de certaines actions sur les modèles à grande échelle d'IA est également promue conjointement par le marché et les clients. Au cours des derniers mois, il y a eu trop de clients qui sont venus poser des questions sur les modèles à grande échelle", a déclaré un chef d'entreprise du cloud de Tencent. Huxiu que la puissance de calcul a fait la queue , ce qui est la meilleure preuve de la capacité du grand modèle AI à transporter des marchandises.
**Le modèle n'a pas besoin de gagner de l'argent, mais la puissance de calcul doit être rentable. **Alibaba a ouvert Tongyi Qianwen et Baidu a introduit 30 modèles open source sur la plate-forme de modèles à grande échelle Wenxin Qianfan.Ces deux actions visent à fournir des capacités d'IA "gratuites" aux utilisateurs. Les utilisateurs qui utilisent le modèle open source ne paient plus pour l'IA, mais tant que leur IA fonctionnera sur Alibaba Cloud et Baidu Smart Cloud, ils devront payer pour la puissance de calcul.
"** L'IA devrait également revenir à l'idée du cloud et gagner de l'argent grâce au cloud. **" Xin Zhou, directeur général de Baidu Smart Cloud AI et Big Data Platform, a déclaré que l'intention initiale d'ouvrir le grande plate-forme modèle est de créer de la valeur pour les entreprises des clients.Tout en créant de la valeur, elle peut améliorer la fidélité des anciens clients et développer davantage de nouveaux clients. Ceci est d'une grande aide pour étendre l'effet d'échelle des fournisseurs de cloud.
Gratuit est plus cher
"10 millions, c'est à peu près le même montant que le prix de départ pour personnaliser un grand modèle."
Le fondateur d'une grande entreprise de modélisme open source a fait un devis à l'intermédiaire qui est venu le consulter au téléphone.
"Une fois que le modèle open source a été reconnu par les utilisateurs, vous pouvez parler aux autres des frais de service pour le développement personnalisé." Après que le fondateur a raccroché le téléphone, il a expliqué à Huxiu que pour un modèle comme LLaMA 2, le coût de développement est au moins ce qu'il en coûte des dizaines de millions de dollars. Par conséquent, le marché qu'il vise doit représenter des dizaines ou des centaines de fois le coût de développement.
Du point de vue actuel, la meilleure façon pour les entreprises **IA de gagner de l'argent avec des modèles open source est de commencer par les services. **
Heureusement, la plupart des utilisateurs de grands modèles d'IA ont grandement besoin de ces services.
"Le modèle est open source, gratuit et disponible dans le commerce. Cela signifie qu'à partir du téléchargement du modèle, du déploiement du modèle, de la formation, du réglage et du développement d'applications dans des applications réelles, tout le travail doit être fait par vous-même. " Un développeur d'applications LLaMA a déclaré Huxiu, la plupart des fournisseurs de modèles à source fermée fourniront des services de formation et de déploiement, et pourront personnaliser les fonctions de développement en fonction des besoins des utilisateurs. Mais si vous utilisez un modèle open source, vous devez faire toutes ces tâches vous-même, personne ne vous aidera à vous former, personne ne vous trouvera de puissance de calcul, et personne ne vous aidera à personnaliser le développement.
"En fait, les fabricants de modèles à source fermée vendent des services." Le responsable d'un établissement d'enseignement en ligne qui a effectué des recherches sur les applications d'IA basées sur le modèle LLaMA a déclaré à Huxiu : "Le modèle à source ouverte semble être gratuit , mais pendant le processus de déploiement, il reste encore beaucoup d'argent à dépenser." Après l'ajout du modèle d'IA, le coût de la main-d'œuvre et de la puissance de calcul du service informatique a considérablement augmenté.
Bien que la formation et le réglage basés sur des modèles open source ne soient pas difficiles pour la plupart du personnel informatique. Cependant, afin de mener une recherche et un développement approfondis du modèle, certaines réserves techniques en termes d'algorithmes et d'IA sont encore nécessaires. Alors que le concept de modèles d'IA à grande échelle devient de plus en plus populaire, le prix des talents dans ce domaine augmente également.
"L'augmentation des coûts de main-d'œuvre est en fait flottante, mais le coût des serveurs et du matériel est réel. Depuis l'investissement dans de grands modèles jusqu'à aujourd'hui, nos coûts ont augmenté d'environ 20 % à 30 %." a déclaré le responsable de l'établissement d'enseignement en ligne susmentionné À l'heure actuelle, son organisation en est encore au stade de l'exploration de la scène de l'IA, et la plus grande difficulté est qu'elle doit expérimenter chaque scène. "Si l'un échoue, remplacez-le par un autre. Dans ce processus, chaque étape coûte de l'argent."
À cet égard, Huxiu a interrogé un initié de Baidu Smart Cloud sur le service et le coût de Baidu Wenxin Qianfan en termes de déploiement. Cela permettra d'économiser de l'argent.**"
En fait, qu'il s'agisse d'un modèle open source ou d'un modèle source fermé, le coût de déploiement du modèle est calculé sur une base par personne/jour, et il n'y aura pas de différence essentielle dans les coûts de puissance de calcul pour les versions ultérieures. formation et raisonnement. "** Cependant, l'utilisation de modèles open source pour former, déployer et développer par vous-même ne fera que rendre ce processus très gênant." L'initié de Baidu a déclaré que le coût de déploiement spécifique dépend du projet spécifique et que la différence est très importante. Cependant, il n'y a en réalité aucune différence essentielle entre l'open source et la source fermée en termes de coûts de déploiement et d'utilisation. **Et du point de vue de la sécurité des données, la plupart des modèles à source fermée peuvent également être déployés en privé.
** À ce stade, il est encore difficile pour l'IA d'atteindre l'inclusivité. **
Pour la plupart des entreprises engagées dans le commerce Internet, elles ont leurs propres équipes de R & D informatique. Lorsque le grand modèle arrivera, elles pourront bientôt former une équipe "établie" pour développer des applications d'IA. Mais pour de nombreux secteurs de la vente au détail, de la fabrication traditionnelle et des services, la transformation numérique est un problème difficile.Il leur est vraiment difficile d'étudier la formation, le déploiement et le raisonnement des grands modèles d'IA.
Pour ces entreprises, le meilleur produit d'IA est un plug-in d'IA à usage général. "Ce dont nous avons besoin, c'est juste d'un robot de service client dont les conversations n'ont pas l'air si idiotes. Je m'ai demandé d'apprendre à former le modèle, ce qui est un peu excitant. " Le responsable de ligne métier d'une marque de commerce électronique a déclaré à Huxiu que au cours des six derniers mois, il a juste écouté On dit que la capacité de dialogue de l'IA est plus forte qu'avant, mais ChatGPT n'a pas encore été essayé. Bien qu'il soit également disposé à adopter de nouvelles technologies, ce n'est pas assez pour lui de passer du temps à apprendre et à investir de l'argent dans l'IA maintenant.
"À moins qu'il n'y ait un plug-in dans la plate-forme ou le logiciel que j'utilise actuellement, je peux l'utiliser simplement en le prenant, sinon je ne penserai pas trop à dépenser de l'argent pour mettre à niveau l'assistant AI immédiatement ." Bas.
"** Les commerçants ont besoin de l'IA pour le faire, et elle peut être appliquée et renforcée sans se sentir. **" Le fabricant SaaS Weimob a créé une telle application WAI dans le marketing numérique, qui aide les commerçants à appeler les capacités de l'IA sous la forme d'intégration d'applications existantes. Fournissez aux marchands des capacités de dialogue IA et de génération de texte et d'image basées sur de grands modèles de langage.
La connexion ouverte de grands modèles aux outils de service SaaS est quelque peu similaire à l'invocation de modèle de Baidu Wenxin Qianfan. Bien que seuls les appels d'interface et Finetune soient effectués, il offre aux utilisateurs des capacités d'atterrissage AI plus rapides et plus stables.
"Les modèles open source peuvent faciliter le démarrage des utilisateurs, et maintenant de nombreux modèles open source sont mis à jour plus rapidement que les principaux fabricants." Weimob COO COO Yin Shiming pense que l'open source et l'ouverture peuvent rapidement fournir des capacités d'IA aux utilisateurs Entre vos mains, ce dont les utilisateurs ont vraiment besoin, c'est d'une IA "plug and play". **
Pour la plupart des utilisateurs qui en sont encore au stade de tester, d'expérimenter et d'expérimenter de grands modèles d'IA, le seuil des modèles open source est évidemment plus bas et le coût de démarrage est presque nul.
De nombreux utilisateurs ont utilisé le modèle open source depuis le début, et ils continueront à l'utiliser à l'avenir. Les problèmes de déploiement et de formation mentionnés ci-dessus engendrent une chaîne de services pour les modèles open source.
Chen Ran Dans cette vague de montée en puissance des grands modèles, le nouveau OpenCSG fait des affaires de services autour du grand modèle open source.
Le grand service de modèles fourni par OpenCSG est principalement destiné à la formation et à la mise en œuvre de modèles open source pour les entreprises. De la sélection de modèles open source à la puissance de calcul hybride distribuée, combinée à la formation au modèle commercial et au développement d'applications back-end, etc., il peut fournir des services aux entreprises.
"** Les grands modèles sont similaires à tous les SaaS à mon avis. Les industries en amont et en aval seront progressivement enrichies, et les clients ne se concentreront pas uniquement sur les capacités des modèles. " Chen Ran estime que la demande ultime des clients n'est pas de trouver le plus modèle capable, mais une utilisation meilleure, plus facile et plus simple des grands modèles d'IA pour servir son entreprise.
L'écologie open source autour de l'IA
Dans toute la chaîne de l'industrie de l'IA, l'open source va bien au-delà des modèles. De la recherche et du développement au déploiement en passant par l'application, presque tous les liens sont indissociables du sujet de l'open source.
** Les algorithmes, la puissance de calcul, les données et les trois éléments de l'IA nécessitent chacun une prise en charge open source. **
Au niveau de l'algorithme, les grands modèles d'IA open source sont à un stade relativement avancé. Au début de la recherche et du développement de l'IA, presque tous les modèles d'IA utilisaient des cadres d'apprentissage automatique, ce qui équivaut à la création de boîtes à outils d'IA. Les cadres d'apprentissage automatique courants actuels, y compris TensorFlow, Pytorch et PaddlePaddle (pagaie volante), sont tous des cadres open source.
Au niveau des données, l'ensemble de données open source Commen Crowl est une source de données importante dans le processus de formation du modèle GPT. À l'heure actuelle, de nombreuses institutions et sociétés de données ont publié des produits open source sur des ensembles de données de formation à l'IA, notamment l'ensemble de données COIG-PC de l'Institut de recherche Zhiyuan et l'ensemble de données multimodales DOTS-MM-0526 de l'AAC haïtienne.
Pour les éditeurs d'ensembles de données, l'open source peut non seulement améliorer l'influence et la valeur de la marque, mais les ensembles de données open source peuvent également recueillir des commentaires positifs de la communauté open source pour découvrir et corriger les erreurs ou les incohérences dans les données. Cette revue externe permet d'améliorer la qualité des données tout en enrichissant davantage l'écosystème produit de l'éditeur.
"**Les ingénieurs en algorithmes sont souvent confrontés au problème du manque de données dans la recherche et le développement. Des données de haute qualité peuvent apporter des améliorations qualitatives à l'évaluation des modèles. **Mon pays est actuellement confronté à la rareté d'ensembles de données de haute qualité, ce qui entrave également grands modèles. Le développement de la technologie. » Haitian AAC est l'un des fournisseurs de données de formation du modèle open source LLaMA 2, a déclaré Li Ke, COO de Haitian AAC.
** En termes de puissance de calcul, le plus gros goulot d'étranglement dans le développement de l'IA, le framework de puces open source stimule également le développement de l'industrie. **
Le 4 août, Qualcomm a annoncé la création d'une joint-venture avec quatre sociétés de semi-conducteurs pour accélérer la commercialisation de puces basées sur l'architecture open source RISC-V. Il existe actuellement trois frameworks de puces grand public sur le marché : x86 utilisé par les processeurs Intel, Arm utilisé par les GPU Nvidia et RISC-V, un framework de puces open source.
"RISC-V peut fournir un environnement programmable. L'équipe de développement de puces peut utiliser RISC-V pour effectuer de nombreux travaux de prétraitement et de post-traitement, et peut également ajouter des accélérateurs spéciaux ou des modules fonctionnels qui répondent aux besoins des utilisateurs pour répondre aux besoins des utilisateurs. "Gang Zhijian, vice-président senior du marketing et du développement commercial chez SiFive, a déclaré que l'écosystème RISC-V offre une multitude d'options pour la recherche et le développement de puces, ce qui est d'une grande aide pour la demande croissante de puces IA aujourd'hui.
Arm et x86 ont des écosystèmes relativement fermés par rapport à RISC-V. ** Dans l'écosystème Arm, les utilisateurs ne peuvent choisir que les options limitées fournies par Arm, tandis que l'écosystème RISC-V compte de nombreuses entreprises participantes, et il y aura plus de types de produits et de choix. **
L'architecture open source stimule également l'industrie des puces pour accélérer la concurrence. sorte de compétition En fin de compte, cela favorisera la prospérité et le progrès de l'écosystème RISC-V.**”
Bien que l'architecture du jeu d'instructions RISC-V soit gratuite et open source, la propriété intellectuelle de base formée par les fabricants de conception de puces basée sur le développement secondaire de l'architecture du jeu d'instructions RISC-V possède des droits de propriété intellectuelle indépendants et peut être autorisée par le biais de frais externes. Selon les données de la Fondation internationale RISC-V, le nombre de membres augmentera de plus de 26 % d'une année sur l'autre en 2022, et le nombre total d'unités membres dépassera 3 180, couvrant 70 pays/régions, y compris Qualcomm, Intel, Google, Alibaba, Huawei et UNISOC, Sharp et de nombreuses autres sociétés de puces de premier plan.
L'open source est un avantage pour RISC-V, mais il crée également des problèmes. RISC-V n'a que plus de 40 jeux d'instructions de base, plus des dizaines d'instructions d'extension de module de base.Toute entreprise et développeur peut utiliser RISC-V gratuitement pour créer des puces avec des droits de propriété intellectuelle indépendants.
Cependant, les fonctionnalités open source, hautement personnalisables et modulaires rendent également l'écosystème RISC-V plus fragmenté et complexe.
"Une fois que chaque société de recherche et développement de puces aura mis à niveau le jeu d'instructions de RISC-V, elle produira en fait une nouvelle architecture. Elle s'appelle RISC-V, mais différentes sociétés ne sont pas compatibles avec RISC-V, et l'écologie open source est en fait divisé. .**" Lu Tao, président de Weiwei Technology et directeur général de la Grande Chine, estime que l'open source de l'architecture des puces et l'écologie logicielle sont très importantes, mais il est très difficile pour différentes équipes de trouver un équilibre entre ouverture, personnalisation et fragmentation Testez la sagesse et la capacité de l'équipe R&D.
De plus, l'architecture Arm a déjà produit des GPU, des IPU et d'autres puces adaptées à l'entraînement et au raisonnement de l'IA, et l'écologie technique est plus complète et mature. L'intention initiale de RISC-V est de concevoir des processeurs.Bien qu'il soit très ouvert, la conception de puces IA est encore au stade exploratoire.
Selon la société de recherche Counterpoint Research, d'ici 2025, les expéditions cumulées de processeurs RISC-V dépasseront 80 milliards, avec un taux de croissance annuel composé de 114,9 %. D'ici là, RISC-V occupera 14 % du marché mondial des CPU, 28 % du marché de l'IoT, 12 % du marché industriel et 10 % du marché automobile.
Qualcomm a déjà implémenté RISC-V dans les microcontrôleurs de son SoC Snapdragon 865 en 2019 et a livré plus de 650 millions de puces RISC-V à ce jour. Lors du AI Hardware Summit Forum en septembre 2022, le professeur Krste Asanovic, l'inventeur de RISC-V, a révélé que Google avait commencé à utiliser le SiFive Intelligence X280 basé sur RISC-V pour développer son framework d'apprentissage automatique TensorFlow. **Avant cela, Google a mené des travaux d'auto-recherche sur l'architecture de la puce TPU pendant plus de 10 ans.
Bien qu'il soit difficile de développer des puces RISC-V à partir de zéro, la nature open source de RISC-V a donné aux puces chinoises, qui sont également parties de zéro, une chance de survivre dans le blocus et le monopole. Les entreprises chinoises connaissent la croissance la plus rapide au monde. Les entreprises chinoises de puces sont plus agressives et disposées à relever des défis. » Gang Zhijian a déclaré que le marché chinois est la clé pour stimuler le développement de l'industrie des puces. Le marché chinois des puces est énorme. Par exemple, la demande de puissance de calcul des puces automobiles de la Chine a largement dépassé celle des marchés européen et américain. **Avec la demande croissante des entreprises chinoises pour la puissance de calcul de l'IA, l'industrie chinoise des puces IA ouvrira certainement la voie à davantage d'opportunités à l'avenir.
Conclusion
Outre les considérations commerciales, **l'open source peut également aider les éditeurs techniques à optimiser les modèles. **
"ChatGPT est en fait une victoire de l'ingénierie." Le succès du grand modèle de langue d'aujourd'hui est en fait basé sur une formation et un réglage répétés du modèle. Si, une fois le modèle de base établi, le modèle est promu auprès de la communauté open source et que davantage de développeurs participent au travail d'optimisation du modèle, cela sera sans aucun doute d'une grande aide pour la progression du grand modèle d'IA.
De plus, "les grands modèles open source peuvent éviter de réinventer la roue." Lin Yonghua, vice-président et ingénieur en chef de l'Institut de recherche sur l'intelligence artificielle Zhiyuan de Pékin, a déclaré dans une interview lors de la conférence Zhiyuan 2023, en supposant que tout le monde dans ** vient de The la recherche et le développement de modèles à grande échelle à usage général nécessitent beaucoup de puissance de calcul, de données et d'électricité, c'est une réinvention complète de la roue qui ne favorise pas l'utilisation rationnelle des ressources sociales. **
Pour une organisation à but non lucratif comme le Zhiyuan Research Institute, peu importe si le modèle est open source ou fermé, il n'y a peut-être pas beaucoup de considérations commerciales. Mais pour les entreprises commerciales d'IA, qu'il s'agisse de Microsoft, Google, Meta, OpenAI ou des entreprises nationales Zhipu AI et Baichuan Intelligent, tout grand modèle d'IA ne sera certainement pas uniquement destiné à la "recherche scientifique". **
Bien que les produits d'OpenAI aient un avantage technologique absolu, l'écosystème ChatGPT construit sous forme de plug-ins est faible en termes de construction écologique. Dans les différends sur les sources ouvertes et fermées de l'IA, nous pourrions voir un modèle différent du système d'exploitation mobile à l'avenir.