ChatGPT a explosé ces six derniers mois : hot money, géants et supervision

Après six mois de baptême en IA, il peut être difficile de trouver un mot plus approprié que "réaction au stress" pour décrire l'état de chacun dans l'industrie technologique aujourd'hui - tension, stimulation et pression.

La "réponse au stress" fait référence à une série de réponses que les organismes produisent afin de maintenir l'homéostasie du corps lorsqu'ils rencontrent des pressions ou des menaces environnementales externes. C'est une réponse naturelle des organismes pour s'adapter à l'environnement et assurer leur survie. Cette réponse peut être de courte ou de longue durée.

Le 26 juillet, le Twitter officiel d'OpenAI a annoncé que la version Android de ChatGPT était disponible en téléchargement aux États-Unis, en Inde, au Bangladesh et au Brésil, et prévoit de s'étendre à d'autres pays dans un proche avenir. ChatGPT élargit les canaux, gagne plus d'utilisateurs et une meilleure adhérence à l'utilisation, et la vague d'IA générative continue de croître.

Début juillet, lors de la Conférence mondiale sur l'intelligence artificielle (WAIC) 2023 à Shanghai, une technicienne d'une start-up de modélisme à grande échelle faisait la navette dans le hall d'exposition. Elle prévoyait de trouver une solution de puce domestique rentable pour l'entreprise. à utiliser pour la formation de modèles à grande échelle.

"Nous avons 1 000 A100, mais ils ne suffisent pas", a-t-elle déclaré à Huxiu.

A100 est un GPU haut de gamme de Nvidia et la base matérielle pour le développement de ChatGPT. Certaines données publiques montrent que dans le processus de formation des modèles de la série GPT, le nombre de GPU Nvidia utilisés par OpenAI est d'environ 25 000. Par conséquent, pour faire un grand modèle, vous devez d'abord évaluer combien de cartes graphiques A100 vous pouvez obtenir, ce qui est presque devenu une pratique dans cette industrie.

Où sont les GPU ? Où puis-je trouver une puissance de calcul bon marché ? Ceci n'est qu'un microcosme des nombreuses questions posées lors de la conférence 2023WAIC.

Presque toutes les personnes qui ont été "stressées" au cours des six derniers mois sont impatientes de trouver plus de réponses sur l'IA dans cet "événement".

Site 2023WAIC

Un technicien d'un exposant de puces a déclaré à Tiger Sniff que pendant les quelques jours de la conférence WAIC, de nombreux chefs de produit sont venus sur leur stand "grand modèle", dans l'espoir de trouver ici des définitions de produits pour l'activité de gros modèles de l'entreprise.

Lors du Forum de Zhongguancun le 28 mai, le "Rapport de recherche sur la carte du modèle à grande échelle de l'intelligence artificielle en Chine" publié par l'Institut d'information scientifique et technologique de Chine a montré qu'à la fin du mois de mai, 79 modèles à grande échelle avec une échelle de paramètres de plus d'un milliard en Chine avaient été libérés. Au cours des deux mois suivants, une série de grands modèles d'IA tels que Tongyi Wanxiang d'Alibaba Cloud, Pangu 3.0 de Huawei Cloud et Youdao "Ziyue" ont été publiés. Selon des statistiques incomplètes, les grands modèles d'IA nationaux actuels ont dépassé les 100.

L'action des entreprises nationales qui se bousculent pour publier de grands modèles d'IA est la meilleure incarnation de la "réponse au stress". L'inquiétude provoquée par cette « réaction » se transmet à presque tous les personnels concernés de l'industrie, du PDG d'un géant de l'Internet au chercheur d'une institution de recherche en intelligence artificielle, du partenaire d'un fonds de capital-risque au fondateur d'une Société d'IA, et même de nombreux juristes liés à l'IA, ainsi que des régulateurs de la sécurité des données et des réseaux.

Pour les personnes extérieures à l'industrie, ce n'est peut-être qu'un carnaval de courte durée, mais combien de personnes osent dire qu'elles sont en dehors de l'IA de nos jours.

L'IA inaugure une nouvelle ère, et tout mérite d'être remodelé avec un grand modèle. De plus en plus de gens commencent à réfléchir aux conséquences de la diffusion de la technologie.

Les fonds affluent, les volants d'inertie sont là

Moins d'un mois après la naissance de ChatGPT, Li Zhifei, le fondateur de ChatGPT, s'est rendu deux fois dans la Silicon Valley et a parlé de grands modèles avec tout le monde. En discutant avec Huxiu, Li Zhifei a déclaré sans ambages que c'était son dernier "All in".

En 2012, Li Zhifei a fondé Mobwenwen, une société d'intelligence artificielle basée sur l'interaction vocale et la combinaison de logiciels et de matériel, qui a connu les hauts et les bas des deux vagues d'intelligence artificielle en Chine. Au cours de la période la plus chaude de la dernière vague d'intelligence artificielle, la valorisation de Momenwenbang a été autrefois poussée au niveau de la licorne, mais elle a également connu une période de solitude depuis lors. Il a fallu attendre l'émergence de ChatGPT pour que l'industrie de l'intelligence artificielle qui avait été silencieux pendant de nombreuses années Un trou a été déchiré.

Sur le marché primaire, "l'argent chaud afflue".

C'est le consensus de l'industrie en ce qui concerne les grands modèles au cours des six derniers mois. Lu Qi, fondateur du Qiji Forum, estime que les modèles à grande échelle d'IA sont un "volant d'inertie", et que l'avenir sera une ère où les modèles seront omniprésents. "Ce volant d'inertie a déjà commencé", et la plus grande force motrice est le capital.

Début juillet, les données publiées par la plateforme d'informations commerciales Crunchbase ont montré que les entreprises classées comme IA ont levé 25 milliards de dollars au premier semestre 2023, ce qui représente 18 % du financement mondial. Bien que ce chiffre ait diminué par rapport aux 29 milliards de dollars américains au premier semestre 2022, le montant total du financement de diverses industries dans le monde au premier semestre 2023 a diminué de 51 % par rapport à la même période en 2022, ce qui montre que le montant du financement dans le domaine de l'IA est le plus important au monde, la proportion du financement total a presque doublé. Crunchbase a écrit dans le rapport : "Sans le boom de l'intelligence artificielle déclenché par ChatGPT, le montant du financement en 2023 sera encore plus bas".

Jusqu'à présent, le financement le plus important dans l'industrie de l'IA en 2023 est l'investissement de 10 milliards de dollars de Microsoft dans OpenAI en janvier.

Tiger Sniff Selon les statistiques publiques, parmi les startups à grande échelle aux États-Unis, Inflection AI pourrait devenir la deuxième plus grande startup dans le domaine de l'intelligence artificielle après Open AI, suivie par Anthropic (1,5 milliard de dollars), Cohere (445 millions de dollars), Adept (415 millions de dollars), Runway (195,5 millions de dollars), Character.ai (150 millions de dollars) et Stability AI (environ 100 millions de dollars).

En Chine, au premier semestre 2023, il y a eu 456 incidents d'investissement et de financement publics dans l'industrie nationale de l'intelligence artificielle. Et cette statistique est de 731, 526, 353, 631 et 648 sur les cinq années de 2018 à 2022.

Investissements publics et événements de financement dans l'industrie nationale de l'intelligence artificielle au premier semestre

Un autre événement qui a déclenché le volant a été la sortie de l'interface API par ChatGPT. Quand OpenAI a ouvert l'interface API de ChatGPT pour la première fois en mars, il y avait presque un consensus à l'intérieur et à l'extérieur de l'industrie de l'IA : l'industrie est sur le point de changer. À mesure que de plus en plus d'applications sont connectées à de grands modèles, une forêt plus luxuriante se développe au-dessus de l'IA.

"La construction de modèles à grande échelle et la réalisation d'applications doivent être séparées. Les investisseurs ont toujours un sens aigu de l'odorat. Selon Chen Runze, directeur exécutif de Source Code Capital, l'IA est la même logique que la division du travail dans les semi-conducteurs. Après la prospérité des modèles d'IA à grande échelle, bientôt Nous assisterons bientôt à un boom des applications d'IA.

Au début de cette année, lorsque Chen Runze et ses collègues se sont rendus dans la Silicon Valley, ils ont découvert que Y Combinator, un incubateur de startups bien connu dans la Silicon Valley (le PDG d'OpenAI, Sam Altman, a été président de cet incubateur pendant de nombreuses années), la moitié des projets ont été transformés en IA générative. L'engouement pour les grands modèles n'est pas moindre que celui de la Chine de l'autre côté de l'océan.

Cependant, il a également constaté que le capital et les entrepreneurs aux États-Unis sont plus optimistes quant aux applications écologiques basées sur de grands modèles que sur l'entrepreneuriat à grande échelle. Après tout, des entreprises comme OpenAI ont déjà émergé sur cette voie. Les États-Unis ont un sol écologique d'application ToB solide, de sorte que de plus en plus d'entreprises américaines tentent de créer des applications d'entreprise basées sur l'écologie des grands modèles.

Les observations de Chen Runze sont en train d'être confirmées. Chen Ran, co-fondateur de la plate-forme de services de modèles à grande échelle OpenCSG, a déclaré à Huxiu qu'aujourd'hui, plus de 90 % des entreprises de la région de la baie des États-Unis ont utilisé des modèles à grande échelle. capacités dans tous les domaines. Quant à la Chine, Chen Ran estime que de nombreux clients l'utiliseront avant la fin de l'année.

Vers le mois de mars de cette année, Chen Runze et son équipe ont commencé à essayer de trouver des entreprises en Chine qui fabriquent des applications basées sur de grands modèles, mais il a constaté qu'il y avait très peu de telles entreprises. Une grande quantité de capitaux est entrée dans l'industrie de l'intelligence artificielle, mais si vous suivez le flux de ces fonds, vous constaterez que davantage d'argent est encore concentré dans les meilleures entreprises.

"Même maintenant, sur 10 projets liés à l'IA générative, il n'est pas facile d'investir dans 1-2." En plus de Source Code Capital, Huxiu a également communiqué avec de nombreux investisseurs en technologie dure, et ils ont tous dit, bien qu'il y ait beaucoup projets à voir, il y en a très peu de vraiment fiables.

Cette attitude du côté des applications, aux yeux de beaucoup de gens de l'industrie, est déjà la norme.

Yu Kai, le co-fondateur d'Aspire, estime que la piste apparemment animée à la surface est en fait plus une compétition nominale, et les résultats ne sont rien de plus que deux situations : "L'une est purement axée sur le capital pour collecter des fonds ; l'autre Une entreprise qui fabrique un modèle universel à grande échelle a vraiment besoin de crier, et les autres ne sauront pas s'ils ne crient pas.

Certaines statistiques nationales illustrent également ce problème.Selon les statistiques d'une organisation tierce, Niu, en juillet 2023, il y avait 242 entreprises AIGC en Chine, et il y a eu 71 incidents de financement de voie AIGC depuis janvier. Il y a 67 entreprises sur la piste des modèles à grande échelle d'IA, et il n'y a eu que 21 événements de financement depuis la sortie de ChatGPT.

Les événements de financement de la piste AIGC et de la piste des grands modèles d'IA depuis la sortie de ChatGPT|Source des données : Enniu Data

"Sur le marché national de l'IA, il y a trop peu de bonnes cibles." Un investisseur a déclaré à Tiger Sniff que les bons projets sont trop chers et que les moins chers ne sont pas fiables. Bien que le nombre de modèles d'IA à grande échelle lancés en Chine dépasse actuellement la centaine, parmi les entreprises de modèles à grande échelle en Chine, peu, voire une poignée d'entre elles, ont obtenu un financement énorme.

De nombreux investissements dans l'IA se sont finalement transformés en investisseurs - anciens fondateurs de sociétés licornes, géants de l'Internet, personnes ayant une expérience entrepreneuriale liée aux modèles à grande échelle, etc.

| | | | | | | --- | --- | --- | --- | --- | | Type d'entreprise | Entreprise | Date de création | Grands modèles et produits connexes | | Société Internet | Baidu | 2012 | Wenxin Yiyan | Coté | | Aliyun | 2008 | Tongyi Qianwen | Listé | | | Tencent AI Lab | 1998 | Hunyuan | Coté | | | Huawei Cloud | 2019 | Pangu | Non répertorié | | | ByteDance| 2016 | Arche volcanique| Non répertorié| | | JD Cloud | 2012 | Yanxi | Listé | | | Kunlun Wanwei | 2008 | Tiangong | Listé | | | 360 | 1992 | 360 Zhinao | Listé | |

| | | | | | | --- | --- | --- | --- | --- | | Type d'entreprise | Entreprise | Date de création | Grands modèles et produits connexes | | Société d'intelligence artificielle | SenseTime | 2014 | Nouveau quotidien | Inscrit | | HKUST Xunfei | 1999 | Xunfei Spark | Listé | | | Yuncong Technology | 2015 | Calme | Inscrit | | | Données Daguan | 2015 | Cao Zhi | Ronde C | | | Sortez et demandez | 2014 | Sequence Monkey | Round D | | | Zhipu Al | 2019 | ChatGLM | Ronde B | | | Lanzhou Technology | 2021 | Mencius | Ronde pré-A | | | MiniMax | 2021 | Glow | Investissement en actions | | | Technologie Facewall | 2022 | VisCPM | Angel Wheel | | | Technologie Shenyan | 2022 | CPM | Prise de participation | | | Mind Intelligence | 2021 | Al Utopia | Tour pré-A | | | Technologie Lianyuan | 2021 | ProduitGPT | Angel Wheel | | | Aspire | 2007 | DFM-2 | Résiliation de l'introduction en bourse | |

| | | | | | | --- | --- | --- | --- | --- | | Type d'entreprise | Entreprise | Date de création | Grands modèles et produits connexes | | Une start-up d'IA sera créée en 2023 | À des années-lumière | 2023 | Non | Un tour | | Baichuan Intelligent | 2023 | baichuan | Prise de participation | | | Zero One Everything | 2023 | Aucun | Investissement en actions | |

Statistiques partielles des entreprises liées aux modèles à grande échelle d'IA nationaux

Parmi les projets d'IA vedettes cette année, Zhipu AI, Lingxin Intelligence, Shenyan Technology et Facewall Intelligence sont toutes des entreprises incubées par Tsinghua Lab. Shenyan Technology et Facewall Smart ont tous deux été créés en 2022 et bénéficient de l'approbation technique d'universitaires bien connus de l'industrie de l'IA.

Le temps d'établissement de ces sociétés d'IA basées à Tsinghua est plus court que celui des sociétés d'IA fondées par certains leaders de l'industrie Internet.Light Years Beyond, Baichuan Intelligent et Zero One Wanwu ont tous été créés après le début de cette vague de modèles à grande échelle.

Wang Huiwen, le co-fondateur de Meituan, a déjà levé 50 millions de dollars américains à des années-lumière de sa création au début de 2023, ce qui était l'un des rares cas de financement dans l'industrie du modèle à grande échelle en Chine à cette époque. Contrairement à Zhipu AI et Xihu Xinchen, qui ont déjà des entreprises basées sur des modèles à grande échelle, des années-lumière commenceront en février 2023. Il est difficile de construire un modèle à grande échelle à partir de zéro.Le 29 juin, Meituan a annoncé l'acquisition de tous les intérêts au-delà de Light Years, avec une contrepartie totale d'environ 233 millions de dollars américains (1,67 milliard de yuans) en espèces, environ 367 millions de yuans de dettes et 1 yuan en espèces.

"Au moins, il doit y avoir des personnes ayant une formation en traitement du langage naturel, des personnes ayant une certaine expérience pratique dans la formation de modèles à grande échelle, et des professionnels de l'informatique, des clusters de puissance de calcul à grande échelle, etc. Si vous voulez faire applications en même temps, vous devez avoir des chefs de produit et des talents opérationnels correspondants sur le terrain. » Chen Runze a décrit la configuration standard d'une équipe de base de modèle à grande échelle.

LA MEILLEURE IA DES GRANDES ENTREPRISES

Au cours des six derniers mois, les nouvelles de l'IA des géants établis de l'Internet ont volé partout dans le ciel. L'investissement dans les grands modèles d'IA semble chasser les points chauds, mais les paris faits par de grandes entreprises telles que Baidu, Ali et Huawei sur l'IA ne suivent évidemment pas la tendance.

Les paris des géants sur l'IA sont lancés depuis longtemps et pour ces entreprises, l'IA n'est pas un sujet nouveau. Tiger Sniff, selon les statistiques incomplètes des données de recherche d'entreprise, les grandes usines ont investi dans des entreprises liées à l'intelligence artificielle à des degrés divers depuis 2018. Du point de vue des entreprises d'investissement, la plupart d'entre elles sont des entreprises dans l'application de l'intelligence artificielle, bien que certaines d'entre elles sont impliquées dans des entreprises de puces IA, mais leur nombre n'est pas important, il n'y a presque aucune entreprise impliquée dans des modèles à grande échelle, et la plupart des entreprises liées à l'intelligence artificielle investies par les grands fabricants sont étroitement liées à leur activité.

| | | | | | | --- | --- | --- | --- | --- | Institutions d'investissement de Dachang|Nombre d'entreprises investies|Ratio d'actionnariat moyen|Ratio d'actionnariat maximal|Nombre d'entreprises à 100 % d'actionnariat| |Alibaba | 23 | 36,25 % | 100 % | 5 | | Baidu Venture Capital | 25 | 5,50 % | 15 % | 0 | | Investissement Tencent | 54 | 17,54 % | 100 % | 2 |

L'investissement de trois grandes sociétés Internet dans des sociétés liées à l'IA|Source des données : Qichacha

En 2017, l'Alibaba Dharma Institute a été créé. Ses objets de recherche couvrent plusieurs domaines industriels tels que l'intelligence artificielle, les réseaux intelligents et la technologie financière. Il renforce les capacités de l'intelligence artificielle dans divers secteurs d'activité d'Ali. En 2018, Baidu a proposé la stratégie "All in AI".

La différence est que l'émergence de l'IA générative semble être un tournant. Pour les géants de la technologie avec des avantages en matière de données, de puissance de calcul et de ressources algorithmiques, l'intelligence artificielle n'est pas seulement un scénario favorable pour eux, mais doit également assumer le rôle d'infrastructure.Après tout, l'émergence de l'IA générative signifie que l'industrie de l'intelligence artificielle La division du travail a commencé.

Les grandes entreprises représentées par Baidu, Alibaba, Huawei et Tencent, les quatre fournisseurs de cloud, ont annoncé leurs propres stratégies d'IA, mais chacune a évidemment son propre objectif.

Au cours des six derniers mois, des géants ont lancé leurs propres modèles de produits à grande échelle. Pour les grandes entreprises comme Baidu et Ali, il n'est pas trop tard pour entrer dans le grand modèle, essentiellement en 2019.

Baidu développe des modèles de pré-formation depuis 2019 et a successivement publié la série de modèles Knowledge Enhanced Wenxin (ERNIE). Le modèle Tongyi Thousand Questions d'Ali a également débuté en 2019. En plus des grands modèles à usage général de Baidu et Ali, le 19 juin, Tencent Cloud a publié les progrès de la recherche et du développement des grands modèles de l'industrie. Le 7 juillet, HUAWEI CLOUD a lancé le modèle industriel Pangu 3.0.

Ces objectifs font également écho aux activités globales, à la stratégie cloud et à la disposition à long terme de chaque entreprise sur le marché de l'IA.

La rentabilité des activités principales de Baidu a beaucoup fluctué au cours des cinq dernières années. Baidu a depuis longtemps vu les problèmes de l'activité de publicité basée sur la recherche sur le marché intérieur. À cet égard, Baidu a choisi d'investir massivement dans la technologie de l'IA pour trouver de nouvelles opportunités. Au fil des ans, Baidu a non seulement invité Wu Enda, Lu Qi et d'autres leaders de l'industrie à occuper des postes de direction, mais a également beaucoup plus d'enthousiasme pour la conduite autonome que d'autres grandes entreprises. Baidu, qui est tellement préoccupé par l'IA, est tenu de placer de gros paris dans cette vague de compétition de modèles à grande échelle.

Ali a également montré un grand enthousiasme pour les grands modèles généraux. Pendant longtemps, Aliyun a placé de grands espoirs et Ali espère emprunter la voie technique pour créer la deuxième courbe de croissance du groupe. Dans le contexte d'une concurrence de plus en plus féroce dans le secteur du e-commerce et d'un ralentissement de la croissance du marché, les nouvelles opportunités dans l'industrie de l'IA créées par Evian sont sans aucun doute une bonne opportunité pour Alibaba Cloud de poursuivre ses efforts sur le marché domestique du cloud.

Par rapport à Baidu et Ali, Tencent Cloud a choisi de donner la priorité aux modèles industriels à grande échelle en termes de modèles à grande échelle, tandis que Huawei Cloud a déclaré publiquement qu'il ne se concentrerait que sur les modèles industriels à grande échelle.

Pour Tencent, la croissance de son activité principale a été régulière et positive ces dernières années. À un stade où l'avenir des modèles à grande échelle à usage général n'est toujours pas clair, Tencent est relativement prudent en pariant sur des modèles d'IA à grande échelle. Lorsque Ma Huateng a parlé du modèle à grande échelle lors de la précédente conférence téléphonique sur les résultats, il a déclaré: "Tencent n'est pas pressé de montrer les produits semi-finis. La clé est de faire un bon travail dans les algorithmes sous-jacents, la puissance de calcul et des données. La scène tombe.

D'autre part, du point de vue du groupe Tencent, Tencent compte actuellement 4 laboratoires d'IA et a publié l'année dernière un modèle à éléments mixtes à grande échelle avec des milliards de paramètres. Mettez tous vos œufs dans le même panier "stratégie de pari.

Pour Huawei, cela a toujours été un gros pari sur la recherche et le développement.Au cours des 10 dernières années, l'investissement total de Huawei dans la recherche et le développement a dépassé les 900 milliards de yuans. Cependant, en raison des obstacles rencontrés dans le développement de l'activité de téléphonie mobile, la stratégie globale de Huawei dans la recherche et le développement de nombreuses technologies peut également faire face à des ajustements.

D'une part, le secteur de la téléphonie mobile est la plus grande exportation de la technologie Huawei de fin C. Si le secteur de la téléphonie mobile ne paie pas pour le modèle à grande échelle à usage général, alors la motivation de Huawei à développer un modèle à grande échelle à usage général modèle baissera considérablement. Pour Huawei, miser sur un modèle industriel à grande échelle et réalisable rapidement semble être la solution optimale dans ce jeu d'IA. Comme l'a dit Zhang Pingan, PDG de Huawei Cloud, "Huawei n'a pas le temps d'écrire de la poésie".

Cependant, pour les géants de la technologie, quelle que soit la taille du pari, tant qu'ils peuvent faire le bon pari, ils pourront s'emparer de la part de marché des infrastructures et gagner le droit de parler à l'ère de l'intelligence artificielle.

Prenez un marteau pour un clou

Pour les sociétés commerciales, toutes les décisions relèvent toujours des livres économiques.

Même avec un investissement important, de plus en plus de fondateurs d'entreprise prévoyants se rendent compte que c'est quelque chose qui doit être fait à l'avenir, même si l'investissement initial peut ne pas rapporter du tout.

La recherche et le développement de grands modèles d'IA nécessitent beaucoup d'investissements, mais de plus en plus de créateurs d'entreprises et d'investisseurs estiment qu'il s'agit d'un "investissement nécessaire", même s'il n'y a aucun retour.

En conséquence, de nombreuses entreprises d'intelligence artificielle nées sous la dernière vague d'IA ont vu une nouvelle aube après une longue période de silence.

"Il y a trois ans, tout le monde disait que le GPT-3 était la possibilité de mener à l'intelligence artificielle générale." Li Zhifei a dirigé un groupe de personnes pour étudier le GPT-3 en 2020. À cette époque, il était à un tournant de son développement. . , ils voulaient explorer de nouvelles entreprises, mais après une période de recherche, le projet de modèle à grande échelle de Li Zhifei a été suspendu. L'une des raisons était que le modèle n'était pas assez grand à ce moment-là, et l'autre était qu'il n'y avait pas scène d'atterrissage commerciale.

Cependant, après la sortie de ChatGPT fin 2022, Li Zhifei semblait avoir reçu un coup de pouce, car, comme tout le monde, il a vu de nouvelles opportunités pour les grands modèles. En avril de cette année, Going Out and Asking a publié un produit modèle à grande échelle auto-développé - Sequence Monkey. En ce moment, ils se préparent à sprinter à la Bourse de Hong Kong avec le nouveau modèle à grande échelle "Serial Monkey", et ils ont déjà soumis le prospectus fin mai.

Une autre société d'intelligence artificielle établie fait également le suivi.En juillet de l'année dernière, Aspire a soumis une demande d'introduction en bourse au Conseil de l'innovation scientifique et technologique, qui a été rejetée par le comité d'examen de l'inscription en mai de cette année.

Yu Kai a dit franchement que même OpenAI s'est entraîné avec le V100 de Microsoft pendant près d'un an au stade GPT2, et sa puissance de calcul est de plusieurs ordres de grandeur inférieure à celle de l'A100. Au début de la phase d'accumulation de grands modèles, Aspire utilise également des cartes plus économiques pour la formation. Bien sûr, cela prend du temps comme prix.

Par rapport aux grands modèles auto-développés, certaines entreprises axées sur les applications ont leurs propres choix.

Zhang Wang (pseudonyme), le président d'une société d'éducation en ligne, a déclaré à Huxiu qu'au cours des six derniers mois, ils n'avaient épargné aucun effort pour explorer des scénarios d'application de modèles à grande échelle, mais ils ont rapidement découvert qu'il y avait de nombreux problèmes dans le processus de mise en œuvre. , tels que le coût et l'investissement. L'équipe R&D de l'entreprise compte 50 à 60 personnes.Depuis qu'ils ont commencé à faire des recherches sur les modèles à grande échelle, ils ont élargi l'équipe R&D et recruté des talents dans les modèles à grande échelle.Zhang Wang a déclaré que les talents dans les modèles de bas niveau coûtaient très cher. .

Zhang Wang n'a jamais pensé à développer un grand modèle à partir de zéro, et compte tenu de problèmes tels que la sécurité des données et la stabilité du modèle, il n'a pas l'intention d'accéder directement à l'API pour l'application. Leur approche consiste à se référer au grand modèle open source et à utiliser leurs propres données pour la formation. C'est également la pratique actuelle de nombreuses sociétés d'applications - en plus du grand modèle, utiliser leurs propres données pour créer un petit modèle industriel. Pour l'avenir, ils ont commencé avec un modèle de 7 milliards de paramètres, ont atteint 10 milliards et essaient maintenant un modèle de 30 milliards. Mais ils ont également constaté qu'à mesure que la quantité de données augmente, la formation de grands modèles conduira au fait que la nouvelle version peut ne pas être aussi bonne que la version précédente, et les paramètres doivent être ajustés un par un. un détour qui doit être pris", a déclaré Zhang Wang.

Zhang Wang a déclaré à Huxiu que leur exigence pour l'équipe de R&D était d'explorer des scénarios de modèles d'IA à grande échelle basés sur les activités de l'entreprise.

C'est un moyen de trouver un "clou" avec un "marteau", mais ce n'est pas facile.

"Le plus gros problème à l'heure actuelle est de trouver une scène appropriée. En fait, il existe de nombreuses scènes. Même si l'IA est utilisée, l'effet ne peut pas être beaucoup amélioré. ", A déclaré Zhang Wang, par exemple, dans la scène de classe, AI large Les modèles peuvent être utilisés pour renforcer certains modes interactifs, y compris rappeler aux élèves d'assister aux cours, répondre aux questions, étiqueter, etc., mais après avoir essayé le grand modèle d'IA, ils ont constaté que la précision n'était pas bonne, et le la capacité à comprendre et à produire n'était pas idéale. L'équipe de Zhang Wang a décidé d'abandonner temporairement l'IA dans cette scène après avoir essayé pendant un certain temps.

Un autre fournisseur de services Internet, Xiaogetong, a également commencé à explorer des entreprises connexes immédiatement après l'apparition du modèle d'IA. L'activité principale de Little Goose est de fournir des outils d'exploitation numériques pour les marchands en ligne, y compris le marketing, la gestion de la clientèle et la monétisation commerciale.

Fan Xiaoxing, co-fondateur et COO de Goose Communication, a déclaré à Huxiu qu'en avril de cette année, lorsque de plus en plus d'applications basées sur l'IA générative sont nées, Goose Communication a vu le potentiel derrière cette technologie, "Par exemple, MidJourney, l'IA générative est L'amélioration de l'efficacité de la génération d'images de conception est en effet évidente pour tous. » Fan Xiaoxing et les autres ont spécialement organisé en interne le secteur d'activité de la recherche sur l'IA, à la recherche de cas d'atterrissage liés à leur propre entreprise.

Fan Xiaoxing a déclaré que dans le processus d'intégration du grand modèle dans l'entreprise, ce qu'elle considérait comme le coût et l'efficacité. "Le coût d'entrée du grand modèle est encore assez élevé", a-t-elle déclaré.

Les « ongles » de l'industrie Internet sont faciles à trouver. La véritable difficulté de la mise en œuvre de l'IA réside dans les industries physiques telles que l'industrie et la fabrication.

Yu Kai a déclaré à Huxiu que cette vague d'IA continue de monter en flèche et d'avancer par vagues, et que les contradictions dans la mise en œuvre de l'industrie n'ont pas du tout changé, juste changé la coquille. Donc, dans ce sens, les lois des deux vagues d'IA sont les mêmes, et le meilleur moyen est d'apprendre de l'histoire : "Les leçons de la dernière vague d'IA, ne les répétez pas cette fois."

Bien que de nombreux fabricants aient crié le slogan "l'industrie d'abord" dans la mise en œuvre de grands modèles d'IA, il est vraiment difficile pour de nombreux scénarios industriels physiques de correspondre aux grands modèles d'IA actuels. Par exemple, le système d'inspection visuelle de l'IA appliqué dans certains scénarios d'inspection industrielle, même si la demande pour le modèle d'IA n'est pas aussi élevée que 1 milliard de paramètres, les données de formation initiales sont toujours étirées.

Prenant comme exemple une simple scène d'inspection d'énergie éolienne, le nombre d'inspections dans un parc éolien atteint 70 000 unités, mais les mêmes données de fissures peuvent n'apparaître qu'une seule fois, et la quantité de données que les machines peuvent apprendre est loin d'être suffisante. Ke Liang, directeur produit de Broadbo Intelligent Wind Power Hardware, a déclaré à Tiger Sniff qu'à l'heure actuelle, les robots d'inspection des pales d'éoliennes ne peuvent pas analyser avec précision les fissures des pales à 100 %, car la quantité de données disponibles pour la formation et l'analyse est trop petite. l'identification nécessite également une grande quantité de données et d'analyses manuelles.

Cependant, dans les scénarios avec une bonne accumulation de données industrielles, les grands modèles d'IA peuvent déjà aider à la gestion de bibliothèques de pièces de modèles 3D complexes. La bibliothèque de pièces d'une entreprise nationale de fabrication d'avions a mis en place un outil auxiliaire de bibliothèque de pièces basé sur le grand modèle du quatrième paradigme "Shishuo". Parmi plus de 100 000 pièces de modélisation 3D, la recherche de modèles 3D peut être réalisée en langage naturel, le modèle 3D peut être recherché par modèle 3D et même l'assemblage automatique du modèle 3D peut être complété. Ces fonctions nécessitent des opérations en plusieurs étapes dans de nombreux outils de CAO et CAE qui sont bloqués dans l'industrie manufacturière.

Les modèles à grande échelle d'aujourd'hui sont confrontés aux mêmes problèmes d'atterrissage que l'IA il y a quelques années, et ils doivent également trouver des clous avec un marteau. Certaines personnes croient avec optimisme que le marteau d'aujourd'hui est complètement différent du passé, mais lorsqu'il s'agit de payer pour l'IA avec de l'argent réel, le résultat est quelque peu différent.

Selon l'enquête Markets Live Pulse publiée par Bloomberg le 30 juillet, parmi les 514 investisseurs interrogés, environ 77% prévoient d'augmenter ou de maintenir leurs investissements dans les actions technologiques au cours des six prochains mois, et seulement moins de 10% des investisseurs pensent que la technologie l'industrie est confrontée à une grave crise de bulle. Cependant, seule la moitié de ces investisseurs optimistes quant au développement de l'industrie technologique sont ouverts à la technologie de l'IA.

50,2 % des répondants ont indiqué qu'ils n'avaient pas l'intention de payer pour l'achat d'outils d'IA à l'heure actuelle, et la plupart des sociétés d'investissement n'ont pas l'intention d'appliquer l'IA aux transactions ou aux investissements à grande échelle.

Pelle Pelle

"Si vous alliez en Californie chercher de l'or pendant la ruée vers l'or en 1848, beaucoup de gens mourraient, mais les gens qui vendaient des cuillères et des pelles pouvaient toujours gagner de l'argent", a déclaré Lu Qi dans un discours.

Gao Feng (pseudonyme) veut être un tel "vendeur de pelles", pour être précis, une personne qui peut "vendre de bonnes pelles en Chine".

En tant que chercheur sur les puces, Gao Feng consacre la majeure partie de son temps de recherche scientifique aux puces IA. Au cours des un ou deux derniers mois, il a ressenti une sorte d'urgence - il voulait être une société de processeurs basée sur l'architecture RISC-V. Dans une maison de thé, Gao Feng a décrit l'avenir à Huxiu.

Cependant, fabriquer une puce IA à partir de zéro, que ce soit dans l'industrie des puces ou dans le cercle technologique, c'est comme une "nuits d'Arabie".

Lorsque le volant d'inertie du grand modèle d'IA a démarré rapidement, la puissance de calcul sous-jacente a progressivement commencé à ne plus suivre le rythme des joueurs de cette piste. La demande croissante de puissance de calcul a fait de Nvidia le grand gagnant. Mais le GPU n'est pas la solution complète à la puissance de calcul. CPU, GPU et diverses puces AI innovantes forment le principal centre d'alimentation informatique du grand modèle.

"Vous pouvez comparer le CPU à la zone urbaine, et le GPU est la banlieue de développement." Gao Feng a déclaré que le CPU et la puce AI doivent être connectés via un canal appelé PCIE, et les données sont transmises au Puce AI, puis la puce AI renvoie les données au CPU. Si le volume de données du grand modèle devient plus grand, un canal deviendra congestionné et la vitesse n'augmentera pas. Par conséquent, cette route doit être élargie et seul le processeur peut déterminer la largeur de ce canal et le nombre de voies à parcourir. être réglé.

Cela signifie que même si la Chine perce la puce AI sur le grand modèle, il est toujours difficile de percer le CPU le plus critique. Même dans la formation à l'IA, de plus en plus de tâches peuvent être attribuées au GPU, mais le CPU reste le rôle de "gestionnaire" le plus critique.

Certaines puces nationales exposées dans la zone d'exposition des grands modèles 2023WAIC

Cela fait plus de 50 ans qu'Intel a créé le premier processeur au monde en 1971. Sur les marchés des serveurs civils et des PC, Intel et AMD sont depuis longtemps le monde.Intel a établi un système couvrant les droits de propriété intellectuelle, l'accumulation de technologie, le coût d'échelle, et l'écologie logicielle.Toute la barrière du modèle d'entreprise, et cette barrière n'a jamais diminué.

Il est nécessaire d'abandonner complètement l'architecture X86 et l'architecture ARM, et de développer une puce CPU complètement indépendante basée sur une nouvelle architecture, une architecture open source telle que RISC-V qui n'a pas été entièrement développée et vérifiée.

Le jeu d'instructions est comme un terrain. Développer des puces basées sur le jeu d'instructions équivaut à acheter un terrain et à construire une maison. L'architecture de X86 est fermée, et seules les puces écologiques Intel sont autorisées.L'architecture d'ARM doit payer des frais de licence IP, tandis que RISC-V est une architecture open source gratuite.

L'industrie et le milieu universitaire voient déjà de telles opportunités.

En 2010, l'équipe de recherche de deux professeurs de Berkeley, en Californie, a développé un tout nouveau jeu d'instructions à partir de zéro, à savoir RISC-V. Ce jeu d'instructions est entièrement open source. Ils pensent que le jeu d'instructions du CPU ne devrait appartenir à aucun entreprise.

"RISC-V pourrait être l'aube du CPU chinois", a déclaré Gao Feng. En 2018, il a incubé une entreprise de puces IA dans l'institut. A cette époque, il a dit qu'il ne voulait pas rater l'opportunité pour le développement de la vague IA. Cette fois, il voulait encore la saisir, et ce point d'entrée était RISC-V. A l'ère des gros modèles et de la substitution domestique, cette demande est d'autant plus urgente que si un jour les entreprises chinoises ne peuvent plus utiliser l'A100, que doivent-elles faire ?

"Si vous voulez remplacer ARM et X86, le processeur RISC-V doit être plus puissant et vous devez participer au développement du code avec des personnes qui sont des systèmes d'exploitation commerciaux sous Linux", a déclaré Gao Feng.

Gao Feng n'est pas la première personne à saisir cette opportunité.Un investisseur dans l'industrie des puces a déclaré à Tiger Sniff qu'il avait un jour discuté avec le fondateur d'une start-up de puces de l'opportunité d'utiliser l'architecture RISC-V pour fabriquer des GPU. Aujourd'hui, certaines entreprises en Chine fabriquent déjà des GPU basés sur l'architecture RISC-V, mais l'écologie reste le plus gros problème auquel elles sont confrontées.

"Linux a déjà démontré que cette voie est faisable." Gao Feng a déclaré que dans ce système d'exploitation open source de Linux, des sociétés open source telles que Red Hat sont nées et que de nombreux services cloud sont désormais construits sur le système Linux. "Assez de développeurs sont nécessaires." Gao Feng a proposé une méthode. Cette route est difficile, mais ce sera une route brillante si elle passe.

le volant tourne trop vite

Sous la "réponse au stress" du grand modèle, ce n'est pas seulement le pic qui ressent l'urgence.

Lianchuang, une entreprise nationale de modèles d'IA à grande échelle, a déclaré à Tiger Sniff qu'elle avait également brièvement lancé un modèle de dialogue à grande échelle au début de cette année.

"Tant qu'il n'y aura pas de politique réglementaire spécifique, nous n'ouvrirons pas facilement le produit aux utilisateurs ordinaires. La raison principale est la logique de To B. " Zhang Chao, PDG de Left Hand Doctor, estime qu'avant la publication des "Mesures administratives" , l'IA générative Le produit est ouvert aux utilisateurs finaux C, ce qui est très risqué. "A ce stade, d'une part, nous continuons à optimiser de manière itérative, et d'autre part, nous continuons également à prêter attention aux politiques et réglementations pour assurer la sécurité de la technologie."

"L'approche réglementaire de l'IA générative n'est toujours pas claire, et les produits et services des sociétés de modèles à grande échelle sont généralement très discrets." Un fournisseur de technologie numérique a publié un produit d'application basé sur un modèle général à grande échelle développé par un cloud fabricant en juin. Lors de la réunion, la personne en charge de la technologie de l'entreprise a déclaré à Huxiu que le fournisseur de cloud l'obligeait à le garder strictement confidentiel, et s'il révélait quel grand modèle était utilisé, il serait réputé avoir enfreint le contracter. Quant à savoir pourquoi l'affaire doit rester confidentielle, la personne en charge a analysé qu'une grande partie de la raison peut être d'éviter les risques réglementaires.

A l'heure où le monde redouble de vigilance face à l'IA, aucun marché ne peut accepter une "période de vide" de régulation.

Le 13 juillet, sept départements, dont l'Administration du cyberespace de Chine, ont officiellement publié les « Mesures provisoires pour l'administration des services d'intelligence artificielle générative » (ci-après dénommées les « Mesures administratives »), qui entreront en vigueur le 15 août 2023.

"Après la publication des "mesures administratives", la politique passera d'un développement axé sur les problèmes à un développement axé sur les objectifs, ce qui est notre objectif." Wang Yuwei, un partenaire du cabinet d'avocats Guantao, estime que les nouvelles réglementations mettent plutôt l'accent sur le "drainage" que "bloquer".

Parcourir la bibliothèque de gestion des risques aux États-Unis est un travail quotidien pour Wang Yuwei. "Nous fournissons des solutions de contrôle des risques et de conformité pour les applications métier utilisant GPT et d'autres grands modèles pour segmenter les industries, et établissons un cadre de gouvernance de la conformité", a déclaré Wang Yuwei. .

Les géants américains de l'IA font la queue pour montrer leur loyauté envers le Congrès. Le 21 juillet, Google, OpenAI, Microsoft, Meta, Amazon, les startups d'IA Inflection, Anthropic, les sept sociétés américaines d'IA les plus influentes, ont signé un engagement volontaire à la Maison Blanche. Assurez-vous que des experts en sécurité indépendants sont autorisés à tester leurs systèmes avant de les rendre publics. Et partager des données sur la sécurité de leurs systèmes avec les gouvernements et les universités. Ils développeront également des systèmes pour avertir le public lorsque des images, des vidéos ou du texte sont générés par l'IA, en utilisant une méthode connue sous le nom de "watermarking".

Des représentants de 7 géants américains de l'IA ont signé l'engagement de l'IA à la Maison Blanche

Plus tôt, lors d'une audition au Congrès américain, le fondateur d'OpenAI, Sam Altman, a déclaré qu'un ensemble de normes de sécurité pour les modèles d'intelligence artificielle devait être créé, y compris l'évaluation de leurs capacités dangereuses. Par exemple, les modèles doivent réussir certains tests de sécurité, par exemple s'ils peuvent "se reproduire" et "s'infiltrer dans la nature".

Peut-être que Sam Altman lui-même ne s'attendait pas à ce que le volant de l'IA tourne si vite qu'il y avait même un risque de perdre le contrôle.

"Nous n'avions pas réalisé l'urgence de cette affaire au début", a déclaré Wang Yuwei, jusqu'à ce que de plus en plus de fondateurs d'entreprises viennent consulter. Il estime que cette vague d'intelligence artificielle subit des changements complètement différents du passé.

Au début de cette année, Wang Yuwei a été approché par une entreprise de Wenshengtu qui a été la première à accéder à des modèles à grande échelle.L'entreprise souhaitait introduire son activité en Chine, elle voulait donc en savoir plus sur l'activité de conformité des données dans ce domaine. Immédiatement après, Wang Yuwei a constaté qu'il y avait de plus en plus de telles consultations, et le changement le plus évident était que ce n'était plus le conseiller juridique de l'entreprise mais le fondateur qui venait consulter. "Avec l'émergence de l'IA générative, la logique réglementaire d'origine est difficile à appliquer", a déclaré Wang Yuwei.

Wang Yuwei, qui travaille depuis de nombreuses années dans le domaine juridique du Big Data, a découvert que l'IA générative et la précédente vague d'IA montraient des changements plus fondamentaux. Par exemple, la dernière fois, l'IA était davantage basée sur des recommandations basées sur des algorithmes, et certaines reconnaissances faciales visaient une scène, et certains petits modèles ont été formés à des scénarios d'application spécifiques. Les problèmes juridiques en cause n'étaient rien de plus que les droits de propriété intellectuelle. problèmes de protection. Différents rôles dans cet écosystème d'IA générative, tels que l'entreprise qui fournit le grand modèle sous-jacent, l'entreprise qui se connecte au grand modèle pour créer des applications, et le fournisseur de cloud qui stocke les données, etc., ont une supervision correspondante différente.

À l'heure actuelle, il existe un consensus sur les risques associés apportés par les grands modèles. L'industrie comprend que les applications commerciales vont inévitablement amplifier ces risques. Pour maintenir la continuité des activités, il est nécessaire de prêter attention à la supervision.

La difficulté est "Comment trouver une voie qui puisse bien réguler sans affecter le développement de l'industrie", a déclaré Wang Yuwei.

Conclusion

Pour l'ensemble de l'industrie, tout en approfondissant la discussion sur la technologie, cela déclenche également une réflexion plus approfondie.

Alors que l'IA occupe progressivement une position dominante dans l'industrie technologique, comment assurer l'équité, l'équité et la transparence de la technologie ? Comment faire en sorte que les petites et moyennes entreprises et les start-up ne soient pas marginalisées lorsque les grandes entreprises contrôlent étroitement la technologie et les flux de capitaux ? Le développement et l'application de modèles à grande échelle ont un grand potentiel, mais suivre aveuglément la tendance nous amènera-t-il à ignorer d'autres technologies innovantes ?

"A court terme, le grand modèle d'IA est sérieusement surestimé. Mais à long terme, le grand modèle d'IA est sérieusement sous-estimé."

En six mois, la vague de chaleur de l'IA a bondi. Cependant, pour les start-up chinoises et les géants de la technologie, comment maintenir un jugement clair et faire une planification et un investissement à long terme dans l'atmosphère de marché chauffée sera la clé pour tester leur véritable force et vision.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)