En 2023, les sociétés de puces IA sont interrogées trois fois de suite

Source : Insights par Si Rui, auteur | Renee, éditrice | Sun Yue

En 2023, les institutions d'investissement et les actionnaires posent aux entreprises cotées dans le domaine des puces IA trois questions mortelles :

Avez-vous déjà réalisé une puce intégrée de stockage et de calcul ?

(Source des investisseurs posant des questions à Montage Technology : Tonghuashun Finance)

Où en sont les progrès de la puce intégrée de calcul de mémoire ?

(Les investisseurs demandent à Dongxin de partager la source de la question : Tonghuashun Finance)

Quelle est la perspective des puces de stockage et de calcul intégrées ?

(Source des questions des investisseurs sur les actions Hengshuo : Tonghuashun Finance)

La série de questions ci-dessus signifie que l'intégration du stockage et du calcul ne "reste" plus dans les milieux académiques et industriels, et qu'elle semble être populaire dans le marché secondaire : les actionnaires et les sociétés de courtage font des heures supplémentaires pour compenser l'intégration des Stockage et calcul, donc fabricants de puces traditionnels depuis le début de 2023, l'agencement de l'intégration du stockage et de l'informatique a été "torturé".

**Une question naturelle est de savoir pourquoi l'intégration du dépôt et du calcul est soudainement devenue si populaire ? **

Huawei, qui a lancé le nouveau produit de stockage OceanStor A310 le 7.14, a donné sa propre réponse. Zhou Yuefeng, président de la gamme de produits de stockage de données de Huawei, a déclaré qu'il existe de nombreux problèmes de données dans la formation et le raisonnement des grands modèles à usage général et des grands modèles de l'industrie : lente collecte inter-domaines de données massives, faible efficacité d'interaction des données dans le prétraitement et la formation et la sécurité difficile des flux de données.

Le grand modèle d'IA apporte de nouveaux défis au stockage. Par exemple, la stabilité est pire que celle de l'IA traditionnelle. Dans le même temps, il y a une grande quantité de travail de prétraitement et de préparation des données. Il est nécessaire d'utiliser l'informatique proche de la mémoire ( une sorte d'intégration de stockage et de calcul) pour résoudre le problème. Traitez ce problème systématiquement. **

Alors, combien coûte la "grande quantité de données" ici ? Selon le calcul de Cirui Insight, ChatGPT compte actuellement 100 millions d'utilisateurs quotidiens. Si 5% des personnes posent des questions chaque seconde à la même heure chaque jour, cela consommera la production d'électricité du barrage des Trois Gorges pendant près d'un an. **

En d'autres termes, les grands modèles demandent frénétiquement de la puissance de calcul, et les solutions émergentes représentées par l'intégration du stockage et de l'informatique peuvent résoudre de nombreux défis posés par les grands modèles. En fait, en plus d'imposer des exigences strictes en matière de puissance de calcul, le grand modèle donne également aux fabricants de puces AI "beaucoup de sucre à manger".

Cet article tente d'explorer, sous l'angle du grand modèle, quels avantages sont accordés aux fabricants de puces IA ? Quel est le futur modèle des fabricants intégrés de stockage et de calcul qui ont été « licenciés » par ChatGPT ?

"La fortune et le malheur dépendent l'un de l'autre" Fabricants de puces IA

** Les vents des maquettes soufflent toujours et les discussions sur les maquettes battent toujours leur plein. **

Début août, lors du sous-forum de la conférence sur l'intelligence artificielle de la Fédération informatique de Chine (CCF) - "Seeing Kunlun in Frontiers AI Large-scale Model Computing Power Frontier", des experts et des universitaires ont convenu qu'à l'ère des modèles à grande échelle , la puissance de calcul intelligente de pointe est devenue "rare". Assets, comment faire bon usage des ressources de puissance de calcul et maximiser leurs avantages est devenu un défi auquel chaque participant doit faire face.

Quant à la quantité de puissance de calcul exigée par GPT-3 seul, dans des circonstances conservatrices, le barrage des Trois Gorges doit "travailler" toute la nuit pour répondre :

En supposant qu'il y a 100 millions de personnes en ligne en même temps, 5% d'entre eux posent des questions chaque seconde à la même heure chaque jour, chacun occupant 30 jetons, et 15,3 millions de puces H100 sont nécessaires pour fournir sa puissance de calcul d'inférence ; et la puissance la consommation de chaque H100 est de 750W Environ, s'il fonctionne 10 heures par jour, la consommation électrique annuelle du centre de données où se trouvent ces puces H100 atteindra 84 milliards de kWh, tandis que la production annuelle d'électricité du barrage des Trois Gorges est 88,2 milliards de kWh.

Ce qui inquiète encore plus les fabricants de puces IA, c'est qu'il ne s'agit que de la consommation d'énergie d'un grand modèle ChatGPT au stade de l'inférence.

**De ce fait, une série de solutions émergentes ont été excavées par les industriels : **Stockage et calcul intégrés, chiplet, HBM, etc. Parmi eux, parce que l'intégration du stockage et de l'informatique a renversé le mur de stockage sous l'architecture traditionnelle de von Neumann, il a en fait permis une réduction des coûts et une amélioration de l'efficacité, devenant le "Ziweixing" de cette année.

(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)

** Outre l'émergence de solutions émergentes qui ont donné un souffle aux fabricants de puces IA, le grand modèle apporte également de bonnes nouvelles aux fabricants de puces, en particulier aux fabricants de puces en démarrage : l'importance de l'écologie logicielle diminue. **

Lorsque la technologie n'était pas assez mature au début, les chercheurs ne pouvaient que commencer par résoudre un problème spécifique, et de petits modèles avec moins d'un million de paramètres sont nés. Par exemple, DeepMind, une société d'intelligence artificielle appartenant à Google, permet à AlphaGO de mener un "apprentissage" spécial sur les étapes de jeu d'échecs de millions de joueurs professionnels humains.

Après il y a plus de petits modèles, le problème du matériel tel que l'adaptation des puces est imminent. Ainsi, lorsque Nvidia a lancé le CUDA écologique unifié, GPU+CUDA a rapidement gagné la reconnaissance de la communauté informatique et est devenu la configuration standard pour le développement de l'intelligence artificielle.

Les grands modèles qui émergent les uns après les autres aujourd'hui ont des capacités multimodales, peuvent gérer du texte, des images, de la programmation et d'autres problèmes, et peuvent également couvrir plusieurs domaines verticaux tels que le bureau, l'éducation et les soins médicaux. Cela signifie également que l'adaptation à l'écologie traditionnelle n'est pas le seul choix : lorsque la demande de puces pour les grands modèles monte en flèche, les fabricants de puces peuvent ne pouvoir s'adapter qu'à 1 ou 2 grands modèles et peuvent achever le développement de plusieurs petits modèles. dans le passé. **

En d'autres termes, l'émergence de ChatGPT offre aux fabricants de puces en démarrage la possibilité de dépasser les virages. Cela signifie que la structure du marché des puces IA subira d'énormes changements : les puces IA ne sont plus une exposition individuelle de fabricants individuels, mais un jeu de groupe de plusieurs innovateurs. **

** Lorsque la puissance de calcul devient une denrée rare et que l'adaptation à l'écologie dominante n'est plus une nécessité, l'intégration du stockage et de l'informatique peut difficilement cacher sa lumière. ** À l'heure actuelle, investir ou non, et combien investir, est devenu le deuxième problème auquel sont confrontés les fabricants de puces IA. **

À cet égard, La réponse donnée par le géant des puces NVIDIA depuis de nombreuses années est d'être courageux dans l'innovation et d'investir beaucoup d'argent :

Chaque fabricant de R&D d'une technologie émergente sera sans aucun doute confronté à des problèmes à différents niveaux tels que des obstacles techniques à l'exploration et des désaccords entre les fabricants en aval. Au début, quiconque prédit d'abord la tendance future du développement, prend le courage de franchir les étapes de l'exploration et met en place des ressources raisonnables pour essayer de saisir l'opportunité.

Alors que la vague de centres de données n'a pas encore frappé massivement et que la formation à l'intelligence artificielle est encore un domaine de niche, Nvidia a investi massivement dans le développement de GPU informatiques à usage général et de logiciels de programmation unifiés CUDA, et c'est un bon travail pour Nvidia- plates-formes informatiques.

A cette époque, rendre le GPU programmable était une option "inutile et déficitaire" : je ne sais pas si ses performances peuvent être doublées, mais le développement du produit sera doublé. Pour cette raison, aucun client n'est prêt à payer pour cela. Cependant, Nvidia, qui a prédit qu'un processeur graphique à fonction unique n'est pas une solution à long terme, a décidé d'appliquer CUDA à toutes les gammes de produits.

Dans une interview entre Xindongxi et le Dr Lai Junjie, directeur principal de l'ingénierie et des solutions de Nvidia Chine, Lai Junjie a déclaré : "Pour la vision de la plate-forme informatique, Huang Renxun a rapidement mobilisé de nombreuses ressources de Nvidia de haut en bas au début jours."

Prévoyance + investissement lourd, en 2012, Nvidia remporte la récompense de l'innovateur : En 2012, les performances de calcul de l'algorithme de deep learning ont fait sensation dans le milieu académique.En tant qu'outil de productivité de haut calcul, plus polyvalent et simple d'utilisation, GPU+CUDA est rapidement devenu populaire La communauté informatique est devenue la "configuration standard" pour le développement de l'intelligence artificielle.

Sur le parcours des puces IA à grande puissance de calcul, la puce tout-en-un pour le stockage et l'informatique a inauguré sa propre "période dorée". **

** Non technique, riche financièrement, n'entrez pas **

Au vu des différents bénéfices de l'intégration du stockage et de l'informatique, à ce stade, le camp des acteurs intégrant des puces de stockage et de calcul s'agrandit.

(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)

Selon les statistiques incomplètes de CIRUI Insight, depuis 2019, la plupart des nouveaux fabricants de puces IA ont intégré le stockage et le calcul : il y a 20 nouveaux fabricants de puces IA en 2019-2021, et 10 d'entre eux choisissent la voie d'intégration du dépôt et du calcul.

Tout cela montre que l'intégration du stockage et de l'informatique deviendra une étoile montante après GPGPU, ASIC et d'autres architectures. ** Et cette nouvelle star, tout le monde ne peut pas la choisir. **

Dans la mesure où les milieux universitaires, les milieux industriels et les capitaux sont unanimement optimistes quant à l'intégration du stockage et de l'informatique, la forte force technique du pays, son solide vivier de talents et son contrôle précis sur l'acceptation des coûts de migration sont la clé pour les entreprises en démarrage. pour maintenir leur compétitivité dans l'industrie Trois barrières qui se dressent devant les nouveaux acteurs. **

** Une forte force technique est toujours la plus haute montagne dans le domaine des puces. **

Le premier est l'intégration du stockage et de l'informatique, qui implique tout le processus de fabrication de la puce : du dispositif le plus bas, à la conception du circuit, à la conception de l'architecture, à la chaîne d'outils, puis à la recherche et au développement de la couche logicielle ; Corps entier » : Tout en apportant les modifications correspondantes dans chaque couche, le degré d'adaptation entre chaque couche doit également être pris en compte.

** Regardons cela couche par couche, quel genre de problèmes techniques existe-t-il lors de la fabrication d'une puce intégrée de calcul de mémoire. **

Tout d'abord, en termes de sélection d'appareils, les fabricants "marchent sur de la glace mince": la conception de la mémoire détermine le taux de rendement de la puce, et une fois que la direction est erronée, la puce peut ne pas être produite en série.

Le second est le niveau de conception du circuit. Une fois que le périphérique est disponible au niveau du circuit, il doit être utilisé pour la conception du circuit de la matrice de stockage. À l'heure actuelle, dans la conception de circuits, il n'y a pas de guidage d'outil EDA pour le calcul en mémoire, et cela doit être fait manuellement, ce qui augmente sans aucun doute considérablement la difficulté de fonctionnement.

Immédiatement après, après qu'il y ait des circuits au niveau architectural, il faut concevoir la couche architecturale. Chaque circuit est un module informatique de base, et toute l'architecture est composée de différents modules.La conception du module intégré de calcul mémoire détermine le taux d'efficacité énergétique de la puce. Les circuits analogiques seront perturbés par le bruit et les puces rencontreront de nombreux problèmes lorsqu'elles seront affectées par le bruit.

Dans ce cas, les architectes de puces sont tenus de bien comprendre les caractéristiques de processus de l'informatique analogique en mémoire, et en même temps de concevoir l'architecture en fonction de ces caractéristiques. Sur cette base, l'adaptabilité entre l'architecture et le développement logiciel doit également être prise en compte. . Une fois la conception de l'architecture au niveau du logiciel terminée, la chaîne d'outils correspondante doit être développée.

(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)

Étant donné que le modèle original d'intégration stockage-informatique est différent du modèle sous l'architecture traditionnelle, le compilateur doit s'adapter à une architecture d'intégration stockage-informatique complètement différente pour garantir que toutes les unités informatiques peuvent être mappées au matériel et fonctionner correctement.

** Une chaîne technique complète testera la capacité de chaque lien de développement de dispositif, de conception de circuit, de conception d'architecture, de chaîne d'outils et de couche logicielle, et coordonnera la capacité d'adaptation de chaque lien, qui est une bataille prolongée qui consomme du temps, des efforts et argent. **

** Dans le même temps, selon le processus de fonctionnement des liens ci-dessus, on peut voir que la puce intégrée de calcul de mémoire a un besoin urgent de concepteurs de circuits et d'architectes de puces expérimentés. **

Compte tenu de la particularité de l'intégration du stockage et du calcul, les entreprises pouvant intégrer le stockage et le calcul doivent présenter les deux caractéristiques suivantes en termes de réserves de personnel :

  1. Le leader doit avoir suffisamment de courage. Il doit y avoir une idée claire dans le choix de la sélection de l'appareil (RRAM, SRAM, etc.) et du mode de calcul (von Neumann traditionnel, stockage et calcul intégrés, etc.). En effet, en tant que technologie subversive et innovante, l'intégration du stockage et du calcul n'a personne à diriger, et le coût des essais et erreurs est extrêmement élevé. Les fondateurs d'entreprises qui peuvent réaliser la commercialisation ont souvent une riche expérience dans l'industrie, les grands fabricants et les milieux universitaires, et peuvent diriger l'équipe pour terminer rapidement les itérations de produits.

  2. Dans l'équipe de base, il est nécessaire d'équiper des talents expérimentés à tous les niveaux de technologie. Par exemple, l'architecte, qui est le noyau de l'équipe. Les architectes doivent avoir une compréhension et une connaissance approfondies des outils matériels et logiciels sous-jacents, et être capables de réaliser l'architecture de stockage et de calcul dans le concept grâce à la technologie, et enfin d'atteindre l'atterrissage du produit ;

  3. De plus, selon le rapport qubit, il y a un manque de talents haut de gamme dans la conception de circuits en Chine, en particulier dans le domaine des circuits hybrides. L'informatique en mémoire implique un grand nombre de conceptions de circuits analogiques. Par rapport à la conception de circuits numériques qui met l'accent sur le travail d'équipe, la conception de circuits analogiques nécessite des concepteurs individuels extrêmement familiarisés avec le processus, la conception, la disposition, le modèle pdk et le conditionnement.

Et cette série de talents et de technologies doit prendre l'effet d'atterrissage comme objectif ultime - la production de première classe est la principale force productive. ** Lors de la livraison, ce que le client considère n'est pas seulement la technologie intégrée de stockage et de calcul, mais aussi si les indicateurs de performance du SoC intégré de stockage et de calcul, tels que le taux d'efficacité énergétique, le taux d'efficacité de surface et la facilité d'utilisation, sont suffisants par rapport à produits précédents L'amélioration et, plus important encore, si le coût de la migration se situe dans la plage acceptable.

Si le choix d'une nouvelle puce pour améliorer les performances de l'algorithme nécessite de réapprendre un système de programmation et que le coût de la main-d'œuvre de la migration du modèle est supérieur au coût d'achat d'un nouveau GPU, les clients ne choisiront probablement pas d'utiliser une nouvelle puce.

** Par conséquent, la question de savoir si l'intégration du dépôt et du calcul peut minimiser le coût de migration lors du processus d'atterrissage est un facteur clé pour les clients lors du choix des produits. **

Dans le contexte des modèles à grande échelle, la puce intégrée de calcul de mémoire devient une étoile montante dans la voie des puces en raison de sa faible consommation d'énergie mais de son taux d'efficacité énergétique élevé. De nos jours, le marché intégré des dépôts et du calcul en est encore au stade de "Xiaohe vient juste d'émerger".

** Cependant, nous ne pouvons pas nier que les acteurs du stockage et du calcul intégrés ont déjà construit trois hauts murs, et ceux qui ont une forte force technique et de solides réserves de talents ne devraient pas entrer. **

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)