Le dernier venu dans la vague de création de cœurs indépendants est OpenAI. Selon Reuters, citant des sources, OpenAI envisage de développer des puces dédiées à l'IA.
Le plan n’en est actuellement qu’à ses débuts et aucun progrès substantiel n’a encore été réalisé. Après tout, le coût et la difficulté des puces d'IA auto-développées ne seront pas moindres que le développement d'un grand modèle de langage comme GPT. Cela nécessite un investissement continu de milliards de dollars sur une période de plusieurs années, d'autant plus que **OpenAI est une start-up. Il n'y a aucune expérience pertinente dans le développement de matériel auparavant, ce qui signifie que ce type d'investissement ne sera pas nécessairement couronné de succès à la fin. **
Mais le déploiement par OpenAI de puces auto-développées ne surprend pas le marché. La Silicon Valley et Wall Street suivent de près les progrès de cette licorne de l'intelligence artificielle. L'un des points clés est qu'après le lancement du produit révolutionnaire chatGPT, OpenAI est son partenaire financier. un statut et une échelle de revenus cohérents avec sa vision ?
Cela implique plusieurs goulots d’étranglement qui empêchent OpenAI d’étendre son échelle, et les puces en font partie. Actuellement, OpenAI a un accès direct et indirect à la puissance de calcul fournie par une énorme quantité de cartes graphiques NVIDIA grâce à la coopération avec Microsoft. Le partenariat entre OpenAI et NVIDIA remonte à ses débuts : Jen-Hsun Huang a fait don du premier supercalculateur DGX au monde à OpenAI à des fins de recherche.
Mais ce type de coopération a un coût, notamment la position exclusive de Nvidia dans le domaine de la puissance de calcul de l'intelligence artificielle, qui affecte les progrès de la recherche et du développement d'OpenAI. Le PDG Altman a déclaré à plusieurs reprises que la puissance de calcul d'OpenAI est limitée, ce qui non seulement entraîne une forte augmentation des coûts d'exploitation des grands modèles, mais affecte également le développement de nouveaux modèles.
Une fois qu'OpenAI aura développé une technologie de puce auto-développée, cela bénéficiera considérablement à son processus de développement de l'intelligence artificielle, notamment en réduisant considérablement les coûts, en contrôlant plus directement et plus précisément les progrès de la recherche et du développement et en supprimant divers contrôles d'intervention directs ou indirects de Nvidia et Microsoft, une grande partie de la puissance de calcul d’OpenAI est fournie via la plateforme Azure de Microsoft.
En fait, se débarrasser du goulot d'étranglement de la puissance de calcul de Nvidia est un désir commun à tous les grands acteurs du modèle, et Microsoft ne fait pas exception. Après plusieurs années de rumeurs, il a été rapporté que la puce d'intelligence artificielle développée par Microsoft, appelée Athena, serait lancée dès le mois prochain lors de la conférence annuelle des développeurs à Seattle.
À l'heure actuelle, les gens connaissent très peu d'informations sur Athéna, et il n'est même pas sûr que la puce finale s'appellera Athéna. On sait seulement que cette puce est spécialement conçue pour servir le développement de grands modèles d'intelligence artificielle et les centres de données. Les gens pensaient autrefois que cette puce avait été développée conjointement par Microsoft et AMD, mais cette nouvelle a ensuite été démentie par Microsoft.
Il est rapporté que cette puce est entrée dans une phase de test à petite échelle et que les ingénieurs de Microsoft et d'OpenAI essaient déjà cette puce pour vérifier ses performances.
Le projet Athena de Microsoft sera mis en œuvre à partir de 2019. **Par rapport au plan de développement de puces auto-développé par TPU de Google et Amazon Cloud, les progrès de Microsoft semblent être à la traîne. Le monde extérieur s'inquiète de l'amélioration des performances de la solution à puce fournie par Microsoft et, plus important encore, de la manière dont cela affectera le partenariat entre Microsoft et OpenAI. **
La coopération entre OpenAI et Microsoft a été initialement interprétée comme une alliance forte, mais ce jugement s'est vite révélé trop optimiste. **Les deux parties sont en concurrence dans des domaines tels que le développement de modèles et les ressources clients, montrant une relation complexe et imbriquée de « combat et d'attraction ».Cette relation s'étend désormais au domaine des puces auto-développées. **
Les faits ont prouvé qu’OpenAI ne veut pas s’appuyer entièrement sur les ressources fournies par Microsoft, et c’est une démarche importante que d’essayer de développer des puces IA de manière indépendante.
La question revient désormais à son point initial : si OpenAI détermine l’orientation générale des puces auto-développées, quelle sera la prochaine étape la plus probable ? De nombreuses personnes ont jeté leur dévolu sur la carte des investissements d'OpenAI. Après tout, le PDG Altman était auparavant le patron du célèbre incubateur Y Combinator. L'acquisition directe d'une entreprise de puces peut être un bon choix. **
Atomic Semi apparaît aux yeux des gens. Elle a reçu un investissement du OpenAI Stsrtup Fund et est actuellement évaluée à plus de 100 millions de dollars. L'introduction sur le site officiel indique que la vision de l'entreprise est de construire « n'importe quoi ». Ses deux fondateurs, Sam Zeloof et Jim Keller, l'ancien Il est devenu une célébrité sur Internet en frottant des puces avec ses mains dans son garage. Ce dernier a un parcours très impressionnant dans l'industrie des semi-conducteurs et a dirigé le développement de la première architecture Zen d'AMD, qui a permis à AMD de réaliser une contre-attaque désespérée dans le domaine des processeurs.
En fait, Jim Keller, qui a travaillé chez AMD, Intel, Broadcom et Apple, est également le PDG de Tenstorrent, une autre startup de puces d'intelligence artificielle. Les produits de cette société ont levé plus de 300 millions de dollars américains en 7 tours de financement et sont directement destiné à la formation de grands modèles et Dans le domaine du raisonnement, la puce adopte l'architecture RISC-V. Début octobre, Tenstorrent a annoncé sa coopération avec Samsung, et Samsung fabriquera des puces pour cela.
Par conséquent, dans l’ensemble, compte tenu de l’influence et des relations de Sam Altman dans le cercle du capital-risque, OpenAI a encore de nombreuses options parmi lesquelles choisir si elle veut faire le premier pas dans le développement de puces auto-développées, et l’avantage d’en démarrer une nouvelle est que l’une est pour se débarrasser du fardeau de l'architecture et de la compatibilité, notamment pour lancer des produits très ciblés.Par exemple, les puces d'accélération basées sur l'architecture RISC-V semblent être un bon choix. **
Bien entendu, OpenAI disposait à l’origine d’un autre moyen plus fiable de promouvoir le rythme des puces auto-développées, qui consiste à coopérer avec d’autres grands fabricants. Mais le projet Athena de Microsoft a clairement montré qu'OpenAI semble plus enclin à être totalement autonome, ce qui correspond au style cohérent de l'entreprise.
Une autre rumeur récemment vient à l'appui : selon certaines rumeurs, Sam Altman et Sun Zhengyi, ainsi que l'ancien concepteur en chef d'Apple, Jony Ive, envisagent de construire un nouveau « matériel d'IA ». Il s'agit évidemment d'un domaine dans lequel OpenAI n'a pas été impliqué. dans avant, ** On peut voir que la stratégie globale d'OpenAI est basée sur de puissantes capacités de grands modèles et un développement indépendant dans tous les liens pertinents - c'est comme une idée pour construire une entreprise géante. **
La vague de puces auto-développées continue de déferler et tous les grands fabricants de cloud computing travaillent désormais intensivement pour promouvoir le développement de puces auto-développées. La raison la plus importante est le dicton « Le monde souffre de Ying Wei Da depuis un certain temps ». longue durée."
La position de monopole est en fait secondaire. La clé est que la propre capacité de production de Nvidia n'est pas suffisante et qu'elle est également engagée dans certains systèmes de « distribution » similaires aux produits de luxe, ce qui suscite bien sûr le mécontentement des grands fabricants. D'autant plus que NVIDIA a gagné beaucoup d'argent grâce à cette vague d'intelligence artificielle, Huang Renxun a pris l'initiative d'investir dans un certain nombre de start-ups connexes. Ces entreprises ont un point commun** : elles adhèrent toutes fermement à l'écosystème matériel de NVIDIA. , ces descendants directs des usines vertes seront à l'avenir de puissants concurrents sur le marché du cloud. Bien entendu, les grands fabricants ne laisseront pas cette situation se développer. **
Les puces auto-développées sont la seule voie à suivre, et il n'est pas totalement impossible de briser le monopole de Nvidia. Les puces auto-développées peuvent mieux personnaliser les performances en fonction de leurs propres besoins. Cela n'est peut-être pas assez évident pour les fabricants de cloud, mais cela présente un grand avantage pour les sociétés d'intelligence artificielle comme OpenAI, qui n'ont pas besoin de prendre en compte les centres de données. Pour répondre aux besoins complexes des différents utilisateurs (tels que la bande passante), il vous suffit de vous concentrer sur l'amélioration de l'efficacité du calcul parallèle. Pour de nombreuses startups de puces, cette vague de puces auto-développées constitue également une énorme opportunité, en particulier les puces basées sur l'architecture RISC-V. À cet égard, la Chine, en tant que l'un des principaux acteurs de cette architecture open source, a même l'avantage du premier arrivé. .
Même si personne ne peut réellement contester la position de leader de Nvidia à l'heure actuelle, l'ensemble du marché des puces d'intelligence artificielle est clairement à la veille de violentes fluctuations, et des changements sont à venir.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Il n’est pas surprenant qu’OpenAI fabrique des puces, il est surprenant qu’OpenAI ne fabrique pas de puces
Source originale : Pinwan
Le dernier venu dans la vague de création de cœurs indépendants est OpenAI. Selon Reuters, citant des sources, OpenAI envisage de développer des puces dédiées à l'IA.
Le plan n’en est actuellement qu’à ses débuts et aucun progrès substantiel n’a encore été réalisé. Après tout, le coût et la difficulté des puces d'IA auto-développées ne seront pas moindres que le développement d'un grand modèle de langage comme GPT. Cela nécessite un investissement continu de milliards de dollars sur une période de plusieurs années, d'autant plus que **OpenAI est une start-up. Il n'y a aucune expérience pertinente dans le développement de matériel auparavant, ce qui signifie que ce type d'investissement ne sera pas nécessairement couronné de succès à la fin. **
Mais le déploiement par OpenAI de puces auto-développées ne surprend pas le marché. La Silicon Valley et Wall Street suivent de près les progrès de cette licorne de l'intelligence artificielle. L'un des points clés est qu'après le lancement du produit révolutionnaire chatGPT, OpenAI est son partenaire financier. un statut et une échelle de revenus cohérents avec sa vision ?
Cela implique plusieurs goulots d’étranglement qui empêchent OpenAI d’étendre son échelle, et les puces en font partie. Actuellement, OpenAI a un accès direct et indirect à la puissance de calcul fournie par une énorme quantité de cartes graphiques NVIDIA grâce à la coopération avec Microsoft. Le partenariat entre OpenAI et NVIDIA remonte à ses débuts : Jen-Hsun Huang a fait don du premier supercalculateur DGX au monde à OpenAI à des fins de recherche.
Mais ce type de coopération a un coût, notamment la position exclusive de Nvidia dans le domaine de la puissance de calcul de l'intelligence artificielle, qui affecte les progrès de la recherche et du développement d'OpenAI. Le PDG Altman a déclaré à plusieurs reprises que la puissance de calcul d'OpenAI est limitée, ce qui non seulement entraîne une forte augmentation des coûts d'exploitation des grands modèles, mais affecte également le développement de nouveaux modèles.
Une fois qu'OpenAI aura développé une technologie de puce auto-développée, cela bénéficiera considérablement à son processus de développement de l'intelligence artificielle, notamment en réduisant considérablement les coûts, en contrôlant plus directement et plus précisément les progrès de la recherche et du développement et en supprimant divers contrôles d'intervention directs ou indirects de Nvidia et Microsoft, une grande partie de la puissance de calcul d’OpenAI est fournie via la plateforme Azure de Microsoft.
En fait, se débarrasser du goulot d'étranglement de la puissance de calcul de Nvidia est un désir commun à tous les grands acteurs du modèle, et Microsoft ne fait pas exception. Après plusieurs années de rumeurs, il a été rapporté que la puce d'intelligence artificielle développée par Microsoft, appelée Athena, serait lancée dès le mois prochain lors de la conférence annuelle des développeurs à Seattle.
À l'heure actuelle, les gens connaissent très peu d'informations sur Athéna, et il n'est même pas sûr que la puce finale s'appellera Athéna. On sait seulement que cette puce est spécialement conçue pour servir le développement de grands modèles d'intelligence artificielle et les centres de données. Les gens pensaient autrefois que cette puce avait été développée conjointement par Microsoft et AMD, mais cette nouvelle a ensuite été démentie par Microsoft.
Il est rapporté que cette puce est entrée dans une phase de test à petite échelle et que les ingénieurs de Microsoft et d'OpenAI essaient déjà cette puce pour vérifier ses performances.
Le projet Athena de Microsoft sera mis en œuvre à partir de 2019. **Par rapport au plan de développement de puces auto-développé par TPU de Google et Amazon Cloud, les progrès de Microsoft semblent être à la traîne. Le monde extérieur s'inquiète de l'amélioration des performances de la solution à puce fournie par Microsoft et, plus important encore, de la manière dont cela affectera le partenariat entre Microsoft et OpenAI. **
La coopération entre OpenAI et Microsoft a été initialement interprétée comme une alliance forte, mais ce jugement s'est vite révélé trop optimiste. **Les deux parties sont en concurrence dans des domaines tels que le développement de modèles et les ressources clients, montrant une relation complexe et imbriquée de « combat et d'attraction ».Cette relation s'étend désormais au domaine des puces auto-développées. **
Les faits ont prouvé qu’OpenAI ne veut pas s’appuyer entièrement sur les ressources fournies par Microsoft, et c’est une démarche importante que d’essayer de développer des puces IA de manière indépendante.
La question revient désormais à son point initial : si OpenAI détermine l’orientation générale des puces auto-développées, quelle sera la prochaine étape la plus probable ? De nombreuses personnes ont jeté leur dévolu sur la carte des investissements d'OpenAI. Après tout, le PDG Altman était auparavant le patron du célèbre incubateur Y Combinator. L'acquisition directe d'une entreprise de puces peut être un bon choix. **
Atomic Semi apparaît aux yeux des gens. Elle a reçu un investissement du OpenAI Stsrtup Fund et est actuellement évaluée à plus de 100 millions de dollars. L'introduction sur le site officiel indique que la vision de l'entreprise est de construire « n'importe quoi ». Ses deux fondateurs, Sam Zeloof et Jim Keller, l'ancien Il est devenu une célébrité sur Internet en frottant des puces avec ses mains dans son garage. Ce dernier a un parcours très impressionnant dans l'industrie des semi-conducteurs et a dirigé le développement de la première architecture Zen d'AMD, qui a permis à AMD de réaliser une contre-attaque désespérée dans le domaine des processeurs.
En fait, Jim Keller, qui a travaillé chez AMD, Intel, Broadcom et Apple, est également le PDG de Tenstorrent, une autre startup de puces d'intelligence artificielle. Les produits de cette société ont levé plus de 300 millions de dollars américains en 7 tours de financement et sont directement destiné à la formation de grands modèles et Dans le domaine du raisonnement, la puce adopte l'architecture RISC-V. Début octobre, Tenstorrent a annoncé sa coopération avec Samsung, et Samsung fabriquera des puces pour cela.
Par conséquent, dans l’ensemble, compte tenu de l’influence et des relations de Sam Altman dans le cercle du capital-risque, OpenAI a encore de nombreuses options parmi lesquelles choisir si elle veut faire le premier pas dans le développement de puces auto-développées, et l’avantage d’en démarrer une nouvelle est que l’une est pour se débarrasser du fardeau de l'architecture et de la compatibilité, notamment pour lancer des produits très ciblés.Par exemple, les puces d'accélération basées sur l'architecture RISC-V semblent être un bon choix. **
Bien entendu, OpenAI disposait à l’origine d’un autre moyen plus fiable de promouvoir le rythme des puces auto-développées, qui consiste à coopérer avec d’autres grands fabricants. Mais le projet Athena de Microsoft a clairement montré qu'OpenAI semble plus enclin à être totalement autonome, ce qui correspond au style cohérent de l'entreprise.
Une autre rumeur récemment vient à l'appui : selon certaines rumeurs, Sam Altman et Sun Zhengyi, ainsi que l'ancien concepteur en chef d'Apple, Jony Ive, envisagent de construire un nouveau « matériel d'IA ». Il s'agit évidemment d'un domaine dans lequel OpenAI n'a pas été impliqué. dans avant, ** On peut voir que la stratégie globale d'OpenAI est basée sur de puissantes capacités de grands modèles et un développement indépendant dans tous les liens pertinents - c'est comme une idée pour construire une entreprise géante. **
La vague de puces auto-développées continue de déferler et tous les grands fabricants de cloud computing travaillent désormais intensivement pour promouvoir le développement de puces auto-développées. La raison la plus importante est le dicton « Le monde souffre de Ying Wei Da depuis un certain temps ». longue durée."
La position de monopole est en fait secondaire. La clé est que la propre capacité de production de Nvidia n'est pas suffisante et qu'elle est également engagée dans certains systèmes de « distribution » similaires aux produits de luxe, ce qui suscite bien sûr le mécontentement des grands fabricants. D'autant plus que NVIDIA a gagné beaucoup d'argent grâce à cette vague d'intelligence artificielle, Huang Renxun a pris l'initiative d'investir dans un certain nombre de start-ups connexes. Ces entreprises ont un point commun** : elles adhèrent toutes fermement à l'écosystème matériel de NVIDIA. , ces descendants directs des usines vertes seront à l'avenir de puissants concurrents sur le marché du cloud. Bien entendu, les grands fabricants ne laisseront pas cette situation se développer. **
Les puces auto-développées sont la seule voie à suivre, et il n'est pas totalement impossible de briser le monopole de Nvidia. Les puces auto-développées peuvent mieux personnaliser les performances en fonction de leurs propres besoins. Cela n'est peut-être pas assez évident pour les fabricants de cloud, mais cela présente un grand avantage pour les sociétés d'intelligence artificielle comme OpenAI, qui n'ont pas besoin de prendre en compte les centres de données. Pour répondre aux besoins complexes des différents utilisateurs (tels que la bande passante), il vous suffit de vous concentrer sur l'amélioration de l'efficacité du calcul parallèle. Pour de nombreuses startups de puces, cette vague de puces auto-développées constitue également une énorme opportunité, en particulier les puces basées sur l'architecture RISC-V. À cet égard, la Chine, en tant que l'un des principaux acteurs de cette architecture open source, a même l'avantage du premier arrivé. .
Même si personne ne peut réellement contester la position de leader de Nvidia à l'heure actuelle, l'ensemble du marché des puces d'intelligence artificielle est clairement à la veille de violentes fluctuations, et des changements sont à venir.