Réseau DePIN AI : le calcul distribué par GPU soutient le développement de l'IA

L'intersection de l'IA et de DePIN : l'essor des réseaux de calcul distribué

Depuis 2023, l'IA et DePIN sont devenus des tendances populaires dans le domaine du Web3, avec des capitalisations boursières respectives de 30 milliards de dollars et 23 milliards de dollars. Cet article se concentre sur le domaine d'intersection des deux, en explorant le développement des protocoles associés.

AI et le point de convergence de DePIN

Dans la pile technologique de l'IA, le réseau DePIN fournit des fonctionnalités à l'IA grâce aux ressources de calcul. Le développement des grandes entreprises technologiques a entraîné une pénurie de GPU, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. Cela conduit souvent les développeurs à choisir des fournisseurs de cloud centralisés, mais en raison des contrats matériels à long terme qui ne sont pas assez flexibles, l'efficacité est inférieure.

DePIN offre une alternative plus flexible et plus rentable, incitant à la contribution de ressources grâce à des récompenses en tokens. Dans le domaine de l'IA, DePIN fait appel aux ressources GPU des propriétaires privés pour les regrouper dans des centres de données, fournissant ainsi une offre unifiée aux utilisateurs ayant besoin d'accès au matériel. Cela permet non seulement aux développeurs d'accéder à des solutions personnalisées et à la demande, mais génère également des revenus supplémentaires pour les propriétaires de GPU.

Il existe de nombreux réseaux AI DePIN sur le marché. Cet article examinera le rôle, les objectifs et les réalisations de chaque protocole afin de comprendre les différences entre eux.

Aperçu du réseau AI DePIN

Render est un pionnier du réseau P2P offrant des capacités de calcul GPU, initialement concentré sur le rendu de création de contenu, puis s'étendant aux tâches de calcul AI.

Points clés:

  • Fondée par la société de graphisme en nuage OTOY
  • Le réseau GPU est utilisé par de grandes entreprises du secteur du divertissement
  • Collaborer avec des entreprises comme Stability AI pour intégrer des modèles d'IA et des flux de travail de rendu 3D
  • Approuver plusieurs clients de calcul, intégrer plus de GPU dans le réseau DePIN

Akash se positionne comme une alternative "super cloud" prenant en charge le stockage, le GPU et le calcul CPU. Grâce à des outils conviviaux pour les développeurs tels que des nœuds de calcul gérés par des plateformes de conteneurs et Kubernetes, il est possible de déployer des logiciels de manière transparente à travers différents environnements.

Points clés :

  • Pour une large gamme de tâches de calcul, allant du calcul général à l'hébergement web.
  • AkashML permet aux réseaux GPU de faire fonctionner plus de 15 000 modèles sur Hugging Face.
  • Hébergé des applications telles que le chatbot LLM Mistral AI
  • Construire des plateformes comme le métavers et le déploiement de l'IA en utilisant son Supercloud

io.net offre un accès à des clusters de cloud GPU distribués, spécifiquement conçus pour les cas d'utilisation en IA et ML. Agrège les GPU provenant de centres de données, de mineurs de cryptomonnaies, etc.

Points clés :

  • IO-SDK compatible avec des frameworks comme PyTorch, architecture à plusieurs niveaux pouvant être étendue dynamiquement
  • Prise en charge de la création de 3 types différents de clusters, démarrage en moins de 2 minutes
  • Collaborer avec Render, Filecoin et d'autres pour intégrer des ressources GPU

Gensyn offre des capacités GPU axées sur le calcul en apprentissage automatique et en apprentissage en profondeur. Il prétend réaliser des mécanismes de validation plus efficaces grâce à des concepts tels que la preuve d'apprentissage.

Points clés :

  • Le coût horaire équivalent d'un GPU V100 est d'environ 0,40 $, ce qui permet d'importantes économies.
  • Peut affiner le modèle de base pré-entraîné pour accomplir des tâches spécifiques.
  • Fournir un modèle de base décentralisé et partagé à l'échelle mondiale

Aethir est spécialement conçu pour les GPU d'entreprise, se concentrant sur des domaines intensifs en calcul tels que l'IA, le ML, et les jeux en cloud. Les conteneurs dans le réseau agissent comme des points de terminaison virtuels pour l'exécution d'applications cloud, offrant une expérience à faible latence.

Points clés :

  • Extension aux services de cloud smartphone, lancement d'un smartphone cloud décentralisé en collaboration avec APhone.
  • Établir une large coopération avec de grandes entreprises Web2 comme NVIDIA
  • Collaborer avec des projets Web3 comme CARV, Magic Eden

Phala Network agit en tant que couche d'exécution pour les solutions AI Web3. Sa blockchain est une solution de cloud computing sans confiance, conçue pour traiter les problèmes de confidentialité via un environnement d'exécution de confiance (TEE).

Points clés :

  • Agir en tant que protocole de coprocesseur de calcul vérifiable, permettant aux agents d'IA d'accéder aux ressources on-chain.
  • Les contrats d'agent AI peuvent être obtenus via Redpill pour accéder aux meilleurs modèles de langage comme OpenAI.
  • L'avenir inclura des systèmes de preuve multiples tels que les zk-proofs, MPC, FHE, etc.
  • Support futur pour les GPU TEE comme le H100, amélioration de la capacité de calcul.

Comparaison de projet

| | Rendu | Akash | io.net | Gensyn | Aethir | Phala | |--------|------------|------------------|---------------------|--------|--------------|---------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux cloud et télécommunications | Exécution de l'IA sur la chaîne | | Type de tâche AI | Inférence | Entraînement et inférence | Entraînement et inférence | Entraînement | Entraînement | Exécution | | Prix de travail | Prix basé sur la performance | Enchère inversée | Prix de marché | Prix de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot| | Confidentialité des données | Cryptage et hachage | Authentification mTLS | Cryptage des données | Cartographie sécurisée | Cryptage | TEE | | Coût du travail | 0,5-5%/travail | 20% USDC, 4% AKT| 2% USDC, 0,25% de réserve | Coûts bas | 20%/session | Proportionnel à la mise en jeu| | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais| | Preuve de réalisation | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérification et signalement | Vérifier les nœuds | Preuve à distance | | GPU Cluster | Non | Oui | Oui | Oui | Oui | Non |

AI et le point de convergence de DePIN

importance

Disponibilité du calcul en cluster et du calcul parallèle

Les cadres de calcul distribués mettent en œuvre des clusters GPU, améliorant l'efficacité de l'entraînement et l'évolutivité. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, s'appuyant généralement sur le calcul distribué. Par exemple, le modèle GPT-4 d'OpenAI a plus de 18 trillions de paramètres, prenant 3 à 4 mois, utilisant environ 25 000 GPU Nvidia A100.

La plupart des projets ont désormais intégré des clusters pour réaliser des calculs parallèles. io.net a collaboré avec d'autres projets et a déployé plus de 3 800 clusters au T1. Bien que Render ne supporte pas les clusters, il décompose une seule image pour être traitée simultanément sur plusieurs nœuds. Phala supporte la mise en cluster des processeurs CPU.

Le cadre de cluster est important pour les réseaux de flux de travail AI, mais le nombre et le type de GPU de cluster qui répondent aux besoins des développeurs est un autre problème.

Confidentialité des données

Le développement de modèles d'IA nécessite de vastes ensembles de données, qui peuvent impliquer des informations sensibles. Samsung a désactivé ChatGPT par crainte de la vie privée, et la fuite de 38 To de données par Microsoft met encore plus en évidence l'importance de la sécurité de l'IA. Diverses méthodes de protection de la vie privée des données sont cruciales pour restaurer les droits des fournisseurs de données.

La plupart des projets utilisent une forme de cryptage des données pour protéger la vie privée. Render utilise le cryptage et le hachage, io.net et Gensyn adoptent le cryptage des données, Akash utilise l'authentification mTLS.

io.net a collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant de traiter des données chiffrées sans décryptage. Cela protège mieux la vie privée que les technologies de chiffrement existantes.

Phala Network introduit un environnement d'exécution de confiance ( TEE ), empêchant l'accès ou la modification des données par des tiers. Il combine également des zk-proofs pour l'intégration de RiscZero zkVM.

Preuve de calcul terminée et contrôle de qualité

En raison de l'étendue du service, la qualité finale peut ne pas répondre aux normes des utilisateurs. Un certificat d'achèvement indique que le GPU a effectivement été utilisé pour le service requis, et le contrôle qualité est bénéfique pour les utilisateurs.

Gensyn et Aethir génèrent des preuves de complétion, io.net prouve que les performances GPU sont pleinement utilisées sans problème. Gensyn et Aethir effectuent des contrôles de qualité. Gensyn utilise des validateurs pour relancer une partie des preuves, les dénonciateurs vérifient à nouveau. Aethir utilise des points de contrôle pour évaluer la qualité du service, punissant les services non conformes. Render suggère un processus de résolution des litiges, le comité d'examen peut réduire les nœuds problématiques. Phala génère des preuves TEE, garantissant que les agents IA exécutent des opérations sur la chaîne.

Statistiques matérielles

| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100| - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | 1,46 $ | 1,19 $ | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |

AI et le point de convergence de DePIN

Exigences en matière de GPU haute performance

L'entraînement des modèles d'IA nécessite des GPU de haut niveau tels que le Nvidia A100 et H100. Les performances d'inférence du H100 sont 4 fois supérieures à celles de l'A100, en faisant le choix privilégié, surtout pour les grandes entreprises.

Le marché décentralisé des GPU doit rivaliser avec le Web2, non seulement en offrant des prix bas, mais aussi en répondant aux besoins réels. En 2023, Nvidia a livré 500 000 H100 à de grandes entreprises technologiques, ce qui a entraîné des coûts matériels élevés. Il est important de considérer le nombre de matériels que ces projets peuvent introduire à faible coût.

Chaque projet offre une puissance de calcul différente. Akash n'a que plus de 150 H100 et A100, tandis qu'io.net et Aethir disposent de plus de 2000 chacun. Les LLM pré-entraînés nécessitent généralement entre 248 et plus de 2000 clusters GPU, les deux derniers projets étant plus adaptés au calcul de grands modèles.

Actuellement, le coût des services GPU décentralisés est bien inférieur à celui des services centralisés. Gensyn et Aethir affirment que le matériel de niveau A100 coûte moins de 1 dollar par heure, mais cela prendra encore du temps pour le vérifier.

Bien que les clusters GPU connectés par réseau disposent de nombreux GPU à faible coût, leur mémoire est limitée par rapport aux GPU connectés via NVLink. NVLink permet la communication directe entre les GPU, ce qui convient aux LLM avec de nombreux paramètres et de grands ensembles de données.

Néanmoins, le réseau GPU décentralisé offre toujours une puissance de calcul et une scalabilité robustes pour répondre aux besoins de charge de travail dynamiques ou aux utilisateurs nécessitant de la flexibilité, créant ainsi des opportunités pour développer davantage de cas d'utilisation de l'IA.

fournit des GPU/CPU de niveau consommateur

Le CPU est également important dans l'entraînement des modèles d'IA, utilisé pour le prétraitement des données jusqu'à la gestion de la mémoire. Les GPU grand public peuvent être utilisés pour le fine-tuning de modèles pré-entraînés ou pour un entraînement à petite échelle.

Étant donné que plus de 85 % des consommateurs ont des GPU inutilisés, des projets comme Render, Akash et io.net s'adressent également à cette partie du marché. Cela leur permet de se concentrer sur le calcul intensif à grande échelle, le rendu général à petite échelle ou une combinaison des deux.

Conclusion

Le domaine de DePIN lié à l'IA est encore relativement nouveau et fait face à des défis. Par exemple, io.net a été accusé d'avoir falsifié le nombre de GPU, mais cela a été résolu par la preuve de travail.

Néanmoins, le nombre de tâches exécutées sur ces réseaux et de matériel a considérablement augmenté, soulignant la demande croissante pour des alternatives aux fournisseurs de cloud Web2. L'essor des fournisseurs de matériel montre également que l'offre n'a pas été pleinement exploitée avant cela. Cela prouve l'adéquation produit-marché du réseau AI DePIN, qui répond efficacement aux défis de la demande et de l'offre.

En regardant vers l'avenir, l'IA devrait devenir un marché de mille milliards de dollars en plein essor, et ces réseaux GPU décentralisés joueront un rôle clé en offrant aux développeurs des alternatives de calcul économiques. En comblant constamment l'écart entre la demande et l'offre, ces réseaux contribueront de manière significative au paysage futur de l'IA et des infrastructures de calcul.

Point de convergence entre l'IA et DePIN

AI et DePIN se croisent

AI et le point de convergence de DePIN

AI et le point de convergence de DePIN

AI et le point de convergence de DePIN

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
DecentralizeMevip
· 07-24 18:34
Qu'est-ce que le depin, ça ne vaut même pas la peine de faire un projet poi.
Voir l'originalRépondre0
ContractCollectorvip
· 07-24 18:33
Décentralisation est la clé.
Voir l'originalRépondre0
CoffeeNFTsvip
· 07-24 18:10
Avant il y avait Amazon, maintenant il y a GPT. Qui comprend ce grand jeu avec les GPU ?
Voir l'originalRépondre0
TommyTeacher1vip
· 07-24 18:06
Le rouleau est monté au ciel.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)