Des silos à la collaboration : l'importance des pipelines de données natifs Web3

Écrit par Jay :: FP

Compilation : Deep Tide TechFlow

La publication du livre blanc Bitcoin en 2008 a suscité une refonte du concept de confiance. La blockchain a ensuite élargi sa définition pour inclure la notion de système sans confiance et a rapidement évolué pour affirmer que différents types de valeur, tels que la souveraineté individuelle, la démocratisation financière et la propriété, pourraient être appliqués aux systèmes existants. Bien sûr, de nombreuses validations et discussions peuvent être nécessaires avant que la blockchain puisse être utilisée dans la pratique, car ses caractéristiques peuvent sembler quelque peu radicales par rapport aux différents systèmes existants. Cependant, si nous sommes optimistes quant à ces scénarios, la construction de pipelines de données et l'analyse des informations précieuses contenues dans le stockage de la blockchain ont le potentiel de devenir un autre tournant important dans le développement de l'industrie, car nous pouvons observer Web3 qui n'a jamais existé auparavant. intelligence.

Cet article explore le potentiel des pipelines de données natifs Web3 en projetant les pipelines de données couramment utilisés sur les marchés informatiques existants dans un environnement Web3. L'article traite des avantages de ces pipelines, des défis à relever et de l'impact de ces pipelines sur l'industrie.

1. La singularité vient de l'innovation de l'information

"Le langage est l'une des différences les plus importantes entre les humains et les animaux inférieurs. Ce n'est pas seulement la capacité de faire des sons, mais d'associer des sons définis à des pensées définies et d'utiliser ces sons comme symboles pour la communication des idées. " - Darwin

Historiquement, les avancées majeures de la civilisation humaine se sont accompagnées d'innovations dans le partage de l'information. Nos ancêtres utilisaient la langue, parlée et écrite, pour communiquer entre eux et transmettre leurs connaissances aux générations futures. Cela leur donne un avantage majeur sur les autres espèces. L'invention de l'écriture, du papier et de l'imprimerie a permis de partager plus largement l'information, ce qui a conduit à des avancées majeures dans les domaines de la science, de la technologie et de la culture. L'impression à caractères mobiles en métal de la Bible de Gutenberg en particulier a été un moment décisif car elle a rendu possible la production de masse de livres et d'autres documents imprimés. Cela a eu un impact profond sur les débuts de la Réforme, de la Révolution démocratique et du progrès scientifique.

Le développement rapide de la technologie informatique dans les années 2000 nous a permis de mieux comprendre le comportement humain. Cela a conduit à un changement de mode de vie où la plupart des gens des temps modernes prennent diverses décisions basées sur des informations numériques. C'est pour cette raison que nous appelons la société moderne "l'ère de l'innovation informatique".

Seulement 20 ans après la commercialisation complète d'Internet, la technologie de l'intelligence artificielle a une fois de plus étonné le monde. Il existe de nombreuses applications qui peuvent remplacer le travail humain, et de nombreuses personnes discutent de la civilisation que l'IA va changer. Certains sont même dans le déni, se demandant comment une telle technologie a pu émerger si rapidement qu'elle pourrait ébranler les fondements de notre société. Bien qu'il existe une "loi de Moore" qui montre que les performances des semi-conducteurs augmenteront de façon exponentielle avec le temps, les changements provoqués par l'émergence du GPT sont trop soudains pour être affrontés immédiatement.

Fait intéressant, cependant, le modèle GPT lui-même n'est pas vraiment une architecture très révolutionnaire. D'autre part, l'industrie de l'IA énumérera les éléments suivants comme principaux facteurs de succès des modèles GPT : 1) Définition des domaines d'activité pouvant cibler de grands groupes de clients, et 2) Optimisation du modèle via des pipelines de données - de l'acquisition des données à la fin les résultats et la rétroaction axée sur les résultats de. En bref, ces applications permettent l'innovation en affinant les objectifs de prestation de services et en améliorant les processus de traitement des données/informations.

2. Les décisions basées sur les données sont partout

La plupart de ce que nous appelons l'innovation est en fait basée sur la manipulation de données accumulées, et non sur le hasard ou l'intuition. Comme le dit l'adage, "Dans un marché capitaliste, ce ne sont pas les forts qui survivent, mais les survivants qui sont forts". Les entreprises d'aujourd'hui sont très compétitives et le marché est saturé. Par conséquent, les entreprises collectent et analysent toutes sortes de données pour saisir même la plus petite niche.

Nous sommes peut-être trop obsédés par la théorie de la "destruction créatrice" de Schumpeter et nous insistons trop sur la prise de décisions basées sur l'intuition. Cependant, même une grande intuition est finalement le produit des données et des informations accumulées par un individu. Le monde numérique pénétrera plus profondément dans nos vies à l'avenir, et de plus en plus d'informations sensibles seront présentées sous la forme de données numériques.

Le marché du Web3 attire beaucoup l'attention pour son potentiel à donner aux utilisateurs le contrôle de leurs données. Cependant, le domaine de la blockchain, qui est la technologie de base du Web3, est actuellement plus préoccupé par la résolution du trilemme (Deep Tide Note : Triangular Dilemma, c'est-à-dire les problèmes de sécurité, de décentralisation et d'évolutivité). Pour que les nouvelles technologies soient convaincantes dans le monde réel, il est important de développer des applications et une intelligence qui peuvent être utilisées de multiples façons. Nous avons vu cela se produire dans le domaine du Big Data, et depuis 2010 environ, les méthodologies de création de traitement du Big Data et de pipelines de données ont considérablement progressé. Dans le contexte du Web3, des efforts doivent être faits pour faire avancer l'industrie et construire des systèmes de flux de données pour générer une intelligence basée sur les données.

3. Opportunités basées sur le flux de données sur la chaîne

Alors, quelles opportunités pouvons-nous saisir à partir des systèmes de streaming natifs Web3, et quels défis devons-nous relever pour saisir ces opportunités ?

De l'îlot isolé à la collaboration : le sens du pipeline de données natif Web3

3.1 Avantages

En bref, la valeur de la configuration des flux de données natifs Web3 est que des données fiables peuvent être distribuées de manière sûre et efficace à plusieurs entités afin que des informations précieuses puissent être extraites.

  • Redondance des données - les données en chaîne sont moins susceptibles d'être perdues et plus résilientes car le réseau de protocole stocke des fragments de données sur plusieurs nœuds.
  • Sécurité des données - Les données en chaîne sont inviolables car elles sont vérifiées et consensuelles par un réseau de nœuds décentralisés.
  • Souveraineté des données - La souveraineté des données est le droit des utilisateurs de posséder et de contrôler leurs propres données. Avec le streaming de données en chaîne, les utilisateurs peuvent voir comment leurs données sont utilisées et choisir de ne les partager qu'avec ceux qui ont un besoin légitime d'y accéder.
  • Sans autorisation et transparent - les données en chaîne sont transparentes et infalsifiables. Cela garantit que les données traitées constituent également une source d'informations fiable.
  • Fonctionnement stable - lorsque le flux de données est orchestré par le protocole dans un environnement distribué, puisqu'il n'y a pas de point de défaillance unique, la probabilité que chaque couche soit exposée à des temps d'arrêt est considérablement réduite.

3.2 Cas d'application

La confiance est la base pour que différentes entités interagissent entre elles et prennent des décisions. Par conséquent, lorsque des données fiables peuvent être distribuées en toute sécurité, cela signifie que de nombreuses interactions et décisions peuvent être prises via des services Web3 auxquels participent diverses entités. Cela permet de maximiser le capital social, et nous pouvons imaginer plusieurs cas d'utilisation ci-dessous.

3.2.1 Application de service/protocole

Système de décision automatisé basé sur des règles - Les protocoles utilisent des paramètres clés pour exécuter des services. Ces paramètres sont ajustés régulièrement pour stabiliser l'état du service et offrir aux utilisateurs la meilleure expérience. Cependant, le protocole ne peut pas toujours surveiller l'état du service et apporter des modifications dynamiques aux paramètres en temps opportun. C'est ce que fait le flux de données en chaîne. Les flux de données en chaîne peuvent être utilisés pour analyser l'état du service en temps réel et suggérer le meilleur ensemble de paramètres pour répondre aux exigences du service (par exemple, en appliquant un mécanisme de taux flottant automatique pour les protocoles de prêt).

  • Croissance du marché du crédit - Le crédit est traditionnellement utilisé sur les marchés financiers comme mesure de la capacité de remboursement d'un individu. Cela contribue à améliorer l'efficacité du marché. Cependant, la définition du crédit reste floue sur le marché du Web3. Cela est dû à la rareté des données personnelles et au manque de gouvernance des données dans tous les secteurs. Par conséquent, il devient difficile d'intégrer et de collecter des informations. En construisant un processus de collecte et de traitement de données fragmentées en chaîne, il est possible de redéfinir le marché du crédit sur le marché du Web3 (par exemple, le scoring MACRO (multi-asset credit risk oracle) de Spectral).
  • Extensions sociales/NFT décentralisées - Les sociétés décentralisées accordent la priorité au contrôle des utilisateurs, à la protection de la vie privée, à la résistance à la censure et à la gouvernance communautaire. Cela fournit un paradigme social alternatif. Par conséquent, un pipeline peut être établi pour contrôler et mettre à jour diverses métadonnées plus facilement et faciliter la migration entre les plates-formes.
  • Détection de fraude - Les services Web3 utilisant des contrats intelligents sont vulnérables aux attaques malveillantes qui peuvent voler des fonds, compromettre les systèmes et conduire à des attaques de découplage et de liquidité. En créant un système capable de détecter ces attaques à l'avance, les services Web3 peuvent développer des plans de réponse rapide et protéger les utilisateurs contre les dommages.

3.2.2 Initiatives de collaboration et de gouvernance

  • DAO entièrement en chaîne - Les organisations autonomes décentralisées (DAO) s'appuient fortement sur des outils hors chaîne pour une gouvernance et un financement public efficaces. En créant un processus de traitement des données en chaîne et en créant un processus transparent pour les opérations DAO, la valeur du DAO natif de Web3 peut être encore améliorée.
  • Atténuer la fatigue de la gouvernance - Les décisions relatives au protocole Web3 sont souvent prises par le biais de la gouvernance communautaire. Cependant, de nombreux facteurs peuvent compliquer la participation des participants à la gouvernance, tels que les barrières géographiques, la pression de surveillance, le manque d'expertise requise pour la gouvernance, un programme de gouvernance publié au hasard et une expérience utilisateur peu pratique. Un cadre de gouvernance de protocole pourrait fonctionner plus efficacement si un outil pouvait être créé qui simplifie le processus permettant aux participants de passer de la compréhension à la mise en œuvre effective des points individuels de l'ordre du jour de la gouvernance.
  • Plates-formes de données ouvertes pour les travaux collaboratifs - Dans les milieux universitaires et industriels existants, de nombreuses données et matériaux de recherche ne sont pas divulgués publiquement, ce qui peut rendre le développement global du marché très inefficace. D'autre part, les pools de données en chaîne peuvent faciliter des initiatives plus collaboratives que les marchés existants, car ils sont transparents et accessibles à tous. Le développement de nombreuses normes de jetons et de solutions DeFi en sont de bons exemples. De plus, nous pouvons exploiter des pools de données publiques à diverses fins.

3.2.3 Diagnostic réseau

  • Index Research - Les utilisateurs de Web3 créent divers indicateurs pour analyser et comparer l'état du protocole. Plusieurs métriques objectives (par exemple, le coefficient de Satoshi de Nakaflow) peuvent être étudiées et affichées en temps réel.
  • Métriques du protocole - En analysant des données telles que le nombre d'adresses actives, le nombre de transactions, les entrées/sorties d'actifs et les frais encourus par le réseau, les performances du protocole peuvent être analysées. Ces informations peuvent être utilisées pour évaluer l'impact de mises à jour de protocoles spécifiques, l'état des MEV et la santé du réseau.

3.3 Défis

Les données en chaîne présentent des avantages uniques qui peuvent augmenter la valeur de l'industrie. Cependant, pour réaliser pleinement ces avantages, de nombreux défis doivent être relevés à la fois à l'intérieur et à l'extérieur de l'industrie.

  • Manque de gouvernance des données - La gouvernance des données est le processus d'établissement de politiques et de normes de données cohérentes et partagées pour faciliter l'intégration de chaque primitive de données. Actuellement, chaque protocole en chaîne établit ses propres normes et récupère ses propres types de données. Le problème, cependant, est le manque de gouvernance des données entre les entités qui agrègent ces données de protocole et fournissent des services API aux utilisateurs. Cela rend difficile l'intégration entre les services et, par conséquent, il est difficile pour les utilisateurs d'obtenir des informations fiables et complètes.
  • Inefficacité des coûts - Le stockage de données froides dans le protocole permet aux utilisateurs d'économiser sur la sécurité des données et les coûts du serveur. Cependant, si les données doivent être consultées fréquemment pour analyse ou nécessitent des ressources informatiques importantes, il peut ne pas être rentable de les stocker sur la blockchain.
  • Le problème oracle - les contrats intelligents ne sont pleinement fonctionnels que lorsqu'ils ont accès aux données du monde réel. Cependant, ces données ne sont pas toujours fiables ou cohérentes. Contrairement aux blockchains, qui maintiennent l'intégrité grâce à des algorithmes de consensus, les données externes ne sont pas déterministes. Les solutions Oracle doivent évoluer pour garantir l'intégrité, la qualité et l'évolutivité des données externes indépendamment d'une couche d'application spécifique.
  • Le protocole en est à ses balbutiements - le protocole utilise son propre jeton pour inciter les utilisateurs à maintenir le service en cours d'exécution et à le payer. Cependant, les paramètres requis pour faire fonctionner le protocole (par exemple, la définition précise et le schéma d'incitation des utilisateurs du service) sont souvent gérés de manière naïve. Cela signifie que la durabilité économique du protocole est difficile à vérifier. Si de nombreux protocoles se connectent de manière organique et créent des pipelines de données, il y aura une plus grande incertitude quant au bon fonctionnement des pipelines.
  • Temps de récupération des données lent - Les protocoles traitent généralement les transactions par consensus de nombreux nœuds, ce qui limite la vitesse et le volume de traitement des informations par rapport à la logique commerciale informatique traditionnelle. Ce goulot d'étranglement est difficile à résoudre à moins que les performances de tous les protocoles qui composent le pipeline ne soient significativement améliorées.
  • La valeur réelle des données Web3 - les blockchains sont des systèmes isolés qui ne sont pas encore connectés au monde réel. Lors de la collecte de données Web3, nous devons déterminer si les données collectées peuvent fournir suffisamment d'informations significatives pour couvrir le coût de la construction du pipeline de données.
  • Syntaxe inconnue - L'infrastructure de données informatique existante et l'infrastructure de blockchain fonctionnent très différemment. Même le langage de programmation utilisé est différent, et l'infrastructure de la blockchain utilise souvent des langages de bas niveau ou de nouveaux langages conçus spécifiquement pour les besoins de la blockchain. Il est donc difficile pour les nouveaux développeurs et utilisateurs de services d'apprendre à gérer chaque primitive de données, car ils doivent apprendre un nouveau langage de programmation ou une nouvelle façon de penser à travailler avec les données de la blockchain.

4. Lego de données Web3 en pipeline

Il n'y a pas de connexions entre les primitives de données Web3 actuelles, elles extraient et traitent les données de manière indépendante. Cela rend difficile l'expérimentation de synergies dans le traitement de l'information. Pour résoudre ce problème, cet article présente un pipeline de données couramment utilisé sur le marché informatique et mappe les primitives de données Web3 existantes sur ce pipeline. Cela rendra le cas d'utilisation plus concret.

4.1 Pipeline de données générales

De l'îlot isolé à la collaboration : le sens du pipeline de données natif Web3

La construction d'un pipeline de données s'apparente au processus de conceptualisation et d'automatisation des processus décisionnels répétitifs de la vie quotidienne. Ce faisant, des informations d'une qualité spécifique sont facilement disponibles et utilisées pour la prise de décision. Plus il y a de données non structurées à traiter, plus les informations sont utilisées fréquemment ou plus une analyse en temps réel est nécessaire, le temps et le coût nécessaires pour obtenir la proactivité nécessaire aux décisions futures peuvent être économisés en automatisant ces processus.

Le diagramme ci-dessus montre une architecture commune pour la construction de pipelines de données sur le marché des infrastructures informatiques existantes. Les données adaptées à des fins d'analyse sont collectées à partir de la source de données correcte et stockées dans une solution de stockage appropriée en fonction de la nature des données et des exigences analytiques. Par exemple, les lacs de données fournissent des solutions de stockage de données brutes pour une analyse évolutive et flexible, tandis que les entrepôts de données se concentrent sur le stockage de données structurées pour les requêtes et l'analyse optimisées pour une logique métier spécifique. Les données sont ensuite transformées en aperçu ou en informations utiles de diverses manières.

Chaque niveau de solution est également disponible en tant que service packagé. Il existe également un intérêt croissant pour les groupes de produits SaaS ETL (Extract, Transform, Load) qui relient la chaîne de processus de l'extraction des données au chargement (par exemple FiveTran, Panoply, Hivo, Rivery). La séquence n'est pas toujours unidirectionnelle et les couches peuvent être connectées les unes aux autres de diverses manières, en fonction des besoins spécifiques de l'organisation. La chose la plus importante lors de la création d'un pipeline de données est de minimiser le risque de perte de données qui peut survenir lorsque les données sont envoyées et reçues à chaque niveau de serveur. Ceci peut être réalisé en optimisant le découplage des serveurs et en utilisant des solutions fiables de stockage et de traitement des données.

4.2 Pipeline avec environnement en chaîne

De l'îlot isolé à la collaboration : le sens du pipeline de données natif Web3

Le schéma conceptuel du pipeline de données présenté précédemment peut être appliqué à l'environnement en chaîne, comme le montre la figure ci-dessus, mais il convient de noter qu'un pipeline complètement décentralisé ne peut pas être formé, car chaque composant de base dépend dans une certaine mesure de la Solution hors chaîne centralisée. De plus, le chiffre ci-dessus n'inclut pas actuellement toutes les solutions Web3, et les limites de la classification peuvent être floues - par exemple, KYVE, en plus de servir de plate-forme multimédia en continu, inclut également la fonction d'un lac de données, qui peut être considéré comme un pipeline de données lui-même. De plus, Space and Time est classé comme une base de données décentralisée, mais il offre des services de passerelle API tels que RestAPI et le streaming, ainsi que des services ETL.

4.2.1 Capture/Traitement

Pour que les utilisateurs courants ou les dApps puissent consommer/exploiter efficacement les services, ils doivent être en mesure d'identifier et d'accéder facilement aux sources de données générées principalement dans le protocole, telles que les transactions, l'état et les événements de journalisation. Cette couche est l'endroit où un middleware entre en jeu, aidant avec des processus tels que les oracles, la messagerie, l'authentification et la gestion des API. Les principales solutions sont les suivantes.

Plateforme de diffusion/d'indexation

Bitquery, Ceramic, KYVE, Lens, Streamr Network, The Graph, explorateurs de blocs de divers protocoles, etc.

node-as-a-service et autres services RPC/API

Alchemy、All that Node、Infura、Pocket Network、Quicknode 等。

Oracle

API 3, Band Protocol, Chainlink, Nest Protocol, Pyth, Supra oracles, etc.

4.2.2 Stockage

Par rapport aux solutions de stockage Web2, les solutions de stockage Web3 présentent plusieurs avantages tels que la persistance et la décentralisation. Cependant, ils présentent également certains inconvénients, tels que le coût élevé, la difficulté de mise à jour et d'interrogation des données. En conséquence, diverses solutions ont émergé qui peuvent remédier à ces lacunes et permettre un traitement efficace des données structurées et dynamiques sur Web3 - chacune avec des caractéristiques différentes telles que le type de données traitées, si elles sont structurées et si elles sont avec une fonction de requête intégrée et bientôt.

Réseau de stockage décentralisé

Arweave, Filecoin, KYVE, Sia, Storj, etc.

Base de données décentralisée

Bases de données basées sur Arweave (Glacier, HollowDB, Kwil, WeaveDB), ComposeDB, OrbitDB, Polybase, Space and Time, Tableland, etc.

* Chaque protocole a un mécanisme de stockage permanent différent. Par exemple, Arweave est un modèle basé sur la blockchain, similaire au stockage Ethereum, stockant les données en permanence sur la chaîne, tandis que Filecoin, Sia et Storj sont des modèles basés sur des contrats, stockant les données hors chaîne.

4.2.3 Conversion

Dans le contexte du Web3, la couche de traduction est aussi importante que la couche de stockage. En effet, la structure de la blockchain consiste essentiellement en une collection distribuée de nœuds, ce qui facilite l'utilisation d'une logique backend évolutive. Dans l'industrie de l'IA, les gens explorent activement l'utilisation de ces avantages pour la recherche dans le domaine de l'apprentissage fédéré, et des protocoles dédiés à l'apprentissage automatique et aux opérations d'IA ont vu le jour.

Entraînement aux données/modélisation/calcul

Akash 、 Bacalhau 、 Bitensor 、 Gensyn 、 Golem 、 Ensemble 等 。

* L'apprentissage fédéré est une méthode d'entraînement de modèles d'intelligence artificielle en distribuant le modèle d'origine sur plusieurs clients natifs, en utilisant des données stockées pour l'entraîner, puis en collectant les paramètres appris sur un serveur central.

De l'îlot isolé à la collaboration : le sens du pipeline de données natif Web3

4.2.4 Analyse/Utilisation

Les services de tableau de bord et les solutions d'informations et d'analyse des utilisateurs finaux répertoriés ci-dessous sont des plates-formes qui permettent aux utilisateurs d'observer et de découvrir diverses informations à partir de protocoles spécifiques. Certaines de ces solutions fournissent également des services API au produit final. Cependant, il est important de noter que les données de ces solutions ne sont pas toujours exactes car elles utilisent principalement des outils hors chaîne distincts pour stocker et traiter les données. Des erreurs entre les solutions peuvent également être observées.

Dans le même temps, il existe une plate-forme appelée "Fonctions Web3" qui peut automatiquement/déclencher l'exécution de contrats intelligents, tout comme les plates-formes centralisées telles que Google Cloud déclenchent/exécutent une logique métier spécifique. À l'aide de cette plate-forme, les utilisateurs peuvent implémenter une logique métier de manière native Web3, au lieu de simplement traiter les données en chaîne pour obtenir des informations.

Services de tableau de bord

Dune Analytics、Flipside Crypto、Footprint、Transpose 等。

Insights et analyse de l'utilisateur final

Chainalaysis、Glassnode、Messari、Nansen、The Tie、Token Terminal etc.

Fonctions Web3

Fonctions de Chainlink, réseau Gelato, etc.

5. Réflexions finales

De l'îlot isolé à la collaboration : le sens du pipeline de données natif Web3

Comme le disait Kant, nous ne pouvons être témoins que de l'apparence des choses, mais pas de leur essence. Pourtant, nous utilisons des enregistrements d'observations appelés "données" pour traiter les informations et les connaissances, et nous voyons comment les innovations dans les technologies de l'information conduisent le développement de la civilisation. Par conséquent, la création d'un pipeline de données sur le marché Web3, en plus d'être décentralisée, peut jouer un rôle clé en tant que point de départ pour saisir ces opportunités. Je voudrais conclure cet article par quelques réflexions.

5.1 Le rôle des solutions de stockage deviendra plus important

La condition préalable la plus importante pour disposer d'un pipeline de données est d'établir une gouvernance des données et des API. Dans un écosystème de plus en plus diversifié, les spécifications créées par chaque protocole continueront d'être recréées, et les enregistrements de transactions fragmentés dans des écosystèmes multichaînes rendront plus difficile pour les individus d'obtenir des informations complètes. Ensuite, les « solutions de stockage » sont des entités capables de fournir des données intégrées dans un format unifié en collectant des informations fragmentées et en mettant à jour les spécifications de chaque protocole. Nous observons que les solutions de stockage existantes sur le marché, telles que Snowflake et Databricks, connaissent une croissance rapide, ont de larges bases de clients, sont intégrées verticalement en opérant à différents niveaux du pipeline et dominent l'industrie.

5.2 Opportunités sur le marché des sources de données

Des cas d'utilisation réussis ont commencé à émerger lorsque les données sont devenues plus accessibles et que le traitement s'est amélioré. Cela crée un effet circulaire positif où les sources de données et les outils de collecte explosent - depuis 2010, les types et volumes de données numériques collectées chaque année ont augmenté de façon exponentielle depuis 2010, grâce aux énormes avancées technologiques pour la construction de pipelines de données. En appliquant ce contexte au marché Web3, de nombreuses sources de données peuvent être générées de manière récursive sur la chaîne à l'avenir. Cela signifie également que la blockchain s'étendra à divers domaines d'activité. À ce stade, nous pouvons nous attendre à ce que l'acquisition de données progresse via des marchés de données comme Ocean Protocol ou des solutions DeWi (sans fil décentralisées) comme Helium et XNET, ainsi que des solutions de stockage.

5.3 Ce qui compte, ce sont des données et des analyses significatives

Cependant, le plus important est de continuer à se demander quelles données doivent être préparées pour extraire les informations qui sont vraiment nécessaires. Il n'y a rien de plus inutile que de construire un pipeline de données pour le plaisir de construire un pipeline de données sans hypothèses explicites à valider. Les marchés existants ont réalisé de nombreuses innovations grâce à la construction de pipelines de données, mais ont également payé un prix incalculable par des échecs répétés et inutiles. Il est également bon d'avoir des discussions constructives sur le développement de la pile technologique, mais l'industrie a besoin de temps pour réfléchir et discuter de questions plus fondamentales, telles que les données qui doivent être stockées dans l'espace de blocs ou à quelles fins les données doivent être utilisées. . Le « but » devrait être de réaliser la valeur de Web3 grâce à des renseignements exploitables et à des cas d'utilisation, et dans ce processus, le développement de plusieurs composants de base et l'achèvement du pipeline sont les « moyens » pour atteindre cet objectif.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 1
  • Partager
Commentaire
0/400
Matthewsmithvip
· 2024-08-31 13:15
Buy the Dip 🤑
Répondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)