Analyse en Depth : quels types d’étincelles l’IA et le Web3 peuvent-ils créer ?

Avancé6/7/2024, 5:04:48 AM
Cet article explore le développement rapide des technologies d’intelligence artificielle (IA) et du Web3, ainsi que la valeur et l’impact potentiels de leur intégration. L’IA excelle dans l’amélioration de la productivité, tandis que le Web3 transforme les relations de production grâce à la décentralisation. La combinaison de ces technologies apporte des applications innovantes dans l’analyse des données, les services personnalisés aux utilisateurs et la sécurité et la protection de la vie privée.

Introduction : Développement de l’IA+Web3

Ces dernières années, le développement rapide de l’intelligence artificielle (IA) et des technologies Web3 a attiré l’attention du monde entier. L’IA, une technologie qui simule et imite l’intelligence humaine, a réalisé des percées significatives dans des domaines tels que la reconnaissance faciale, le traitement du langage naturel et l’apprentissage automatique. Les progrès rapides de la technologie de l’IA ont entraîné une transformation et une innovation considérables dans divers secteurs.

L’industrie de l’IA a atteint une taille de marché de 200 milliards de dollars en 2023, avec des géants de l’industrie et des acteurs de premier plan comme OpenAI, Character.AI et Midjourney émergeant rapidement et leading le boom de l’IA.

Dans le même temps, le Web3, un modèle Internet émergent, modifie progressivement notre perception et notre utilisation d’Internet. Basé sur la technologie blockchain décentralisée, le Web3 réalise le partage et le contrôle des données, l’autonomie de l’utilisateur et la mise en place de mécanismes de confiance grâce à des fonctionnalités telles que la smart contracts, le stockage distribué et la vérification d’identité décentralisée. L’idée centrale du Web3 est de libérer les données des autorités centralisées, en donnant aux utilisateurs le contrôle et la possibilité de partager la valeur de leurs données.

Actuellement, la valeur marchande de l’industrie du Web3 a atteint 25 000 milliards de dollars. De Bitcoin, Ethereum et Solana aux acteurs au niveau des applications comme Uniswap et Stepn, de nouveaux récits et scénarios émergent continuellement, attirant de plus en plus de personnes à rejoindre l’industrie Web3.

Il est évident que l’intégration de l’IA et du Web3 est un point focal pour les constructeurs et les investisseurs en capital-risque de l’Est et de l’Ouest. Explorer comment combiner efficacement ces deux technologies est une entreprise très utile.

Cet article se concentrera sur l’état actuel du développement de l’IA + Web3, en explorant la valeur et l’impact potentiels de leur intégration. Nous présenterons d’abord les concepts de base et les caractéristiques de l’IA et du Web3, puis discuterons de leur interrelation. Ensuite, nous analyserons l’état actuel des projets AI+Web3 et nous nous pencherons sur les limites et les défis auxquels ils sont confrontés. Grâce à cette recherche, nous visons à fournir des références et des informations précieuses aux investisseurs et aux professionnels de l’industrie.

Comment l’IA interagit avec le Web3

Le développement de l’IA et du Web3 peut être considéré comme les deux côtés d’une échelle : l’IA apporte des améliorations de productivité, tandis que le Web3 révolutionne les relations de production. Alors, quel genre d’étincelles l’IA et le Web3 peuvent-ils créer lorsqu’ils entrent en collision ? Nous analyserons d’abord les défis et les améliorations potentielles dans les secteurs de l’IA et du Web3, puis nous explorerons comment ils peuvent aider à résoudre les problèmes des uns et des autres.

  1. Défis et améliorations potentielles dans l’industrie de l’IA
  2. Défis et améliorations potentielles dans l’industrie du Web3

2.1 Défis de l’industrie de l’IA

Pour explorer les défis auxquels est confrontée l’industrie de l’IA, nous devons d’abord comprendre son essence. Le cœur de l’industrie de l’IA s’articule autour de trois éléments clés : la puissance de calcul, les algorithmes et les données.

  1. Tout d’abord, la puissance de calcul : la puissance de calcul fait référence à la capacité d’effectuer des calculs et des traitements à grande échelle. Les tâches d’IA nécessitent généralement de traiter de grandes quantités de données et d’effectuer des calculs complexes, tels que l’entraînement de modèles de réseaux neuronaux profonds. Une puissance de calcul élevée peut accélérer les processus d’entraînement et d’inférence des modèles, améliorant ainsi les performances et l’efficacité des systèmes d’IA. Ces dernières années, les progrès de la technologie matérielle, tels que les unités de traitement graphique (GPU) et les puces dédiées à l’IA (comme les TPU), ont considérablement augmenté la puissance de calcul, stimulant le développement de l’industrie de l’IA. Nvidia, l’un des principaux fournisseurs de GPU, a vu le cours de son action monter en flèche ces dernières années, s’emparant d’une grande part de marché et réalisant des bénéfices substantiels.
  2. Qu’est-ce qu’un algorithme : Les algorithmes sont les composants essentiels des systèmes d’IA. Ce sont des méthodes mathématiques et statistiques utilisées pour résoudre des problèmes et effectuer des tâches. Les algorithmes d’IA peuvent être classés en algorithmes d’apprentissage automatique traditionnels et algorithmes d’apprentissage profond, les algorithmes d’apprentissage profond ayant fait des percées significatives ces dernières années. Le choix et la conception des algorithmes sont cruciaux pour la performance et l’efficacité des systèmes d’IA. L’amélioration continue et l’innovation dans les algorithmes peuvent améliorer la précision, la robustesse et les capacités de généralisation des systèmes d’IA. Différents algorithmes donnent des résultats différents, de sorte que les progrès des algorithmes sont essentiels pour l’exécution des tâches.
  3. Pourquoi les données sont importantes : La tâche principale des systèmes d’IA est d’extraire des modèles et des règles des données par le biais de l’apprentissage et de la formation. Les données constituent la base de l’entraînement et de l’optimisation des modèles. Grâce à des échantillons de données à grande échelle, les systèmes d’IA peuvent apprendre des modèles plus précis et plus intelligents. Des ensembles de données riches fournissent des informations complètes et diversifiées, ce qui permet aux modèles de mieux se généraliser aux données invisibles et aide les systèmes d’IA à mieux comprendre et résoudre les problèmes du monde réel.

Après avoir compris les trois éléments fondamentaux de l’IA actuelle, examinons les difficultés et les défis auxquels l’IA est confrontée dans ces domaines.

Tout d’abord, en termes de puissance de calcul, les tâches d’IA nécessitent généralement une grande quantité de ressources de calcul pour l’entraînement et l’inférence des modèles, en particulier pour les modèles d’apprentissage profond. Cependant, l’obtention et la gestion d’une puissance de calcul à grande échelle est un défi coûteux et complexe. Le coût, la consommation d’énergie et l’entretien des équipements de calcul haute performance sont des enjeux importants. C’est particulièrement difficile pour les startups et les développeurs individuels, pour qui il peut être difficile d’acquérir une puissance de calcul suffisante.

En termes d’algorithmes, malgré les succès significatifs des algorithmes d’apprentissage profond dans de nombreux domaines, il existe encore des défis et des difficultés. Par exemple, l’entraînement de réseaux de neurones profonds nécessite une grande quantité de données et de ressources de calcul. De plus, pour certaines tâches, l’interprétabilité et l’explicabilité des modèles peuvent être insuffisantes. La robustesse et les capacités de généralisation des algorithmes sont également des questions cruciales, car les performances des modèles sur des données invisibles peuvent être instables. Trouver le meilleur algorithme pour fournir des performances optimales parmi de nombreux algorithmes est une exploration continue.

En termes de données, les données sont le moteur de l’IA, mais l’obtention de données diversifiées et de haute qualité reste un défi. Les données dans certains domaines, comme les données sensibles sur la santé dans le secteur médical, peuvent être difficiles à obtenir. En outre, la qualité, l’exactitude et l’étiquetage des données sont des questions critiques, car des données incomplètes ou biaisées peuvent entraîner un comportement erroné du modèle ou des biais. La protection de la confidentialité et de la sécurité des données est également une considération importante.

De plus, il y a des problèmes liés à l’interprétabilité et à la transparence. La nature « boîte noire » des modèles d’IA est une préoccupation publique. Dans certaines applications, telles que la finance, la santé et la justice, le processus de prise de décision des modèles doit être interprétable et traçable. Cependant, les modèles d’apprentissage profond existants manquent souvent de transparence. Expliquer le processus de prise de décision des modèles et fournir des explications fiables reste un défi.

De plus, les modèles commerciaux de nombreux projets de startups d’IA ne sont pas très clairs, ce qui crée également de la confusion pour de nombreux entrepreneurs en IA.

2.2 Défis de l’industrie du Web3

Dans l’industrie du Web3, de nombreux défis doivent être relevés, allant de l’analyse des données et de l’expérience utilisateur aux vulnérabilités des contrats intelligents et aux attaques de pirates. L’IA, en tant qu’outil d’amélioration de la productivité, recèle un potentiel important dans ces domaines.

Tout d’abord, il y a place à l’amélioration de l’analyse des données et des capacités prédictives. Les applications de l’IA dans l’analyse et la prédiction des données ont eu un impact significatif sur l’industrie du Web3. Grâce à l’analyse intelligente et à l’exploration par des algorithmes d’IA, les plateformes Web3 peuvent extraire des informations précieuses de grandes quantités de données et faire des prédictions et des décisions plus précises. Ceci est particulièrement important pour l’évaluation des risques, les prévisions de marché et la gestion des actifs dans la finance décentralisée (DeFi).

De plus, il existe un potentiel d’amélioration de l’expérience utilisateur et des services de personnalisation. Les applications d’IA permettent aux plateformes Web3 d’offrir de meilleures expériences utilisateur et des services personnalisés. En analysant et en modélisant les données des utilisateurs, les plateformes Web3 peuvent fournir des recommandations personnalisées, des services personnalisés et des expériences d’interaction intelligentes. Cela permet d’augmenter l’engagement et la satisfaction des utilisateurs, favorisant ainsi le développement de l’écosystème Web3. Par exemple, de nombreux protocoles Web3 intègrent des outils d’IA comme ChatGPT pour mieux servir les utilisateurs.

En termes de sécurité et de protection de la vie privée, les applications d’IA ont également un impact profond sur l’industrie du Web3. La technologie de l’IA peut être utilisée pour détecter et se défendre contre les attaques réseau, identifier les comportements anormaux et fournir des mesures de sécurité plus solides. En outre, l’IA peut être appliquée à la protection de la confidentialité des données, en protégeant les informations personnelles des utilisateurs sur les plates-formes Web3 grâce à des techniques telles que le chiffrement des données et l’informatique de confidentialité. En ce qui concerne l’audit des contrats intelligents, étant donné que des vulnérabilités et des risques de sécurité peuvent exister dans les processus de rédaction et d’audit des smart contracts, la technologie de l’IA peut être utilisée pour l’audit automatisé des contrats et la détection des vulnérabilités, améliorant ainsi la sécurité et la fiabilité des contrats.

Il est évident que l’IA peut contribuer de manière significative à relever les défis et à apporter des améliorations potentielles à l’industrie du Web3 dans divers aspects.

Analyse de la situation actuelle du projet AI+Web3

La combinaison des projets d’IA et de Web3 se concentre principalement sur deux aspects principaux : tirer parti de la technologie blockchain pour améliorer les projets d’IA et utiliser la technologie de l’IA pour servir l’amélioration des projets Web3. De nombreux projets ont vu le jour dans ce sens, dont Io.net, Gensyn, Ritual, entre autres. L’analyse suivante se penchera sur différents sous-domaines où l’IA aide le Web3 et où le Web3 améliore l’IA.

3.1 Le Web3 aide l’IA

3.1.1 Puissance de calcul décentralisée

Depuis le lancement de ChatGPT par OpenAI fin 2022, il a déclenché une frénésie dans le domaine de l’IA. Dans les cinq jours qui ont suivi sa sortie, la base d’utilisateurs a atteint un million, dépassant le taux de téléchargement d’Instagram, qui a mis environ deux mois et demi pour atteindre le même jalon. Par la suite, ChatGPT a connu une croissance rapide, avec des utilisateurs actifs mensuels atteignant 100 millions en deux mois et des utilisateurs actifs hebdomadaires atteignant 100 millions en novembre 2023. Avec l’avènement de ChatGPT, le secteur de l’IA est rapidement passé d’un domaine de niche à une industrie très appréciée.

Selon le rapport de Trendforce, ChatGPT nécessite 30 000 GPU NVIDIA A100 pour fonctionner, et les futurs modèles comme GPT-5 nécessiteront encore plus de puissance de calcul. Cela a déclenché une course aux armements entre diverses entreprises d’IA, car posséder une puissance de calcul suffisante est crucial pour maintenir un avantage concurrentiel dans le domaine de l’IA, leading à une pénurie de GPU.

Avant la hausse de l’IA, le principal fournisseur de GPU, NVIDIA, servait principalement les clients des trois principaux services cloud : AWS, Azure et GCP. Avec la hausse de l’intelligence artificielle, de nombreux nouveaux acheteurs ont émergé, y compris de grandes entreprises technologiques comme Meta, Oracle, ainsi que d’autres plates-formes de données et startups d’IA, rejoignant toutes la course pour stocker des GPU pour former des modèles d’IA. Les grandes entreprises technologiques comme Meta et Tesla ont considérablement augmenté leurs achats de modèles d’IA personnalisés et leurs recherches internes. Des entreprises de modèles de base comme Anthropic et des plateformes de données comme Snowflake et Databricks ont également acheté plus de GPU pour aider leurs clients à fournir des services d’IA.

Comme l’a mentionné Semi Analysis l’année dernière, il existe un fossé entre les entreprises « riches en GPU » et les entreprises « pauvres en GPU », seules quelques-unes possédant plus de 20 000 GPU A100/H100, ce qui permet aux membres de l’équipe d’utiliser entre 100 et 1000 GPU pour les projets. Ces entreprises sont soit des fournisseurs de cloud, soit ont construit leurs propres grands modèles de langage (LLM), notamment OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, entre autres.

Cependant, la majorité des entreprises chute dans la catégorie des « GPU pauvres », luttant avec beaucoup moins de GPU et consacrant beaucoup de temps et d’efforts à des tâches plus difficiles à faire progresser dans l’écosystème. D’ailleurs, cette situation ne se limite pas aux startups. Certaines des sociétés d’IA les plus connues, telles que Hugging Face, Databricks (MosaicML), Together et même Snowflake, ont des quantités d’A100/H100 inférieures à 20 000. Bien qu’elles disposent de talents techniques de classe mondiale, ces entreprises sont limitées par l’offre limitée de GPU, ce qui les désavantage par rapport aux grandes entreprises de la concurrence de l’IA.

Cette pénurie ne se limite pas à la catégorie « GPU pauvre » ; même à la fin de 2023, le leader de l’IA, OpenAI, a dû fermer temporairement les inscriptions payantes en raison de l’incapacité d’obtenir suffisamment de GPU et a dû se procurer plus de fournitures GPU.

Il est évident que le développement rapide de l’IA a entraîné une grave inadéquation entre l’offre et la demande de GPU, créant une pénurie imminente de l’offre.

Pour résoudre ce problème, certains projets Web3 ont commencé à explorer des solutions de puissance de calcul décentralisées, en tirant parti des caractéristiques uniques de la technologie Web3. Ces projets incluent Akash, Render, Gensyn, entre autres. La caractéristique commune entre ces projets est l’utilisation de jetons pour inciter les utilisateurs à fournir une puissance de calcul GPU inactive, devenant ainsi le côté support de la puissance de calcul pour les clients IA de support.

Le profil du côté de l’offre se compose principalement de trois aspects : les fournisseurs de services cloud, les mineurs de crypto-monnaie et les entreprises. Les fournisseurs de services cloud comprennent les principaux fournisseurs de services cloud (tels qu’AWS, Azure, GCP) et les fournisseurs de services cloud GPU (tels que Coreweave, Lambda, Crusoe), où les utilisateurs peuvent revendre la puissance de calcul inutilisée de ces fournisseurs pour générer des revenus. Avec la transition d’Ethereum de PoW à PoS, la puissance de calcul GPU inactive est devenue un côté d’offre potentiel important pour les mineurs de crypto-monnaie. De plus, les grandes entreprises comme Tesla et Meta, qui ont acheté de grandes quantités de GPU à des fins stratégiques, peuvent également contribuer à leur puissance de calcul GPU inactive dans le cadre de l’offre.

À l’heure actuelle, les acteurs de ce domaine peuvent généralement être divisés en deux catégories : ceux qui utilisent la puissance de calcul décentralisée pour l’inférence de l’IA et ceux qui l’utilisent pour l’entraînement de l’IA. La première catégorie comprend des projets comme Render (bien que axé sur le rendu, il peut également être utilisé pour l’informatique basée sur l’IA), Akash, Aethir, tandis que la seconde catégorie comprend des projets comme io.net (prenant en charge à la fois l’inférence et l’entraînement) et Gensyn. La principale différence entre les deux réside dans les exigences différentes en matière de puissance de calcul.

Discutons d’abord des projets axés sur l’inférence de l’IA. Ces projets incitent les utilisateurs à fournir de la puissance de calcul par le biais d’incitations symboliques, puis à fournir des services de réseau de puissance de calcul du côté de la demande, facilitant ainsi le matching de l’offre et de la demande de puissance de calcul inutilisées. Les détails de ces projets sont couverts dans un rapport de recherche de DePIN de nos laboratoires Ryze, n’hésitez pas à les lire.

Le point central réside dans le mécanisme d’incitation symbolique, où le projet attire d’abord les fournisseurs, puis les utilisateurs, réalisant ainsi le mécanisme de démarrage à froid et d’exploitation de base du projet, permettant ainsi une expansion et un développement ultérieurs. Dans ce cycle, l’offre reçoit des récompenses symboliques plus précieuses, tandis que la demande bénéficie de services plus rentables. La valeur des tokens du projet et la croissance de l’offre et de la demande restent constantes. Au fur et à mesure que le prix du jeton augmente, de plus en plus de participants et de spéculateurs sont attirés, créant ainsi une boucle de capture de valeur.

Une autre catégorie implique l’utilisation d’une puissance de calcul décentralisée pour l’entraînement de l’IA, comme Gensyn et io.net (qui support à la fois l’entraînement et l’inférence de l’IA). En fait, la logique opérationnelle de ces projets n’est pas fondamentalement différente de celle des projets d’inférence d’IA. Ils s’appuient toujours sur des incitations symboliques pour attirer la participation du côté de l’offre afin de fournir de la puissance de calcul, qui est ensuite utilisée par le côté de la demande.

io.net, en tant que réseau de puissance de calcul décentralisé, compte actuellement plus de 500 000 GPU, ce qui en fait un acteur exceptionnel dans les projets de puissance de calcul décentralisée. De plus, il a intégré la puissance de calcul de Render et Filecoin, démontrant le développement continu de son écosystème.

De plus, Gensyn facilite l’attribution des tâches d’apprentissage automatique et les récompenses grâce à smart contracts pour permettre l’entraînement de l’IA. Comme l’illustre le diagramme ci-dessous, le coût horaire du travail de formation au machine learning dans Gensyn est d’environ 0,4 USD, ce qui est nettement inférieur au coût de plus de 2 USD sur AWS et GCP.

L’écosystème Gensyn comprend quatre entités participantes :

  • Expéditeurs : il s’agit des utilisateurs côté demande qui consomment des tâches et paient pour des tâches d’entraînement de l’IA.
  • Exécuteurs : les exécuteurs exécutent les tâches d’entraînement du modèle et fournissent des preuves de l’achèvement des tâches à des fins de vérification.
  • Vérificateurs : Les vérificateurs relient le processus d’apprentissage non déterministe au calcul linéaire déterministe. Ils comparent les preuves fournies par les exécuteurs testamentaires avec les seuils attendus.
  • Reporters : Les reporters inspectent le travail des vérificateurs et lancent des défis pour gagner des récompenses lorsqu’ils identifient des problèmes.

Comme nous pouvons le voir, Gensyn vise à devenir un protocole de calcul massivement évolutif et rentable pour les modèles mondiaux d’apprentissage profond. Cependant, si l’on regarde ce domaine, pourquoi la plupart des projets choisissent-ils la puissance de calcul décentralisée pour l’inférence de l’IA plutôt que pour l’entraînement ?

Aidons également les amis qui ne sont pas familiers avec l’entraînement et l’inférence de l’IA à comprendre la différence entre les deux :

  • Formation de l’IA : Si nous comparons l’intelligence artificielle à un étudiant, la formation revient à fournir à l’IA une grande quantité de connaissances et d’exemples, qui peuvent être compris comme des données. L’IA apprend de ces exemples. Parce que l’apprentissage implique la compréhension et la mémorisation d’une grande quantité d’informations, ce processus nécessite une quantité importante de puissance de calcul et de temps.
  • Inférence de l’IA : Alors, qu’est-ce que l’inférence ? Il peut être compris comme l’utilisation des connaissances acquises pour résoudre des problèmes ou passer des examens. Lors de l’inférence, l’intelligence artificielle utilise les connaissances apprises pour fournir des réponses, plutôt que d’acquérir de nouvelles connaissances. Par conséquent, les exigences de calcul pour le processus d’inférence sont relativement faibles.

On peut voir que les exigences en matière de puissance de calcul pour l’inférence de l’IA et l’entraînement de l’IA diffèrent considérablement. La disponibilité d’une puissance de calcul décentralisée pour l’inférence de l’IA et l’entraînement de l’IA sera analysée plus en détail dans la prochaine section sur les défis.

De plus, Ritual vise à combiner des réseaux distribués avec des créateurs de modèles pour maintenir la décentralisation et la sécurité. Son premier produit, Infernet, permet aux smart contracts sur la blockchain d’accéder aux modèles d’IA off-chain, permettant à ces contrats d’accéder à l’IA d’une manière qui maintient la vérification, la décentralisation et la protection de la vie privée.

Le coordinateur d’Infernet est responsable de la gestion du comportement des nœuds du réseau et de la réponse aux demandes de calcul des consommateurs. Lorsque les utilisateurs utilisent Infernet, des tâches telles que l’inférence et la preuve sont effectuées off-chain, la sortie étant renvoyée au coordinateur et finalement transmise aux consommateurs off-chain via smart contracts.

En plus des réseaux de puissance de calcul décentralisés, il existe également des réseaux de bande passante décentralisés comme Grass, qui visent à améliorer la vitesse et l’efficacité de la transmission de données. Dans l’ensemble, l’émergence de réseaux de puissance de calcul décentralisés offre une nouvelle possibilité pour l’offre de puissance de calcul de l’IA, faisant avancer l’IA dans de nouvelles directions.

3.1.2 Modèle d’algorithme décentralisé

Comme mentionné dans le deuxième chapitre, les trois éléments fondamentaux de l’IA sont la puissance de calcul, les algorithmes et les données. Étant donné que la puissance de calcul peut former un réseau d’approvisionnement grâce à la décentralisation, les algorithmes peuvent-ils également suivre une approche similaire et former un réseau d’approvisionnement pour les modèles d’algorithmes ?

Avant d’analyser les projets dans ce domaine, comprenons d’abord l’importance des modèles d’algorithmes décentralisés. Beaucoup de gens peuvent se demander, puisque nous avons déjà OpenAI, pourquoi avons-nous besoin d’un réseau d’algorithmes décentralisé ?

Essentiellement, un réseau d’algorithmes décentralisé est un marché de services d’algorithmes d’IA décentralisé qui connecte de nombreux modèles d’IA différents. Chaque modèle d’IA a sa propre expertise et ses propres compétences. Lorsque les utilisateurs posent des questions, la place de marché sélectionne le modèle d’IA le plus approprié pour répondre à la question. Chat-GPT, développé par OpenAI, est l’un de ces modèles d’IA qui peut comprendre et générer du texte similaire à celui des humains.

En termes simples, ChatGPT est comme un étudiant très compétent aidant à résoudre différents types de problèmes, tandis qu’un réseau d’algorithmes décentralisé est comme une école avec de nombreux étudiants aidant à résoudre des problèmes. Bien que l’étudiant actuel (ChatGPT) soit très capable, à long terme, il existe un grand potentiel pour une école capable de recruter des étudiants du monde entier.

Actuellement, dans le domaine des modèles d’algorithmes décentralisés, il y a aussi des projets qui expérimentent et explorent. Ensuite, nous utiliserons le projet représentatif Bittensor comme étude de cas pour aider à comprendre le développement de ce domaine de niche.

Dans Bittensor, l’offre de modèles d’algorithmes (ou mineurs) apporte ses modèles d’apprentissage automatique au réseau. Ces modèles peuvent analyser les données et fournir des informations. Les fournisseurs de modèles reçoivent des jetons de crypto-monnaie, connus sous le nom de TAO, en récompense de leurs contributions.

Pour garantir la qualité des réponses, Bittensor utilise un mécanisme de consensus unique pour parvenir à un consensus sur la meilleure réponse. Lorsqu’une question est posée, plusieurs mineurs de modèles fournissent des réponses. Ensuite, les validateurs du réseau commencent à travailler pour déterminer la meilleure réponse, qui est ensuite renvoyée à l’utilisateur.

Le jeton TAO dans l’écosystème Bittensor joue deux rôles principaux tout au long du processus. D’une part, cela incite les mineurs à apporter des modèles d’algorithmes au réseau. D’autre part, les utilisateurs doivent dépenser des jetons pour poser des questions et permettre au réseau d’accomplir des tâches.

Étant donné que Bittensor est décentralisé, toute personne ayant accès à Internet peut rejoindre le réseau, soit en tant qu’utilisateur posant des questions, soit en tant que mineur fournissant des réponses. Cela permet à un plus grand nombre de personnes d’exploiter la puissance de l’intelligence artificielle.

En résumé, les réseaux de modèles d’algorithmes décentralisés comme Bittensor ont le potentiel de créer un paysage plus ouvert et transparent. Dans cet écosystème, les modèles d’IA peuvent être entraînés, partagés et utilisés de manière sécurisée et décentralisée. De plus, d’autres réseaux comme BasedAI tentent des efforts similaires, avec l’aspect intrigant de l’utilisation de preuves à divulgation nulle de connaissance (ZK) pour protéger la confidentialité des données interactives du modèle utilisateur, qui sera discutée plus en détail dans la quatrième sous-section.

Au fur et à mesure que les plateformes de modèles d’algorithmes décentralisés évoluent, elles permettront aux petites entreprises de rivaliser avec les grandes organisations en utilisant des outils d’IA de pointe, ce qui pourrait avoir des répercussions importantes dans divers secteurs.

3.1.3 Collecte décentralisée des données

Pour l’entraînement des modèles d’IA, une grande quantité de données est indispensable. Cependant, la plupart des entreprises Web2 monopolisent encore aujourd’hui les données des utilisateurs. Des plateformes comme X, Reddit, TikTok, Snapchat, Instagram et YouTube interdisent la collecte de données pour l’entraînement de l’IA, ce qui constitue un obstacle important au développement de l’industrie de l’IA.

D’autre part, certaines plateformes Web2 vendent les données des utilisateurs à des entreprises d’IA sans partager les bénéfices avec les utilisateurs. Par exemple, Reddit a conclu un accord de 60 millions de dollars avec Google, permettant à Google d’entraîner des modèles d’IA à l’aide de ses publications. Il en résulte que les droits de collecte de données sont monopolisés par les grandes sociétés de capital et de mégadonnées, poussant l’industrie vers une direction à forte intensité de capital.

En réponse à cette situation, certains projets tirent parti des incitations du Web3 et des jetons pour parvenir à une collecte de données décentralisée. Prenons l’exemple de PublicAI : les utilisateurs peuvent jouer deux rôles :

  • L’une d’entre elles est celle des fournisseurs de données d’IA. Les utilisateurs peuvent trouver du contenu de valeur sur X, taguer @PublicAI compte officiel avec leurs idées, et utiliser des hashtags #AI ou #Web3 pour catégoriser le contenu, l’envoyant ainsi au centre de données de PublicAI pour collecte.
  • L’autre catégorie est celle des validateurs de données. Les utilisateurs peuvent se connecter au centre de données PublicAI et voter sur les données les plus précieuses pour l’entraînement de l’IA.

En guise de récompense, les utilisateurs peuvent gagner des jetons grâce à ces contributions, favorisant ainsi une relation gagnant-gagnant entre les contributeurs de données et l’industrie de l’IA.

En plus de projets comme PublicAI, qui collectent spécifiquement des données pour la formation de l’IA, il existe de nombreux autres projets utilisant des incitations symboliques pour la collecte de données décentralisée. Par exemple, Ocean collecte les données des utilisateurs via la tokenisation des données pour servir l’IA, Hivemapper utilise les caméras de voiture des utilisateurs pour collecter des données cartographiques, Dimo collecte des données de voiture et WiHi collecte des données météorologiques. Ces projets, grâce à la collecte décentralisée de données, servent également de sources de données potentielles pour l’entraînement de l’IA. Ainsi, au sens large, ils peuvent être inclus dans le paradigme du Web3 au service de l’IA.

3.1.4 ZK protège la vie privée des utilisateurs dans l’IA

La technologie Blockchain offre des avantages en matière de décentralisation et introduit également une caractéristique cruciale : les preuves à divulgation nulle de connaissance. La technologie à divulgation nulle de connaissance permet de vérifier les informations tout en préservant la confidentialité.

Dans l’apprentissage automatique traditionnel, les données doivent généralement être stockées et traitées de manière centralisée, ce qui peut entraîner des risques pour la vie privée. Les méthodes de protection de la confidentialité des données, telles que le chiffrement ou l’anonymisation des données, peuvent limiter la précision et les performances des modèles d’apprentissage automatique.

La technologie de preuve à divulgation nulle de connaissance permet de résoudre ce dilemme en abordant le conflit entre la protection de la vie privée et le partage des données. Le Zero-Knowledge Machine Learning (ZKML) utilise la technologie de preuve à divulgation nulle de connaissance pour permettre l’entraînement et l’inférence de modèles de Machine Learning sans exposer les données d’origine. Les preuves à divulgation nulle de connaissance garantissent que les caractéristiques des données et les résultats du modèle peuvent être vérifiés comme étant corrects sans révéler le contenu réel des données.

L’objectif principal de ZKML est d’équilibrer la protection de la vie privée et le partage des données. Il peut être appliqué dans divers scénarios tels que l’analyse des données de santé, l’analyse des données financières et la collaboration interorganisationnelle. En utilisant ZKML, les individus peuvent protéger la confidentialité de leurs données sensibles tout en partageant des données avec d’autres afin d’obtenir des informations plus larges et des opportunités de collaboration sans risque de violation de la confidentialité des données. Ce domaine n’en est encore qu’à ses débuts, la plupart des projets étant encore à l’étude. Par exemple, BasedAI propose une approche décentralisée en intégrant de manière transparente le chiffrement homomorphe (FHE) avec les grands modèles de langage (LLM) pour maintenir la confidentialité des données. Les modèles ZK-LLM (Zero-Knowledge Large Language Models) intègrent la confidentialité dans leur infrastructure réseau distribuée, garantissant ainsi la confidentialité des données des utilisateurs tout au long du fonctionnement du réseau.

Voici une brève explication du chiffrement homomorphe complet (FHE). FHE est une technique de chiffrement qui permet d’effectuer des calculs sur des données chiffrées sans avoir besoin de les déchiffrer. Cela signifie que diverses opérations mathématiques (telles que l’addition, la multiplication, etc.) effectuées sur des données cryptées FHE donnent les mêmes résultats que si elles étaient effectuées sur les données non chiffrées d’origine, protégeant ainsi la confidentialité des données des utilisateurs.

En plus des méthodes susmentionnées, le Web3 prend également en charge l’IA par le biais de projets tels que Cortex, qui permet l’exécution off-chain de programmes d’IA. L’exécution de programmes d’apprentissage automatique sur des blockchains traditionnelles est confrontée à un défi, car les machines virtuelles sont très inefficaces pour exécuter des modèles d’apprentissage automatique non triviaux. La plupart pensent qu’il est impossible d’exécuter l’IA sur la blockchain. Cependant, la machine virtuelle Cortex (CVM) utilise des GPU pour exécuter des programmes d’IA off-chain et est compatible avec la machine virtuelle Ethereum (EVM). En d’autres termes, la chaîne Cortex peut exécuter toutes les DApps Ethereum et intégrer l’apprentissage automatique de l’IA dans ces DApps. Cela permet aux modèles d’apprentissage automatique de s’exécuter de manière décentralisée, immuable et transparente, avec un consensus réseau vérifiant chaque étape de l’inférence de l’IA.

3.2 L’IA aide le Web3

Dans la collision entre l’IA et le Web3, en plus de l’assistance du Web3 à l’IA, l’assistance de l’IA à l’industrie du Web3 mérite également l’attention. L’apport principal de l’intelligence artificielle est l’amélioration de la productivité, il existe donc de nombreuses tentatives dans l’audit de l’IA smart contracts, l’analyse et la prédiction des données, les services personnalisés, la sécurité et la protection de la vie privée, etc.

3.2.1 Analyse et prévision des données

De nombreux projets Web3 intègrent des services d’IA existants (comme ChatGPT) ou développent les leurs pour fournir des services d’analyse et de prédiction de données aux utilisateurs du Web3. Ces services couvrent un large spectre, y compris des algorithmes d’IA pour les stratégies d’investissement, des outils d’analyse off-chain et des prévisions de prix et de marché.

Par exemple, Pond utilise des algorithmes de graphes d’IA pour prédire les futurs tokens alpha de valeur, offrant ainsi des services de conseil en investissement aux utilisateurs et aux institutions. BullBear AI s’entraîne sur les données historiques des utilisateurs, l’historique des prix et les tendances du marché pour fournir des informations précises à l’appui des prévisions de tendance des prix, aidant ainsi les utilisateurs à réaliser des bénéfices.

Des plateformes comme Numerai organisent des concours d’investissement où les participants utilisent l’IA et de grands modèles de langage pour prédire les marchés boursiers. Ils entraînent des modèles sur la base de données de haute qualité fournies par la plateforme et soumettent des prédictions quotidiennes. Numerai évalue ces prédictions au cours du mois suivant, et les participants peuvent stake NMR des jetons sur leurs modèles pour gagner des récompenses en fonction de leurs performances.

Arkham, une plateforme d’analyse de données blockchain, intègre également l’IA dans ses services. Arkham relie les adresses de la blockchain à des entités telles que les échanges, les fonds et les baleines, en affichant des données et des analyses clés pour donner aux utilisateurs un avantage décisionnel. Arkham Ultra associe les adresses à des entités du monde réel à l’aide d’algorithmes développés sur trois ans avec le support des fondateurs de Palantir et d’OpenAI.

3.2.2 Services personnalisés

Les applications d’IA dans la recherche et la recommandation sont répandues dans les projets Web2, répondant aux besoins personnalisés des utilisateurs. Les projets Web3 intègrent également l’IA pour améliorer l’expérience utilisateur.

Par exemple, la célèbre plate-forme d’analyse de données Dune a récemment introduit l’outil Wand, qui utilise de grands modèles de langage pour écrire des requêtes SQL. Avec Wand Create, les utilisateurs peuvent générer des requêtes SQL à partir de questions en langage naturel, ce qui facilite la recherche de données pour ceux qui ne sont pas familiers avec SQL.

Les plateformes de contenu comme Followin intègrent ChatGPT pour résumer les points de vue et les mises à jour dans des secteurs spécifiques. L’encyclopédie Web3 IQ.wiki vise à être la principale source de connaissances objectives et de haute qualité sur la technologie blockchain et la crypto-monnaie. Il intègre GPT-4 pour résumer les articles wiki, rendant les informations sur la blockchain plus accessibles dans le monde entier. Le moteur de recherche basé sur le LLM Kaito vise à révolutionner la recherche d’informations Web3.

Dans le domaine créatif, des projets comme NFPrompt réduisent le coût de création de contenu. NFPrompt permet aux utilisateurs de générer des NFT plus facilement grâce à l’IA, en fournissant divers services créatifs personnalisés.

3.2.3 Audit de l’IA Contrats intelligents

L’audit des smart contracts est une tâche cruciale dans le Web3, et l’IA peut améliorer l’efficacité et la précision dans l’identification des vulnérabilités du code.

Vitalik Buterin a noté que l’un des plus grands défis dans l’espace crypto-monnaie est les erreurs dans notre code. L’IA promet de simplifier considérablement l’utilisation d’outils de vérification formelle pour prouver l’exactitude du code. Y parvenir pourrait conduire à un SEK EVM (Ethereum Virtual Machine) presque sans erreur, améliorant ainsi la sécurité de l’espace car moins d’erreurs augmentent la sécurité globale.

Par exemple, le projet 0x0.ai propose un auditeur de contrats intelligents alimenté par l’IA. Cet outil utilise des algorithmes avancés pour analyser les smart contracts et identifier les vulnérabilités ou les problèmes potentiels qui pourraient entraîner une fraude ou d’autres risques de sécurité. Les auditeurs utilisent l’apprentissage automatique pour détecter les modèles et les anomalies dans le code, en signalant les problèmes potentiels pour un examen plus approfondi.

Il existe d’autres cas natifs où l’IA aide le Web3. PAAL aide les utilisateurs à créer des bots d’IA personnalisés qui peuvent être déployés sur Telegram et Discord pour servir les utilisateurs de Web3. L’agrégateur DEX multi-chaînes piloté par l’IA Hera utilise l’IA pour fournir les meilleurs chemins de trading entre toutes les paires de jetons sur différents jetons. Dans l’ensemble, la contribution de l’IA au Web3 se situe principalement au niveau des outils, en améliorant divers processus et fonctionnalités.

Limitations et défis actuels du projet AI + Web3

4.1 Obstacles réalistes dans le Puissance de calcul décentralisé

Actuellement, de nombreux projets Web3 aidant l’IA se concentrent sur la puissance de calcul décentralisée. L’utilisation d’incitations symboliques pour encourager les utilisateurs mondiaux à faire partie de l’offre de puissance de calcul est une innovation très intéressante. Cependant, d’un autre côté, il y a des questions réalistes qui doivent être abordées :

Par rapport aux fournisseurs de services de puissance de calcul centralisés, les produits de puissance de calcul décentralisés s’appuient généralement sur des nœuds et des participants répartis dans le monde entier pour fournir des ressources informatiques. En raison de la latence et de l’instabilité possibles des connexions réseau entre ces nœuds, les performances et la stabilité peuvent être pires que les produits de puissance de calcul centralisés.

En outre, la disponibilité des produits de puissance de calcul décentralisés est affectée par le degré de matching entre l’offre et la demande. S’il n’y a pas assez de fournisseurs ou si la demande est trop élevée, cela peut entraîner une pénurie de ressources ou une incapacité à répondre aux besoins des utilisateurs.

Enfin, par rapport aux produits de puissance de calcul centralisés, les produits de puissance de calcul décentralisés impliquent généralement plus de détails techniques et de complexité. Les utilisateurs peuvent avoir besoin de comprendre et de gérer certains aspects des réseaux distribués, des smart contracts et des paiements en cryptomonnaies, ce qui augmente le coût de la compréhension et de l’utilisation par les utilisateurs.

Après des discussions approfondies avec de nombreuses équipes de projet de puissance de calcul décentralisée, il a été constaté que la puissance de calcul décentralisée actuelle est encore principalement limitée à l’inférence de l’IA plutôt qu’à l’entraînement de l’IA.

Ensuite, j’utiliserai quatre questions pour aider tout le monde à comprendre les raisons derrière cela :

  1. Pourquoi la plupart des projets de puissance de calcul décentralisée choisissent-ils de faire de l’inférence d’IA plutôt que de l’entraîner à l’IA ?

  2. Qu’est-ce qui rend NVIDIA si puissant ? Quelles sont les raisons pour lesquelles l’entraînement à la puissance de calcul décentralisée est difficile ?

  3. Quelle sera la fin du jeu pour la puissance de calcul décentralisée (Render, Akash, io.net, etc.) ?

  4. Quelle sera la fin du jeu pour les algorithmes décentralisés (Bittensor) ?

Entrons dans les détails étape par étape :

1) En observant ce domaine, la plupart des projets de puissance de calcul décentralisée choisissent de se concentrer sur l’inférence de l’IA plutôt que sur l’entraînement, principalement en raison des différentes exigences en matière de puissance de calcul et de bande passante.

Pour aider tout le monde à mieux comprendre, comparons l’IA à un étudiant :

  • Formation de l’IA : Si nous comparons l’intelligence artificielle à un étudiant, la formation revient à fournir à l’IA une grande quantité de connaissances et d’exemples, ce que nous appelons souvent des données. L’IA apprend de ces exemples. Étant donné que l’apprentissage implique la compréhension et la mémorisation de grandes quantités d’informations, ce processus nécessite une puissance de calcul et un temps considérables.

  • Inférence IA : L’inférence peut être comprise comme l’utilisation des connaissances acquises pour résoudre des problèmes ou passer des examens. Au cours de l’inférence, l’IA utilise les connaissances acquises pour répondre à des questions plutôt que d’acquérir de nouvelles informations, d’où les exigences de calcul sont relativement plus faibles.

Il est facile de voir que la différence fondamentale en matière de difficulté réside dans le fait que l’entraînement de l’IA sur de grands modèles nécessite d’énormes volumes de données et une bande passante extrêmement élevée pour la transmission des données, ce qui le rend très difficile à réaliser avec une puissance de calcul décentralisée. En revanche, l’inférence nécessite beaucoup moins de données et de bande passante, ce qui la rend plus réalisable.

Pour les grands modèles, la stabilité est cruciale. Si la formation est interrompue, elle doit redémarrer, ce qui entraîne des coûts irrécupérables élevés. D’autre part, il est possible de répondre à des exigences de puissance de calcul relativement faibles, telles que l’inférence de l’IA ou certains scénarios spécifiques impliquant l’entraînement de modèles de taille moyenne à petite. Dans les réseaux de puissance de calcul décentralisés, certains fournisseurs de services de nœuds relativement importants peuvent répondre à ces demandes de puissance de calcul relativement plus élevées.

2) Alors, où sont les goulots d’étranglement dans les données et la bande passante ? Pourquoi la formation décentralisée est-elle difficile à réaliser ?

Cela implique deux éléments clés de l’entraînement des grands modèles : la puissance de calcul d’une seule carte et le parallélisme multi-cartes.

Puissance de calcul d’une seule carte : À l’heure actuelle, tous les centres nécessitant l’entraînement de grands modèles, appelés centres de calcul intensif, peuvent être comparés au corps humain, où l’unité sous-jacente, le GPU, est comme une cellule. Si la puissance de calcul d’une seule cellule (GPU) est forte, la puissance de calcul globale (une seule cellule × quantité) peut également être très forte.

Parallélisme multi-cartes : l’entraînement d’un modèle volumineux implique souvent des centaines de milliards de gigaoctets. Pour les centres de calcul intensif qui entraînent de grands modèles, au moins des dizaines de milliers de GPU A100 sont nécessaires. Cela nécessite de mobiliser des milliers de cartes pour l’entraînement. Cependant, l’entraînement d’un grand modèle n’est pas un simple processus en série ; il ne se contente pas de s’entraîner sur la première carte A100 et de passer ensuite à la seconde. Au lieu de cela, différentes parties du modèle sont entraînées simultanément sur différents GPU, et la partie d’entraînement A peut nécessiter des résultats de la partie B, impliquant un traitement parallèle.

La domination de NVIDIA et sa valeur marchande croissante, alors qu’AMD et des entreprises nationales comme Huawei et Horizon ont du mal à rattraper leur retard, découlent de deux aspects : l’environnement logiciel CUDA et la communication multi-cartes NVLink.

Environnement logiciel CUDA : Il est crucial de savoir s’il existe un écosystème logiciel adapté au matériel, comme le système CUDA de NVIDIA. La construction d’un nouveau système est un défi, semblable à la création d’un nouveau langage avec des coûts de remplacement élevés.

Communication multi-cartes NVLink : Essentiellement, la communication multi-cartes implique l’entrée et la sortie d’informations. La parallélisation et la transmission sont cruciales. La présence de NVLink signifie que les cartes NVIDIA et AMD ne peuvent pas communiquer ; De plus, NVLink limite la distance physique entre les GPU, ce qui les oblige à se trouver dans le même centre de calcul intensif. Il est donc difficile pour la puissance de calcul décentralisée répartie dans le monde entier de former un cluster de calcul cohérent pour l’entraînement de grands modèles.

Le premier point explique pourquoi AMD et les entreprises nationales comme Huawei et Horizon ont du mal à rattraper leur retard ; le deuxième point explique pourquoi la formation décentralisée est difficile à réaliser.

3) Quelle sera la fin du jeu pour la puissance de calcul décentralisée ? La puissance de calcul décentralisée a actuellement du mal à entraîner des modèles volumineux, car la stabilité est primordiale. Les interruptions nécessitent une nouvelle formation, ce qui entraîne des coûts irrécupérables élevés. Les exigences élevées en matière de parallélisme multi-cartes sont limitées par des contraintes de bande passante physique. Le NVLink de NVIDIA permet une communication multi-cartes, mais au sein d’un centre de calcul intensif, NVLink limite la distance physique entre les GPU. Ainsi, la puissance de calcul dispersée ne peut pas former un cluster de calcul pour l’entraînement de modèles volumineux.

Cependant, pour les demandes avec des exigences de puissance de calcul relativement faibles, telles que l’inférence de l’IA ou certains scénarios spécifiques impliquant l’entraînement de modèles de taille moyenne à petite, les réseaux de puissance de calcul décentralisés avec certains fournisseurs de services de nœuds relativement grands ont du potentiel. De plus, des scénarios tels que l’edge computing pour le rendu sont relativement plus faciles à mettre en œuvre.

4) Quelle sera la fin du jeu pour les modèles d’algorithmes décentralisés ? L’avenir des modèles d’algorithmes décentralisés dépend de l’orientation finale de l’IA. Je pense que l’avenir de l’IA pourrait comporter 1 ou 2 géants de modèles à source fermée (comme ChatGPT) aux côtés d’une pléthore de modèles. Dans ce contexte, les produits de la couche application n’ont pas besoin de se lier à un seul grand modèle, mais plutôt de coopérer avec plusieurs grands modèles. Dans ce scénario, le modèle de Bittensor présente un potentiel important.

Dans les projets actuels combinant le Web3 et l’IA, en particulier ceux où l’IA aide les initiatives Web3, la plupart des projets se contentent d’utiliser l’IA superficiellement sans démontrer une intégration profonde entre l’IA et les crypto-monnaies. Cette application superficielle se manifeste sous les deux aspects suivants :

  • Tout d’abord, que ce soit pour l’utilisation de l’IA pour l’analyse et la prédiction de données, dans des scénarios de recommandation et de recherche, ou pour l’audit de code, il y a peu de différence par rapport à l’intégration de l’IA dans les projets Web2. Ces projets tirent simplement parti de l’IA pour améliorer l’efficacité et l’analyse sans présenter une fusion native de l’IA et des crypto-monnaies ou présenter des solutions innovantes.
  • Deuxièmement, de nombreuses équipes Web3 intègrent davantage l’IA comme un gadget marketing, en capitalisant uniquement sur le concept d’IA. Ils appliquent la technologie de l’IA dans des domaines très limités, puis commencent à promouvoir la tendance de l’IA, créant ainsi une façade d’intégration étroite avec l’IA. Cependant, ces projets manquent d’innovation substantielle.

Bien que les projets actuels du Web3 et de l’IA présentent ces limites, nous devons reconnaître qu’il ne s’agit que du stade précoce du développement. À l’avenir, nous pouvons nous attendre à des recherches et à des innovations plus approfondies pour parvenir à une intégration plus étroite entre l’IA et les crypto-monnaies, créant ainsi des solutions plus natives et plus significatives dans des domaines tels que la finance, les organisations autonomes décentralisées (DAO), les marchés de prédiction et les NFT.

4.3 Jeton L’économie sert de tampon pour les récits de projets d’IA

Comme mentionné précédemment, les projets d’IA sont confrontés à des défis dans leurs modèles économiques, d’autant plus que de plus en plus de grands modèles deviennent progressivement open source. De nombreux projets AI + Web3, souvent des projets d’IA purs qui luttent pour prospérer et obtenir des fundings dans l’espace Web2, choisissent de superposer les récits et l’économie symbolique du Web3 pour encourager la participation des utilisateurs.

Cependant, la question cruciale est de savoir si l’intégration de l’économie des jetons aide vraiment les projets d’IA à répondre aux besoins du monde réel ou si elle sert simplement de proposition de valeur narrative ou à short terme. Actuellement, la plupart des projets AI + Web3 sont loin d’avoir atteint un stade pratique. On espère que des équipes plus ancrées et réfléchies utiliseront non seulement les jetons comme un moyen de faire du battage médiatique sur les projets d’IA, mais aussi pour répondre véritablement aux cas d’utilisation pratiques.

Résumé

Actuellement, de nombreux cas et applications ont émergé dans les projets IA + Web3. Tout d’abord, la technologie de l’IA peut fournir des cas d’utilisation plus efficaces et plus intelligents pour le Web3. Grâce aux capacités de l’IA en matière d’analyse et de prédiction des données, les utilisateurs du Web3 peuvent disposer de meilleurs outils pour les décisions d’investissement et d’autres scénarios. De plus, l’IA peut auditer le code des contrats intelligents, optimiser l’exécution des contrats et améliorer les performances et l’efficacité de la blockchain. De plus, la technologie de l’IA peut offrir des recommandations plus précises et intelligentes et des services personnalisés pour les applications décentralisées, améliorant ainsi l’expérience utilisateur.

Dans le même temps, la nature décentralisée et programmable du Web3 présente également de nouvelles opportunités pour la technologie de l’IA. Grâce à des incitations symboliques, les projets de puissance de calcul décentralisée apportent de nouvelles solutions au dilemme de la puissance de calcul insuffisante de l’IA. Les smart contracts et les mécanismes de stockage distribués du Web3 offrent également un espace et des ressources plus larges pour le partage et la formation d’algorithmes d’IA. L’autonomie des utilisateurs et les mécanismes de confiance du Web3 offrent également de nouvelles possibilités pour le développement de l’IA, permettant aux utilisateurs de choisir de manière autonome de participer au partage de données et à la formation, améliorant ainsi la diversité et la qualité des données et améliorant encore les performances et la précision des modèles d’IA.

Bien que les projets croisés IA + Web3 actuels n’en soient qu’à leurs débuts et fassent face à de nombreux défis, ils apportent également de nombreux avantages. Par exemple, les produits de puissance de calcul décentralisés présentent certains inconvénients, mais ils réduisent la dépendance à l’égard des institutions centralisées, offrent une plus grande transparence et une plus grande vérifiabilité, et permettent une participation et une innovation plus larges. Pour des cas d’utilisation spécifiques et les besoins des utilisateurs, les produits de puissance de calcul décentralisés peuvent être un choix précieux. Il en va de même pour la collecte de données ; Les projets de collecte de données décentralisées offrent des avantages tels que la réduction de la dépendance à l’égard de sources de données uniques, la fourniture d’une couverture de données plus large et la promotion de la diversité et de l’inclusion des données. Dans la pratique, il est nécessaire d’équilibrer ces avantages et ces inconvénients et de prendre des mesures de gestion et techniques appropriées pour surmonter les défis, en veillant à ce que les projets de collecte de données décentralisées aient un impact positif sur le développement de l’IA.

Dans l’ensemble, l’intégration de l’IA + Web3 offre des possibilités infinies pour l’innovation technologique et le développement économique futurs. En combinant les capacités intelligentes d’analyse et de prise de décision de l’IA avec la nature décentralisée et autonome de l’utilisateur du Web3, on pense que nous pouvons construire un système économique et même social plus intelligent, plus ouvert et plus juste.

Ryze Labs]. Tous les droits d’auteur appartiennent à l’auteur original [Fred]. S’il y a des objections à cette réimpression, veuillez contacter l’équipe Gate Learn, et ils la traiteront rapidement.
  • Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l’auteur et ne constituent pas un conseil en investissement.
  • Les traductions de l’article dans d’autres langues sont effectuées par l’équipe de Gate Learn. Sauf mention contraire, il est interdit de copier, de distribuer ou de plagier les articles traduits.
  • Analyse en Depth : quels types d’étincelles l’IA et le Web3 peuvent-ils créer ?

    Avancé6/7/2024, 5:04:48 AM
    Cet article explore le développement rapide des technologies d’intelligence artificielle (IA) et du Web3, ainsi que la valeur et l’impact potentiels de leur intégration. L’IA excelle dans l’amélioration de la productivité, tandis que le Web3 transforme les relations de production grâce à la décentralisation. La combinaison de ces technologies apporte des applications innovantes dans l’analyse des données, les services personnalisés aux utilisateurs et la sécurité et la protection de la vie privée.

    Introduction : Développement de l’IA+Web3

    Ces dernières années, le développement rapide de l’intelligence artificielle (IA) et des technologies Web3 a attiré l’attention du monde entier. L’IA, une technologie qui simule et imite l’intelligence humaine, a réalisé des percées significatives dans des domaines tels que la reconnaissance faciale, le traitement du langage naturel et l’apprentissage automatique. Les progrès rapides de la technologie de l’IA ont entraîné une transformation et une innovation considérables dans divers secteurs.

    L’industrie de l’IA a atteint une taille de marché de 200 milliards de dollars en 2023, avec des géants de l’industrie et des acteurs de premier plan comme OpenAI, Character.AI et Midjourney émergeant rapidement et leading le boom de l’IA.

    Dans le même temps, le Web3, un modèle Internet émergent, modifie progressivement notre perception et notre utilisation d’Internet. Basé sur la technologie blockchain décentralisée, le Web3 réalise le partage et le contrôle des données, l’autonomie de l’utilisateur et la mise en place de mécanismes de confiance grâce à des fonctionnalités telles que la smart contracts, le stockage distribué et la vérification d’identité décentralisée. L’idée centrale du Web3 est de libérer les données des autorités centralisées, en donnant aux utilisateurs le contrôle et la possibilité de partager la valeur de leurs données.

    Actuellement, la valeur marchande de l’industrie du Web3 a atteint 25 000 milliards de dollars. De Bitcoin, Ethereum et Solana aux acteurs au niveau des applications comme Uniswap et Stepn, de nouveaux récits et scénarios émergent continuellement, attirant de plus en plus de personnes à rejoindre l’industrie Web3.

    Il est évident que l’intégration de l’IA et du Web3 est un point focal pour les constructeurs et les investisseurs en capital-risque de l’Est et de l’Ouest. Explorer comment combiner efficacement ces deux technologies est une entreprise très utile.

    Cet article se concentrera sur l’état actuel du développement de l’IA + Web3, en explorant la valeur et l’impact potentiels de leur intégration. Nous présenterons d’abord les concepts de base et les caractéristiques de l’IA et du Web3, puis discuterons de leur interrelation. Ensuite, nous analyserons l’état actuel des projets AI+Web3 et nous nous pencherons sur les limites et les défis auxquels ils sont confrontés. Grâce à cette recherche, nous visons à fournir des références et des informations précieuses aux investisseurs et aux professionnels de l’industrie.

    Comment l’IA interagit avec le Web3

    Le développement de l’IA et du Web3 peut être considéré comme les deux côtés d’une échelle : l’IA apporte des améliorations de productivité, tandis que le Web3 révolutionne les relations de production. Alors, quel genre d’étincelles l’IA et le Web3 peuvent-ils créer lorsqu’ils entrent en collision ? Nous analyserons d’abord les défis et les améliorations potentielles dans les secteurs de l’IA et du Web3, puis nous explorerons comment ils peuvent aider à résoudre les problèmes des uns et des autres.

    1. Défis et améliorations potentielles dans l’industrie de l’IA
    2. Défis et améliorations potentielles dans l’industrie du Web3

    2.1 Défis de l’industrie de l’IA

    Pour explorer les défis auxquels est confrontée l’industrie de l’IA, nous devons d’abord comprendre son essence. Le cœur de l’industrie de l’IA s’articule autour de trois éléments clés : la puissance de calcul, les algorithmes et les données.

    1. Tout d’abord, la puissance de calcul : la puissance de calcul fait référence à la capacité d’effectuer des calculs et des traitements à grande échelle. Les tâches d’IA nécessitent généralement de traiter de grandes quantités de données et d’effectuer des calculs complexes, tels que l’entraînement de modèles de réseaux neuronaux profonds. Une puissance de calcul élevée peut accélérer les processus d’entraînement et d’inférence des modèles, améliorant ainsi les performances et l’efficacité des systèmes d’IA. Ces dernières années, les progrès de la technologie matérielle, tels que les unités de traitement graphique (GPU) et les puces dédiées à l’IA (comme les TPU), ont considérablement augmenté la puissance de calcul, stimulant le développement de l’industrie de l’IA. Nvidia, l’un des principaux fournisseurs de GPU, a vu le cours de son action monter en flèche ces dernières années, s’emparant d’une grande part de marché et réalisant des bénéfices substantiels.
    2. Qu’est-ce qu’un algorithme : Les algorithmes sont les composants essentiels des systèmes d’IA. Ce sont des méthodes mathématiques et statistiques utilisées pour résoudre des problèmes et effectuer des tâches. Les algorithmes d’IA peuvent être classés en algorithmes d’apprentissage automatique traditionnels et algorithmes d’apprentissage profond, les algorithmes d’apprentissage profond ayant fait des percées significatives ces dernières années. Le choix et la conception des algorithmes sont cruciaux pour la performance et l’efficacité des systèmes d’IA. L’amélioration continue et l’innovation dans les algorithmes peuvent améliorer la précision, la robustesse et les capacités de généralisation des systèmes d’IA. Différents algorithmes donnent des résultats différents, de sorte que les progrès des algorithmes sont essentiels pour l’exécution des tâches.
    3. Pourquoi les données sont importantes : La tâche principale des systèmes d’IA est d’extraire des modèles et des règles des données par le biais de l’apprentissage et de la formation. Les données constituent la base de l’entraînement et de l’optimisation des modèles. Grâce à des échantillons de données à grande échelle, les systèmes d’IA peuvent apprendre des modèles plus précis et plus intelligents. Des ensembles de données riches fournissent des informations complètes et diversifiées, ce qui permet aux modèles de mieux se généraliser aux données invisibles et aide les systèmes d’IA à mieux comprendre et résoudre les problèmes du monde réel.

    Après avoir compris les trois éléments fondamentaux de l’IA actuelle, examinons les difficultés et les défis auxquels l’IA est confrontée dans ces domaines.

    Tout d’abord, en termes de puissance de calcul, les tâches d’IA nécessitent généralement une grande quantité de ressources de calcul pour l’entraînement et l’inférence des modèles, en particulier pour les modèles d’apprentissage profond. Cependant, l’obtention et la gestion d’une puissance de calcul à grande échelle est un défi coûteux et complexe. Le coût, la consommation d’énergie et l’entretien des équipements de calcul haute performance sont des enjeux importants. C’est particulièrement difficile pour les startups et les développeurs individuels, pour qui il peut être difficile d’acquérir une puissance de calcul suffisante.

    En termes d’algorithmes, malgré les succès significatifs des algorithmes d’apprentissage profond dans de nombreux domaines, il existe encore des défis et des difficultés. Par exemple, l’entraînement de réseaux de neurones profonds nécessite une grande quantité de données et de ressources de calcul. De plus, pour certaines tâches, l’interprétabilité et l’explicabilité des modèles peuvent être insuffisantes. La robustesse et les capacités de généralisation des algorithmes sont également des questions cruciales, car les performances des modèles sur des données invisibles peuvent être instables. Trouver le meilleur algorithme pour fournir des performances optimales parmi de nombreux algorithmes est une exploration continue.

    En termes de données, les données sont le moteur de l’IA, mais l’obtention de données diversifiées et de haute qualité reste un défi. Les données dans certains domaines, comme les données sensibles sur la santé dans le secteur médical, peuvent être difficiles à obtenir. En outre, la qualité, l’exactitude et l’étiquetage des données sont des questions critiques, car des données incomplètes ou biaisées peuvent entraîner un comportement erroné du modèle ou des biais. La protection de la confidentialité et de la sécurité des données est également une considération importante.

    De plus, il y a des problèmes liés à l’interprétabilité et à la transparence. La nature « boîte noire » des modèles d’IA est une préoccupation publique. Dans certaines applications, telles que la finance, la santé et la justice, le processus de prise de décision des modèles doit être interprétable et traçable. Cependant, les modèles d’apprentissage profond existants manquent souvent de transparence. Expliquer le processus de prise de décision des modèles et fournir des explications fiables reste un défi.

    De plus, les modèles commerciaux de nombreux projets de startups d’IA ne sont pas très clairs, ce qui crée également de la confusion pour de nombreux entrepreneurs en IA.

    2.2 Défis de l’industrie du Web3

    Dans l’industrie du Web3, de nombreux défis doivent être relevés, allant de l’analyse des données et de l’expérience utilisateur aux vulnérabilités des contrats intelligents et aux attaques de pirates. L’IA, en tant qu’outil d’amélioration de la productivité, recèle un potentiel important dans ces domaines.

    Tout d’abord, il y a place à l’amélioration de l’analyse des données et des capacités prédictives. Les applications de l’IA dans l’analyse et la prédiction des données ont eu un impact significatif sur l’industrie du Web3. Grâce à l’analyse intelligente et à l’exploration par des algorithmes d’IA, les plateformes Web3 peuvent extraire des informations précieuses de grandes quantités de données et faire des prédictions et des décisions plus précises. Ceci est particulièrement important pour l’évaluation des risques, les prévisions de marché et la gestion des actifs dans la finance décentralisée (DeFi).

    De plus, il existe un potentiel d’amélioration de l’expérience utilisateur et des services de personnalisation. Les applications d’IA permettent aux plateformes Web3 d’offrir de meilleures expériences utilisateur et des services personnalisés. En analysant et en modélisant les données des utilisateurs, les plateformes Web3 peuvent fournir des recommandations personnalisées, des services personnalisés et des expériences d’interaction intelligentes. Cela permet d’augmenter l’engagement et la satisfaction des utilisateurs, favorisant ainsi le développement de l’écosystème Web3. Par exemple, de nombreux protocoles Web3 intègrent des outils d’IA comme ChatGPT pour mieux servir les utilisateurs.

    En termes de sécurité et de protection de la vie privée, les applications d’IA ont également un impact profond sur l’industrie du Web3. La technologie de l’IA peut être utilisée pour détecter et se défendre contre les attaques réseau, identifier les comportements anormaux et fournir des mesures de sécurité plus solides. En outre, l’IA peut être appliquée à la protection de la confidentialité des données, en protégeant les informations personnelles des utilisateurs sur les plates-formes Web3 grâce à des techniques telles que le chiffrement des données et l’informatique de confidentialité. En ce qui concerne l’audit des contrats intelligents, étant donné que des vulnérabilités et des risques de sécurité peuvent exister dans les processus de rédaction et d’audit des smart contracts, la technologie de l’IA peut être utilisée pour l’audit automatisé des contrats et la détection des vulnérabilités, améliorant ainsi la sécurité et la fiabilité des contrats.

    Il est évident que l’IA peut contribuer de manière significative à relever les défis et à apporter des améliorations potentielles à l’industrie du Web3 dans divers aspects.

    Analyse de la situation actuelle du projet AI+Web3

    La combinaison des projets d’IA et de Web3 se concentre principalement sur deux aspects principaux : tirer parti de la technologie blockchain pour améliorer les projets d’IA et utiliser la technologie de l’IA pour servir l’amélioration des projets Web3. De nombreux projets ont vu le jour dans ce sens, dont Io.net, Gensyn, Ritual, entre autres. L’analyse suivante se penchera sur différents sous-domaines où l’IA aide le Web3 et où le Web3 améliore l’IA.

    3.1 Le Web3 aide l’IA

    3.1.1 Puissance de calcul décentralisée

    Depuis le lancement de ChatGPT par OpenAI fin 2022, il a déclenché une frénésie dans le domaine de l’IA. Dans les cinq jours qui ont suivi sa sortie, la base d’utilisateurs a atteint un million, dépassant le taux de téléchargement d’Instagram, qui a mis environ deux mois et demi pour atteindre le même jalon. Par la suite, ChatGPT a connu une croissance rapide, avec des utilisateurs actifs mensuels atteignant 100 millions en deux mois et des utilisateurs actifs hebdomadaires atteignant 100 millions en novembre 2023. Avec l’avènement de ChatGPT, le secteur de l’IA est rapidement passé d’un domaine de niche à une industrie très appréciée.

    Selon le rapport de Trendforce, ChatGPT nécessite 30 000 GPU NVIDIA A100 pour fonctionner, et les futurs modèles comme GPT-5 nécessiteront encore plus de puissance de calcul. Cela a déclenché une course aux armements entre diverses entreprises d’IA, car posséder une puissance de calcul suffisante est crucial pour maintenir un avantage concurrentiel dans le domaine de l’IA, leading à une pénurie de GPU.

    Avant la hausse de l’IA, le principal fournisseur de GPU, NVIDIA, servait principalement les clients des trois principaux services cloud : AWS, Azure et GCP. Avec la hausse de l’intelligence artificielle, de nombreux nouveaux acheteurs ont émergé, y compris de grandes entreprises technologiques comme Meta, Oracle, ainsi que d’autres plates-formes de données et startups d’IA, rejoignant toutes la course pour stocker des GPU pour former des modèles d’IA. Les grandes entreprises technologiques comme Meta et Tesla ont considérablement augmenté leurs achats de modèles d’IA personnalisés et leurs recherches internes. Des entreprises de modèles de base comme Anthropic et des plateformes de données comme Snowflake et Databricks ont également acheté plus de GPU pour aider leurs clients à fournir des services d’IA.

    Comme l’a mentionné Semi Analysis l’année dernière, il existe un fossé entre les entreprises « riches en GPU » et les entreprises « pauvres en GPU », seules quelques-unes possédant plus de 20 000 GPU A100/H100, ce qui permet aux membres de l’équipe d’utiliser entre 100 et 1000 GPU pour les projets. Ces entreprises sont soit des fournisseurs de cloud, soit ont construit leurs propres grands modèles de langage (LLM), notamment OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, entre autres.

    Cependant, la majorité des entreprises chute dans la catégorie des « GPU pauvres », luttant avec beaucoup moins de GPU et consacrant beaucoup de temps et d’efforts à des tâches plus difficiles à faire progresser dans l’écosystème. D’ailleurs, cette situation ne se limite pas aux startups. Certaines des sociétés d’IA les plus connues, telles que Hugging Face, Databricks (MosaicML), Together et même Snowflake, ont des quantités d’A100/H100 inférieures à 20 000. Bien qu’elles disposent de talents techniques de classe mondiale, ces entreprises sont limitées par l’offre limitée de GPU, ce qui les désavantage par rapport aux grandes entreprises de la concurrence de l’IA.

    Cette pénurie ne se limite pas à la catégorie « GPU pauvre » ; même à la fin de 2023, le leader de l’IA, OpenAI, a dû fermer temporairement les inscriptions payantes en raison de l’incapacité d’obtenir suffisamment de GPU et a dû se procurer plus de fournitures GPU.

    Il est évident que le développement rapide de l’IA a entraîné une grave inadéquation entre l’offre et la demande de GPU, créant une pénurie imminente de l’offre.

    Pour résoudre ce problème, certains projets Web3 ont commencé à explorer des solutions de puissance de calcul décentralisées, en tirant parti des caractéristiques uniques de la technologie Web3. Ces projets incluent Akash, Render, Gensyn, entre autres. La caractéristique commune entre ces projets est l’utilisation de jetons pour inciter les utilisateurs à fournir une puissance de calcul GPU inactive, devenant ainsi le côté support de la puissance de calcul pour les clients IA de support.

    Le profil du côté de l’offre se compose principalement de trois aspects : les fournisseurs de services cloud, les mineurs de crypto-monnaie et les entreprises. Les fournisseurs de services cloud comprennent les principaux fournisseurs de services cloud (tels qu’AWS, Azure, GCP) et les fournisseurs de services cloud GPU (tels que Coreweave, Lambda, Crusoe), où les utilisateurs peuvent revendre la puissance de calcul inutilisée de ces fournisseurs pour générer des revenus. Avec la transition d’Ethereum de PoW à PoS, la puissance de calcul GPU inactive est devenue un côté d’offre potentiel important pour les mineurs de crypto-monnaie. De plus, les grandes entreprises comme Tesla et Meta, qui ont acheté de grandes quantités de GPU à des fins stratégiques, peuvent également contribuer à leur puissance de calcul GPU inactive dans le cadre de l’offre.

    À l’heure actuelle, les acteurs de ce domaine peuvent généralement être divisés en deux catégories : ceux qui utilisent la puissance de calcul décentralisée pour l’inférence de l’IA et ceux qui l’utilisent pour l’entraînement de l’IA. La première catégorie comprend des projets comme Render (bien que axé sur le rendu, il peut également être utilisé pour l’informatique basée sur l’IA), Akash, Aethir, tandis que la seconde catégorie comprend des projets comme io.net (prenant en charge à la fois l’inférence et l’entraînement) et Gensyn. La principale différence entre les deux réside dans les exigences différentes en matière de puissance de calcul.

    Discutons d’abord des projets axés sur l’inférence de l’IA. Ces projets incitent les utilisateurs à fournir de la puissance de calcul par le biais d’incitations symboliques, puis à fournir des services de réseau de puissance de calcul du côté de la demande, facilitant ainsi le matching de l’offre et de la demande de puissance de calcul inutilisées. Les détails de ces projets sont couverts dans un rapport de recherche de DePIN de nos laboratoires Ryze, n’hésitez pas à les lire.

    Le point central réside dans le mécanisme d’incitation symbolique, où le projet attire d’abord les fournisseurs, puis les utilisateurs, réalisant ainsi le mécanisme de démarrage à froid et d’exploitation de base du projet, permettant ainsi une expansion et un développement ultérieurs. Dans ce cycle, l’offre reçoit des récompenses symboliques plus précieuses, tandis que la demande bénéficie de services plus rentables. La valeur des tokens du projet et la croissance de l’offre et de la demande restent constantes. Au fur et à mesure que le prix du jeton augmente, de plus en plus de participants et de spéculateurs sont attirés, créant ainsi une boucle de capture de valeur.

    Une autre catégorie implique l’utilisation d’une puissance de calcul décentralisée pour l’entraînement de l’IA, comme Gensyn et io.net (qui support à la fois l’entraînement et l’inférence de l’IA). En fait, la logique opérationnelle de ces projets n’est pas fondamentalement différente de celle des projets d’inférence d’IA. Ils s’appuient toujours sur des incitations symboliques pour attirer la participation du côté de l’offre afin de fournir de la puissance de calcul, qui est ensuite utilisée par le côté de la demande.

    io.net, en tant que réseau de puissance de calcul décentralisé, compte actuellement plus de 500 000 GPU, ce qui en fait un acteur exceptionnel dans les projets de puissance de calcul décentralisée. De plus, il a intégré la puissance de calcul de Render et Filecoin, démontrant le développement continu de son écosystème.

    De plus, Gensyn facilite l’attribution des tâches d’apprentissage automatique et les récompenses grâce à smart contracts pour permettre l’entraînement de l’IA. Comme l’illustre le diagramme ci-dessous, le coût horaire du travail de formation au machine learning dans Gensyn est d’environ 0,4 USD, ce qui est nettement inférieur au coût de plus de 2 USD sur AWS et GCP.

    L’écosystème Gensyn comprend quatre entités participantes :

    • Expéditeurs : il s’agit des utilisateurs côté demande qui consomment des tâches et paient pour des tâches d’entraînement de l’IA.
    • Exécuteurs : les exécuteurs exécutent les tâches d’entraînement du modèle et fournissent des preuves de l’achèvement des tâches à des fins de vérification.
    • Vérificateurs : Les vérificateurs relient le processus d’apprentissage non déterministe au calcul linéaire déterministe. Ils comparent les preuves fournies par les exécuteurs testamentaires avec les seuils attendus.
    • Reporters : Les reporters inspectent le travail des vérificateurs et lancent des défis pour gagner des récompenses lorsqu’ils identifient des problèmes.

    Comme nous pouvons le voir, Gensyn vise à devenir un protocole de calcul massivement évolutif et rentable pour les modèles mondiaux d’apprentissage profond. Cependant, si l’on regarde ce domaine, pourquoi la plupart des projets choisissent-ils la puissance de calcul décentralisée pour l’inférence de l’IA plutôt que pour l’entraînement ?

    Aidons également les amis qui ne sont pas familiers avec l’entraînement et l’inférence de l’IA à comprendre la différence entre les deux :

    • Formation de l’IA : Si nous comparons l’intelligence artificielle à un étudiant, la formation revient à fournir à l’IA une grande quantité de connaissances et d’exemples, qui peuvent être compris comme des données. L’IA apprend de ces exemples. Parce que l’apprentissage implique la compréhension et la mémorisation d’une grande quantité d’informations, ce processus nécessite une quantité importante de puissance de calcul et de temps.
    • Inférence de l’IA : Alors, qu’est-ce que l’inférence ? Il peut être compris comme l’utilisation des connaissances acquises pour résoudre des problèmes ou passer des examens. Lors de l’inférence, l’intelligence artificielle utilise les connaissances apprises pour fournir des réponses, plutôt que d’acquérir de nouvelles connaissances. Par conséquent, les exigences de calcul pour le processus d’inférence sont relativement faibles.

    On peut voir que les exigences en matière de puissance de calcul pour l’inférence de l’IA et l’entraînement de l’IA diffèrent considérablement. La disponibilité d’une puissance de calcul décentralisée pour l’inférence de l’IA et l’entraînement de l’IA sera analysée plus en détail dans la prochaine section sur les défis.

    De plus, Ritual vise à combiner des réseaux distribués avec des créateurs de modèles pour maintenir la décentralisation et la sécurité. Son premier produit, Infernet, permet aux smart contracts sur la blockchain d’accéder aux modèles d’IA off-chain, permettant à ces contrats d’accéder à l’IA d’une manière qui maintient la vérification, la décentralisation et la protection de la vie privée.

    Le coordinateur d’Infernet est responsable de la gestion du comportement des nœuds du réseau et de la réponse aux demandes de calcul des consommateurs. Lorsque les utilisateurs utilisent Infernet, des tâches telles que l’inférence et la preuve sont effectuées off-chain, la sortie étant renvoyée au coordinateur et finalement transmise aux consommateurs off-chain via smart contracts.

    En plus des réseaux de puissance de calcul décentralisés, il existe également des réseaux de bande passante décentralisés comme Grass, qui visent à améliorer la vitesse et l’efficacité de la transmission de données. Dans l’ensemble, l’émergence de réseaux de puissance de calcul décentralisés offre une nouvelle possibilité pour l’offre de puissance de calcul de l’IA, faisant avancer l’IA dans de nouvelles directions.

    3.1.2 Modèle d’algorithme décentralisé

    Comme mentionné dans le deuxième chapitre, les trois éléments fondamentaux de l’IA sont la puissance de calcul, les algorithmes et les données. Étant donné que la puissance de calcul peut former un réseau d’approvisionnement grâce à la décentralisation, les algorithmes peuvent-ils également suivre une approche similaire et former un réseau d’approvisionnement pour les modèles d’algorithmes ?

    Avant d’analyser les projets dans ce domaine, comprenons d’abord l’importance des modèles d’algorithmes décentralisés. Beaucoup de gens peuvent se demander, puisque nous avons déjà OpenAI, pourquoi avons-nous besoin d’un réseau d’algorithmes décentralisé ?

    Essentiellement, un réseau d’algorithmes décentralisé est un marché de services d’algorithmes d’IA décentralisé qui connecte de nombreux modèles d’IA différents. Chaque modèle d’IA a sa propre expertise et ses propres compétences. Lorsque les utilisateurs posent des questions, la place de marché sélectionne le modèle d’IA le plus approprié pour répondre à la question. Chat-GPT, développé par OpenAI, est l’un de ces modèles d’IA qui peut comprendre et générer du texte similaire à celui des humains.

    En termes simples, ChatGPT est comme un étudiant très compétent aidant à résoudre différents types de problèmes, tandis qu’un réseau d’algorithmes décentralisé est comme une école avec de nombreux étudiants aidant à résoudre des problèmes. Bien que l’étudiant actuel (ChatGPT) soit très capable, à long terme, il existe un grand potentiel pour une école capable de recruter des étudiants du monde entier.

    Actuellement, dans le domaine des modèles d’algorithmes décentralisés, il y a aussi des projets qui expérimentent et explorent. Ensuite, nous utiliserons le projet représentatif Bittensor comme étude de cas pour aider à comprendre le développement de ce domaine de niche.

    Dans Bittensor, l’offre de modèles d’algorithmes (ou mineurs) apporte ses modèles d’apprentissage automatique au réseau. Ces modèles peuvent analyser les données et fournir des informations. Les fournisseurs de modèles reçoivent des jetons de crypto-monnaie, connus sous le nom de TAO, en récompense de leurs contributions.

    Pour garantir la qualité des réponses, Bittensor utilise un mécanisme de consensus unique pour parvenir à un consensus sur la meilleure réponse. Lorsqu’une question est posée, plusieurs mineurs de modèles fournissent des réponses. Ensuite, les validateurs du réseau commencent à travailler pour déterminer la meilleure réponse, qui est ensuite renvoyée à l’utilisateur.

    Le jeton TAO dans l’écosystème Bittensor joue deux rôles principaux tout au long du processus. D’une part, cela incite les mineurs à apporter des modèles d’algorithmes au réseau. D’autre part, les utilisateurs doivent dépenser des jetons pour poser des questions et permettre au réseau d’accomplir des tâches.

    Étant donné que Bittensor est décentralisé, toute personne ayant accès à Internet peut rejoindre le réseau, soit en tant qu’utilisateur posant des questions, soit en tant que mineur fournissant des réponses. Cela permet à un plus grand nombre de personnes d’exploiter la puissance de l’intelligence artificielle.

    En résumé, les réseaux de modèles d’algorithmes décentralisés comme Bittensor ont le potentiel de créer un paysage plus ouvert et transparent. Dans cet écosystème, les modèles d’IA peuvent être entraînés, partagés et utilisés de manière sécurisée et décentralisée. De plus, d’autres réseaux comme BasedAI tentent des efforts similaires, avec l’aspect intrigant de l’utilisation de preuves à divulgation nulle de connaissance (ZK) pour protéger la confidentialité des données interactives du modèle utilisateur, qui sera discutée plus en détail dans la quatrième sous-section.

    Au fur et à mesure que les plateformes de modèles d’algorithmes décentralisés évoluent, elles permettront aux petites entreprises de rivaliser avec les grandes organisations en utilisant des outils d’IA de pointe, ce qui pourrait avoir des répercussions importantes dans divers secteurs.

    3.1.3 Collecte décentralisée des données

    Pour l’entraînement des modèles d’IA, une grande quantité de données est indispensable. Cependant, la plupart des entreprises Web2 monopolisent encore aujourd’hui les données des utilisateurs. Des plateformes comme X, Reddit, TikTok, Snapchat, Instagram et YouTube interdisent la collecte de données pour l’entraînement de l’IA, ce qui constitue un obstacle important au développement de l’industrie de l’IA.

    D’autre part, certaines plateformes Web2 vendent les données des utilisateurs à des entreprises d’IA sans partager les bénéfices avec les utilisateurs. Par exemple, Reddit a conclu un accord de 60 millions de dollars avec Google, permettant à Google d’entraîner des modèles d’IA à l’aide de ses publications. Il en résulte que les droits de collecte de données sont monopolisés par les grandes sociétés de capital et de mégadonnées, poussant l’industrie vers une direction à forte intensité de capital.

    En réponse à cette situation, certains projets tirent parti des incitations du Web3 et des jetons pour parvenir à une collecte de données décentralisée. Prenons l’exemple de PublicAI : les utilisateurs peuvent jouer deux rôles :

    • L’une d’entre elles est celle des fournisseurs de données d’IA. Les utilisateurs peuvent trouver du contenu de valeur sur X, taguer @PublicAI compte officiel avec leurs idées, et utiliser des hashtags #AI ou #Web3 pour catégoriser le contenu, l’envoyant ainsi au centre de données de PublicAI pour collecte.
    • L’autre catégorie est celle des validateurs de données. Les utilisateurs peuvent se connecter au centre de données PublicAI et voter sur les données les plus précieuses pour l’entraînement de l’IA.

    En guise de récompense, les utilisateurs peuvent gagner des jetons grâce à ces contributions, favorisant ainsi une relation gagnant-gagnant entre les contributeurs de données et l’industrie de l’IA.

    En plus de projets comme PublicAI, qui collectent spécifiquement des données pour la formation de l’IA, il existe de nombreux autres projets utilisant des incitations symboliques pour la collecte de données décentralisée. Par exemple, Ocean collecte les données des utilisateurs via la tokenisation des données pour servir l’IA, Hivemapper utilise les caméras de voiture des utilisateurs pour collecter des données cartographiques, Dimo collecte des données de voiture et WiHi collecte des données météorologiques. Ces projets, grâce à la collecte décentralisée de données, servent également de sources de données potentielles pour l’entraînement de l’IA. Ainsi, au sens large, ils peuvent être inclus dans le paradigme du Web3 au service de l’IA.

    3.1.4 ZK protège la vie privée des utilisateurs dans l’IA

    La technologie Blockchain offre des avantages en matière de décentralisation et introduit également une caractéristique cruciale : les preuves à divulgation nulle de connaissance. La technologie à divulgation nulle de connaissance permet de vérifier les informations tout en préservant la confidentialité.

    Dans l’apprentissage automatique traditionnel, les données doivent généralement être stockées et traitées de manière centralisée, ce qui peut entraîner des risques pour la vie privée. Les méthodes de protection de la confidentialité des données, telles que le chiffrement ou l’anonymisation des données, peuvent limiter la précision et les performances des modèles d’apprentissage automatique.

    La technologie de preuve à divulgation nulle de connaissance permet de résoudre ce dilemme en abordant le conflit entre la protection de la vie privée et le partage des données. Le Zero-Knowledge Machine Learning (ZKML) utilise la technologie de preuve à divulgation nulle de connaissance pour permettre l’entraînement et l’inférence de modèles de Machine Learning sans exposer les données d’origine. Les preuves à divulgation nulle de connaissance garantissent que les caractéristiques des données et les résultats du modèle peuvent être vérifiés comme étant corrects sans révéler le contenu réel des données.

    L’objectif principal de ZKML est d’équilibrer la protection de la vie privée et le partage des données. Il peut être appliqué dans divers scénarios tels que l’analyse des données de santé, l’analyse des données financières et la collaboration interorganisationnelle. En utilisant ZKML, les individus peuvent protéger la confidentialité de leurs données sensibles tout en partageant des données avec d’autres afin d’obtenir des informations plus larges et des opportunités de collaboration sans risque de violation de la confidentialité des données. Ce domaine n’en est encore qu’à ses débuts, la plupart des projets étant encore à l’étude. Par exemple, BasedAI propose une approche décentralisée en intégrant de manière transparente le chiffrement homomorphe (FHE) avec les grands modèles de langage (LLM) pour maintenir la confidentialité des données. Les modèles ZK-LLM (Zero-Knowledge Large Language Models) intègrent la confidentialité dans leur infrastructure réseau distribuée, garantissant ainsi la confidentialité des données des utilisateurs tout au long du fonctionnement du réseau.

    Voici une brève explication du chiffrement homomorphe complet (FHE). FHE est une technique de chiffrement qui permet d’effectuer des calculs sur des données chiffrées sans avoir besoin de les déchiffrer. Cela signifie que diverses opérations mathématiques (telles que l’addition, la multiplication, etc.) effectuées sur des données cryptées FHE donnent les mêmes résultats que si elles étaient effectuées sur les données non chiffrées d’origine, protégeant ainsi la confidentialité des données des utilisateurs.

    En plus des méthodes susmentionnées, le Web3 prend également en charge l’IA par le biais de projets tels que Cortex, qui permet l’exécution off-chain de programmes d’IA. L’exécution de programmes d’apprentissage automatique sur des blockchains traditionnelles est confrontée à un défi, car les machines virtuelles sont très inefficaces pour exécuter des modèles d’apprentissage automatique non triviaux. La plupart pensent qu’il est impossible d’exécuter l’IA sur la blockchain. Cependant, la machine virtuelle Cortex (CVM) utilise des GPU pour exécuter des programmes d’IA off-chain et est compatible avec la machine virtuelle Ethereum (EVM). En d’autres termes, la chaîne Cortex peut exécuter toutes les DApps Ethereum et intégrer l’apprentissage automatique de l’IA dans ces DApps. Cela permet aux modèles d’apprentissage automatique de s’exécuter de manière décentralisée, immuable et transparente, avec un consensus réseau vérifiant chaque étape de l’inférence de l’IA.

    3.2 L’IA aide le Web3

    Dans la collision entre l’IA et le Web3, en plus de l’assistance du Web3 à l’IA, l’assistance de l’IA à l’industrie du Web3 mérite également l’attention. L’apport principal de l’intelligence artificielle est l’amélioration de la productivité, il existe donc de nombreuses tentatives dans l’audit de l’IA smart contracts, l’analyse et la prédiction des données, les services personnalisés, la sécurité et la protection de la vie privée, etc.

    3.2.1 Analyse et prévision des données

    De nombreux projets Web3 intègrent des services d’IA existants (comme ChatGPT) ou développent les leurs pour fournir des services d’analyse et de prédiction de données aux utilisateurs du Web3. Ces services couvrent un large spectre, y compris des algorithmes d’IA pour les stratégies d’investissement, des outils d’analyse off-chain et des prévisions de prix et de marché.

    Par exemple, Pond utilise des algorithmes de graphes d’IA pour prédire les futurs tokens alpha de valeur, offrant ainsi des services de conseil en investissement aux utilisateurs et aux institutions. BullBear AI s’entraîne sur les données historiques des utilisateurs, l’historique des prix et les tendances du marché pour fournir des informations précises à l’appui des prévisions de tendance des prix, aidant ainsi les utilisateurs à réaliser des bénéfices.

    Des plateformes comme Numerai organisent des concours d’investissement où les participants utilisent l’IA et de grands modèles de langage pour prédire les marchés boursiers. Ils entraînent des modèles sur la base de données de haute qualité fournies par la plateforme et soumettent des prédictions quotidiennes. Numerai évalue ces prédictions au cours du mois suivant, et les participants peuvent stake NMR des jetons sur leurs modèles pour gagner des récompenses en fonction de leurs performances.

    Arkham, une plateforme d’analyse de données blockchain, intègre également l’IA dans ses services. Arkham relie les adresses de la blockchain à des entités telles que les échanges, les fonds et les baleines, en affichant des données et des analyses clés pour donner aux utilisateurs un avantage décisionnel. Arkham Ultra associe les adresses à des entités du monde réel à l’aide d’algorithmes développés sur trois ans avec le support des fondateurs de Palantir et d’OpenAI.

    3.2.2 Services personnalisés

    Les applications d’IA dans la recherche et la recommandation sont répandues dans les projets Web2, répondant aux besoins personnalisés des utilisateurs. Les projets Web3 intègrent également l’IA pour améliorer l’expérience utilisateur.

    Par exemple, la célèbre plate-forme d’analyse de données Dune a récemment introduit l’outil Wand, qui utilise de grands modèles de langage pour écrire des requêtes SQL. Avec Wand Create, les utilisateurs peuvent générer des requêtes SQL à partir de questions en langage naturel, ce qui facilite la recherche de données pour ceux qui ne sont pas familiers avec SQL.

    Les plateformes de contenu comme Followin intègrent ChatGPT pour résumer les points de vue et les mises à jour dans des secteurs spécifiques. L’encyclopédie Web3 IQ.wiki vise à être la principale source de connaissances objectives et de haute qualité sur la technologie blockchain et la crypto-monnaie. Il intègre GPT-4 pour résumer les articles wiki, rendant les informations sur la blockchain plus accessibles dans le monde entier. Le moteur de recherche basé sur le LLM Kaito vise à révolutionner la recherche d’informations Web3.

    Dans le domaine créatif, des projets comme NFPrompt réduisent le coût de création de contenu. NFPrompt permet aux utilisateurs de générer des NFT plus facilement grâce à l’IA, en fournissant divers services créatifs personnalisés.

    3.2.3 Audit de l’IA Contrats intelligents

    L’audit des smart contracts est une tâche cruciale dans le Web3, et l’IA peut améliorer l’efficacité et la précision dans l’identification des vulnérabilités du code.

    Vitalik Buterin a noté que l’un des plus grands défis dans l’espace crypto-monnaie est les erreurs dans notre code. L’IA promet de simplifier considérablement l’utilisation d’outils de vérification formelle pour prouver l’exactitude du code. Y parvenir pourrait conduire à un SEK EVM (Ethereum Virtual Machine) presque sans erreur, améliorant ainsi la sécurité de l’espace car moins d’erreurs augmentent la sécurité globale.

    Par exemple, le projet 0x0.ai propose un auditeur de contrats intelligents alimenté par l’IA. Cet outil utilise des algorithmes avancés pour analyser les smart contracts et identifier les vulnérabilités ou les problèmes potentiels qui pourraient entraîner une fraude ou d’autres risques de sécurité. Les auditeurs utilisent l’apprentissage automatique pour détecter les modèles et les anomalies dans le code, en signalant les problèmes potentiels pour un examen plus approfondi.

    Il existe d’autres cas natifs où l’IA aide le Web3. PAAL aide les utilisateurs à créer des bots d’IA personnalisés qui peuvent être déployés sur Telegram et Discord pour servir les utilisateurs de Web3. L’agrégateur DEX multi-chaînes piloté par l’IA Hera utilise l’IA pour fournir les meilleurs chemins de trading entre toutes les paires de jetons sur différents jetons. Dans l’ensemble, la contribution de l’IA au Web3 se situe principalement au niveau des outils, en améliorant divers processus et fonctionnalités.

    Limitations et défis actuels du projet AI + Web3

    4.1 Obstacles réalistes dans le Puissance de calcul décentralisé

    Actuellement, de nombreux projets Web3 aidant l’IA se concentrent sur la puissance de calcul décentralisée. L’utilisation d’incitations symboliques pour encourager les utilisateurs mondiaux à faire partie de l’offre de puissance de calcul est une innovation très intéressante. Cependant, d’un autre côté, il y a des questions réalistes qui doivent être abordées :

    Par rapport aux fournisseurs de services de puissance de calcul centralisés, les produits de puissance de calcul décentralisés s’appuient généralement sur des nœuds et des participants répartis dans le monde entier pour fournir des ressources informatiques. En raison de la latence et de l’instabilité possibles des connexions réseau entre ces nœuds, les performances et la stabilité peuvent être pires que les produits de puissance de calcul centralisés.

    En outre, la disponibilité des produits de puissance de calcul décentralisés est affectée par le degré de matching entre l’offre et la demande. S’il n’y a pas assez de fournisseurs ou si la demande est trop élevée, cela peut entraîner une pénurie de ressources ou une incapacité à répondre aux besoins des utilisateurs.

    Enfin, par rapport aux produits de puissance de calcul centralisés, les produits de puissance de calcul décentralisés impliquent généralement plus de détails techniques et de complexité. Les utilisateurs peuvent avoir besoin de comprendre et de gérer certains aspects des réseaux distribués, des smart contracts et des paiements en cryptomonnaies, ce qui augmente le coût de la compréhension et de l’utilisation par les utilisateurs.

    Après des discussions approfondies avec de nombreuses équipes de projet de puissance de calcul décentralisée, il a été constaté que la puissance de calcul décentralisée actuelle est encore principalement limitée à l’inférence de l’IA plutôt qu’à l’entraînement de l’IA.

    Ensuite, j’utiliserai quatre questions pour aider tout le monde à comprendre les raisons derrière cela :

    1. Pourquoi la plupart des projets de puissance de calcul décentralisée choisissent-ils de faire de l’inférence d’IA plutôt que de l’entraîner à l’IA ?

    2. Qu’est-ce qui rend NVIDIA si puissant ? Quelles sont les raisons pour lesquelles l’entraînement à la puissance de calcul décentralisée est difficile ?

    3. Quelle sera la fin du jeu pour la puissance de calcul décentralisée (Render, Akash, io.net, etc.) ?

    4. Quelle sera la fin du jeu pour les algorithmes décentralisés (Bittensor) ?

    Entrons dans les détails étape par étape :

    1) En observant ce domaine, la plupart des projets de puissance de calcul décentralisée choisissent de se concentrer sur l’inférence de l’IA plutôt que sur l’entraînement, principalement en raison des différentes exigences en matière de puissance de calcul et de bande passante.

    Pour aider tout le monde à mieux comprendre, comparons l’IA à un étudiant :

    • Formation de l’IA : Si nous comparons l’intelligence artificielle à un étudiant, la formation revient à fournir à l’IA une grande quantité de connaissances et d’exemples, ce que nous appelons souvent des données. L’IA apprend de ces exemples. Étant donné que l’apprentissage implique la compréhension et la mémorisation de grandes quantités d’informations, ce processus nécessite une puissance de calcul et un temps considérables.

    • Inférence IA : L’inférence peut être comprise comme l’utilisation des connaissances acquises pour résoudre des problèmes ou passer des examens. Au cours de l’inférence, l’IA utilise les connaissances acquises pour répondre à des questions plutôt que d’acquérir de nouvelles informations, d’où les exigences de calcul sont relativement plus faibles.

    Il est facile de voir que la différence fondamentale en matière de difficulté réside dans le fait que l’entraînement de l’IA sur de grands modèles nécessite d’énormes volumes de données et une bande passante extrêmement élevée pour la transmission des données, ce qui le rend très difficile à réaliser avec une puissance de calcul décentralisée. En revanche, l’inférence nécessite beaucoup moins de données et de bande passante, ce qui la rend plus réalisable.

    Pour les grands modèles, la stabilité est cruciale. Si la formation est interrompue, elle doit redémarrer, ce qui entraîne des coûts irrécupérables élevés. D’autre part, il est possible de répondre à des exigences de puissance de calcul relativement faibles, telles que l’inférence de l’IA ou certains scénarios spécifiques impliquant l’entraînement de modèles de taille moyenne à petite. Dans les réseaux de puissance de calcul décentralisés, certains fournisseurs de services de nœuds relativement importants peuvent répondre à ces demandes de puissance de calcul relativement plus élevées.

    2) Alors, où sont les goulots d’étranglement dans les données et la bande passante ? Pourquoi la formation décentralisée est-elle difficile à réaliser ?

    Cela implique deux éléments clés de l’entraînement des grands modèles : la puissance de calcul d’une seule carte et le parallélisme multi-cartes.

    Puissance de calcul d’une seule carte : À l’heure actuelle, tous les centres nécessitant l’entraînement de grands modèles, appelés centres de calcul intensif, peuvent être comparés au corps humain, où l’unité sous-jacente, le GPU, est comme une cellule. Si la puissance de calcul d’une seule cellule (GPU) est forte, la puissance de calcul globale (une seule cellule × quantité) peut également être très forte.

    Parallélisme multi-cartes : l’entraînement d’un modèle volumineux implique souvent des centaines de milliards de gigaoctets. Pour les centres de calcul intensif qui entraînent de grands modèles, au moins des dizaines de milliers de GPU A100 sont nécessaires. Cela nécessite de mobiliser des milliers de cartes pour l’entraînement. Cependant, l’entraînement d’un grand modèle n’est pas un simple processus en série ; il ne se contente pas de s’entraîner sur la première carte A100 et de passer ensuite à la seconde. Au lieu de cela, différentes parties du modèle sont entraînées simultanément sur différents GPU, et la partie d’entraînement A peut nécessiter des résultats de la partie B, impliquant un traitement parallèle.

    La domination de NVIDIA et sa valeur marchande croissante, alors qu’AMD et des entreprises nationales comme Huawei et Horizon ont du mal à rattraper leur retard, découlent de deux aspects : l’environnement logiciel CUDA et la communication multi-cartes NVLink.

    Environnement logiciel CUDA : Il est crucial de savoir s’il existe un écosystème logiciel adapté au matériel, comme le système CUDA de NVIDIA. La construction d’un nouveau système est un défi, semblable à la création d’un nouveau langage avec des coûts de remplacement élevés.

    Communication multi-cartes NVLink : Essentiellement, la communication multi-cartes implique l’entrée et la sortie d’informations. La parallélisation et la transmission sont cruciales. La présence de NVLink signifie que les cartes NVIDIA et AMD ne peuvent pas communiquer ; De plus, NVLink limite la distance physique entre les GPU, ce qui les oblige à se trouver dans le même centre de calcul intensif. Il est donc difficile pour la puissance de calcul décentralisée répartie dans le monde entier de former un cluster de calcul cohérent pour l’entraînement de grands modèles.

    Le premier point explique pourquoi AMD et les entreprises nationales comme Huawei et Horizon ont du mal à rattraper leur retard ; le deuxième point explique pourquoi la formation décentralisée est difficile à réaliser.

    3) Quelle sera la fin du jeu pour la puissance de calcul décentralisée ? La puissance de calcul décentralisée a actuellement du mal à entraîner des modèles volumineux, car la stabilité est primordiale. Les interruptions nécessitent une nouvelle formation, ce qui entraîne des coûts irrécupérables élevés. Les exigences élevées en matière de parallélisme multi-cartes sont limitées par des contraintes de bande passante physique. Le NVLink de NVIDIA permet une communication multi-cartes, mais au sein d’un centre de calcul intensif, NVLink limite la distance physique entre les GPU. Ainsi, la puissance de calcul dispersée ne peut pas former un cluster de calcul pour l’entraînement de modèles volumineux.

    Cependant, pour les demandes avec des exigences de puissance de calcul relativement faibles, telles que l’inférence de l’IA ou certains scénarios spécifiques impliquant l’entraînement de modèles de taille moyenne à petite, les réseaux de puissance de calcul décentralisés avec certains fournisseurs de services de nœuds relativement grands ont du potentiel. De plus, des scénarios tels que l’edge computing pour le rendu sont relativement plus faciles à mettre en œuvre.

    4) Quelle sera la fin du jeu pour les modèles d’algorithmes décentralisés ? L’avenir des modèles d’algorithmes décentralisés dépend de l’orientation finale de l’IA. Je pense que l’avenir de l’IA pourrait comporter 1 ou 2 géants de modèles à source fermée (comme ChatGPT) aux côtés d’une pléthore de modèles. Dans ce contexte, les produits de la couche application n’ont pas besoin de se lier à un seul grand modèle, mais plutôt de coopérer avec plusieurs grands modèles. Dans ce scénario, le modèle de Bittensor présente un potentiel important.

    Dans les projets actuels combinant le Web3 et l’IA, en particulier ceux où l’IA aide les initiatives Web3, la plupart des projets se contentent d’utiliser l’IA superficiellement sans démontrer une intégration profonde entre l’IA et les crypto-monnaies. Cette application superficielle se manifeste sous les deux aspects suivants :

    • Tout d’abord, que ce soit pour l’utilisation de l’IA pour l’analyse et la prédiction de données, dans des scénarios de recommandation et de recherche, ou pour l’audit de code, il y a peu de différence par rapport à l’intégration de l’IA dans les projets Web2. Ces projets tirent simplement parti de l’IA pour améliorer l’efficacité et l’analyse sans présenter une fusion native de l’IA et des crypto-monnaies ou présenter des solutions innovantes.
    • Deuxièmement, de nombreuses équipes Web3 intègrent davantage l’IA comme un gadget marketing, en capitalisant uniquement sur le concept d’IA. Ils appliquent la technologie de l’IA dans des domaines très limités, puis commencent à promouvoir la tendance de l’IA, créant ainsi une façade d’intégration étroite avec l’IA. Cependant, ces projets manquent d’innovation substantielle.

    Bien que les projets actuels du Web3 et de l’IA présentent ces limites, nous devons reconnaître qu’il ne s’agit que du stade précoce du développement. À l’avenir, nous pouvons nous attendre à des recherches et à des innovations plus approfondies pour parvenir à une intégration plus étroite entre l’IA et les crypto-monnaies, créant ainsi des solutions plus natives et plus significatives dans des domaines tels que la finance, les organisations autonomes décentralisées (DAO), les marchés de prédiction et les NFT.

    4.3 Jeton L’économie sert de tampon pour les récits de projets d’IA

    Comme mentionné précédemment, les projets d’IA sont confrontés à des défis dans leurs modèles économiques, d’autant plus que de plus en plus de grands modèles deviennent progressivement open source. De nombreux projets AI + Web3, souvent des projets d’IA purs qui luttent pour prospérer et obtenir des fundings dans l’espace Web2, choisissent de superposer les récits et l’économie symbolique du Web3 pour encourager la participation des utilisateurs.

    Cependant, la question cruciale est de savoir si l’intégration de l’économie des jetons aide vraiment les projets d’IA à répondre aux besoins du monde réel ou si elle sert simplement de proposition de valeur narrative ou à short terme. Actuellement, la plupart des projets AI + Web3 sont loin d’avoir atteint un stade pratique. On espère que des équipes plus ancrées et réfléchies utiliseront non seulement les jetons comme un moyen de faire du battage médiatique sur les projets d’IA, mais aussi pour répondre véritablement aux cas d’utilisation pratiques.

    Résumé

    Actuellement, de nombreux cas et applications ont émergé dans les projets IA + Web3. Tout d’abord, la technologie de l’IA peut fournir des cas d’utilisation plus efficaces et plus intelligents pour le Web3. Grâce aux capacités de l’IA en matière d’analyse et de prédiction des données, les utilisateurs du Web3 peuvent disposer de meilleurs outils pour les décisions d’investissement et d’autres scénarios. De plus, l’IA peut auditer le code des contrats intelligents, optimiser l’exécution des contrats et améliorer les performances et l’efficacité de la blockchain. De plus, la technologie de l’IA peut offrir des recommandations plus précises et intelligentes et des services personnalisés pour les applications décentralisées, améliorant ainsi l’expérience utilisateur.

    Dans le même temps, la nature décentralisée et programmable du Web3 présente également de nouvelles opportunités pour la technologie de l’IA. Grâce à des incitations symboliques, les projets de puissance de calcul décentralisée apportent de nouvelles solutions au dilemme de la puissance de calcul insuffisante de l’IA. Les smart contracts et les mécanismes de stockage distribués du Web3 offrent également un espace et des ressources plus larges pour le partage et la formation d’algorithmes d’IA. L’autonomie des utilisateurs et les mécanismes de confiance du Web3 offrent également de nouvelles possibilités pour le développement de l’IA, permettant aux utilisateurs de choisir de manière autonome de participer au partage de données et à la formation, améliorant ainsi la diversité et la qualité des données et améliorant encore les performances et la précision des modèles d’IA.

    Bien que les projets croisés IA + Web3 actuels n’en soient qu’à leurs débuts et fassent face à de nombreux défis, ils apportent également de nombreux avantages. Par exemple, les produits de puissance de calcul décentralisés présentent certains inconvénients, mais ils réduisent la dépendance à l’égard des institutions centralisées, offrent une plus grande transparence et une plus grande vérifiabilité, et permettent une participation et une innovation plus larges. Pour des cas d’utilisation spécifiques et les besoins des utilisateurs, les produits de puissance de calcul décentralisés peuvent être un choix précieux. Il en va de même pour la collecte de données ; Les projets de collecte de données décentralisées offrent des avantages tels que la réduction de la dépendance à l’égard de sources de données uniques, la fourniture d’une couverture de données plus large et la promotion de la diversité et de l’inclusion des données. Dans la pratique, il est nécessaire d’équilibrer ces avantages et ces inconvénients et de prendre des mesures de gestion et techniques appropriées pour surmonter les défis, en veillant à ce que les projets de collecte de données décentralisées aient un impact positif sur le développement de l’IA.

    Dans l’ensemble, l’intégration de l’IA + Web3 offre des possibilités infinies pour l’innovation technologique et le développement économique futurs. En combinant les capacités intelligentes d’analyse et de prise de décision de l’IA avec la nature décentralisée et autonome de l’utilisateur du Web3, on pense que nous pouvons construire un système économique et même social plus intelligent, plus ouvert et plus juste.

    Ryze Labs]. Tous les droits d’auteur appartiennent à l’auteur original [Fred]. S’il y a des objections à cette réimpression, veuillez contacter l’équipe Gate Learn, et ils la traiteront rapidement.
  • Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l’auteur et ne constituent pas un conseil en investissement.
  • Les traductions de l’article dans d’autres langues sont effectuées par l’équipe de Gate Learn. Sauf mention contraire, il est interdit de copier, de distribuer ou de plagier les articles traduits.
  • Начните торговать сейчас
    Зарегистрируйтесь сейчас и получите ваучер на
    $100
    !