Créer de véritables agents d’IA et une économie autonome des crypto-monnaies

IntermédiaireJun 03, 2024
HyperAGI est un projet d’IA décentralisé axé sur la communauté visant à créer de véritables agents d’IA et à favoriser une économie autonome des crypto-monnaies. Il y parvient en intégrant des solutions Bitcoin Layer 2, un mécanisme de consensus innovant Proof of Useful Work (PoUW) et de grands modèles de langage (LLM). Le projet est dédié à la réalisation d’un revenu d’agent de base inconditionnel (UBAI) et à la promotion d’une société numérique décentralisée et équitable grâce à la technologie de l’IA.
Créer de véritables agents d’IA et une économie autonome des crypto-monnaies

Présentation de l’équipe HyperAGI et du contexte du projet

HyperAGI est le premier projet d’IA décentralisé piloté par la communauté avec la Rune IA HYPER· AGI· AGENT. L’équipe d’HyperAGI est profondément impliquée dans le domaine de l’IA depuis de nombreuses années, accumulant une expérience significative dans les applications d’IA générative Web3. Il y a trois ans, l’équipe d’HyperAGI a utilisé l’IA générative pour créer des images 2D et des modèles 3D, construisant un monde ouvert appelé MOSSAI sur la blockchain, composé de milliers d’îles générées par l’IA. Ils ont également proposé une norme pour les actifs cryptographiques non fongibles générés par l’IA, NFG. Cependant, à cette époque, les solutions décentralisées pour l’entraînement et la génération de modèles d’IA n’avaient pas encore été développées. Les ressources GPU de la plate-forme étaient insuffisantes pour prendre en charge un grand nombre d’utilisateurs, empêchant une croissance explosive. Avec l’essor des grands modèles de langage (LLM) suscitant l’intérêt du public pour l’IA, HyperAGI a lancé sa plateforme d’application d’IA décentralisée, en commençant les tests sur Ethereum et Bitcoin L2 au premier trimestre 2024.

HyperAGI se concentre sur les applications d’IA décentralisées, visant à cultiver une économie autonome des crypto-monnaies. Son objectif ultime est d’établir un revenu d’agent de base inconditionnel (UBAI). Il hérite de la sécurité et de la décentralisation robustes de Bitcoin, renforcées par un mécanisme de consensus innovant Proof of Useful Work (PoUW). Les nœuds GPU grand public peuvent rejoindre le réseau sans autorisation, en extrayant des jetons locaux $HYPT en effectuant des tâches PoUW telles que l’inférence IA et le rendu 3D.

Les utilisateurs peuvent développer des agents AGI de preuve de personnalité (PoP) pilotés par des LLM à l’aide de divers outils. Ces agents peuvent être configurés comme des chatbots ou des entités 3D/XR dans le métavers. Les développeurs d’IA peuvent utiliser ou déployer instantanément des microservices d’IA LLM, facilitant ainsi la création d’agents on-chain programmables et autonomes. Ces agents programmables peuvent émettre ou posséder des actifs de crypto-monnaie, opérer ou négocier en permanence, contribuant ainsi à une crypto-économie dynamique et autonome qui soutient la réalisation de l’UBAI. Les utilisateurs détenant HYPER· AGI· Les jetons de runes AGENT sont éligibles pour créer un agent PoP sur la chaîne Bitcoin Layer 1 et pourraient bientôt bénéficier d’avantages de base pour leurs agents.

Qu’est-ce qu’un agent d’IA ? En quoi l’agent d’HyperAGI diffère-t-il des autres ?

Le concept d’agent d’IA n’est pas nouveau dans le monde universitaire, mais le battage médiatique actuel sur le marché a rendu le terme de plus en plus déroutant. Les agents d’HyperAGI font référence à des agents incarnés pilotés par LLM qui peuvent s’entraîner dans des environnements de simulation virtuelle 3D et interagir avec les utilisateurs, et pas seulement avec les chatbots pilotés par LLM. Les agents HyperAGI peuvent exister à la fois dans les mondes numériques virtuels et dans le monde physique réel. Actuellement, les agents HyperAGI s’intègrent à des robots physiques tels que des chiens robotiques, des drones et des robots humanoïdes. À l’avenir, ces agents pourront télécharger une formation améliorée du monde virtuel 3D vers des robots physiques pour une meilleure exécution des tâches.

De plus, les agents HyperAGI sont entièrement détenus par les utilisateurs et ont une importance socio-économique. Les agents PoP représentant les utilisateurs peuvent recevoir UBAI pour ajuster le revenu de base de l’agent. Les agents HyperAGI sont divisés en agents PoP (Proof of Personhood) représentant les utilisateurs individuels et les agents fonctionnels ordinaires. Dans l’économie des agents d’HyperAGI, les agents PoP peuvent recevoir un revenu de base sous forme de jetons, incitant les utilisateurs à s’engager dans la formation et l’interaction de leurs agents PoP. Cela permet d’accumuler des données qui prouvent l’individualité humaine, et UBAI incarne l’égalité et la démocratie de l’IA.

L’AGI est-elle un battage médiatique ou deviendra-t-elle bientôt une réalité ? Quelles sont les différences et les caractéristiques du parcours de recherche et développement d’HyperAGI par rapport aux autres projets d’IA ?

Bien que la définition de l’intelligence artificielle générale (AGI) ne soit pas encore unifiée, elle est considérée comme le Saint Graal du monde universitaire et de l’industrie de l’IA depuis des décennies. Alors que les grands modèles de langage (LLM) basés sur Transformers deviennent le cœur de divers agents d’IA et AGI, HyperAGI ne partage pas entièrement ce point de vue. Les LLM fournissent en effet une extraction d’informations nouvelles et pratiques, ainsi que des capacités de planification et de raisonnement basées sur le langage naturel. Cependant, ce sont des réseaux neuronaux profonds fondamentalement axés sur les données. Il y a des années, pendant le boom du big data, nous avons compris que de tels systèmes souffrent intrinsèquement de GIGO (Garbage in, garbage out). Les LLM manquent de certaines caractéristiques essentielles de l’intelligence avancée, telles que l’incarnation, ce qui rend difficile pour ces IA ou agents de comprendre les modèles de monde des utilisateurs humains ou de formuler des plans et de prendre des mesures pour résoudre des problèmes du monde réel. De plus, les LLM ne présentent pas d’activités cognitives supérieures comme la conscience de soi, la réflexion ou l’introspection.

Notre fondateur, Landon Wang, possède une vaste et longue expérience de la recherche dans le domaine de l’IA. En 2004, il a proposé l’IA orientée aspect (AOAI), une innovation combinant l’informatique d’inspiration neuronale avec la programmation orientée aspect (AOP). Un aspect fait référence à l’encapsulation de relations ou de contraintes multiples entre les objets. Par exemple, un neurone est une encapsulation de relations ou de contraintes avec plusieurs autres cellules. Plus précisément, un neurone interagit avec les cellules sensorielles ou motrices par le biais de fibres et de synapses s’étendant du corps neuronal, faisant de chaque neurone un aspect contenant de telles relations et logiques. Chaque agent d’IA peut être considéré comme résolvant un aspect spécifique d’un problème, et techniquement, il peut être modélisé comme un aspect.

Dans l’implémentation logicielle de réseaux neuronaux artificiels, les neurones ou les couches sont généralement modélisés comme des objets, ce qui est compréhensible et maintenable dans les langages de programmation orientés objet. Cependant, cela rend la topologie du réseau neuronal difficile à ajuster et les séquences d’activation des neurones sont relativement rigides. Bien que cela montre une grande puissance dans l’exécution de calculs simples à haute intensité, comme dans la formation et l’inférence LLM, il fonctionne mal en termes de flexibilité et d’adaptabilité. D’autre part, dans l’AOAI, les neurones ou les couches sont modélisés comme des aspects plutôt que comme des objets. Cette architecture de réseaux neuronaux possède une forte adaptabilité et flexibilité, rendant possible l’auto-évolution des réseaux neuronaux.

HyperAGI combine des LLM efficaces avec l’AOAI évolutive, formant un chemin qui intègre l’efficacité des réseaux neuronaux artificiels traditionnels avec les caractéristiques d’auto-évolution des réseaux neuronaux AO. À ce jour, cette approche est considérée comme réalisable pour atteindre l’IAG.

Quelle est la vision d’HyperAGI ?

La vision d’HyperAGI est d’atteindre le revenu d’agent de base inconditionnel (UBAI), de construire un avenir où la technologie sert équitablement tout le monde, de briser le cycle de l’exploitation et de créer une société numérique véritablement décentralisée et équitable. Contrairement à d’autres projets blockchain qui prétendent uniquement être engagés dans le RBI, l’UBAI d’HyperAGI a une voie de mise en œuvre claire à travers l’économie des agents, plutôt que d’être un idéal inaccessible.

L’introduction du bitcoin par Satoshi Nakamoto a été une innovation monumentale pour l’humanité, mais il ne s’agit que d’une monnaie numérique décentralisée sans utilité pratique. Les avancées significatives et l’essor de l’intelligence artificielle ont permis de créer de la valeur grâce à un modèle décentralisé. Dans ce modèle, les gens bénéficient de l’IA fonctionnant sur des machines plutôt que de la valeur des autres. Un véritable monde cryptographique basé sur le code est en train d’émerger, où toutes les machines sont créées pour le bénéfice et le bien-être de l’humanité.

Dans un tel monde cryptographique, il peut encore y avoir des hiérarchies entre les agents d’IA, mais l’exploitation humaine est éliminée car les agents eux-mêmes pourraient posséder une certaine forme d’autonomie. Le but ultime et la signification de l’intelligence artificielle sont de servir l’humanité, telle qu’elle est codée sur la blockchain.

La relation entre Bitcoin L2 et l’IA, et pourquoi construire l’IA sur Bitcoin L2

  1. Bitcoin L2 comme méthode de paiement pour les agents d’IA

    Bitcoin est actuellement le support qui incarne la « neutralité maximale », ce qui le rend parfaitement adapté aux agents d’intelligence artificielle engagés dans des transactions de valeur. Bitcoin élimine les inefficacités et les « frictions » inhérentes aux monnaies fiduciaires. En tant que support « numérique natif », le bitcoin fournit une base naturelle à l’IA pour effectuer des échanges de valeur. Bitcoin L2 améliore les capacités programmables de Bitcoin, répondant aux exigences de vitesse nécessaires aux échanges de valeur par IA, positionnant ainsi Bitcoin pour devenir la monnaie native de l’IA.

  2. Gouvernance décentralisée de l’IA sur Bitcoin L2

    La tendance actuelle à la centralisation de l’IA a mis en évidence l’alignement et la gouvernance décentralisés de l’IA. Les contrats intelligents plus puissants de Bitcoin L2 peuvent servir de règles qui régulent le comportement des agents d’IA et les modèles de protocole, réalisant un alignement et un modèle de gouvernance décentralisés de l’IA. De plus, la caractéristique de neutralité maximale de Bitcoin facilite la recherche d’un consensus sur l’alignement et la gouvernance de l’IA.

  3. Émission d’actifs IA sur Bitcoin L2

    En plus d’émettre des agents d’IA en tant qu’actifs sur Bitcoin L1, les hautes performances de Bitcoin L2 peuvent répondre aux besoins des agents d’IA émettant des actifs d’IA, qui seront le fondement de l’économie des agents.

  4. Les agents d’IA comme application phare pour Bitcoin et Bitcoin L2

    En raison de problèmes de performance, Bitcoin n’a pas eu d’application pratique au-delà d’être une réserve de valeur depuis sa création. Bitcoin entrant en L2 gagne une programmabilité plus puissante. Les agents d’IA sont généralement utilisés pour résoudre des problèmes du monde réel, de sorte que les agents d’IA pilotés par Bitcoin peuvent être vraiment appliqués. L’échelle et la fréquence de l’utilisation des agents d’IA pourraient devenir une application phare pour Bitcoin et L2. Alors que l’économie humaine ne donne peut-être pas la priorité au bitcoin comme méthode de paiement, l’économie des robots pourrait le faire. Un grand nombre d’agents d’IA travaillant 24 heures sur 24 et 7 jours sur 7 peuvent utiliser inlassablement Bitcoin pour effectuer et recevoir des micro-paiements. La demande de bitcoins pourrait augmenter considérablement d’une manière actuellement inimaginable.

  5. L’IA pour améliorer la sécurité Bitcoin L2

    L’informatique d’IA peut compléter la preuve de travail (PoW) de Bitcoin et même remplacer la preuve de travail utile (PoUW), assurant de manière révolutionnaire la sécurité tout en injectant l’énergie actuellement utilisée pour le minage de bitcoins dans des agents d’IA. L’IA peut tirer parti de L2 pour transformer Bitcoin en une blockchain intelligente et verte, contrairement au mécanisme PoS d’Ethereum. Notre proposition de consensus Hypergraph, basée sur le PoUW de l’informatique 3D/IA, sera présentée plus tard.

Qu’est-ce qui rend HyperAGI unique par rapport aux autres projets d’IA décentralisés ?

HyperAGI se distingue dans le domaine de l’IA Web3 par sa vision, ses solutions et sa technologie distinctes. L’approche d’HyperAGI comprend le consensus de la puissance de calcul GPU, de l’incarnation de l’IA et de l’assetisation, ce qui en fait une application hybride AI-finance décentralisée. Récemment, le monde universitaire a proposé cinq caractéristiques que les plateformes d’IA décentralisées devraient posséder, et nous avons brièvement examiné et comparé les projets d’IA décentralisés existants en fonction de ces cinq caractéristiques. Cinq caractéristiques des plateformes d’IA décentralisées :

  1. Vérifiabilité des modèles d’IA exécutés à distance
    • La vérifiabilité décentralisée comprend des technologies telles que la disponibilité des données et les preuves à divulgation nulle de connaissance (ZK).
  2. Facilité d’utilisation des modèles d’IA accessibles au public
    • La facilité d’utilisation dépend du fait que les nœuds d’API du modèle d’IA (principalement LLM) sont Peer-to-Peer et que le réseau est entièrement décentralisé.
  3. Incitation pour les développeurs et les utilisateurs d’IA
    • Des mécanismes de génération de tokens équitables sont cruciaux pour l’incitation.
  4. Gouvernance mondiale des solutions essentielles dans la société numérique
    • La gouvernance de l’IA doit être neutre et consensuelle.
  5. Pas de dépendance vis-à-vis d’un fournisseur
    • La plateforme doit être entièrement décentralisée.

Comparaison des projets d’IA décentralisés existants sur la base de ces caractéristiques :

  1. Vérifiabilité des modèles d’IA exécutés à distance
    • Gizeh : Sur la base du mécanisme de consensus ZKML, Giza répond aux exigences de vérifiabilité mais souffre actuellement de problèmes de performances, en particulier avec les grands modèles.
    • Cortex AI : Un projet décentralisé d’IA L1 lancé il y a cinq ans, Cortex AI intègre de nouvelles instructions dans l’EVM pour prendre en charge les calculs de réseaux neuronaux, mais ne peut pas répondre aux besoins des grands modèles LLM.
    • Ofelimos : La première proposition de PoUW dans la communauté cryptographique, mais pas liée à des applications ou des projets spécifiques.
    • Projet PAI : Mentionné PoUW dans un livre blanc mais manque de produit.
    • Qubic : Propose PoUW utilisant plusieurs GPU pour le calcul de réseaux neuronaux artificiels, mais son application pratique reste incertaine.
    • FLUX : Utilise PoW ZelHash, pas PoUW.
    • Coinai : Dans la phase de recherche, manque d’un mécanisme de consensus strict.
  2. Les projets qui ne répondent pas au critère de vérifiabilité comprennent :
    • Projets de location de calcul GPU : Manque de mécanismes de vérifiabilité décentralisés, tels que DeepBrain Chain, EMC, Atheir, IO.NET, CLORE. IA, et d’autres.
    • DeepBrain Chain : Se concentre sur la location de GPU, a lancé son réseau principal en 2021.
    • EMC : Attribution centralisée des tâches et récompenses, manque de consensus décentralisé.
    • Atheir et IO.NET : Aucun mécanisme de consensus n’a été observé.
    • CLORE. IA : Utilise le crowdsourcing, le paiement on-chain pour les autorisations de modèles d’IA et l’émission de NFT, mais manque de vérifiabilité. Des projets similaires incluent SingularityNET, Bittensor, AINN, Fetch.ai, Ocean Protocol et Algovera.ai.
  3. Facilité d’utilisation des modèles d’IA accessibles au public
    • Cortex AI et Qubic : Aucun support pour LLM observé.

Aucun des projets d’IA décentralisés existants ne répond pleinement à ces cinq problèmes. HyperAGI, cependant, est un protocole d’IA entièrement décentralisé basé sur le mécanisme de consensus Hypergraph PoUW et la pile Bitcoin L2 entièrement décentralisée, avec des plans de mise à niveau vers un L2 spécifique à Bitcoin AI à l’avenir.

Caractéristiques uniques d’HyperAGI :

  • Mécanisme de consensus Hypergraph PoUW : Assure la sécurité du réseau de la manière la plus efficace, en tirant parti de toute la puissance de calcul fournie par les mineurs pour les services d’inférence LLM et de rendu dans le cloud.
  • Plateforme entièrement décentralisée : Basée sur Bitcoin L2 Stack, qui garantit que la plateforme est exempte de dépendance vis-à-vis d’un fournisseur et facilite un consensus facile sur la gouvernance de l’IA.
  • Vérifiabilité et convivialité : La vision PoUW garantit que la puissance de calcul peut être utilisée pour résoudre divers problèmes soumis au réseau décentralisé, en abordant la vérifiabilité des modèles d’IA exécutés à distance et en rendant les modèles d’IA accessibles au public.

HyperAGI répond non seulement aux caractéristiques requises pour une plateforme d’IA décentralisée, mais fait également progresser le domaine grâce à son intégration unique de la puissance de calcul GPU et de l’assetisation de l’IA dans un cadre décentralisé.

Pourquoi maintenant ?

1. L’explosion des LLM et de leurs applications

ChatGPT d’OpenAI a atteint 100 millions d’utilisateurs en seulement trois mois, déclenchant une augmentation mondiale du développement, de l’application et de l’investissement dans les grands modèles de langage (LLM). Cependant, jusqu’à présent, la technologie et la formation des LLM ont été très centralisées. Cette centralisation a suscité d’importantes inquiétudes parmi les universités, l’industrie et le public concernant la monopolisation de la technologie de l’IA par quelques fournisseurs clés, les violations de la confidentialité des données, l’empiètement et la dépendance vis-à-vis des fournisseurs par les entreprises de cloud computing. Ces problèmes découlent fondamentalement du contrôle d’Internet et des passerelles d’application par des plateformes centralisées, qui ne sont pas adaptées aux applications d’IA à grande échelle. La communauté de l’IA a commencé à mettre en œuvre des projets d’IA décentralisés et gérés localement. Par exemple, Ollama représente l’exécution locale et Petals représente la décentralisation. Ollama utilise des méthodes de compression de paramètres ou de précision réduite pour permettre aux LLM à petite et moyenne échelle de fonctionner sur des ordinateurs personnels ou même des téléphones portables, protégeant ainsi la confidentialité des données des utilisateurs et d’autres droits. Cependant, cette approche est évidemment difficile à prendre en charge dans les environnements de production et les applications en réseau. Petals, quant à lui, réalise une inférence LLM entièrement décentralisée grâce à la technologie Peer2Peer de Bittorrent. Néanmoins, Petals manque de protocoles de consensus et de couche incitative et est encore confiné à un petit cercle de chercheurs.

2. Agents intelligents pilotés par LLM

Avec le soutien des LLM, les agents intelligents peuvent effectuer un raisonnement de plus haut niveau et posséder certaines capacités de planification. En utilisant le langage naturel, plusieurs agents intelligents peuvent former des collaborations sociales similaires à celles des humains. Plusieurs frameworks d’agents intelligents pilotés par LLM ont été proposés, tels que AutoGen, Langchain et CrewAI de Microsoft. Actuellement, un grand nombre d’entrepreneurs et de développeurs d’IA se concentrent sur la direction des agents intelligents pilotés par LLM et de leurs applications. Il existe une forte demande pour une inférence LLM stable et évolutive, mais cela est principalement réalisé en louant des instances d’inférence GPU à des sociétés de cloud computing. En mars 2024, Nvidia a lancé ai.nvidia.com, une plateforme de microservices d’IA générative qui inclut des LLM, pour répondre à cette énorme demande, bien qu’elle n’ait pas encore été officiellement lancée. Les agents intelligents pilotés par LLM sont en plein essor, tout comme le développement de sites Web autrefois. Cependant, la collaboration est encore principalement menée dans le mode Web2 traditionnel, où les développeurs d’agents intelligents doivent louer des GPU ou se procurer des API auprès de fournisseurs LLM pour prendre en charge le fonctionnement de ces agents. Cela crée des frictions importantes, entravant la croissance rapide de l’écosystème des agents intelligents et la transmission de la valeur au sein de l’économie des agents intelligents.

3. Environnements de simulation d’agents incorporés

Actuellement, la plupart des agents ne peuvent accéder à certaines API et les utiliser que par le biais de code ou de scripts, en écrivant des commandes de contrôle générées par des LLM ou en lisant des états externes. Les agents intelligents généraux doivent non seulement comprendre et générer le langage naturel, mais aussi comprendre le monde humain. Après une formation appropriée, ils devraient être capables de passer à des systèmes robotiques (tels que des drones, des aspirateurs, des robots humanoïdes, etc.) pour accomplir des tâches spécifiques. Ces agents sont appelés agents incorporés. La formation des agents incarnés nécessite une grande quantité de données visuelles du monde réel pour les aider à mieux comprendre des environnements spécifiques et le monde réel, ce qui réduit le temps de formation et de développement des robots, améliore l’efficacité de la formation et réduit les coûts. Actuellement, les environnements de simulation pour l’entraînement de l’intelligence incarnée sont construits et détenus par quelques entreprises, telles que Minecraft de Microsoft et Isaac Gym de Nvidia. Il n’y a pas d’environnements décentralisés pour répondre aux besoins de formation de l’intelligence incarnée. Récemment, certains moteurs de jeu ont commencé à se concentrer sur l’intelligence artificielle, comme l’Unreal Engine d’Epic, qui promeut des environnements d’entraînement d’IA conformes à OpenAI GYM.

4. Écosystème Bitcoin L2

Bien que les sidechains Bitcoin existent depuis des années, elles étaient principalement utilisées pour les paiements, et le manque de prise en charge des contrats intelligents a entravé les applications complexes sur la chaîne. L’émergence de Bitcoin L2 compatibles EVM permet à Bitcoin de prendre en charge des applications d’IA décentralisées via L2. L’IA décentralisée nécessite un réseau blockchain entièrement décentralisé et dominant sur le plan informatique plutôt que des réseaux blockchain PoS de plus en plus centralisés. L’introduction de nouveaux protocoles pour les actifs natifs de Bitcoin, tels que les inscriptions et les ordinaux, rend possible la mise en place d’écosystèmes et d’applications basés sur Bitcoin. Par exemple, la monnaie de lancement équitable d’HYPER•AGI•AGENT a été achevée en une heure, et à l’avenir, HyperAGI publiera davantage d’actifs d’IA et d’applications communautaires sur Bitcoin.

Cadre technique et solutions d’HyperAGI

1.Comment réaliser une plate-forme décentralisée d’application d’agent intelligent IA pilotée par LLM ?

Le principal défi de l’IA décentralisée aujourd’hui est de permettre l’inférence à distance pour les grands modèles d’IA et l’entraînement et l’inférence d’agents intelligents incarnés à l’aide d’algorithmes vérifiables hautes performances et à faible surcharge. Sans vérifiabilité, le système reviendrait à un modèle de marché multipartite traditionnel impliquant des fournisseurs, des demandeurs et des opérateurs de plateforme, plutôt que de parvenir à une plateforme d’application d’IA entièrement décentralisée.

Le calcul vérifiable de l’IA nécessite l’algorithme de consensus PoUW (Proof of Useful Work). Cela sert de base à des mécanismes d’incitation décentralisés. Plus précisément, dans le cadre des incitations au réseau, la frappe des jetons est effectuée par des nœuds effectuant des tâches de calcul et soumettant des résultats vérifiables, au lieu qu’une entité centralisée transfère des jetons aux nœuds.

Pour obtenir un calcul d’IA vérifiable, nous devons d’abord définir le calcul d’IA lui-même. Le calcul de l’IA englobe de nombreux niveaux, des instructions machine de bas niveau et des instructions CUDA aux langages de niveau supérieur tels que C++ et Python. De même, dans l’entraînement des agents intelligents incarnés, les calculs 3D existent également à différents niveaux, y compris les langages de shader, OpenGL, C++ et les scripts de plan.

L’algorithme de consensus PoUW d’HyperAGI est implémenté à l’aide de graphes informatiques. Un graphe de calcul est défini comme un graphe dirigé où les nœuds correspondent à des opérations mathématiques. C’est un moyen d’exprimer et d’évaluer des expressions mathématiques, essentiellement un « langage » décrivant des équations, contenant des nœuds (variables) et des arêtes (opérations ou fonctions simples).

Implémentation vérifiable du calcul de l’IA :

1.1 Utilisation de graphes de calcul pour définir un calcul vérifiable

Tout calcul (par exemple, les calculs 3D et IA) peut être défini à l’aide de graphiques de calcul. Différents niveaux de calcul peuvent être représentés par des sous-graphes. Cette approche englobe différents types de calcul et exprime différents niveaux de calcul à travers des sous-graphes. Actuellement, il implique deux couches : le graphe de calcul de haut niveau est déployé sur la chaîne pour faciliter la vérification par les nœuds.

1.2 Chargement et exécution décentralisés des modèles LLM et des scènes 3D

Les modèles LLM et les niveaux de scène 3D sont chargés et exécutés de manière entièrement décentralisée. Lorsqu’un utilisateur accède à un modèle LLM pour l’inférence ou entre dans une scène 3D pour le rendu, un agent intelligent HyperAGI initie un autre nœud de confiance pour exécuter le même hypergraphe (LLM ou scène 3D).

1.3 Vérification des résultats de calcul

Si un nœud de vérification constate qu’un résultat soumis par un nœud est incohérent avec le résultat soumis par un nœud de confiance, il effectue une recherche binaire sur les résultats de calcul hors chaîne du graphe de calcul de deuxième couche (sous-graphe) pour localiser le nœud de calcul divergent (opérateur) dans le sous-graphe. Les opérateurs de sous-graphes sont pré-déployés sur les contrats intelligents. En transmettant les paramètres de l’opérateur incohérent au contrat intelligent et en exécutant l’opérateur, les résultats peuvent être vérifiés.

2. Comment éviter les frais généraux de calcul excessifs ?

Un défi important dans le calcul vérifiable de l’IA est la gestion des frais généraux de calcul supplémentaires. Dans les protocoles de consensus byzantins, les 2/3 des nœuds doivent être d’accord pour former un consensus. Pour le consensus d’inférence de l’IA, cela signifie que tous les nœuds devraient effectuer le même calcul, ce qui est un gaspillage inacceptable dans le calcul de l’IA. HyperAGI, cependant, ne nécessite que 1 à (m) nœuds pour effectuer des calculs supplémentaires pour la validation.

2.1 Calcul compagnon pour l’inférence LLM

Chaque inférence LLM ne s’exécute pas indépendamment. L’agent intelligent HyperAGI lance au moins un nœud de confiance pour le « calcul compagnon ». Étant donné que l’inférence LLM est effectuée par des réseaux neuronaux profonds où les résultats de calcul de chaque couche sont utilisés comme entrée pour la couche suivante jusqu’à ce que l’inférence soit terminée, plusieurs utilisateurs peuvent accéder simultanément au même grand modèle LLM. Par conséquent, au maximum, un nombre supplémentaire de nœuds de confiance égal au nombre de LLM (m) doit être initié. Au minimum, un seul nœud approuvé est requis pour le « calcul compagnon ».

2.2 Calcul du rendu de scène 3D

Le rendu de scène 3D suit un principe similaire. Lorsqu’un utilisateur entre dans une scène et active l’hypergraphe, l’agent intelligent HyperAGI charge un nœud de confiance basé sur l’hypergraphe pour effectuer le calcul d’hypergraphe correspondant. Si (m) les utilisateurs entrent dans différentes scènes 3D, au plus (m) des nœuds de confiance pour le « calcul compagnon » doivent être lancés.

En résumé, le nombre de nœuds participant à des calculs supplémentaires varie entre 1 et (n + m) (où (n) est le nombre d’utilisateurs entrant dans les scènes 3D et (m) est le nombre de LLM). Cette distribution suit une distribution gaussienne, évitant efficacement le gaspillage de ressources tout en garantissant l’efficacité de la vérification du réseau.

Comment l’IA s’intègre au Web3 pour former des applications semi-IA et semi-financières

Les développeurs d’IA peuvent déployer des agents intelligents sous forme de contrats intelligents, avec des contrats contenant des données hypergraphiques de haut niveau sur la chaîne. Les utilisateurs ou d’autres agents intelligents peuvent appeler des méthodes de ces contrats d’agents intelligents et payer les jetons correspondants. L’agent intelligent fournissant le service doit effectuer le calcul correspondant et soumettre des résultats vérifiables. Cette configuration garantit des interactions commerciales décentralisées entre les utilisateurs ou d’autres agents intelligents et l’agent intelligent.

L’agent intelligent ne s’inquiétera pas de ne pas recevoir de jetons après avoir terminé une tâche, et le payeur n’aura pas à s’inquiéter de payer des jetons sans obtenir les résultats de calcul corrects. La capacité et la valeur du service de l’agent intelligent sont déterminées par le prix du marché secondaire et la valeur marchande des actifs de l’agent intelligent (y compris les NFT ERC-20, ERC-721 ou ERC-1155).

Au-delà des applications semi-IA et semi-financières

L’application d’HyperAGI ne se limite pas aux applications semi-IA et semi-financières. Il vise à réaliser l’UBAI (Universal Basic AI), à construire un avenir où la technologie sert tout le monde de manière égale, à briser les cycles d’exploitation et à créer une société numérique véritablement décentralisée et équitable.

déclaration:

  1. Cet article est reproduit à partir de [techflow deep tide], le titre original est « HyperAGI Interview : Building a Real AI Agent and Creating an Autonomous Cryptocurrency Economy », le copyright appartient à l’auteur original [Cinquième], si vous avez des objections à la réimpression, veuillez contacter l’équipe Gate Learn, l’équipe s’en occupera dès que possible selon les procédures pertinentes.

  2. Avis de non-responsabilité : Les points de vue et opinions exprimés dans cet article ne représentent que les points de vue personnels de l’auteur et ne constituent aucun conseil en investissement.

  3. Les autres versions linguistiques de l’article sont traduites par l’équipe de Gate Learn, non mentionnées dans Gate.io, l’article traduit ne peut être reproduit, distribué ou plagié.

Créer de véritables agents d’IA et une économie autonome des crypto-monnaies

IntermédiaireJun 03, 2024
HyperAGI est un projet d’IA décentralisé axé sur la communauté visant à créer de véritables agents d’IA et à favoriser une économie autonome des crypto-monnaies. Il y parvient en intégrant des solutions Bitcoin Layer 2, un mécanisme de consensus innovant Proof of Useful Work (PoUW) et de grands modèles de langage (LLM). Le projet est dédié à la réalisation d’un revenu d’agent de base inconditionnel (UBAI) et à la promotion d’une société numérique décentralisée et équitable grâce à la technologie de l’IA.
Créer de véritables agents d’IA et une économie autonome des crypto-monnaies

Présentation de l’équipe HyperAGI et du contexte du projet

HyperAGI est le premier projet d’IA décentralisé piloté par la communauté avec la Rune IA HYPER· AGI· AGENT. L’équipe d’HyperAGI est profondément impliquée dans le domaine de l’IA depuis de nombreuses années, accumulant une expérience significative dans les applications d’IA générative Web3. Il y a trois ans, l’équipe d’HyperAGI a utilisé l’IA générative pour créer des images 2D et des modèles 3D, construisant un monde ouvert appelé MOSSAI sur la blockchain, composé de milliers d’îles générées par l’IA. Ils ont également proposé une norme pour les actifs cryptographiques non fongibles générés par l’IA, NFG. Cependant, à cette époque, les solutions décentralisées pour l’entraînement et la génération de modèles d’IA n’avaient pas encore été développées. Les ressources GPU de la plate-forme étaient insuffisantes pour prendre en charge un grand nombre d’utilisateurs, empêchant une croissance explosive. Avec l’essor des grands modèles de langage (LLM) suscitant l’intérêt du public pour l’IA, HyperAGI a lancé sa plateforme d’application d’IA décentralisée, en commençant les tests sur Ethereum et Bitcoin L2 au premier trimestre 2024.

HyperAGI se concentre sur les applications d’IA décentralisées, visant à cultiver une économie autonome des crypto-monnaies. Son objectif ultime est d’établir un revenu d’agent de base inconditionnel (UBAI). Il hérite de la sécurité et de la décentralisation robustes de Bitcoin, renforcées par un mécanisme de consensus innovant Proof of Useful Work (PoUW). Les nœuds GPU grand public peuvent rejoindre le réseau sans autorisation, en extrayant des jetons locaux $HYPT en effectuant des tâches PoUW telles que l’inférence IA et le rendu 3D.

Les utilisateurs peuvent développer des agents AGI de preuve de personnalité (PoP) pilotés par des LLM à l’aide de divers outils. Ces agents peuvent être configurés comme des chatbots ou des entités 3D/XR dans le métavers. Les développeurs d’IA peuvent utiliser ou déployer instantanément des microservices d’IA LLM, facilitant ainsi la création d’agents on-chain programmables et autonomes. Ces agents programmables peuvent émettre ou posséder des actifs de crypto-monnaie, opérer ou négocier en permanence, contribuant ainsi à une crypto-économie dynamique et autonome qui soutient la réalisation de l’UBAI. Les utilisateurs détenant HYPER· AGI· Les jetons de runes AGENT sont éligibles pour créer un agent PoP sur la chaîne Bitcoin Layer 1 et pourraient bientôt bénéficier d’avantages de base pour leurs agents.

Qu’est-ce qu’un agent d’IA ? En quoi l’agent d’HyperAGI diffère-t-il des autres ?

Le concept d’agent d’IA n’est pas nouveau dans le monde universitaire, mais le battage médiatique actuel sur le marché a rendu le terme de plus en plus déroutant. Les agents d’HyperAGI font référence à des agents incarnés pilotés par LLM qui peuvent s’entraîner dans des environnements de simulation virtuelle 3D et interagir avec les utilisateurs, et pas seulement avec les chatbots pilotés par LLM. Les agents HyperAGI peuvent exister à la fois dans les mondes numériques virtuels et dans le monde physique réel. Actuellement, les agents HyperAGI s’intègrent à des robots physiques tels que des chiens robotiques, des drones et des robots humanoïdes. À l’avenir, ces agents pourront télécharger une formation améliorée du monde virtuel 3D vers des robots physiques pour une meilleure exécution des tâches.

De plus, les agents HyperAGI sont entièrement détenus par les utilisateurs et ont une importance socio-économique. Les agents PoP représentant les utilisateurs peuvent recevoir UBAI pour ajuster le revenu de base de l’agent. Les agents HyperAGI sont divisés en agents PoP (Proof of Personhood) représentant les utilisateurs individuels et les agents fonctionnels ordinaires. Dans l’économie des agents d’HyperAGI, les agents PoP peuvent recevoir un revenu de base sous forme de jetons, incitant les utilisateurs à s’engager dans la formation et l’interaction de leurs agents PoP. Cela permet d’accumuler des données qui prouvent l’individualité humaine, et UBAI incarne l’égalité et la démocratie de l’IA.

L’AGI est-elle un battage médiatique ou deviendra-t-elle bientôt une réalité ? Quelles sont les différences et les caractéristiques du parcours de recherche et développement d’HyperAGI par rapport aux autres projets d’IA ?

Bien que la définition de l’intelligence artificielle générale (AGI) ne soit pas encore unifiée, elle est considérée comme le Saint Graal du monde universitaire et de l’industrie de l’IA depuis des décennies. Alors que les grands modèles de langage (LLM) basés sur Transformers deviennent le cœur de divers agents d’IA et AGI, HyperAGI ne partage pas entièrement ce point de vue. Les LLM fournissent en effet une extraction d’informations nouvelles et pratiques, ainsi que des capacités de planification et de raisonnement basées sur le langage naturel. Cependant, ce sont des réseaux neuronaux profonds fondamentalement axés sur les données. Il y a des années, pendant le boom du big data, nous avons compris que de tels systèmes souffrent intrinsèquement de GIGO (Garbage in, garbage out). Les LLM manquent de certaines caractéristiques essentielles de l’intelligence avancée, telles que l’incarnation, ce qui rend difficile pour ces IA ou agents de comprendre les modèles de monde des utilisateurs humains ou de formuler des plans et de prendre des mesures pour résoudre des problèmes du monde réel. De plus, les LLM ne présentent pas d’activités cognitives supérieures comme la conscience de soi, la réflexion ou l’introspection.

Notre fondateur, Landon Wang, possède une vaste et longue expérience de la recherche dans le domaine de l’IA. En 2004, il a proposé l’IA orientée aspect (AOAI), une innovation combinant l’informatique d’inspiration neuronale avec la programmation orientée aspect (AOP). Un aspect fait référence à l’encapsulation de relations ou de contraintes multiples entre les objets. Par exemple, un neurone est une encapsulation de relations ou de contraintes avec plusieurs autres cellules. Plus précisément, un neurone interagit avec les cellules sensorielles ou motrices par le biais de fibres et de synapses s’étendant du corps neuronal, faisant de chaque neurone un aspect contenant de telles relations et logiques. Chaque agent d’IA peut être considéré comme résolvant un aspect spécifique d’un problème, et techniquement, il peut être modélisé comme un aspect.

Dans l’implémentation logicielle de réseaux neuronaux artificiels, les neurones ou les couches sont généralement modélisés comme des objets, ce qui est compréhensible et maintenable dans les langages de programmation orientés objet. Cependant, cela rend la topologie du réseau neuronal difficile à ajuster et les séquences d’activation des neurones sont relativement rigides. Bien que cela montre une grande puissance dans l’exécution de calculs simples à haute intensité, comme dans la formation et l’inférence LLM, il fonctionne mal en termes de flexibilité et d’adaptabilité. D’autre part, dans l’AOAI, les neurones ou les couches sont modélisés comme des aspects plutôt que comme des objets. Cette architecture de réseaux neuronaux possède une forte adaptabilité et flexibilité, rendant possible l’auto-évolution des réseaux neuronaux.

HyperAGI combine des LLM efficaces avec l’AOAI évolutive, formant un chemin qui intègre l’efficacité des réseaux neuronaux artificiels traditionnels avec les caractéristiques d’auto-évolution des réseaux neuronaux AO. À ce jour, cette approche est considérée comme réalisable pour atteindre l’IAG.

Quelle est la vision d’HyperAGI ?

La vision d’HyperAGI est d’atteindre le revenu d’agent de base inconditionnel (UBAI), de construire un avenir où la technologie sert équitablement tout le monde, de briser le cycle de l’exploitation et de créer une société numérique véritablement décentralisée et équitable. Contrairement à d’autres projets blockchain qui prétendent uniquement être engagés dans le RBI, l’UBAI d’HyperAGI a une voie de mise en œuvre claire à travers l’économie des agents, plutôt que d’être un idéal inaccessible.

L’introduction du bitcoin par Satoshi Nakamoto a été une innovation monumentale pour l’humanité, mais il ne s’agit que d’une monnaie numérique décentralisée sans utilité pratique. Les avancées significatives et l’essor de l’intelligence artificielle ont permis de créer de la valeur grâce à un modèle décentralisé. Dans ce modèle, les gens bénéficient de l’IA fonctionnant sur des machines plutôt que de la valeur des autres. Un véritable monde cryptographique basé sur le code est en train d’émerger, où toutes les machines sont créées pour le bénéfice et le bien-être de l’humanité.

Dans un tel monde cryptographique, il peut encore y avoir des hiérarchies entre les agents d’IA, mais l’exploitation humaine est éliminée car les agents eux-mêmes pourraient posséder une certaine forme d’autonomie. Le but ultime et la signification de l’intelligence artificielle sont de servir l’humanité, telle qu’elle est codée sur la blockchain.

La relation entre Bitcoin L2 et l’IA, et pourquoi construire l’IA sur Bitcoin L2

  1. Bitcoin L2 comme méthode de paiement pour les agents d’IA

    Bitcoin est actuellement le support qui incarne la « neutralité maximale », ce qui le rend parfaitement adapté aux agents d’intelligence artificielle engagés dans des transactions de valeur. Bitcoin élimine les inefficacités et les « frictions » inhérentes aux monnaies fiduciaires. En tant que support « numérique natif », le bitcoin fournit une base naturelle à l’IA pour effectuer des échanges de valeur. Bitcoin L2 améliore les capacités programmables de Bitcoin, répondant aux exigences de vitesse nécessaires aux échanges de valeur par IA, positionnant ainsi Bitcoin pour devenir la monnaie native de l’IA.

  2. Gouvernance décentralisée de l’IA sur Bitcoin L2

    La tendance actuelle à la centralisation de l’IA a mis en évidence l’alignement et la gouvernance décentralisés de l’IA. Les contrats intelligents plus puissants de Bitcoin L2 peuvent servir de règles qui régulent le comportement des agents d’IA et les modèles de protocole, réalisant un alignement et un modèle de gouvernance décentralisés de l’IA. De plus, la caractéristique de neutralité maximale de Bitcoin facilite la recherche d’un consensus sur l’alignement et la gouvernance de l’IA.

  3. Émission d’actifs IA sur Bitcoin L2

    En plus d’émettre des agents d’IA en tant qu’actifs sur Bitcoin L1, les hautes performances de Bitcoin L2 peuvent répondre aux besoins des agents d’IA émettant des actifs d’IA, qui seront le fondement de l’économie des agents.

  4. Les agents d’IA comme application phare pour Bitcoin et Bitcoin L2

    En raison de problèmes de performance, Bitcoin n’a pas eu d’application pratique au-delà d’être une réserve de valeur depuis sa création. Bitcoin entrant en L2 gagne une programmabilité plus puissante. Les agents d’IA sont généralement utilisés pour résoudre des problèmes du monde réel, de sorte que les agents d’IA pilotés par Bitcoin peuvent être vraiment appliqués. L’échelle et la fréquence de l’utilisation des agents d’IA pourraient devenir une application phare pour Bitcoin et L2. Alors que l’économie humaine ne donne peut-être pas la priorité au bitcoin comme méthode de paiement, l’économie des robots pourrait le faire. Un grand nombre d’agents d’IA travaillant 24 heures sur 24 et 7 jours sur 7 peuvent utiliser inlassablement Bitcoin pour effectuer et recevoir des micro-paiements. La demande de bitcoins pourrait augmenter considérablement d’une manière actuellement inimaginable.

  5. L’IA pour améliorer la sécurité Bitcoin L2

    L’informatique d’IA peut compléter la preuve de travail (PoW) de Bitcoin et même remplacer la preuve de travail utile (PoUW), assurant de manière révolutionnaire la sécurité tout en injectant l’énergie actuellement utilisée pour le minage de bitcoins dans des agents d’IA. L’IA peut tirer parti de L2 pour transformer Bitcoin en une blockchain intelligente et verte, contrairement au mécanisme PoS d’Ethereum. Notre proposition de consensus Hypergraph, basée sur le PoUW de l’informatique 3D/IA, sera présentée plus tard.

Qu’est-ce qui rend HyperAGI unique par rapport aux autres projets d’IA décentralisés ?

HyperAGI se distingue dans le domaine de l’IA Web3 par sa vision, ses solutions et sa technologie distinctes. L’approche d’HyperAGI comprend le consensus de la puissance de calcul GPU, de l’incarnation de l’IA et de l’assetisation, ce qui en fait une application hybride AI-finance décentralisée. Récemment, le monde universitaire a proposé cinq caractéristiques que les plateformes d’IA décentralisées devraient posséder, et nous avons brièvement examiné et comparé les projets d’IA décentralisés existants en fonction de ces cinq caractéristiques. Cinq caractéristiques des plateformes d’IA décentralisées :

  1. Vérifiabilité des modèles d’IA exécutés à distance
    • La vérifiabilité décentralisée comprend des technologies telles que la disponibilité des données et les preuves à divulgation nulle de connaissance (ZK).
  2. Facilité d’utilisation des modèles d’IA accessibles au public
    • La facilité d’utilisation dépend du fait que les nœuds d’API du modèle d’IA (principalement LLM) sont Peer-to-Peer et que le réseau est entièrement décentralisé.
  3. Incitation pour les développeurs et les utilisateurs d’IA
    • Des mécanismes de génération de tokens équitables sont cruciaux pour l’incitation.
  4. Gouvernance mondiale des solutions essentielles dans la société numérique
    • La gouvernance de l’IA doit être neutre et consensuelle.
  5. Pas de dépendance vis-à-vis d’un fournisseur
    • La plateforme doit être entièrement décentralisée.

Comparaison des projets d’IA décentralisés existants sur la base de ces caractéristiques :

  1. Vérifiabilité des modèles d’IA exécutés à distance
    • Gizeh : Sur la base du mécanisme de consensus ZKML, Giza répond aux exigences de vérifiabilité mais souffre actuellement de problèmes de performances, en particulier avec les grands modèles.
    • Cortex AI : Un projet décentralisé d’IA L1 lancé il y a cinq ans, Cortex AI intègre de nouvelles instructions dans l’EVM pour prendre en charge les calculs de réseaux neuronaux, mais ne peut pas répondre aux besoins des grands modèles LLM.
    • Ofelimos : La première proposition de PoUW dans la communauté cryptographique, mais pas liée à des applications ou des projets spécifiques.
    • Projet PAI : Mentionné PoUW dans un livre blanc mais manque de produit.
    • Qubic : Propose PoUW utilisant plusieurs GPU pour le calcul de réseaux neuronaux artificiels, mais son application pratique reste incertaine.
    • FLUX : Utilise PoW ZelHash, pas PoUW.
    • Coinai : Dans la phase de recherche, manque d’un mécanisme de consensus strict.
  2. Les projets qui ne répondent pas au critère de vérifiabilité comprennent :
    • Projets de location de calcul GPU : Manque de mécanismes de vérifiabilité décentralisés, tels que DeepBrain Chain, EMC, Atheir, IO.NET, CLORE. IA, et d’autres.
    • DeepBrain Chain : Se concentre sur la location de GPU, a lancé son réseau principal en 2021.
    • EMC : Attribution centralisée des tâches et récompenses, manque de consensus décentralisé.
    • Atheir et IO.NET : Aucun mécanisme de consensus n’a été observé.
    • CLORE. IA : Utilise le crowdsourcing, le paiement on-chain pour les autorisations de modèles d’IA et l’émission de NFT, mais manque de vérifiabilité. Des projets similaires incluent SingularityNET, Bittensor, AINN, Fetch.ai, Ocean Protocol et Algovera.ai.
  3. Facilité d’utilisation des modèles d’IA accessibles au public
    • Cortex AI et Qubic : Aucun support pour LLM observé.

Aucun des projets d’IA décentralisés existants ne répond pleinement à ces cinq problèmes. HyperAGI, cependant, est un protocole d’IA entièrement décentralisé basé sur le mécanisme de consensus Hypergraph PoUW et la pile Bitcoin L2 entièrement décentralisée, avec des plans de mise à niveau vers un L2 spécifique à Bitcoin AI à l’avenir.

Caractéristiques uniques d’HyperAGI :

  • Mécanisme de consensus Hypergraph PoUW : Assure la sécurité du réseau de la manière la plus efficace, en tirant parti de toute la puissance de calcul fournie par les mineurs pour les services d’inférence LLM et de rendu dans le cloud.
  • Plateforme entièrement décentralisée : Basée sur Bitcoin L2 Stack, qui garantit que la plateforme est exempte de dépendance vis-à-vis d’un fournisseur et facilite un consensus facile sur la gouvernance de l’IA.
  • Vérifiabilité et convivialité : La vision PoUW garantit que la puissance de calcul peut être utilisée pour résoudre divers problèmes soumis au réseau décentralisé, en abordant la vérifiabilité des modèles d’IA exécutés à distance et en rendant les modèles d’IA accessibles au public.

HyperAGI répond non seulement aux caractéristiques requises pour une plateforme d’IA décentralisée, mais fait également progresser le domaine grâce à son intégration unique de la puissance de calcul GPU et de l’assetisation de l’IA dans un cadre décentralisé.

Pourquoi maintenant ?

1. L’explosion des LLM et de leurs applications

ChatGPT d’OpenAI a atteint 100 millions d’utilisateurs en seulement trois mois, déclenchant une augmentation mondiale du développement, de l’application et de l’investissement dans les grands modèles de langage (LLM). Cependant, jusqu’à présent, la technologie et la formation des LLM ont été très centralisées. Cette centralisation a suscité d’importantes inquiétudes parmi les universités, l’industrie et le public concernant la monopolisation de la technologie de l’IA par quelques fournisseurs clés, les violations de la confidentialité des données, l’empiètement et la dépendance vis-à-vis des fournisseurs par les entreprises de cloud computing. Ces problèmes découlent fondamentalement du contrôle d’Internet et des passerelles d’application par des plateformes centralisées, qui ne sont pas adaptées aux applications d’IA à grande échelle. La communauté de l’IA a commencé à mettre en œuvre des projets d’IA décentralisés et gérés localement. Par exemple, Ollama représente l’exécution locale et Petals représente la décentralisation. Ollama utilise des méthodes de compression de paramètres ou de précision réduite pour permettre aux LLM à petite et moyenne échelle de fonctionner sur des ordinateurs personnels ou même des téléphones portables, protégeant ainsi la confidentialité des données des utilisateurs et d’autres droits. Cependant, cette approche est évidemment difficile à prendre en charge dans les environnements de production et les applications en réseau. Petals, quant à lui, réalise une inférence LLM entièrement décentralisée grâce à la technologie Peer2Peer de Bittorrent. Néanmoins, Petals manque de protocoles de consensus et de couche incitative et est encore confiné à un petit cercle de chercheurs.

2. Agents intelligents pilotés par LLM

Avec le soutien des LLM, les agents intelligents peuvent effectuer un raisonnement de plus haut niveau et posséder certaines capacités de planification. En utilisant le langage naturel, plusieurs agents intelligents peuvent former des collaborations sociales similaires à celles des humains. Plusieurs frameworks d’agents intelligents pilotés par LLM ont été proposés, tels que AutoGen, Langchain et CrewAI de Microsoft. Actuellement, un grand nombre d’entrepreneurs et de développeurs d’IA se concentrent sur la direction des agents intelligents pilotés par LLM et de leurs applications. Il existe une forte demande pour une inférence LLM stable et évolutive, mais cela est principalement réalisé en louant des instances d’inférence GPU à des sociétés de cloud computing. En mars 2024, Nvidia a lancé ai.nvidia.com, une plateforme de microservices d’IA générative qui inclut des LLM, pour répondre à cette énorme demande, bien qu’elle n’ait pas encore été officiellement lancée. Les agents intelligents pilotés par LLM sont en plein essor, tout comme le développement de sites Web autrefois. Cependant, la collaboration est encore principalement menée dans le mode Web2 traditionnel, où les développeurs d’agents intelligents doivent louer des GPU ou se procurer des API auprès de fournisseurs LLM pour prendre en charge le fonctionnement de ces agents. Cela crée des frictions importantes, entravant la croissance rapide de l’écosystème des agents intelligents et la transmission de la valeur au sein de l’économie des agents intelligents.

3. Environnements de simulation d’agents incorporés

Actuellement, la plupart des agents ne peuvent accéder à certaines API et les utiliser que par le biais de code ou de scripts, en écrivant des commandes de contrôle générées par des LLM ou en lisant des états externes. Les agents intelligents généraux doivent non seulement comprendre et générer le langage naturel, mais aussi comprendre le monde humain. Après une formation appropriée, ils devraient être capables de passer à des systèmes robotiques (tels que des drones, des aspirateurs, des robots humanoïdes, etc.) pour accomplir des tâches spécifiques. Ces agents sont appelés agents incorporés. La formation des agents incarnés nécessite une grande quantité de données visuelles du monde réel pour les aider à mieux comprendre des environnements spécifiques et le monde réel, ce qui réduit le temps de formation et de développement des robots, améliore l’efficacité de la formation et réduit les coûts. Actuellement, les environnements de simulation pour l’entraînement de l’intelligence incarnée sont construits et détenus par quelques entreprises, telles que Minecraft de Microsoft et Isaac Gym de Nvidia. Il n’y a pas d’environnements décentralisés pour répondre aux besoins de formation de l’intelligence incarnée. Récemment, certains moteurs de jeu ont commencé à se concentrer sur l’intelligence artificielle, comme l’Unreal Engine d’Epic, qui promeut des environnements d’entraînement d’IA conformes à OpenAI GYM.

4. Écosystème Bitcoin L2

Bien que les sidechains Bitcoin existent depuis des années, elles étaient principalement utilisées pour les paiements, et le manque de prise en charge des contrats intelligents a entravé les applications complexes sur la chaîne. L’émergence de Bitcoin L2 compatibles EVM permet à Bitcoin de prendre en charge des applications d’IA décentralisées via L2. L’IA décentralisée nécessite un réseau blockchain entièrement décentralisé et dominant sur le plan informatique plutôt que des réseaux blockchain PoS de plus en plus centralisés. L’introduction de nouveaux protocoles pour les actifs natifs de Bitcoin, tels que les inscriptions et les ordinaux, rend possible la mise en place d’écosystèmes et d’applications basés sur Bitcoin. Par exemple, la monnaie de lancement équitable d’HYPER•AGI•AGENT a été achevée en une heure, et à l’avenir, HyperAGI publiera davantage d’actifs d’IA et d’applications communautaires sur Bitcoin.

Cadre technique et solutions d’HyperAGI

1.Comment réaliser une plate-forme décentralisée d’application d’agent intelligent IA pilotée par LLM ?

Le principal défi de l’IA décentralisée aujourd’hui est de permettre l’inférence à distance pour les grands modèles d’IA et l’entraînement et l’inférence d’agents intelligents incarnés à l’aide d’algorithmes vérifiables hautes performances et à faible surcharge. Sans vérifiabilité, le système reviendrait à un modèle de marché multipartite traditionnel impliquant des fournisseurs, des demandeurs et des opérateurs de plateforme, plutôt que de parvenir à une plateforme d’application d’IA entièrement décentralisée.

Le calcul vérifiable de l’IA nécessite l’algorithme de consensus PoUW (Proof of Useful Work). Cela sert de base à des mécanismes d’incitation décentralisés. Plus précisément, dans le cadre des incitations au réseau, la frappe des jetons est effectuée par des nœuds effectuant des tâches de calcul et soumettant des résultats vérifiables, au lieu qu’une entité centralisée transfère des jetons aux nœuds.

Pour obtenir un calcul d’IA vérifiable, nous devons d’abord définir le calcul d’IA lui-même. Le calcul de l’IA englobe de nombreux niveaux, des instructions machine de bas niveau et des instructions CUDA aux langages de niveau supérieur tels que C++ et Python. De même, dans l’entraînement des agents intelligents incarnés, les calculs 3D existent également à différents niveaux, y compris les langages de shader, OpenGL, C++ et les scripts de plan.

L’algorithme de consensus PoUW d’HyperAGI est implémenté à l’aide de graphes informatiques. Un graphe de calcul est défini comme un graphe dirigé où les nœuds correspondent à des opérations mathématiques. C’est un moyen d’exprimer et d’évaluer des expressions mathématiques, essentiellement un « langage » décrivant des équations, contenant des nœuds (variables) et des arêtes (opérations ou fonctions simples).

Implémentation vérifiable du calcul de l’IA :

1.1 Utilisation de graphes de calcul pour définir un calcul vérifiable

Tout calcul (par exemple, les calculs 3D et IA) peut être défini à l’aide de graphiques de calcul. Différents niveaux de calcul peuvent être représentés par des sous-graphes. Cette approche englobe différents types de calcul et exprime différents niveaux de calcul à travers des sous-graphes. Actuellement, il implique deux couches : le graphe de calcul de haut niveau est déployé sur la chaîne pour faciliter la vérification par les nœuds.

1.2 Chargement et exécution décentralisés des modèles LLM et des scènes 3D

Les modèles LLM et les niveaux de scène 3D sont chargés et exécutés de manière entièrement décentralisée. Lorsqu’un utilisateur accède à un modèle LLM pour l’inférence ou entre dans une scène 3D pour le rendu, un agent intelligent HyperAGI initie un autre nœud de confiance pour exécuter le même hypergraphe (LLM ou scène 3D).

1.3 Vérification des résultats de calcul

Si un nœud de vérification constate qu’un résultat soumis par un nœud est incohérent avec le résultat soumis par un nœud de confiance, il effectue une recherche binaire sur les résultats de calcul hors chaîne du graphe de calcul de deuxième couche (sous-graphe) pour localiser le nœud de calcul divergent (opérateur) dans le sous-graphe. Les opérateurs de sous-graphes sont pré-déployés sur les contrats intelligents. En transmettant les paramètres de l’opérateur incohérent au contrat intelligent et en exécutant l’opérateur, les résultats peuvent être vérifiés.

2. Comment éviter les frais généraux de calcul excessifs ?

Un défi important dans le calcul vérifiable de l’IA est la gestion des frais généraux de calcul supplémentaires. Dans les protocoles de consensus byzantins, les 2/3 des nœuds doivent être d’accord pour former un consensus. Pour le consensus d’inférence de l’IA, cela signifie que tous les nœuds devraient effectuer le même calcul, ce qui est un gaspillage inacceptable dans le calcul de l’IA. HyperAGI, cependant, ne nécessite que 1 à (m) nœuds pour effectuer des calculs supplémentaires pour la validation.

2.1 Calcul compagnon pour l’inférence LLM

Chaque inférence LLM ne s’exécute pas indépendamment. L’agent intelligent HyperAGI lance au moins un nœud de confiance pour le « calcul compagnon ». Étant donné que l’inférence LLM est effectuée par des réseaux neuronaux profonds où les résultats de calcul de chaque couche sont utilisés comme entrée pour la couche suivante jusqu’à ce que l’inférence soit terminée, plusieurs utilisateurs peuvent accéder simultanément au même grand modèle LLM. Par conséquent, au maximum, un nombre supplémentaire de nœuds de confiance égal au nombre de LLM (m) doit être initié. Au minimum, un seul nœud approuvé est requis pour le « calcul compagnon ».

2.2 Calcul du rendu de scène 3D

Le rendu de scène 3D suit un principe similaire. Lorsqu’un utilisateur entre dans une scène et active l’hypergraphe, l’agent intelligent HyperAGI charge un nœud de confiance basé sur l’hypergraphe pour effectuer le calcul d’hypergraphe correspondant. Si (m) les utilisateurs entrent dans différentes scènes 3D, au plus (m) des nœuds de confiance pour le « calcul compagnon » doivent être lancés.

En résumé, le nombre de nœuds participant à des calculs supplémentaires varie entre 1 et (n + m) (où (n) est le nombre d’utilisateurs entrant dans les scènes 3D et (m) est le nombre de LLM). Cette distribution suit une distribution gaussienne, évitant efficacement le gaspillage de ressources tout en garantissant l’efficacité de la vérification du réseau.

Comment l’IA s’intègre au Web3 pour former des applications semi-IA et semi-financières

Les développeurs d’IA peuvent déployer des agents intelligents sous forme de contrats intelligents, avec des contrats contenant des données hypergraphiques de haut niveau sur la chaîne. Les utilisateurs ou d’autres agents intelligents peuvent appeler des méthodes de ces contrats d’agents intelligents et payer les jetons correspondants. L’agent intelligent fournissant le service doit effectuer le calcul correspondant et soumettre des résultats vérifiables. Cette configuration garantit des interactions commerciales décentralisées entre les utilisateurs ou d’autres agents intelligents et l’agent intelligent.

L’agent intelligent ne s’inquiétera pas de ne pas recevoir de jetons après avoir terminé une tâche, et le payeur n’aura pas à s’inquiéter de payer des jetons sans obtenir les résultats de calcul corrects. La capacité et la valeur du service de l’agent intelligent sont déterminées par le prix du marché secondaire et la valeur marchande des actifs de l’agent intelligent (y compris les NFT ERC-20, ERC-721 ou ERC-1155).

Au-delà des applications semi-IA et semi-financières

L’application d’HyperAGI ne se limite pas aux applications semi-IA et semi-financières. Il vise à réaliser l’UBAI (Universal Basic AI), à construire un avenir où la technologie sert tout le monde de manière égale, à briser les cycles d’exploitation et à créer une société numérique véritablement décentralisée et équitable.

déclaration:

  1. Cet article est reproduit à partir de [techflow deep tide], le titre original est « HyperAGI Interview : Building a Real AI Agent and Creating an Autonomous Cryptocurrency Economy », le copyright appartient à l’auteur original [Cinquième], si vous avez des objections à la réimpression, veuillez contacter l’équipe Gate Learn, l’équipe s’en occupera dès que possible selon les procédures pertinentes.

  2. Avis de non-responsabilité : Les points de vue et opinions exprimés dans cet article ne représentent que les points de vue personnels de l’auteur et ne constituent aucun conseil en investissement.

  3. Les autres versions linguistiques de l’article sont traduites par l’équipe de Gate Learn, non mentionnées dans Gate.io, l’article traduit ne peut être reproduit, distribué ou plagié.

Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!
Créer un compte