L’intelligence artificielle et la technologie blockchain représentent deux forces transformatrices qui remodèlent notre monde. L’IA amplifie les capacités cognitives humaines grâce à l’apprentissage automatique et aux réseaux neuronaux, tandis que la technologie blockchain introduit une rareté numérique vérifiable et permet de nouvelles formes de coordination sans confiance. Au fur et à mesure que ces technologies convergent, elles jettent les bases d’une nouvelle itération d’Internet, où les agents autonomes interagissent avec des systèmes décentralisés. Ce « Web agentique » introduit une nouvelle classe de citoyens numériques : les agents d’IA capables de naviguer, de négocier et d’effectuer des transactions de manière indépendante. Cette transformation redistribue le pouvoir dans le monde numérique, permettant aux individus de reprendre la souveraineté sur leurs données tout en favorisant un écosystème où l’intelligence humaine et l’intelligence artificielle collaborent de manière inédite.
Pour comprendre où nous allons, commençons par retracer l'évolution du web à travers ses principales itérations, chacune marquée par des capacités distinctes et des paradigmes architecturaux :
Alors que les deux premières générations du web se concentraient sur la propagation de l'information, les deux dernières permettent l'augmentation de l'information. Le Web 3.0 a introduit la propriété des données grâce aux jetons, et maintenant le Web 4.0 imbue l'intelligence à travers les grands modèles de langage (LLMs).
Les LLM représentent un bond en avant quantique dans l'intelligence artificielle, fonctionnant comme des systèmes dynamiques de correspondance de motifs qui transforment une vaste connaissance en compréhension contextuelle grâce à un calcul probabiliste. Cependant, leur véritable potentiel émerge lorsqu'ils sont structurés en tant qu'agents, passant de simples processeurs d'informations à des entités orientées vers un but capables de percevoir, raisonner et agir. Cette transformation crée une intelligence émergente capable d'une collaboration significative et soutenue à la fois par le langage et l'action.
Le terme "agent" introduit un nouveau paradigme pour l'interaction entre l'homme et l'IA, dépassant les limites et les associations négatives des chatbots traditionnels. Ce changement n'est pas seulement sémantique; il représente une reconceptualisation fondamentale de la façon dont les systèmes d'IA peuvent fonctionner de manière autonome tout en maintenant une collaboration significative avec les humains. Fondamentalement, les flux de travail agentic permettent aux marchés de se former autour de la résolution de l'intention utilisateur spécifique.
En fin de compte, le Web agentic représente plus qu'une simple nouvelle couche d'intelligence - il transforme fondamentalement la manière dont nous interagissons avec les systèmes numériques. Alors que les itérations web précédentes reposaient sur des interfaces statiques et des parcours utilisateur prédéfinis, le Web agentic introduit une infrastructure d'exécution dynamique où à la fois le calcul et les interfaces s'adaptent en temps réel au contexte et à l'intention de l'utilisateur.
Les sites traditionnels servent d'unité atomique à l'internet d'aujourd'hui, fournissant des interfaces fixes où les utilisateurs lisent, écrivent et interagissent avec des informations à travers des voies prédéterminées. Ce modèle, bien que fonctionnel, limite les utilisateurs à des interfaces conçues pour des cas d'utilisation généraux plutôt que pour des besoins individuels. Le Web agentic se libère de ces contraintes grâce au calcul contextualisé, à la génération d'interfaces adaptatives, aux flux d'actions prédictives débloqués par RAG et d'autres innovations en matière de récupération d'informations en temps réel.
Considérez comment TikTok a révolutionné la consommation de contenu en créant des flux hautement personnalisés qui s'adaptent aux préférences de l'utilisateur en temps réel. Le Web agentic étend ce concept au-delà de la recommandation de contenu à la génération d'interfaces entières. Au lieu de naviguer à travers des mises en page de page Web fixes, les utilisateurs interagissent avec des interfaces générées dynamiquement qui prédisent et facilitent leurs prochaines actions. Ce passage des sites Web statiques aux interfaces dynamiques pilotées par des agents représente une évolution fondamentale dans notre façon d'interagir avec les systèmes numériques, passant de modèles d'interaction basés sur la navigation à des modèles d'interaction basés sur l'intention.
Les architectures agentic ont été une exploration immense pour les chercheurs et les constructeurs. De nouvelles méthodes sont constamment en cours de développement pour améliorer leurs capacités de raisonnement et de résolution de problèmes. Des techniques telles que la chaîne de pensée (CoT), l'arbre de pensée (ToT) et le graphe de pensée (GoT) sont des exemples concrets d'innovations conçues pour améliorer la manière dont les LLM gèrent des tâches complexes en simulant des processus cognitifs plus nuancés et similaires à ceux des humains.
La chaîne de pensée (CoT) encourage les grands modèles linguistiques (LLM) à diviser les tâches complexes en étapes plus petites et plus gérables. Cette approche est particulièrement efficace pour les problèmes qui nécessitent un raisonnement logique, tels que l'écriture de courts scripts Python ou la résolution d'équations mathématiques.
Tree-of-Thoughts (ToT) s'appuie sur CoT en introduisant une structure arborescente qui permet d'explorer plusieurs chemins de pensée indépendants. Cette amélioration permet aux LLM de s'attaquer à des tâches encore plus complexes. Dans ToT, chaque « pensée » (une sortie textuelle du LLM) est directement connectée uniquement à sa pensée précédente ou suivante immédiate au sein d'une chaîne locale (une branche de l'arbre). Bien que cette structure offre plus de flexibilité que CoT, elle limite encore le potentiel de croisement des idées.
Graph-of-Thought (GoT) pousse le concept plus loin en fusionnant des structures de données classiques avec des LLMs. Cette approche élargit ToT en permettant à n'importe quelle « pensée » de se lier à n'importe quelle autre pensée au sein d'une structure de graphe. Ce réseau interconnecté de pensées reflète plus étroitement les processus cognitifs humains.
La structure en graphique de GoT offre probablement une représentation plus précise de la pensée humaine par rapport à CoT ou ToT dans la plupart des scénarios. Bien qu'il existe des cas où nos schémas de pensée peuvent ressembler à des chaînes ou à des arbres (comme lors de l'élaboration de plans de contingence ou de procédures opérationnelles standard), ce sont des exceptions plutôt que la norme. Ce modèle reflète mieux la pensée humaine, qui saute souvent d'une pensée à une autre plutôt que de suivre un ordre séquentiel strict. Bien que certains scénarios, tels que l'élaboration de plans de contingence ou de procédures standard, puissent encore suivre une structure en chaîne ou en arborescence, notre esprit crée généralement des réseaux complexes et interconnectés d'idées qui sont plus en accord avec la structure en graphique.
Cette approche en forme de graphique dans GoT permet une exploration plus dynamique et flexible des idées, ce qui peut conduire à des capacités de résolution de problèmes plus créatives et complètes dans LLMs.
Ces opérations basées sur des graphes récursifs ne sont qu'une étape vers des flux de travail agentic. La prochaine évolution évidente consiste en plusieurs agents avec leur propre spécialisation orchestrés vers des objectifs spécifiques. La beauté des agents réside dans leur composition.
Les agents vous permettent de modulariser et de paralléliser les LLM grâce à une coordination multi-agent.
Le concept de systèmes multi-agents n'est pas nouveau. Ses racines remontent à la "Society of Mind" de Marvin Minsky, qui proposait que plusieurs esprits modulaires travaillant en collaboration puissent surpasser un esprit unique et monolithique. ChatGPT et Claude sont des agents uniques. Mistral a popularisé le Mélange d'Experts. En poussant cette idée plus loin, nous pensons qu'une architecture de Réseau d'Agents sera l'état final de cette topologie d'intelligence.
D'un point de vue biomimétique, contrairement aux modèles d'IA, où des milliards de neurones identiques sont connectés de manière uniforme et prévisible, le cerveau humain (essentiellement une machine consciente) est incroyablement hétérogène, à la fois au niveau de l'organe et de la cellule. Les neurones communiquent par le biais de signaux complexes, impliquant des gradients de neurotransmetteurs, des cascades intracellulaires et divers systèmes modulateurs, ce qui rend leur fonction beaucoup plus nuancée que de simples états binaires.
Cela suggère qu'en biologie, l'intelligence ne découle pas seulement du nombre de composants ou de la taille d'un ensemble de données d'entraînement. Elle découle plutôt de l'interaction complexe entre des unités diverses et spécialisées - un processus intrinsèquement analogue.
Pour cette raison, l'idée de développer des millions de modèles plus petits plutôt que quelques grands modèles, et de permettre l'orchestration entre tous ces acteurs, conduit plus probablement à des innovations dans les architectures cognitives, quelque chose de similaire à des systèmes multi-agents.
La conception de systèmes multi-agents offre plusieurs avantages par rapport aux systèmes à agent unique : elle est plus maintenable, plus facile à comprendre et plus flexible à étendre. Même dans les cas où seule une interface à agent unique est nécessaire, l'implémenter dans un cadre multi-agent peut rendre le système plus modulaire, simplifiant ainsi le processus pour les développeurs d'ajouter ou de supprimer des composants selon les besoins. Il est essentiel de reconnaître que l'architecture multi-agent peut être un moyen très efficace de construire même un système à agent unique.
Alors que les grands modèles linguistiques (LLM) ont montré des capacités extraordinaires, telles que la génération de textes semblables à ceux produits par des humains, la résolution de problèmes complexes et la prise en charge d'une large gamme de tâches, les agents individuels LLM sont confrontés à des limitations qui peuvent entraver leur efficacité dans des applications du monde réel.
Ci-dessous, nous examinons cinq défis clés associés aux systèmes agentic et explorons comment la collaboration multi-agent peut surmonter ces obstacles, débloquant ainsi tout le potentiel des LLMs.
Alors que les systèmes multi-agents offrent des avantages convaincants en matière de résolution de problèmes distribués et d'optimisation des ressources, leur véritable potentiel émerge lorsque nous envisageons leur mise en œuvre au niveau du réseau. À mesure que l'IA continue d'évoluer, la convergence des architectures multi-agents avec l'informatique en périphérie crée une synergie puissante, permettant non seulement une intelligence collaborative, mais également un traitement localisé et efficace sur d'innombrables appareils. Cette approche distribuée de déploiement de l'IA étend naturellement les avantages des systèmes multi-agents, rapprochant une intelligence spécialisée et coopérative là où elle est le plus nécessaire : l'utilisateur final.
La prolifération de l'IA à travers le paysage numérique entraîne une restructuration fondamentale des architectures informatiques. À mesure que l'intelligence se mêle à la trame de nos interactions numériques quotidiennes, nous assistons à une bifurcation naturelle du calcul : des centres de données spécialisés gèrent le raisonnement complexe et les tâches spécifiques à un domaine, tandis que les appareils périphériques traitent localement les requêtes personnalisées et sensibles au contexte. Ce passage vers l'inférence en périphérie n'est pas simplement une préférence architecturale, mais une nécessité motivée par plusieurs facteurs critiques.
Premièrement, le volume important des interactions basées sur l'IA submergerait les fournisseurs d'inférence centralisés, créant des demandes de bande passante insoutenables et des problèmes de latence.
Deuxièmement, le traitement en périphérie permet une réactivité en temps réel essentielle pour des applications telles que les véhicules autonomes, la réalité augmentée et les appareils IoT.
Troisièmement, l'inférence locale préserve la confidentialité de l'utilisateur en conservant les données sensibles sur les appareils personnels. Quatrièmement, l'informatique en périphérie réduit considérablement la consommation d'énergie et l'empreinte carbone en minimisant les mouvements de données à travers les réseaux.
Enfin, l'inférence sur le bord permet une fonctionnalité hors ligne et une résilience, garantissant que les capacités d'IA persistent même lorsque la connectivité réseau est compromise.
Ce paradigme d'intelligence distribuée représente non seulement une optimisation de nos systèmes actuels, mais aussi une réinvention fondamentale de la façon dont nous déployons et interagissons avec l'IA dans notre monde de plus en plus connecté.
De plus, nous assistons à un changement fondamental dans les exigences computationnelles des LLM. Alors que la dernière décennie a été dominée par les énormes exigences computationnelles pour former de grands modèles de langage, nous entrons maintenant dans une ère où le calcul en temps d'inférence prend le devant de la scène. Cette transition est particulièrement visible dans l'émergence de systèmes d'IA agentic, comme le montre la percée Q* d'OpenAI, qui a démontré comment le raisonnement dynamique nécessite des ressources computationnelles en temps réel importantes.
Contrairement au calcul au moment de la formation, qui est un investissement ponctuel dans le développement du modèle, le calcul au moment de l'inférence représente le dialogue computationnel continu nécessaire pour que les agents autonomes raisonnent, planifient et s'adaptent à des situations nouvelles. Ce passage de la formation de modèle statique à la réflexion dynamique de l'agent nécessite une refonte radicale de notre infrastructure computationnelle - une situation où le calcul en périphérie devient non seulement avantageux, mais essentiel.
Alors que cette transformation se déploie, nous assistons à l'émergence de marchés d'inférence de pointe à pointe, où des milliards d'appareils connectés - des smartphones aux systèmes domotiques intelligents - forment des maillages computationnels dynamiques. Ces appareils peuvent échanger de manière transparente leur capacité d'inférence, créant un marché organique où les ressources computationnelles s'écoulent là où elles sont le plus nécessaires. La capacité computationnelle excédentaire des appareils inactifs devient une ressource précieuse, échangeable en temps réel, permettant une infrastructure plus efficace et résiliente que les systèmes centralisés traditionnels.
Cette démocratisation du calcul d'inférence optimise non seulement l'utilisation des ressources, mais crée également de nouvelles opportunités économiques au sein de l'écosystème numérique, où chaque appareil connecté devient un micro-fournisseur potentiel de capacités d'IA. L'avenir de l'IA sera donc caractérisé non seulement par la puissance des modèles individuels, mais aussi par l'intelligence collective des dispositifs interconnectés formant un marché global et démocratisé d'inférence, semblable à un marché au comptant pour une inférence vérifiable basée sur l'offre et la demande.
Les LLM nous permettent désormais d'accéder à de vastes quantités d'informations via la conversation, au lieu de la navigation traditionnelle. Cette approche conversationnelle deviendra bientôt plus personnalisée et localisée, à mesure qu'Internet se transforme en une plateforme pour les agents d'IA plutôt que pour les utilisateurs humains.
Du point de vue de l'utilisateur, l'accent sera mis sur l'obtention des réponses les plus personnalisées plutôt que sur l'identification du "meilleur modèle". La clé de meilleures réponses réside dans l'intégration des propres données de l'utilisateur avec la connaissance générale d'Internet. Initialement, de plus grandes fenêtres de contexte et la génération augmentée de récupération (RAG) aideront à intégrer les données personnelles, mais éventuellement, les données individuelles dépasseront les données générales d'Internet en importance.
Cela mène à un avenir où nous aurons chacun des modèles d'IA personnels interagissant avec les modèles d'experts de l'internet plus large. Initialement, la personnalisation se fera aux côtés de modèles à distance, mais les préoccupations concernant la confidentialité et la vitesse de réponse pousseront davantage d'interactions vers des appareils locaux. Cela créera une nouvelle frontière - non pas entre l'homme et la machine, mais entre nos modèles personnels et les modèles d'experts de l'internet.
Le modèle traditionnel d'accès aux données brutes sur Internet deviendra obsolète. Au lieu de cela, votre modèle local communiquera avec des modèles d'experts à distance pour recueillir des informations, qu'il traitera et présentera de la manière la plus personnalisée et à haute bande passante possible. Ces modèles personnels deviendront de plus en plus indispensables à mesure qu'ils en apprendront davantage sur vos préférences et vos habitudes.
Internet se transformera en un écosystème de modèles interconnectés : des modèles personnels locaux à contexte élevé et des modèles d'experts distants à connaissances approfondies. Cela impliquera de nouvelles technologies telles que l'apprentissage fédéré pour mettre à jour les informations entre ces modèles. À mesure que l'économie machine évolue, nous devrons réimaginer le sous-état computationnel sur lequel cela se produit, principalement en ce qui concerne le calcul, la scalabilité et les paiements. Cela conduit à une réorganisation de l'espace d'information qui est centrée sur l'agent, souveraine, hautement composable, auto-apprenante et en évolution.
Dans le Web Agentique, l'interaction humain-agent évolue vers un réseau complexe de communications d'agent à agent. Cette architecture présente une réimagination fondamentale de la structure d'Internet, où les agents souverains deviennent les interfaces principales pour l'interaction numérique. Ci-dessous, nous mettons en évidence les primitives de base nécessaires pour les protocoles Agentiques.
Identité souveraine
Agents Autonomes
Entités auto-dirigées capables de: compréhension du langage naturel et résolution des intentions
Planification à plusieurs étapes et décomposition des tâches
Gestion et optimisation des ressources
Apprentissage à partir d'interactions et de commentaires
Infrastructure de données
Systèmes hybrides combinant: zkTLS
Ensembles de données d'entraînement traditionnels
Extraction de données en temps réel et synthèse de données
Réseaux RLHF (apprentissage par renforcement à partir des commentaires humains)Collecte de commentaires distribués
Mécanismes de consensus pondérés par la qualité
Couche de calcul
Protocoles d'inférence vérifiables garantissant: Intégrité des calculs
Reproductibilité des résultats
Efficacité des ressources
Infrastructure de calcul décentralisé comprenant : marchés de calcul peer-to-peer
Systèmes de preuve de calcul
Allocation dynamique des ressources
Écosystème modèle
Architecture du modèle hiérarchique: SLM (Small Language Models) spécifiques à la tâche
LLMs polyvalents
Modèles multimodaux spécialisés
Frameworks de coordination
Mécanismes de gouvernance pour: Résolution des litiges
Allocation des ressources
Environnements d'exécution parallèle permettant : Traitement concurrent des tâches
Isolation des ressources
Gestion de l'état
Marchés Agentic
Les agents possèdent une partie de leur approvisionnement en jetons à la genèse
Les agents deviennent des actifs producteurs de rendement DAO agentic
Les conceptions modernes des systèmes distribués offrent une inspiration unique et des primitives pour permettre des protocoles agentic, en particulier des architectures pilotées par des événements et, plus directement, le modèle d'acteur de calcul.
Le modèle acteur fournit une base théorique élégante pour la mise en œuvre de systèmes agentic. Ce modèle computationnel traite les "acteurs" comme les primitives universelles de la computation, où chaque acteur peut :
Les principaux avantages du modèle acteur pour les systèmes agentic incluent:
Nous proposons Neuron, une mise en œuvre pratique de ce protocole agentic théorique à travers une architecture distribuée multi-niveaux combinant des espaces de noms blockchain, des réseaux fédérés, des CRDT et des DHT, chaque couche servant des finalités distinctes dans la pile de protocoles. Nous nous inspirons d'Urbit et de Holochain, des pionniers précoces dans la conception de systèmes d'exploitation pair-à-pair.
Dans Neuron, la couche blockchain fournit des espaces de noms et des identités vérifiables, permettant une adressage déterministe et la découverte des agents tout en maintenant des preuves cryptographiques de capacités et de réputation. Au-dessus de cela, une couche DHT facilite la découverte efficace des agents et des nœuds ainsi que le routage du contenu avec des temps de recherche O(log n), réduisant les opérations on-chain tout en permettant la recherche de pairs consciente de la localité. La synchronisation de l'état entre les nœuds fédérés est gérée grâce aux CRDT, permettant aux agents et aux nœuds de maintenir des vues cohérentes de l'état partagé sans nécessiter de consensus global pour chaque interaction.
Cette architecture se prête naturellement à un réseau fédéré où des agents autonomes fonctionnent en tant que nœuds souverains vivant sur des appareils avec une inférence de bord locale implémentant le modèle d'acteur. Les domaines de fédération peuvent être organisés par les capacités des agents, le DHT fournissant un routage et une découverte efficaces au sein et entre les domaines. Chaque agent fonctionne en tant qu'acteur indépendant avec son propre état, tandis que la couche CRDT assure une cohérence éventuelle dans la fédération. Cette approche multicouche permet plusieurs capacités clés:
Coordination décentralisée
Opérations évolutives
Résilience du système
Cette approche d'implémentation fournit une base robuste pour la construction de systèmes agentic complexes tout en maintenant les propriétés clés de la souveraineté, de la scalabilité et de la résilience nécessaires pour des interactions efficaces entre agents.
Le Web agentic marque une évolution capitale dans l'interaction homme-machine, transcendant les développements séquentiels des époques précédentes pour établir un nouveau paradigme fondamental de l'existence numérique. Contrairement aux itérations précédentes qui ont simplement modifié la manière dont nous consommons ou possédons des informations, le Web agentic transforme Internet d'une plateforme centrée sur l'humain en un substrat intelligent où les agents autonomes deviennent les principaux acteurs. Cette transformation est alimentée par la convergence de l'informatique en périphérie, des modèles linguistiques volumineux et des protocoles décentralisés, créant un écosystème où les modèles d'IA personnels interagissent de manière transparente avec des systèmes experts spécialisés.
Alors que nous avançons vers cet avenir centré sur l'agent, les frontières entre l'intelligence humaine et artificielle commencent à s'estomper, remplacées par une relation symbiotique où les agents d'IA personnalisés servent d'extensions numériques, comprenant notre contexte, anticipant nos besoins et naviguant de manière autonome dans le vaste paysage de l'intelligence distribuée. Ainsi, le Web Agentic représente non seulement une avancée technologique, mais aussi une réimagination fondamentale du potentiel humain à l'ère numérique, où chaque interaction devient une opportunité pour l'intelligence augmentée et chaque appareil devient un nœud dans un réseau mondial de systèmes d'IA collaboratifs.
Alors que l'humanité navigue dans les dimensions physiques de l'espace et du temps, les agents autonomes habitent leurs propres dimensions fondamentales : l'espace de bloc pour l'existence et le temps d'inférence pour la réflexion. Cette ontologie numérique reflète notre réalité physique - où les humains parcourent des distances et vivent un flux temporel, les agents se déplacent à travers des preuves cryptographiques et des cycles de calcul, créant ainsi un univers parallèle d'existence algorithmique.
Il est inévitable que les entités dans l'espace latent opèrent sur l'espace de bloc décentralisé.
L’intelligence artificielle et la technologie blockchain représentent deux forces transformatrices qui remodèlent notre monde. L’IA amplifie les capacités cognitives humaines grâce à l’apprentissage automatique et aux réseaux neuronaux, tandis que la technologie blockchain introduit une rareté numérique vérifiable et permet de nouvelles formes de coordination sans confiance. Au fur et à mesure que ces technologies convergent, elles jettent les bases d’une nouvelle itération d’Internet, où les agents autonomes interagissent avec des systèmes décentralisés. Ce « Web agentique » introduit une nouvelle classe de citoyens numériques : les agents d’IA capables de naviguer, de négocier et d’effectuer des transactions de manière indépendante. Cette transformation redistribue le pouvoir dans le monde numérique, permettant aux individus de reprendre la souveraineté sur leurs données tout en favorisant un écosystème où l’intelligence humaine et l’intelligence artificielle collaborent de manière inédite.
Pour comprendre où nous allons, commençons par retracer l'évolution du web à travers ses principales itérations, chacune marquée par des capacités distinctes et des paradigmes architecturaux :
Alors que les deux premières générations du web se concentraient sur la propagation de l'information, les deux dernières permettent l'augmentation de l'information. Le Web 3.0 a introduit la propriété des données grâce aux jetons, et maintenant le Web 4.0 imbue l'intelligence à travers les grands modèles de langage (LLMs).
Les LLM représentent un bond en avant quantique dans l'intelligence artificielle, fonctionnant comme des systèmes dynamiques de correspondance de motifs qui transforment une vaste connaissance en compréhension contextuelle grâce à un calcul probabiliste. Cependant, leur véritable potentiel émerge lorsqu'ils sont structurés en tant qu'agents, passant de simples processeurs d'informations à des entités orientées vers un but capables de percevoir, raisonner et agir. Cette transformation crée une intelligence émergente capable d'une collaboration significative et soutenue à la fois par le langage et l'action.
Le terme "agent" introduit un nouveau paradigme pour l'interaction entre l'homme et l'IA, dépassant les limites et les associations négatives des chatbots traditionnels. Ce changement n'est pas seulement sémantique; il représente une reconceptualisation fondamentale de la façon dont les systèmes d'IA peuvent fonctionner de manière autonome tout en maintenant une collaboration significative avec les humains. Fondamentalement, les flux de travail agentic permettent aux marchés de se former autour de la résolution de l'intention utilisateur spécifique.
En fin de compte, le Web agentic représente plus qu'une simple nouvelle couche d'intelligence - il transforme fondamentalement la manière dont nous interagissons avec les systèmes numériques. Alors que les itérations web précédentes reposaient sur des interfaces statiques et des parcours utilisateur prédéfinis, le Web agentic introduit une infrastructure d'exécution dynamique où à la fois le calcul et les interfaces s'adaptent en temps réel au contexte et à l'intention de l'utilisateur.
Les sites traditionnels servent d'unité atomique à l'internet d'aujourd'hui, fournissant des interfaces fixes où les utilisateurs lisent, écrivent et interagissent avec des informations à travers des voies prédéterminées. Ce modèle, bien que fonctionnel, limite les utilisateurs à des interfaces conçues pour des cas d'utilisation généraux plutôt que pour des besoins individuels. Le Web agentic se libère de ces contraintes grâce au calcul contextualisé, à la génération d'interfaces adaptatives, aux flux d'actions prédictives débloqués par RAG et d'autres innovations en matière de récupération d'informations en temps réel.
Considérez comment TikTok a révolutionné la consommation de contenu en créant des flux hautement personnalisés qui s'adaptent aux préférences de l'utilisateur en temps réel. Le Web agentic étend ce concept au-delà de la recommandation de contenu à la génération d'interfaces entières. Au lieu de naviguer à travers des mises en page de page Web fixes, les utilisateurs interagissent avec des interfaces générées dynamiquement qui prédisent et facilitent leurs prochaines actions. Ce passage des sites Web statiques aux interfaces dynamiques pilotées par des agents représente une évolution fondamentale dans notre façon d'interagir avec les systèmes numériques, passant de modèles d'interaction basés sur la navigation à des modèles d'interaction basés sur l'intention.
Les architectures agentic ont été une exploration immense pour les chercheurs et les constructeurs. De nouvelles méthodes sont constamment en cours de développement pour améliorer leurs capacités de raisonnement et de résolution de problèmes. Des techniques telles que la chaîne de pensée (CoT), l'arbre de pensée (ToT) et le graphe de pensée (GoT) sont des exemples concrets d'innovations conçues pour améliorer la manière dont les LLM gèrent des tâches complexes en simulant des processus cognitifs plus nuancés et similaires à ceux des humains.
La chaîne de pensée (CoT) encourage les grands modèles linguistiques (LLM) à diviser les tâches complexes en étapes plus petites et plus gérables. Cette approche est particulièrement efficace pour les problèmes qui nécessitent un raisonnement logique, tels que l'écriture de courts scripts Python ou la résolution d'équations mathématiques.
Tree-of-Thoughts (ToT) s'appuie sur CoT en introduisant une structure arborescente qui permet d'explorer plusieurs chemins de pensée indépendants. Cette amélioration permet aux LLM de s'attaquer à des tâches encore plus complexes. Dans ToT, chaque « pensée » (une sortie textuelle du LLM) est directement connectée uniquement à sa pensée précédente ou suivante immédiate au sein d'une chaîne locale (une branche de l'arbre). Bien que cette structure offre plus de flexibilité que CoT, elle limite encore le potentiel de croisement des idées.
Graph-of-Thought (GoT) pousse le concept plus loin en fusionnant des structures de données classiques avec des LLMs. Cette approche élargit ToT en permettant à n'importe quelle « pensée » de se lier à n'importe quelle autre pensée au sein d'une structure de graphe. Ce réseau interconnecté de pensées reflète plus étroitement les processus cognitifs humains.
La structure en graphique de GoT offre probablement une représentation plus précise de la pensée humaine par rapport à CoT ou ToT dans la plupart des scénarios. Bien qu'il existe des cas où nos schémas de pensée peuvent ressembler à des chaînes ou à des arbres (comme lors de l'élaboration de plans de contingence ou de procédures opérationnelles standard), ce sont des exceptions plutôt que la norme. Ce modèle reflète mieux la pensée humaine, qui saute souvent d'une pensée à une autre plutôt que de suivre un ordre séquentiel strict. Bien que certains scénarios, tels que l'élaboration de plans de contingence ou de procédures standard, puissent encore suivre une structure en chaîne ou en arborescence, notre esprit crée généralement des réseaux complexes et interconnectés d'idées qui sont plus en accord avec la structure en graphique.
Cette approche en forme de graphique dans GoT permet une exploration plus dynamique et flexible des idées, ce qui peut conduire à des capacités de résolution de problèmes plus créatives et complètes dans LLMs.
Ces opérations basées sur des graphes récursifs ne sont qu'une étape vers des flux de travail agentic. La prochaine évolution évidente consiste en plusieurs agents avec leur propre spécialisation orchestrés vers des objectifs spécifiques. La beauté des agents réside dans leur composition.
Les agents vous permettent de modulariser et de paralléliser les LLM grâce à une coordination multi-agent.
Le concept de systèmes multi-agents n'est pas nouveau. Ses racines remontent à la "Society of Mind" de Marvin Minsky, qui proposait que plusieurs esprits modulaires travaillant en collaboration puissent surpasser un esprit unique et monolithique. ChatGPT et Claude sont des agents uniques. Mistral a popularisé le Mélange d'Experts. En poussant cette idée plus loin, nous pensons qu'une architecture de Réseau d'Agents sera l'état final de cette topologie d'intelligence.
D'un point de vue biomimétique, contrairement aux modèles d'IA, où des milliards de neurones identiques sont connectés de manière uniforme et prévisible, le cerveau humain (essentiellement une machine consciente) est incroyablement hétérogène, à la fois au niveau de l'organe et de la cellule. Les neurones communiquent par le biais de signaux complexes, impliquant des gradients de neurotransmetteurs, des cascades intracellulaires et divers systèmes modulateurs, ce qui rend leur fonction beaucoup plus nuancée que de simples états binaires.
Cela suggère qu'en biologie, l'intelligence ne découle pas seulement du nombre de composants ou de la taille d'un ensemble de données d'entraînement. Elle découle plutôt de l'interaction complexe entre des unités diverses et spécialisées - un processus intrinsèquement analogue.
Pour cette raison, l'idée de développer des millions de modèles plus petits plutôt que quelques grands modèles, et de permettre l'orchestration entre tous ces acteurs, conduit plus probablement à des innovations dans les architectures cognitives, quelque chose de similaire à des systèmes multi-agents.
La conception de systèmes multi-agents offre plusieurs avantages par rapport aux systèmes à agent unique : elle est plus maintenable, plus facile à comprendre et plus flexible à étendre. Même dans les cas où seule une interface à agent unique est nécessaire, l'implémenter dans un cadre multi-agent peut rendre le système plus modulaire, simplifiant ainsi le processus pour les développeurs d'ajouter ou de supprimer des composants selon les besoins. Il est essentiel de reconnaître que l'architecture multi-agent peut être un moyen très efficace de construire même un système à agent unique.
Alors que les grands modèles linguistiques (LLM) ont montré des capacités extraordinaires, telles que la génération de textes semblables à ceux produits par des humains, la résolution de problèmes complexes et la prise en charge d'une large gamme de tâches, les agents individuels LLM sont confrontés à des limitations qui peuvent entraver leur efficacité dans des applications du monde réel.
Ci-dessous, nous examinons cinq défis clés associés aux systèmes agentic et explorons comment la collaboration multi-agent peut surmonter ces obstacles, débloquant ainsi tout le potentiel des LLMs.
Alors que les systèmes multi-agents offrent des avantages convaincants en matière de résolution de problèmes distribués et d'optimisation des ressources, leur véritable potentiel émerge lorsque nous envisageons leur mise en œuvre au niveau du réseau. À mesure que l'IA continue d'évoluer, la convergence des architectures multi-agents avec l'informatique en périphérie crée une synergie puissante, permettant non seulement une intelligence collaborative, mais également un traitement localisé et efficace sur d'innombrables appareils. Cette approche distribuée de déploiement de l'IA étend naturellement les avantages des systèmes multi-agents, rapprochant une intelligence spécialisée et coopérative là où elle est le plus nécessaire : l'utilisateur final.
La prolifération de l'IA à travers le paysage numérique entraîne une restructuration fondamentale des architectures informatiques. À mesure que l'intelligence se mêle à la trame de nos interactions numériques quotidiennes, nous assistons à une bifurcation naturelle du calcul : des centres de données spécialisés gèrent le raisonnement complexe et les tâches spécifiques à un domaine, tandis que les appareils périphériques traitent localement les requêtes personnalisées et sensibles au contexte. Ce passage vers l'inférence en périphérie n'est pas simplement une préférence architecturale, mais une nécessité motivée par plusieurs facteurs critiques.
Premièrement, le volume important des interactions basées sur l'IA submergerait les fournisseurs d'inférence centralisés, créant des demandes de bande passante insoutenables et des problèmes de latence.
Deuxièmement, le traitement en périphérie permet une réactivité en temps réel essentielle pour des applications telles que les véhicules autonomes, la réalité augmentée et les appareils IoT.
Troisièmement, l'inférence locale préserve la confidentialité de l'utilisateur en conservant les données sensibles sur les appareils personnels. Quatrièmement, l'informatique en périphérie réduit considérablement la consommation d'énergie et l'empreinte carbone en minimisant les mouvements de données à travers les réseaux.
Enfin, l'inférence sur le bord permet une fonctionnalité hors ligne et une résilience, garantissant que les capacités d'IA persistent même lorsque la connectivité réseau est compromise.
Ce paradigme d'intelligence distribuée représente non seulement une optimisation de nos systèmes actuels, mais aussi une réinvention fondamentale de la façon dont nous déployons et interagissons avec l'IA dans notre monde de plus en plus connecté.
De plus, nous assistons à un changement fondamental dans les exigences computationnelles des LLM. Alors que la dernière décennie a été dominée par les énormes exigences computationnelles pour former de grands modèles de langage, nous entrons maintenant dans une ère où le calcul en temps d'inférence prend le devant de la scène. Cette transition est particulièrement visible dans l'émergence de systèmes d'IA agentic, comme le montre la percée Q* d'OpenAI, qui a démontré comment le raisonnement dynamique nécessite des ressources computationnelles en temps réel importantes.
Contrairement au calcul au moment de la formation, qui est un investissement ponctuel dans le développement du modèle, le calcul au moment de l'inférence représente le dialogue computationnel continu nécessaire pour que les agents autonomes raisonnent, planifient et s'adaptent à des situations nouvelles. Ce passage de la formation de modèle statique à la réflexion dynamique de l'agent nécessite une refonte radicale de notre infrastructure computationnelle - une situation où le calcul en périphérie devient non seulement avantageux, mais essentiel.
Alors que cette transformation se déploie, nous assistons à l'émergence de marchés d'inférence de pointe à pointe, où des milliards d'appareils connectés - des smartphones aux systèmes domotiques intelligents - forment des maillages computationnels dynamiques. Ces appareils peuvent échanger de manière transparente leur capacité d'inférence, créant un marché organique où les ressources computationnelles s'écoulent là où elles sont le plus nécessaires. La capacité computationnelle excédentaire des appareils inactifs devient une ressource précieuse, échangeable en temps réel, permettant une infrastructure plus efficace et résiliente que les systèmes centralisés traditionnels.
Cette démocratisation du calcul d'inférence optimise non seulement l'utilisation des ressources, mais crée également de nouvelles opportunités économiques au sein de l'écosystème numérique, où chaque appareil connecté devient un micro-fournisseur potentiel de capacités d'IA. L'avenir de l'IA sera donc caractérisé non seulement par la puissance des modèles individuels, mais aussi par l'intelligence collective des dispositifs interconnectés formant un marché global et démocratisé d'inférence, semblable à un marché au comptant pour une inférence vérifiable basée sur l'offre et la demande.
Les LLM nous permettent désormais d'accéder à de vastes quantités d'informations via la conversation, au lieu de la navigation traditionnelle. Cette approche conversationnelle deviendra bientôt plus personnalisée et localisée, à mesure qu'Internet se transforme en une plateforme pour les agents d'IA plutôt que pour les utilisateurs humains.
Du point de vue de l'utilisateur, l'accent sera mis sur l'obtention des réponses les plus personnalisées plutôt que sur l'identification du "meilleur modèle". La clé de meilleures réponses réside dans l'intégration des propres données de l'utilisateur avec la connaissance générale d'Internet. Initialement, de plus grandes fenêtres de contexte et la génération augmentée de récupération (RAG) aideront à intégrer les données personnelles, mais éventuellement, les données individuelles dépasseront les données générales d'Internet en importance.
Cela mène à un avenir où nous aurons chacun des modèles d'IA personnels interagissant avec les modèles d'experts de l'internet plus large. Initialement, la personnalisation se fera aux côtés de modèles à distance, mais les préoccupations concernant la confidentialité et la vitesse de réponse pousseront davantage d'interactions vers des appareils locaux. Cela créera une nouvelle frontière - non pas entre l'homme et la machine, mais entre nos modèles personnels et les modèles d'experts de l'internet.
Le modèle traditionnel d'accès aux données brutes sur Internet deviendra obsolète. Au lieu de cela, votre modèle local communiquera avec des modèles d'experts à distance pour recueillir des informations, qu'il traitera et présentera de la manière la plus personnalisée et à haute bande passante possible. Ces modèles personnels deviendront de plus en plus indispensables à mesure qu'ils en apprendront davantage sur vos préférences et vos habitudes.
Internet se transformera en un écosystème de modèles interconnectés : des modèles personnels locaux à contexte élevé et des modèles d'experts distants à connaissances approfondies. Cela impliquera de nouvelles technologies telles que l'apprentissage fédéré pour mettre à jour les informations entre ces modèles. À mesure que l'économie machine évolue, nous devrons réimaginer le sous-état computationnel sur lequel cela se produit, principalement en ce qui concerne le calcul, la scalabilité et les paiements. Cela conduit à une réorganisation de l'espace d'information qui est centrée sur l'agent, souveraine, hautement composable, auto-apprenante et en évolution.
Dans le Web Agentique, l'interaction humain-agent évolue vers un réseau complexe de communications d'agent à agent. Cette architecture présente une réimagination fondamentale de la structure d'Internet, où les agents souverains deviennent les interfaces principales pour l'interaction numérique. Ci-dessous, nous mettons en évidence les primitives de base nécessaires pour les protocoles Agentiques.
Identité souveraine
Agents Autonomes
Entités auto-dirigées capables de: compréhension du langage naturel et résolution des intentions
Planification à plusieurs étapes et décomposition des tâches
Gestion et optimisation des ressources
Apprentissage à partir d'interactions et de commentaires
Infrastructure de données
Systèmes hybrides combinant: zkTLS
Ensembles de données d'entraînement traditionnels
Extraction de données en temps réel et synthèse de données
Réseaux RLHF (apprentissage par renforcement à partir des commentaires humains)Collecte de commentaires distribués
Mécanismes de consensus pondérés par la qualité
Couche de calcul
Protocoles d'inférence vérifiables garantissant: Intégrité des calculs
Reproductibilité des résultats
Efficacité des ressources
Infrastructure de calcul décentralisé comprenant : marchés de calcul peer-to-peer
Systèmes de preuve de calcul
Allocation dynamique des ressources
Écosystème modèle
Architecture du modèle hiérarchique: SLM (Small Language Models) spécifiques à la tâche
LLMs polyvalents
Modèles multimodaux spécialisés
Frameworks de coordination
Mécanismes de gouvernance pour: Résolution des litiges
Allocation des ressources
Environnements d'exécution parallèle permettant : Traitement concurrent des tâches
Isolation des ressources
Gestion de l'état
Marchés Agentic
Les agents possèdent une partie de leur approvisionnement en jetons à la genèse
Les agents deviennent des actifs producteurs de rendement DAO agentic
Les conceptions modernes des systèmes distribués offrent une inspiration unique et des primitives pour permettre des protocoles agentic, en particulier des architectures pilotées par des événements et, plus directement, le modèle d'acteur de calcul.
Le modèle acteur fournit une base théorique élégante pour la mise en œuvre de systèmes agentic. Ce modèle computationnel traite les "acteurs" comme les primitives universelles de la computation, où chaque acteur peut :
Les principaux avantages du modèle acteur pour les systèmes agentic incluent:
Nous proposons Neuron, une mise en œuvre pratique de ce protocole agentic théorique à travers une architecture distribuée multi-niveaux combinant des espaces de noms blockchain, des réseaux fédérés, des CRDT et des DHT, chaque couche servant des finalités distinctes dans la pile de protocoles. Nous nous inspirons d'Urbit et de Holochain, des pionniers précoces dans la conception de systèmes d'exploitation pair-à-pair.
Dans Neuron, la couche blockchain fournit des espaces de noms et des identités vérifiables, permettant une adressage déterministe et la découverte des agents tout en maintenant des preuves cryptographiques de capacités et de réputation. Au-dessus de cela, une couche DHT facilite la découverte efficace des agents et des nœuds ainsi que le routage du contenu avec des temps de recherche O(log n), réduisant les opérations on-chain tout en permettant la recherche de pairs consciente de la localité. La synchronisation de l'état entre les nœuds fédérés est gérée grâce aux CRDT, permettant aux agents et aux nœuds de maintenir des vues cohérentes de l'état partagé sans nécessiter de consensus global pour chaque interaction.
Cette architecture se prête naturellement à un réseau fédéré où des agents autonomes fonctionnent en tant que nœuds souverains vivant sur des appareils avec une inférence de bord locale implémentant le modèle d'acteur. Les domaines de fédération peuvent être organisés par les capacités des agents, le DHT fournissant un routage et une découverte efficaces au sein et entre les domaines. Chaque agent fonctionne en tant qu'acteur indépendant avec son propre état, tandis que la couche CRDT assure une cohérence éventuelle dans la fédération. Cette approche multicouche permet plusieurs capacités clés:
Coordination décentralisée
Opérations évolutives
Résilience du système
Cette approche d'implémentation fournit une base robuste pour la construction de systèmes agentic complexes tout en maintenant les propriétés clés de la souveraineté, de la scalabilité et de la résilience nécessaires pour des interactions efficaces entre agents.
Le Web agentic marque une évolution capitale dans l'interaction homme-machine, transcendant les développements séquentiels des époques précédentes pour établir un nouveau paradigme fondamental de l'existence numérique. Contrairement aux itérations précédentes qui ont simplement modifié la manière dont nous consommons ou possédons des informations, le Web agentic transforme Internet d'une plateforme centrée sur l'humain en un substrat intelligent où les agents autonomes deviennent les principaux acteurs. Cette transformation est alimentée par la convergence de l'informatique en périphérie, des modèles linguistiques volumineux et des protocoles décentralisés, créant un écosystème où les modèles d'IA personnels interagissent de manière transparente avec des systèmes experts spécialisés.
Alors que nous avançons vers cet avenir centré sur l'agent, les frontières entre l'intelligence humaine et artificielle commencent à s'estomper, remplacées par une relation symbiotique où les agents d'IA personnalisés servent d'extensions numériques, comprenant notre contexte, anticipant nos besoins et naviguant de manière autonome dans le vaste paysage de l'intelligence distribuée. Ainsi, le Web Agentic représente non seulement une avancée technologique, mais aussi une réimagination fondamentale du potentiel humain à l'ère numérique, où chaque interaction devient une opportunité pour l'intelligence augmentée et chaque appareil devient un nœud dans un réseau mondial de systèmes d'IA collaboratifs.
Alors que l'humanité navigue dans les dimensions physiques de l'espace et du temps, les agents autonomes habitent leurs propres dimensions fondamentales : l'espace de bloc pour l'existence et le temps d'inférence pour la réflexion. Cette ontologie numérique reflète notre réalité physique - où les humains parcourent des distances et vivent un flux temporel, les agents se déplacent à travers des preuves cryptographiques et des cycles de calcul, créant ainsi un univers parallèle d'existence algorithmique.
Il est inévitable que les entités dans l'espace latent opèrent sur l'espace de bloc décentralisé.