Transférer le titre original: DeAI compressé
Étant donné que la crypto-monnaie est essentiellement un logiciel open source avec des incitations financières intégrées - et que l'IA perturbe la façon dont le logiciel est écrit - il est logique que l'IA aura un impact massif sur l'espace de la blockchain dans son ensemble.
Pour moi, les plus grands défis auxquels est confronté DeAI se situent dans la couche d'infrastructure compte tenu de l'intensité capitalistique de la construction de modèles fondamentaux et des rendements à l'échelle des données et du calcul.
Étant donné les lois d'échelle, les grandes entreprises technologiques ont un avantage prononcé : elles exploitent leurs énormes coffres de guerre issus des bénéfices monopolistiques en agrégeant la demande des consommateurs lors de la deuxième génération d'Internet et en les réinvestissant dans l'infrastructure cloud au cours d'une décennie de taux artificiellement bas. Les hyperscalers tentent maintenant de capturer le marché de l'intelligence en s'appropriant les données et le calcul - les ingrédients clés de l'IA.
En raison de l'intensité du capital et des exigences de bande passante élevées des grandes exécutions de formation, les superclusters unifiés restent optimaux - fournissant aux Big Tech les modèles les plus performants - source fermée - qu'ils prévoient de louer avec des marges oligopolistiques, réinvestissant les revenus dans chaque génération ultérieure.
Cependant, les douves de l'IA se sont révélées moins profondes que les effets de réseau de web2, avec des modèles de pointe qui se déprécient rapidement par rapport au domaine, en particulier avec Meta qui adopte une approche de "terre brûlée" et investit des dizaines de milliards de dollars dans des modèles de pointe en open source comme Llama 3.1 avec des performances de niveau SOTA.
Cela, ainsi querecherche émergentedans des méthodes d'entraînement décentralisées à faible latence, peut (partiellement) rendre les modèles commerciaux de pointe plus commerciaux - déplaçant (du moins en partie) la concurrence des super clusters matériels (favorisant les grandes entreprises technologiques) vers l'innovation logicielle (favorisant marginalement l'open source / crypto) à mesure que le prix de l'intelligence diminue.
Compte tenu de l'efficacité de calcul des architectures de «mixture of expert» et de la synthèse / du routage de LLM, il semble probable que nous ne nous dirigeons pas vers un monde de 3 à 5 méga modèles, mais vers une tapisserie de millions de modèles avec différents compromis coût / performances. Un réseau d'intelligence entrelacée. Un esprit collectif.
Cela devient un énorme problème de coordination : celui auquel les blockchains et les incitations cryptographiques devraient être bien équipées pour aider.
Le logiciel dévore le monde. L'IA dévore le logiciel. Et l'IA n'est en fait que des données et des calculs.
Tout ce qui peut le plus efficacement sourcer les deux entrées ci-dessus (infrastructure), les coordonner (middleware), et satisfaire les demandes des utilisateurs (applications), sera précieux.
Delphi est haussier sur divers composants à travers la pile :
Étant donné que l'IA est alimentée par des données et des calculs, l'infrastructure DeAI est dédiée à l'acquisition de ces deux éléments de manière aussi efficace que possible, généralement en utilisant des incitations cryptographiques. Comme nous l'avons mentionné précédemment, c'est la partie la plus difficile de la pile sur laquelle concourir, mais aussi potentiellement la plus gratifiante compte tenu de la taille des marchés finaux.
Bien que jusqu'à présent freinés par la latence, les protocoles d'entraînement décentralisés et les places de marché GPU espèrent orchestrer le matériel latent et hétérogène pour fournir des calculs à la demande à moindre coût pour ceux qui ne peuvent pas se permettre les solutions intégrées des grandes entreprises technologiques. Des acteurs comme Gensyn, Prime Intellect et Neuromesh repoussent les frontières de la formation distribuée tandis queio.net, Akash, Aethir, etc. permettent une inférence à moindre coût plus proche de l'extrémité.
Dans un monde d'intelligence omniprésente basé sur des modèles plus petits et spécialisés, les actifs de données sont de plus en plus précieux et monétisables.
Jusqu'à présent, les DePIN (réseaux physiques décentralisés) ont été largement salués pour leur capacité à créer des réseaux matériels à moindre coût par rapport aux acteurs traditionnels à forte intensité capitalistique (par exemple, les opérateurs télécoms). Cependant, le marché potentiellement le plus important des DePIN émergera dans la collecte de nouveaux ensembles de données qui alimentent les intelligences sur chaîne :protocoles agentic(à discuter ultérieurement).
Dans un monde où le travail - le plus grand TAM du monde ? - est remplacé par une combinaison de données et de calcul, l'infrastructure DeAI offre une solution aux non Tech Barons pourSaisissez les moyens de productionet contribuer à l'économie en réseau à venir.
L'objectif final de DeAI est une informatique de composition efficace. Comme les Lego de l'argent DeFi, l'IA décentralisée compense le manque de performances absolues aujourd'hui grâce à la composabilité sans permission - incitant à un écosystème ouvert de logiciels et de primitives de calcul qui se cumulent au fil du temps pour (espérons-le) dépasser les acteurs en place.
Si Google est l'extrême intégré, alors DeAI représente l'extrême modulaire. CommeClayton ChristensenNous rappelle que les approches intégrées ont tendance à prendre la tête dans les industries émergentes en réduisant les frictions dans la chaîne de valeur, mais à mesure que l'espace mûrit, les chaînes de valeur modulaires prennent des parts grâce à une plus grande concurrence et à des efficacités de coûts au sein de chaque couche de la pile :
Nous sommes très optimistes sur plusieurs catégories essentielles pour permettre cette vision modulaire :
Dans un monde d'intelligence fragmentée, comment peut-on choisir le bon modèle et le bon moment au meilleur prix possible? Les agrégateurs côté demande ont toujours capturé de la valeur (voirthéorie de l'agrégation) et la fonction de routage est essentielle pour optimiser la courbe de Pareto entre les performances et les coûts dans le monde de l'intelligence en réseau:
Bittensora été le leader ici dans la génération 1, mais une foule de concurrents dédiés émergent.
Alloraorganise des compétitions entre différents modèles sur divers « thèmes » de manière « contextuelle » et en s'améliorant avec le temps - en informant les prévisions futures en fonction de l'exactitude historique dans des conditions spécifiques.
Morpheus vise à devenir le «routeur côté demande» pour les cas d'utilisation de web3 - essentiellement une «intelligence Apple» avec un agent local open source qui dispose du contexte pertinent de l'utilisateur et peut acheminer efficacement les requêtes via DeFi ou les blocs de construction émergents de l'infrastructure de «calcul composable» de web3.
Les protocoles d'interopérabilité des agents commeTheoriqetAutonolasvise à pousser le routage modulaire à l'extrême en permettant à des écosystèmes composites et composables d'agents ou de composants flexibles de se transformer en services intégraux sur chaîne.
En bref, dans un monde d'intelligence qui se fragmente rapidement, les agrégateurs du côté de l'offre et de la demande joueront un rôle extrêmement puissant. Si Google est devenu une entreprise de 2 billions de dollars indexant les informations du monde, alors le gagnant du côté de la demande, que ce soit Apple, Google ou une solution web3, qui indexe l'intelligence agentique, devrait être encore plus important.
Compte tenu de leur décentralisation, les blockchains sont fortement contraintes à la fois en termes de données et de calcul. Comment apportez-vous les applications d'IA intensives en calcul et en données que les utilisateurs vont exiger on-chain ?
Co-processeurs!
Source:Florin Digital
Il s'agit en fait de «oracles» qui offrent différentes techniques permettant de «vérifier» les données ou le modèle sous-jacent utilisé de manière à minimiser les nouvelles hypothèses de confiance sur la chaîne tout en offrant des augmentations de capacité substantielles. À ce jour, il existe une multitude de projets utilisant zkML, opML, TeeML et des approches économiques cryptographiques - chacun avec des avantages et des inconvénients variables:
Pour une revue plus approfondie, veuillez consulter notre rapport DeAI partie III qui sortira dans les semaines à venir.
En termes généraux, les co-processeurs sont essentiels pour rendre les contrats intelligents, eh bien... intelligents - ils fournissent des solutions de type « entrepôt de données » pour interroger des expériences sur chaîne plus personnalisées ou pour vérifier qu'un raisonnement donné a été correctement terminé.
Les réseaux TEE commeSuper,Phala, etMarlinen particulier ont gagné en popularité récemment en raison de leur praticité et de leur capacité à accueillir des applications à grande échelle aujourd'hui.
Dans l'ensemble, les co-processeurs sont essentiels pour fusionner les blockchains hautement déterministes mais à faible performance avec des intelligences hautement performantes mais probabilistes. Sans les co-processeurs, l'IA ne serait pas présente dans cette génération de blockchains.
Un des plus grands problèmes du développement open source en matière d'IA a été le manque d'incitations pour le rendre durable. Le développement de l'IA est très coûteux en capital, et le coût d'opportunité à la fois du calcul et du travail de connaissances en IA est très élevé. Sans incitations appropriées pour récompenser les contributions open source, l'espace finira inévitablement par perdre face aux hyperscalers hyper-capitalistes.
Une série de projets deSentientàPluralisàSaharaà Miravisent tous à démarrer des réseaux qui permettent et récompensent correctement les contributions aux intelligences en réseau provenant de réseaux fragmentés d'individus.
En fixant le modèle commercial, la capitalisation du code source ouvert devrait s'accélérer, offrant aux développeurs et aux chercheurs en IA une option en dehors des grandes entreprises technologiques, qui soit mondiale et, espérons-le, également bien rémunérée en fonction de la valeur créée.
Bien que très difficile à réussir et de plus en plus compétitif, le TAM ici est énorme.
Lorsque les LLMs délimitent des motifs dans de grands corpus de textes et apprennent à prédire le mot suivant, les Graph Neural Nets (GNNs) traitent, analysent et apprennent à partir de données structurées en graphe. Étant donné que les données sur chaîne consistent principalement en des interactions complexes entre les utilisateurs et les contrats intelligents - en d'autres termes, un graphe - les GNNs semblent être un choix logique pour soutenir les cas d'utilisation de l'IA sur chaîne.
Projets comme PONDet RPS essaient de construire des modèles fondamentaux pour web3 – potentiellement transformateurs dans le trading, la Defi, et même des cas d'utilisation sociale comme
Ces modèles tireront fortement sur les solutions de stockage de données commeEspace et Temps, Subsquid,Covalent, etHyperlinesur laquelle je suis aussi assez optimiste.
Les GNN pourraient prouver que les LLM des blockchains et des entrepôts de données web3 sont des facilitateurs essentiels: fournissant des fonctionnalités OLAP à web3.
À mon avis, les agents on-chain sont peut-être la clé du déverrouillage de l’expérience utilisateur notoirement mauvaise de la crypto, mais plus important encore, le côté de la demande manquante pour l’utilisation pitoyable des milliards de dollars que nous avons versés dans l’infrastructure web3 au cours de la dernière décennie.
Ne vous méprenez pas, les agents arrivent…
Et il semble logique que ces agents utilisent l'infrastructure ouverte et sans permission - à travers les paiements et le calcul composite - pour atteindre des objectifs finaux de plus en plus complexes.
Dans l’économie à venir de l’intelligence en réseau, peut-être que les flux économiques sont beaucoup moins B -> B ->C et beaucoup plus utilisateur -agent > -> réseau de calcul -> agent -> utilisateur.
Protocoles agentiques sont le résultat final. Les applications ou les entreprises de services avec des frais généraux limités qui s’exécutent principalement à l’aide de ressources on-chain répondant aux demandes des utilisateurs finaux (ou des autres) dans des réseaux composables avec des coûts bien inférieurs à ceux des entreprises traditionnelles.
Tout comme avec le web2 où la couche d'application capturait la majorité de la valeur, je suis un adepte de la thèse des "protocoles agentic gras" en DeAI. La capture de valeur devrait évoluer vers le haut de la pile avec le temps.
Le prochain Google, Facebook et Blackrock pourraient probablement être des protocoles agencés et les composants pour les rendre possibles sont en train de naître en ce moment même.
L'IA changera la forme de nos économies. Aujourd'hui, le marché s'attend à ce que la capture de valeur réside dans les limites de quelques grandes entreprises du Nord-Ouest du Pacifique des États-Unis. DeAI représente une vision différente.
Une vision de réseaux ouverts et composables d'intelligences avec des incitations et une rémunération même pour de petites contributions et une plus grande propriété / gouvernance collective.
Bien que certains récits de DeAI se précipitent et que de nombreux projets se négocient nettement au-dessus de leur niveau actuel, l'ampleur de l'opportunité est en effet importante. Pour ceux qui sont patients et perspicaces, la vision ultime de DeAI d'un calcul véritablement composite pourrait bien constituer la justification même des blockchains elles-mêmes.
Si vous avez apprécié cette bande-annonce, veuillez rester à l'affût de nos rapports longs qui seront dévoilés dans les semaines à venir alors que le mois AI x Crypto de Delphi se déroule :
DeAI I: La Tour & Le Carré (déverrouillé maintenant)
DeAI II: Saisir les moyens de production, Infra (déverrouillé bientôt)
DeAI III: Calcul Composable, Middleware (déverrouillage la semaine prochaine)
DeAI IV: L'économie agentic, Applications (débloquer deux semaines)
Ce mois va être important. Attachez vos ceintures.
Transférer le titre original: DeAI compressé
Étant donné que la crypto-monnaie est essentiellement un logiciel open source avec des incitations financières intégrées - et que l'IA perturbe la façon dont le logiciel est écrit - il est logique que l'IA aura un impact massif sur l'espace de la blockchain dans son ensemble.
Pour moi, les plus grands défis auxquels est confronté DeAI se situent dans la couche d'infrastructure compte tenu de l'intensité capitalistique de la construction de modèles fondamentaux et des rendements à l'échelle des données et du calcul.
Étant donné les lois d'échelle, les grandes entreprises technologiques ont un avantage prononcé : elles exploitent leurs énormes coffres de guerre issus des bénéfices monopolistiques en agrégeant la demande des consommateurs lors de la deuxième génération d'Internet et en les réinvestissant dans l'infrastructure cloud au cours d'une décennie de taux artificiellement bas. Les hyperscalers tentent maintenant de capturer le marché de l'intelligence en s'appropriant les données et le calcul - les ingrédients clés de l'IA.
En raison de l'intensité du capital et des exigences de bande passante élevées des grandes exécutions de formation, les superclusters unifiés restent optimaux - fournissant aux Big Tech les modèles les plus performants - source fermée - qu'ils prévoient de louer avec des marges oligopolistiques, réinvestissant les revenus dans chaque génération ultérieure.
Cependant, les douves de l'IA se sont révélées moins profondes que les effets de réseau de web2, avec des modèles de pointe qui se déprécient rapidement par rapport au domaine, en particulier avec Meta qui adopte une approche de "terre brûlée" et investit des dizaines de milliards de dollars dans des modèles de pointe en open source comme Llama 3.1 avec des performances de niveau SOTA.
Cela, ainsi querecherche émergentedans des méthodes d'entraînement décentralisées à faible latence, peut (partiellement) rendre les modèles commerciaux de pointe plus commerciaux - déplaçant (du moins en partie) la concurrence des super clusters matériels (favorisant les grandes entreprises technologiques) vers l'innovation logicielle (favorisant marginalement l'open source / crypto) à mesure que le prix de l'intelligence diminue.
Compte tenu de l'efficacité de calcul des architectures de «mixture of expert» et de la synthèse / du routage de LLM, il semble probable que nous ne nous dirigeons pas vers un monde de 3 à 5 méga modèles, mais vers une tapisserie de millions de modèles avec différents compromis coût / performances. Un réseau d'intelligence entrelacée. Un esprit collectif.
Cela devient un énorme problème de coordination : celui auquel les blockchains et les incitations cryptographiques devraient être bien équipées pour aider.
Le logiciel dévore le monde. L'IA dévore le logiciel. Et l'IA n'est en fait que des données et des calculs.
Tout ce qui peut le plus efficacement sourcer les deux entrées ci-dessus (infrastructure), les coordonner (middleware), et satisfaire les demandes des utilisateurs (applications), sera précieux.
Delphi est haussier sur divers composants à travers la pile :
Étant donné que l'IA est alimentée par des données et des calculs, l'infrastructure DeAI est dédiée à l'acquisition de ces deux éléments de manière aussi efficace que possible, généralement en utilisant des incitations cryptographiques. Comme nous l'avons mentionné précédemment, c'est la partie la plus difficile de la pile sur laquelle concourir, mais aussi potentiellement la plus gratifiante compte tenu de la taille des marchés finaux.
Bien que jusqu'à présent freinés par la latence, les protocoles d'entraînement décentralisés et les places de marché GPU espèrent orchestrer le matériel latent et hétérogène pour fournir des calculs à la demande à moindre coût pour ceux qui ne peuvent pas se permettre les solutions intégrées des grandes entreprises technologiques. Des acteurs comme Gensyn, Prime Intellect et Neuromesh repoussent les frontières de la formation distribuée tandis queio.net, Akash, Aethir, etc. permettent une inférence à moindre coût plus proche de l'extrémité.
Dans un monde d'intelligence omniprésente basé sur des modèles plus petits et spécialisés, les actifs de données sont de plus en plus précieux et monétisables.
Jusqu'à présent, les DePIN (réseaux physiques décentralisés) ont été largement salués pour leur capacité à créer des réseaux matériels à moindre coût par rapport aux acteurs traditionnels à forte intensité capitalistique (par exemple, les opérateurs télécoms). Cependant, le marché potentiellement le plus important des DePIN émergera dans la collecte de nouveaux ensembles de données qui alimentent les intelligences sur chaîne :protocoles agentic(à discuter ultérieurement).
Dans un monde où le travail - le plus grand TAM du monde ? - est remplacé par une combinaison de données et de calcul, l'infrastructure DeAI offre une solution aux non Tech Barons pourSaisissez les moyens de productionet contribuer à l'économie en réseau à venir.
L'objectif final de DeAI est une informatique de composition efficace. Comme les Lego de l'argent DeFi, l'IA décentralisée compense le manque de performances absolues aujourd'hui grâce à la composabilité sans permission - incitant à un écosystème ouvert de logiciels et de primitives de calcul qui se cumulent au fil du temps pour (espérons-le) dépasser les acteurs en place.
Si Google est l'extrême intégré, alors DeAI représente l'extrême modulaire. CommeClayton ChristensenNous rappelle que les approches intégrées ont tendance à prendre la tête dans les industries émergentes en réduisant les frictions dans la chaîne de valeur, mais à mesure que l'espace mûrit, les chaînes de valeur modulaires prennent des parts grâce à une plus grande concurrence et à des efficacités de coûts au sein de chaque couche de la pile :
Nous sommes très optimistes sur plusieurs catégories essentielles pour permettre cette vision modulaire :
Dans un monde d'intelligence fragmentée, comment peut-on choisir le bon modèle et le bon moment au meilleur prix possible? Les agrégateurs côté demande ont toujours capturé de la valeur (voirthéorie de l'agrégation) et la fonction de routage est essentielle pour optimiser la courbe de Pareto entre les performances et les coûts dans le monde de l'intelligence en réseau:
Bittensora été le leader ici dans la génération 1, mais une foule de concurrents dédiés émergent.
Alloraorganise des compétitions entre différents modèles sur divers « thèmes » de manière « contextuelle » et en s'améliorant avec le temps - en informant les prévisions futures en fonction de l'exactitude historique dans des conditions spécifiques.
Morpheus vise à devenir le «routeur côté demande» pour les cas d'utilisation de web3 - essentiellement une «intelligence Apple» avec un agent local open source qui dispose du contexte pertinent de l'utilisateur et peut acheminer efficacement les requêtes via DeFi ou les blocs de construction émergents de l'infrastructure de «calcul composable» de web3.
Les protocoles d'interopérabilité des agents commeTheoriqetAutonolasvise à pousser le routage modulaire à l'extrême en permettant à des écosystèmes composites et composables d'agents ou de composants flexibles de se transformer en services intégraux sur chaîne.
En bref, dans un monde d'intelligence qui se fragmente rapidement, les agrégateurs du côté de l'offre et de la demande joueront un rôle extrêmement puissant. Si Google est devenu une entreprise de 2 billions de dollars indexant les informations du monde, alors le gagnant du côté de la demande, que ce soit Apple, Google ou une solution web3, qui indexe l'intelligence agentique, devrait être encore plus important.
Compte tenu de leur décentralisation, les blockchains sont fortement contraintes à la fois en termes de données et de calcul. Comment apportez-vous les applications d'IA intensives en calcul et en données que les utilisateurs vont exiger on-chain ?
Co-processeurs!
Source:Florin Digital
Il s'agit en fait de «oracles» qui offrent différentes techniques permettant de «vérifier» les données ou le modèle sous-jacent utilisé de manière à minimiser les nouvelles hypothèses de confiance sur la chaîne tout en offrant des augmentations de capacité substantielles. À ce jour, il existe une multitude de projets utilisant zkML, opML, TeeML et des approches économiques cryptographiques - chacun avec des avantages et des inconvénients variables:
Pour une revue plus approfondie, veuillez consulter notre rapport DeAI partie III qui sortira dans les semaines à venir.
En termes généraux, les co-processeurs sont essentiels pour rendre les contrats intelligents, eh bien... intelligents - ils fournissent des solutions de type « entrepôt de données » pour interroger des expériences sur chaîne plus personnalisées ou pour vérifier qu'un raisonnement donné a été correctement terminé.
Les réseaux TEE commeSuper,Phala, etMarlinen particulier ont gagné en popularité récemment en raison de leur praticité et de leur capacité à accueillir des applications à grande échelle aujourd'hui.
Dans l'ensemble, les co-processeurs sont essentiels pour fusionner les blockchains hautement déterministes mais à faible performance avec des intelligences hautement performantes mais probabilistes. Sans les co-processeurs, l'IA ne serait pas présente dans cette génération de blockchains.
Un des plus grands problèmes du développement open source en matière d'IA a été le manque d'incitations pour le rendre durable. Le développement de l'IA est très coûteux en capital, et le coût d'opportunité à la fois du calcul et du travail de connaissances en IA est très élevé. Sans incitations appropriées pour récompenser les contributions open source, l'espace finira inévitablement par perdre face aux hyperscalers hyper-capitalistes.
Une série de projets deSentientàPluralisàSaharaà Miravisent tous à démarrer des réseaux qui permettent et récompensent correctement les contributions aux intelligences en réseau provenant de réseaux fragmentés d'individus.
En fixant le modèle commercial, la capitalisation du code source ouvert devrait s'accélérer, offrant aux développeurs et aux chercheurs en IA une option en dehors des grandes entreprises technologiques, qui soit mondiale et, espérons-le, également bien rémunérée en fonction de la valeur créée.
Bien que très difficile à réussir et de plus en plus compétitif, le TAM ici est énorme.
Lorsque les LLMs délimitent des motifs dans de grands corpus de textes et apprennent à prédire le mot suivant, les Graph Neural Nets (GNNs) traitent, analysent et apprennent à partir de données structurées en graphe. Étant donné que les données sur chaîne consistent principalement en des interactions complexes entre les utilisateurs et les contrats intelligents - en d'autres termes, un graphe - les GNNs semblent être un choix logique pour soutenir les cas d'utilisation de l'IA sur chaîne.
Projets comme PONDet RPS essaient de construire des modèles fondamentaux pour web3 – potentiellement transformateurs dans le trading, la Defi, et même des cas d'utilisation sociale comme
Ces modèles tireront fortement sur les solutions de stockage de données commeEspace et Temps, Subsquid,Covalent, etHyperlinesur laquelle je suis aussi assez optimiste.
Les GNN pourraient prouver que les LLM des blockchains et des entrepôts de données web3 sont des facilitateurs essentiels: fournissant des fonctionnalités OLAP à web3.
À mon avis, les agents on-chain sont peut-être la clé du déverrouillage de l’expérience utilisateur notoirement mauvaise de la crypto, mais plus important encore, le côté de la demande manquante pour l’utilisation pitoyable des milliards de dollars que nous avons versés dans l’infrastructure web3 au cours de la dernière décennie.
Ne vous méprenez pas, les agents arrivent…
Et il semble logique que ces agents utilisent l'infrastructure ouverte et sans permission - à travers les paiements et le calcul composite - pour atteindre des objectifs finaux de plus en plus complexes.
Dans l’économie à venir de l’intelligence en réseau, peut-être que les flux économiques sont beaucoup moins B -> B ->C et beaucoup plus utilisateur -agent > -> réseau de calcul -> agent -> utilisateur.
Protocoles agentiques sont le résultat final. Les applications ou les entreprises de services avec des frais généraux limités qui s’exécutent principalement à l’aide de ressources on-chain répondant aux demandes des utilisateurs finaux (ou des autres) dans des réseaux composables avec des coûts bien inférieurs à ceux des entreprises traditionnelles.
Tout comme avec le web2 où la couche d'application capturait la majorité de la valeur, je suis un adepte de la thèse des "protocoles agentic gras" en DeAI. La capture de valeur devrait évoluer vers le haut de la pile avec le temps.
Le prochain Google, Facebook et Blackrock pourraient probablement être des protocoles agencés et les composants pour les rendre possibles sont en train de naître en ce moment même.
L'IA changera la forme de nos économies. Aujourd'hui, le marché s'attend à ce que la capture de valeur réside dans les limites de quelques grandes entreprises du Nord-Ouest du Pacifique des États-Unis. DeAI représente une vision différente.
Une vision de réseaux ouverts et composables d'intelligences avec des incitations et une rémunération même pour de petites contributions et une plus grande propriété / gouvernance collective.
Bien que certains récits de DeAI se précipitent et que de nombreux projets se négocient nettement au-dessus de leur niveau actuel, l'ampleur de l'opportunité est en effet importante. Pour ceux qui sont patients et perspicaces, la vision ultime de DeAI d'un calcul véritablement composite pourrait bien constituer la justification même des blockchains elles-mêmes.
Si vous avez apprécié cette bande-annonce, veuillez rester à l'affût de nos rapports longs qui seront dévoilés dans les semaines à venir alors que le mois AI x Crypto de Delphi se déroule :
DeAI I: La Tour & Le Carré (déverrouillé maintenant)
DeAI II: Saisir les moyens de production, Infra (déverrouillé bientôt)
DeAI III: Calcul Composable, Middleware (déverrouillage la semaine prochaine)
DeAI IV: L'économie agentic, Applications (débloquer deux semaines)
Ce mois va être important. Attachez vos ceintures.