L'IA est l'une des catégories les plus chaudes et les plus prometteuses sur les marchés crypto récemment.
💡entraînement en IA décentralisé
💡Dépins GPU
💡modèles d'IA non censurés
S'agit-il de percées ou simplement de mots à la mode ? 🤔
à hack vc, nous coupons à travers le bruit pour séparer la promesse de la réalité.
ce post dissèque les meilleures idées crypto x ai. parlons des véritables défis et opportunités.
des idées avec une promesse initiale, mais qui ont rencontré des défis dans la réalité.
Tout d'abord, commençons par la "promesse de l'IA web3" - des idées qui suscitent beaucoup d'enthousiasme, mais pour lesquelles la réalité peut ne pas être aussi brillante.
Le problème avec l'entraînement de l'IA on-chain est que l'entraînement nécessite une communication et une coordination à haute vitesse entre les GPU, en raison des réseaux neuronaux nécessitant une rétropropagation lors de l'entraînement. Nvidia propose deux innovations à cet égard (NVLinketInfiniBand). Ces technologies rendent efficacement la communication GPU ultra-rapide, mais ce ne sont que des technologies locales qui s'appliquent uniquement au sein des clusters GPU situés dans un seul centre de données (vitesses de 50+ gigabits).
si vous introduisez un réseau décentralisé dans l'image, vous êtes soudainement beaucoup plus lent en raison de la latence et de la bande passante réseau ajoutées. c'est un non-démarrage pour les cas d'utilisation de l'entraînement de l'IA par rapport à la capacité de traitement que vous obtenez de l'interconnectivité à haute vitesse de nvidia au sein d'un centre de données.
notez qu'il y a eu ici quelques innovations qui peuvent donner un peu d'espoir pour l'avenir:
la composante des données de la formation est également difficile. Tout processus de formation d'IA implique de travailler avec de vastes quantités de données. En général, les modèles sont formés sur des systèmes de stockage de données centralisés et sécurisés, offrant une grande évolutivité et des performances élevées. Cela nécessite le transfert et le traitement de téraoctets de données, et ce n'est pas un cycle ponctuel. Les données sont généralement bruyantes et contiennent des erreurs, il est donc nécessaire de les nettoyer et de les transformer en un format utilisable avant de former le modèle. Cette étape implique des tâches répétitives de normalisation, de filtrage et de gestion des valeurs manquantes. Tout cela pose de sérieux défis dans un environnement décentralisé.
le composant de données de la formation est également itératif, ce qui ne convient pas bien à web3. il a fallu à openai des milliers d'itérations pour obtenir ses résultats. le scénario de tâche le plus basique pour un spécialiste des sciences des données dans une équipe d'IA comprend la définition des objectifs, la préparation des données, l'analyse et la structuration des données pour extraire des informations importantes et les rendre adaptées à la modélisation. ensuite, un modèle d'apprentissage automatique est développé pour résoudre le problème défini, et ses performances sont validées à l'aide d'un ensemble de données de test. ce processus est itératif: si le modèle actuel ne se comporte pas comme prévu, le spécialiste retourne à l'étape de collecte de données ou de formation du modèle pour améliorer les résultats. maintenant, imaginez ce processus dans un contexte décentralisé, où les meilleurs cadres et outils existants ne sont pas facilement disponibles dans web3.
l'autre préoccupation concernant la formation de modèles d'IA on-chain est que c'est un marché beaucoup moins intéressant comparé à l'inférence. Pour l'instant, une énorme quantité de calcul gpu est utilisée pour la formation de modèles d'IA llm. Mais à long terme, l'inférence deviendra (de loin) le cas d'utilisation de gpu le plus courant. Considérons : combien de modèles d'IA llms doivent être formés pour que le monde soit heureux, par rapport au nombre de clients qui utiliseront ces modèles?
une solution qui progresse sur tous les fronts est 0g.ai (soutenu par hack vc) qui fournit à la fois un stockage de données on-chain et une infrastructure de disponibilité des données. leur architecture ultra rapide et leur capacité à stocker d'énormes quantités de données on-chain permettent une formation rapide et itérative des modèles d'IA on-chain de tout type.
l'un des défis de la crypto x l'IA est de vérifier l'exactitude de l'inférence de l'IA, car on ne peut pas forcément faire confiance à une seule entité centralisée pour effectuer cette inférence en raison du potentiel de comportement incorrect des nœuds. Ce défi n'existe pas dans l'IA web2 car il n'y a pas de système de consensus décentralisé.
une idée proposée pour résoudre cela est le calcul redondant, où plusieurs nœuds répètent la même opération d'inférence d'IA, de sorte que vous puissiez fonctionner de manière décentralisée et éviter un point de défaillance unique.
le problème avec cette approche est que nous vivons dans un monde avec une pénurie drastique de puces ai haut de gamme. il y a une attente de plusieurs années pour les puces haut de gamme de nvidia, ce qui entraîne une hausse des prix. si vous deviez exiger que votre inférence ai soit ré-exécutée plusieurs fois sur plusieurs nœuds, vous multipliez maintenant ces coûts onéreux. cela va être un non-démarreur pour de nombreux projets.
Il a été suggéré que web3 devrait avoir ses propres cas d'utilisation AI uniques qui sont spécifiques aux clients de web3. Cela peut être (par exemple) un protocole web3 qui utilise l'IA pour effectuer une évaluation des risques d'un pool DeFi, un portefeuille web3 suggérant de nouveaux protocoles en fonction de l'historique de votre portefeuille, ou un jeu web3 qui utilise l'IA pour contrôler les personnages non joueurs (PNJ).
pour l'instant, il s'agit (à court terme) d'un marché naissant où les cas d'utilisation sont encore en train d'être découverts. quelques défis incluent:
À plus long terme, nous sommes très optimistes quant aux cas d'utilisation d'IA native à web3, surtout maintenant que les agents d'IA deviennent de plus en plus courants. Nous imaginons un avenir où chaque utilisateur de web3 dispose d'une multitude d'agents d'IA pour l'assister. Le leader de catégorie précoce pour cela est Crypto.Theoriq(soutenu par hack vc), ce qui permet des agents d'IA composable et autonomes sur la chaîne.
il existe un certain nombre de réseaux de calcul d'IA décentralisés qui reposent sur des GPU grand public plutôt que sur des centres de données. Les GPU grand public sont pratiques pour les tâches d'inférence d'IA de faible qualité ou pour les cas d'utilisation des consommateurs où la latence, le débit et la fiabilité sont flexibles. Mais pour des cas d'utilisation d'entreprise sérieux (qui représentent la majorité du marché qui compte), les clients veulent un réseau plus fiable par rapport aux machines domestiques des personnes, et ont souvent besoin de GPU haut de gamme s'ils ont des tâches d'inférence plus complexes. Les centres de données sont plus appropriés pour ces cas d'utilisation client plus précieux.
notez que nous considérons les cartes graphiques grand public comme utiles à des fins de démonstration ou pour les particuliers et les startups qui peuvent tolérer une fiabilité inférieure. Mais ces clients sont fondamentalement moins précieux, nous pensons donc que les dépôts qui s'adressent aux entreprises Web2 seront plus précieux à long terme. En tant que tels, les projets de dépôts bien connus ont généralement évolué depuis les premiers jours où ils étaient principalement basés sur du matériel grand public pour offrir une disponibilité au niveau des a100/h100 et des clusters.
réalité - les cas d'utilisation pratiques et réalistes de la crypto x ai
maintenant, discutons des cas d'utilisation qui offrent de "vrais avantages". ce sont de véritables "victoires" où la crypto x ia peut apporter une valeur significative.
mckinseyestimations cette intelligence artificielle générative pourrait ajouter l'équivalent de 2,6 billions de dollars à 4,4 billions de dollars annuellement pour les 63 cas d'utilisation analysés. En comparaison, le PIB total du Royaume-Uni en 2021 était de 3,1 billions de dollars. Cela augmenterait l'impact de toute l'intelligence artificielle de 15 % à 40 %. Cette estimation doublerait approximativement si nous incluons l'impact de l'intégration de l'intelligence artificielle générative dans les logiciels actuellement utilisés pour d'autres tâches au-delà de ces cas d'utilisation.
si vous faites le calcul de l'estimation ci-dessus, cela implique que le marché total de l'IA (au-delà de l'IA générative) pourrait valoir des dizaines de milliers de milliards de dollars dans le monde entier. Par comparaison, l'ensemble des crypto-monnaies combinées, y compris le bitcoin et chaque altcoin, ne vaut qu'environ 2,7 billions de dollars aujourd'hui. Alors soyons réalistes : la grande majorité des clients qui ont besoin d'IA à court terme seront des clients web2, car les clients web3 qui ont réellement besoin d'IA ne représenteront qu'une petite partie de ces 2,7 billions de dollars (en tenant compte du fait que le BTC représente la moitié de ce marché, et que le BTC lui-même n'a pas besoin n'utilise pas l'IA).
Les cas d'utilisation de web3 AI ne font que commencer et il n'est pas du tout clair quelle sera la taille de ce marché. Mais une chose est intuitivement certaine - ce sera une petite fraction du marché de web2 dans un avenir prévisible. Nous croyons que web3 AI a encore un avenir prometteur, mais cela signifie simplement que l'application la plus puissante de web3 AI est, pour l'instant, de servir les clients de web2.
Des exemples de clients web2 qui pourraient bénéficier hypothétiquement de l'IA web3 incluent :
Il s'agit d'une persona client relativement stable, puisque les clients sont généralement importants et précieux. Ils ne sont pas susceptibles de faire faillite de sitôt et représentent des clients potentiels très importants pour les services d'IA. Les services d'IA Web3 qui servent les clients Web2 bénéficieront de cette base de clients stable.
mais pourquoi un client web2 voudrait-il utiliser une pile web3? le reste de ce post fait valoir ce cas.
gpu déploie la puissance de calcul sous-utilisée d'aggreGate.io (la plus fiable provenant des centres de données) et les rend disponibles pour l'inférence d'IA (un exemple en est io.net, qui est une entreprise du portefeuille des fonds gérés par hack vc). Une façon simple de penser à cela est «airbnb pour les GPU» (en fait, une consommation collaborative d'actifs sous-utilisés).
La raison pour laquelle nous sommes enthousiasmés par les dépins GPU est que, comme indiqué ci-dessus, il y a une pénurie de puces Nvidia, et il y a actuellement des cycles GPU gaspillés qui peuvent être utilisés pour l’inférence de l’IA. Ces propriétaires de matériel ont un coût irrécupérable et n’utilisent pas pleinement leur équipement aujourd’hui, et peuvent donc offrir ces cycles GPU fractionnés à un coût beaucoup plus faible par rapport au statu quo, car il s’agit effectivement d’un « argent trouvé » pour les propriétaires de matériel.
exemples incluent:
Notez que tous les matériels GPU ne sont pas adaptés à l'inférence AI. Une raison flagrante à cela est que les anciens GPU n'ont pas la quantité de mémoire GPU nécessaire pour LLMS, bien qu'il y ait eu quelques innovations intéressantes pour aider à ce sujet.Exabits, par exemple, a une technologie qui charge les neurones actifs dans la mémoire du GPU et les neurones inactifs dans la mémoire du CPU. ils prédisent quels neurones doivent être actifs / inactifs. cela permet aux GPU de gamme inférieure de traiter les charges de travail d'IA, même avec une mémoire GPU limitée. cela rend effectivement les GPU de gamme inférieure plus utiles pour l'inférence d'IA.
notez également que les dépenses web3 AI devront se renforcer au fil du temps et proposer des services de classe entreprise, tels que l'authentification unique, la conformité SOC 2, les accords de niveau de service (SLA), et plus encore. cela refléterait les services proposés dans le cadre des offres cloud actuelles dont bénéficient actuellement les clients web2.
Il a beaucoup été question de la censure de l'IA. Par exemple, la Turquie a temporairement interdit OpenAI (ils ont ensuite fait marche arrière une fois qu'OpenAI a amélioré sa conformité). Nous pensons que ce genre de censure au niveau des pays est fondamentalement sans intérêt car les pays devront adopter l'IA pour rester compétitifs.
Ce qui est plus intéressant, c'est qu'OpenAI s'auto-censure. Par exemple, OpenAI ne traitera pas le contenu NSFW. OpenAI ne prédira pas non plus la prochaine élection présidentielle. Nous pensons qu'il existe un marché intéressant et important pour les cas d'utilisation d'IA que OpenAI n'abordera pas pour des raisons politiques.
la mise en open source est une excellente solution pour cela, car un dépôt github n'est pas lié aux actionnaires ni à un conseil d'administration. un exemple de cela estVenice.ai, qui promet de préserver votre vie privée tout en fonctionnant de manière non censurée. La clé, bien sûr, est d'être open source, ce qui alimente cela. Ce que Web3 AI peut apporter de manière efficace pour élever cela, c'est d'alimenter ces modèles de logiciels open source (OSS) à un coût inférieur avec un cluster GPU pour effectuer cette inférence. C'est pour ces raisons que nous pensons que OSS + Web3 sont la combinaison idéale pour ouvrir la voie à l'IA non censurée.
de nombreuses grandes entreprises ont des préoccupations en matière de confidentialité concernant leurs données internes d'entreprise. pour ces clients, il peut être extrêmement difficile de faire confiance à un tiers centralisé, comme openai, avec ces données.
avec web3, cela peut sembler (en surface) encore plus effrayant pour ces entreprises, car leurs données internes se trouvent soudainement sur un réseau décentralisé. Cependant, il existe des innovations dans les technologies d'amélioration de la confidentialité pour l'IA :
ces technologies sont encore en évolution, et les performances s'améliorent encore grâce aux prochaines ASIC à connaissance zéro (zk) et FHE. Mais l'objectif à long terme est de protéger les données d'entreprise lors du réglage fin d'un modèle. À mesure que ces protocoles émergent, Web3 pourrait devenir un lieu plus attrayant pour le calcul d'IA préservant la vie privée.
oss a systématiquement érodé la part de marché des logiciels propriétaires au cours des dernières décennies. nous considérons un llm simplement comme une forme sophistiquée de logiciel propriétaire qui est mûr pour une perturbation oss. quelques exemples remarquables de challengers incluent Lama, RWKVetMistral.ai. cette liste ne fera sans doute que s'allonger avec le temps (une liste plus complète est disponible à Openrouter.ai). en utilisant l'IA web3 (alimentée par des modèles OSS), on peut tirer parti de ces nouvelles innovations.
Nous pensons qu’au fil du temps, une main-d’œuvre mondiale de développement open source, combinée à des incitations cryptographiques, peut stimuler une innovation rapide dans les modèles open source, ainsi que dans les agents et les frameworks construits sur eux. Voici un exemple de protocole d’agent d’IA Théoriq. theoriq exploite des modèles oss pour créer un réseau interconnecté composable d'agents d'IA qui peuvent être assemblés pour créer des solutions d'IA de niveau supérieur.
La raison pour laquelle nous avons ici une conviction est due au passé : la plupart des logiciels de développement ont progressivement été surpassés par les logiciels open source. Microsoft était autrefois une entreprise de logiciels propriétaires, et maintenant c'est la première entreprise contribuant à GitHub, et il y a une raison à cela. Si vous regardez comment Databricks, PostgresSQL, MongoDB et d'autres ont perturbé les bases de données propriétaires, c'est un exemple d'une industrie entière qui a été bouleversée par l'open source, donc le précédent ici est assez fort.
Cependant, cela vient avec un hic. L'un des problèmes délicats avec les modèles linguistiques à code source ouvert (OSS LLMS) est qu'OpenAI a commencé à conclure des accords de licence de données payantes avec des organisations, telles que Reddit et le New York Times. Si cette tendance se poursuit, il pourrait devenir plus difficile pour les OSS LLMS de rivaliser en raison de la barrière financière liée à l'acquisition de données. Il est possible que Nvidia mise davantage sur le calcul confidentiel en tant qu'outil de partage sécurisé des données. Le temps nous dira comment cela se déroulera.
l'un des défis de l'inférence web3 ai est la vérification. Il existe une opportunité hypothétique pour les validateurs de tricher sur leurs résultats pour gagner des frais, donc vérifier les inférences est une mesure importante. Notez que cette triche ne s'est pas encore produite, car l'inférence ai est à ses balbutiements, mais c'est inévitable à moins que des mesures ne soient prises pour dissuader ce comportement.
l'approche web3 standard consiste à avoir plusieurs validateurs répéter la même opération et comparer les résultats. Le défi évident avec cela est, comme on l'a noté, que l'inférence de l'IA est coûteuse en raison de la pénurie actuelle de puces nvidia haut de gamme. Étant donné que web3 peut offrir une inférence à moindre coût via des dépendances gpu sous-utilisées, le calcul redondant compromettrait gravement la proposition de valeur de web3.
une solution plus prometteuse consiste à effectuer une preuve zk pour le calcul d'inférence d'IA hors chaîne. Dans ce cas, la preuve zk succincte peut être vérifiée pour déterminer si un modèle a été correctement formé, ou si l'inférence a été exécutée correctement (connu sous le nom de zkml). Des exemples incluent Modulus labsetZKonduit. les performances de ces solutions sont encore naissantes car les opérations zk sont assez intensives en calcul. Cependant, nous anticipons que cela devrait probablement s'améliorer avec la sortie prochaine de matériels asics zk.
encore plus prometteuse est l'idée d'une approche d'inférence ai basée sur un échantillonnage quelque peu «optimiste». dans ce modèle, vous vérifieriez seulement un pourcentage minuscule des résultats générés par les validateurs, mais fixeriez le coût économique de la réduction suffisamment élevé de sorte que, s'ils sont pris, cela créerait un fort désincitatif économique pour les validateurs de tricher. de cette façon, vous économisez sur les calculs redondants (par exemple, voir,Hyperbolique’sPreuve d'échantillonnage papier).
une autre idée prometteuse est une solution de tatouage et d'empreinte digitale, comme celle proposée par le réseau Bagel. c'est similaire au mécanisme d'assurance qualité d'amazon alexa pour les modèles d'ia embarqués de leurs millions d'appareils.
La prochaine opportunité que Web3 apporte à l'IA est de démocratiser les coûts. Jusqu'à présent, nous avons parlé d'économiser les coûts des GPU via depins. Mais Web3 offre également des opportunités d'économiser sur les marges bénéficiaires des services d'IA centralisés de Web2 (par exemple, OpenAI, qui réalise un chiffre d'affaires de plus de 1 milliard de dollars par an au moment de la rédaction). Ces économies de coûts proviennent du fait que des modèles open source sont utilisés plutôt que des modèles propriétaires, ce qui permet d'économiser une couche supplémentaire, puisque le créateur du modèle ne cherche pas à réaliser un profit.
de nombreux modèles OSS resteront complètement gratuits, ce qui permet une économie optimale pour les clients. Mais il peut y avoir aussi des modèles OSS qui tentent ces méthodes de monétisation. Considérez que seuls 4% des modèles totaux sur Hugging Face sont entraînés par des entreprises disposant de budgets pour aider à subventionner les modèles (voir ici). les 96% restants des modèles sont formés par la communauté. cette cohorte - 96% de hugging face - a des coûts réels fondamentaux (y compris les coûts de calcul et les coûts de données). donc ces modèles devront somehow monétiser.
Il existe plusieurs propositions pour accomplir cette monétisation de modèles OSS. L'un des plus intéressants est le concept d'une «offre initiale de modèle» (IMO) où vous tokenisez le modèle lui-même, réservez un pourcentage de jetons pour l'équipe et faites couler certaines futures revenus provenant de ce modèle aux détenteurs de jetons, même s'il y a clairement des obstacles juridiques et réglementaires.
d'autres modèles d'oss essaieront de monétiser l'utilisation. notez que si cela se concrétise, les modèles d'oss pourraient commencer à ressembler de plus en plus à leurs homologues web2 générant des bénéfices. mais, de manière réaliste, le marché sera bifurqué, certains modèles restant entièrement gratuits.
l'un des plus grands défis de l'IA est de trouver les bonnes données pour entraîner vos modèles. Nous avons mentionné précédemment que l'entraînement décentralisé de l'IA a ses défis. Mais qu'en est-il de l'utilisation d'un réseau décentralisé pour la collecte de données (qui peuvent ensuite être utilisées pour la formation ailleurs, même dans des lieux Web2 traditionnels)?
C'est exactement ce que les startups telles que CryptoHerbefont. grass est un réseau décentralisé de « récupérateurs de données », des individus qui contribuent à la puissance de traitement inutilisée de leur machine pour trouver des données permettant d'informer la formation de modèles d'IA. En théorie, à grande échelle, cette collecte de données peut être supérieure à tous les efforts internes d'une entreprise pour trouver des données en raison de la puissance d'un grand réseau de nœuds incitatifs. Cela comprend non seulement la collecte de plus de données, mais aussi la collecte de ces données plus fréquemment afin que les données soient plus pertinentes et plus à jour. Il est également pratiquement impossible d'arrêter une armée décentralisée de récupérateurs de données, car ils sont intrinsèquement fragmentés et ne résident pas dans une seule adresse IP. Ils disposent également d'un réseau de personnes qui peuvent nettoyer et normaliser les données, de sorte qu'elles soient utiles après avoir été collectées.
une fois que vous avez les données, vous avez également besoin d'un endroit pour les stocker sur la chaîne, ainsi que des llms générés avec ces données.0g.AIest le précurseur dans cette catégorie. C'est une solution de stockage web3 haute performance optimisée par l'IA qui est significativement moins chère que AWS (une autre victoire économique pour le web3 IA), tout en servant également d'infrastructure de disponibilité des données pour les couches 2, l'IA, et plus encore.
notez que le rôle des données pourrait changer dans le web3 ai à l'avenir. Aujourd'hui, l'état actuel des choses pour les llms est de pré-entraîner un modèle avec des données, et de le peaufiner au fil du temps avec plus de données. Cependant, ces modèles sont toujours légèrement obsolètes car les données sur Internet changent en temps réel. Ainsi, les réponses de l'inférence llm sont légèrement inexactes.
l'avenir de là où le monde pourrait se diriger est un nouveau paradigme - des données en temps réel. Le concept est que lorsqu'un llm est interrogé sur une question d'inférence, ce llm peut utiliser l'injection de données dans le llm, où ces données sont collectées en temps réel sur Internet. De cette manière, le llm utilise les données les plus à jour possibles. Grass étudie également cela.
conclusion
nous espérons que cela vous servira d'analyse utile lorsque vous réfléchissez aux promesses par rapport à la réalité de l'IA web3. ceci est simplement un point de départ pour la conversation, et le paysage évolue rapidement, alors n'hésitez pas à intervenir et à exprimer également vos points de vue, car nous aimerions continuer à apprendre et à construire ensemble.
remerciements
un merci très spécial à albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng et jw wang pour leurs retours et contributions à ce post.
Les informations ci-dessus sont fournies uniquement à titre d'information générale et ne constituent pas et ne sont pas destinées à constituer des conseils en investissement et ne doivent pas être utilisées pour l'évaluation de toute décision d'investissement. Ces informations ne doivent pas être utilisées pour des conseils comptables, juridiques, fiscaux, commerciaux, d'investissement ou autres conseils pertinents. Vous devriez consulter vos propres conseillers, y compris votre propre conseiller, pour des conseils comptables, juridiques, fiscaux, commerciaux, d'investissement ou autres conseils pertinents, notamment en ce qui concerne tout ce qui est discuté ici.
Ce post reflète les opinions actuelles de l'auteur (s) et n'est pas fait au nom de Hack VC ou de ses affiliés, y compris tous les fonds gérés par Hack VC, et ne reflète pas nécessairement les opinions de Hack VC, de ses affiliés, y compris ses affiliés partenaires généraux, ou de toute autre personne associée à Hack VC. Certaines informations contenues ici ont été obtenues à partir de sources publiées et/ou préparées par des tiers et, dans certains cas, n'ont pas été mises à jour à la date des présentes. Bien que ces sources soient réputées fiables, ni Hack VC, ni ses affiliés, y compris ses affiliés partenaires généraux, ni aucune autre personne associée à Hack VC ne font de déclarations quant à leur exactitude ou leur exhaustivité, et elles ne doivent pas être considérées comme telles ni servir de base à une décision en matière de comptabilité, de droit, de fiscalité, d'entreprise, d'investissement ou autre. Les informations contenues ici ne prétendent pas être complètes et sont susceptibles de changer, et Hack VC n'a aucune obligation de mettre à jour de telles informations ou de notifier si de telles informations deviennent inexactes.
Les performances passées ne préjugent pas nécessairement des résultats futurs. Les déclarations prospectives faites ici sont basées sur certaines hypothèses et analyses faites par l'auteur à la lumière de son expérience et de sa perception des tendances historiques, des conditions actuelles et des développements futurs prévus, ainsi que d'autres facteurs qu'il estime appropriés dans les circonstances. De telles déclarations ne garantissent pas les performances futures et sont soumises à certains risques, incertitudes et hypothèses difficiles à prévoir.
Cet article est reproduit à partir de [Hack vc], le titre original « AI X Crypto - Promesses et réalités », les droits d’auteur appartiennent à l’auteur original [Ed Roman, associé directeur chez Hack VC], si vous avez des objections à la réimpression, veuillez contacter Équipe d'apprentissage de Gate, l’équipe s’en occupera dans les plus brefs délais selon les procédures applicables.
disclaimer: les points de vue et opinions exprimés dans cet article ne représentent que les points de vue personnels de l'auteur et ne constituent aucun conseil en investissement.
d'autres versions linguistiques de l'article sont traduites par l'équipe de formation de Gate.io, non mentionnées dansGate.ioL'article traduit ne peut être reproduit, distribué ou plagié.
L'IA est l'une des catégories les plus chaudes et les plus prometteuses sur les marchés crypto récemment.
💡entraînement en IA décentralisé
💡Dépins GPU
💡modèles d'IA non censurés
S'agit-il de percées ou simplement de mots à la mode ? 🤔
à hack vc, nous coupons à travers le bruit pour séparer la promesse de la réalité.
ce post dissèque les meilleures idées crypto x ai. parlons des véritables défis et opportunités.
des idées avec une promesse initiale, mais qui ont rencontré des défis dans la réalité.
Tout d'abord, commençons par la "promesse de l'IA web3" - des idées qui suscitent beaucoup d'enthousiasme, mais pour lesquelles la réalité peut ne pas être aussi brillante.
Le problème avec l'entraînement de l'IA on-chain est que l'entraînement nécessite une communication et une coordination à haute vitesse entre les GPU, en raison des réseaux neuronaux nécessitant une rétropropagation lors de l'entraînement. Nvidia propose deux innovations à cet égard (NVLinketInfiniBand). Ces technologies rendent efficacement la communication GPU ultra-rapide, mais ce ne sont que des technologies locales qui s'appliquent uniquement au sein des clusters GPU situés dans un seul centre de données (vitesses de 50+ gigabits).
si vous introduisez un réseau décentralisé dans l'image, vous êtes soudainement beaucoup plus lent en raison de la latence et de la bande passante réseau ajoutées. c'est un non-démarrage pour les cas d'utilisation de l'entraînement de l'IA par rapport à la capacité de traitement que vous obtenez de l'interconnectivité à haute vitesse de nvidia au sein d'un centre de données.
notez qu'il y a eu ici quelques innovations qui peuvent donner un peu d'espoir pour l'avenir:
la composante des données de la formation est également difficile. Tout processus de formation d'IA implique de travailler avec de vastes quantités de données. En général, les modèles sont formés sur des systèmes de stockage de données centralisés et sécurisés, offrant une grande évolutivité et des performances élevées. Cela nécessite le transfert et le traitement de téraoctets de données, et ce n'est pas un cycle ponctuel. Les données sont généralement bruyantes et contiennent des erreurs, il est donc nécessaire de les nettoyer et de les transformer en un format utilisable avant de former le modèle. Cette étape implique des tâches répétitives de normalisation, de filtrage et de gestion des valeurs manquantes. Tout cela pose de sérieux défis dans un environnement décentralisé.
le composant de données de la formation est également itératif, ce qui ne convient pas bien à web3. il a fallu à openai des milliers d'itérations pour obtenir ses résultats. le scénario de tâche le plus basique pour un spécialiste des sciences des données dans une équipe d'IA comprend la définition des objectifs, la préparation des données, l'analyse et la structuration des données pour extraire des informations importantes et les rendre adaptées à la modélisation. ensuite, un modèle d'apprentissage automatique est développé pour résoudre le problème défini, et ses performances sont validées à l'aide d'un ensemble de données de test. ce processus est itératif: si le modèle actuel ne se comporte pas comme prévu, le spécialiste retourne à l'étape de collecte de données ou de formation du modèle pour améliorer les résultats. maintenant, imaginez ce processus dans un contexte décentralisé, où les meilleurs cadres et outils existants ne sont pas facilement disponibles dans web3.
l'autre préoccupation concernant la formation de modèles d'IA on-chain est que c'est un marché beaucoup moins intéressant comparé à l'inférence. Pour l'instant, une énorme quantité de calcul gpu est utilisée pour la formation de modèles d'IA llm. Mais à long terme, l'inférence deviendra (de loin) le cas d'utilisation de gpu le plus courant. Considérons : combien de modèles d'IA llms doivent être formés pour que le monde soit heureux, par rapport au nombre de clients qui utiliseront ces modèles?
une solution qui progresse sur tous les fronts est 0g.ai (soutenu par hack vc) qui fournit à la fois un stockage de données on-chain et une infrastructure de disponibilité des données. leur architecture ultra rapide et leur capacité à stocker d'énormes quantités de données on-chain permettent une formation rapide et itérative des modèles d'IA on-chain de tout type.
l'un des défis de la crypto x l'IA est de vérifier l'exactitude de l'inférence de l'IA, car on ne peut pas forcément faire confiance à une seule entité centralisée pour effectuer cette inférence en raison du potentiel de comportement incorrect des nœuds. Ce défi n'existe pas dans l'IA web2 car il n'y a pas de système de consensus décentralisé.
une idée proposée pour résoudre cela est le calcul redondant, où plusieurs nœuds répètent la même opération d'inférence d'IA, de sorte que vous puissiez fonctionner de manière décentralisée et éviter un point de défaillance unique.
le problème avec cette approche est que nous vivons dans un monde avec une pénurie drastique de puces ai haut de gamme. il y a une attente de plusieurs années pour les puces haut de gamme de nvidia, ce qui entraîne une hausse des prix. si vous deviez exiger que votre inférence ai soit ré-exécutée plusieurs fois sur plusieurs nœuds, vous multipliez maintenant ces coûts onéreux. cela va être un non-démarreur pour de nombreux projets.
Il a été suggéré que web3 devrait avoir ses propres cas d'utilisation AI uniques qui sont spécifiques aux clients de web3. Cela peut être (par exemple) un protocole web3 qui utilise l'IA pour effectuer une évaluation des risques d'un pool DeFi, un portefeuille web3 suggérant de nouveaux protocoles en fonction de l'historique de votre portefeuille, ou un jeu web3 qui utilise l'IA pour contrôler les personnages non joueurs (PNJ).
pour l'instant, il s'agit (à court terme) d'un marché naissant où les cas d'utilisation sont encore en train d'être découverts. quelques défis incluent:
À plus long terme, nous sommes très optimistes quant aux cas d'utilisation d'IA native à web3, surtout maintenant que les agents d'IA deviennent de plus en plus courants. Nous imaginons un avenir où chaque utilisateur de web3 dispose d'une multitude d'agents d'IA pour l'assister. Le leader de catégorie précoce pour cela est Crypto.Theoriq(soutenu par hack vc), ce qui permet des agents d'IA composable et autonomes sur la chaîne.
il existe un certain nombre de réseaux de calcul d'IA décentralisés qui reposent sur des GPU grand public plutôt que sur des centres de données. Les GPU grand public sont pratiques pour les tâches d'inférence d'IA de faible qualité ou pour les cas d'utilisation des consommateurs où la latence, le débit et la fiabilité sont flexibles. Mais pour des cas d'utilisation d'entreprise sérieux (qui représentent la majorité du marché qui compte), les clients veulent un réseau plus fiable par rapport aux machines domestiques des personnes, et ont souvent besoin de GPU haut de gamme s'ils ont des tâches d'inférence plus complexes. Les centres de données sont plus appropriés pour ces cas d'utilisation client plus précieux.
notez que nous considérons les cartes graphiques grand public comme utiles à des fins de démonstration ou pour les particuliers et les startups qui peuvent tolérer une fiabilité inférieure. Mais ces clients sont fondamentalement moins précieux, nous pensons donc que les dépôts qui s'adressent aux entreprises Web2 seront plus précieux à long terme. En tant que tels, les projets de dépôts bien connus ont généralement évolué depuis les premiers jours où ils étaient principalement basés sur du matériel grand public pour offrir une disponibilité au niveau des a100/h100 et des clusters.
réalité - les cas d'utilisation pratiques et réalistes de la crypto x ai
maintenant, discutons des cas d'utilisation qui offrent de "vrais avantages". ce sont de véritables "victoires" où la crypto x ia peut apporter une valeur significative.
mckinseyestimations cette intelligence artificielle générative pourrait ajouter l'équivalent de 2,6 billions de dollars à 4,4 billions de dollars annuellement pour les 63 cas d'utilisation analysés. En comparaison, le PIB total du Royaume-Uni en 2021 était de 3,1 billions de dollars. Cela augmenterait l'impact de toute l'intelligence artificielle de 15 % à 40 %. Cette estimation doublerait approximativement si nous incluons l'impact de l'intégration de l'intelligence artificielle générative dans les logiciels actuellement utilisés pour d'autres tâches au-delà de ces cas d'utilisation.
si vous faites le calcul de l'estimation ci-dessus, cela implique que le marché total de l'IA (au-delà de l'IA générative) pourrait valoir des dizaines de milliers de milliards de dollars dans le monde entier. Par comparaison, l'ensemble des crypto-monnaies combinées, y compris le bitcoin et chaque altcoin, ne vaut qu'environ 2,7 billions de dollars aujourd'hui. Alors soyons réalistes : la grande majorité des clients qui ont besoin d'IA à court terme seront des clients web2, car les clients web3 qui ont réellement besoin d'IA ne représenteront qu'une petite partie de ces 2,7 billions de dollars (en tenant compte du fait que le BTC représente la moitié de ce marché, et que le BTC lui-même n'a pas besoin n'utilise pas l'IA).
Les cas d'utilisation de web3 AI ne font que commencer et il n'est pas du tout clair quelle sera la taille de ce marché. Mais une chose est intuitivement certaine - ce sera une petite fraction du marché de web2 dans un avenir prévisible. Nous croyons que web3 AI a encore un avenir prometteur, mais cela signifie simplement que l'application la plus puissante de web3 AI est, pour l'instant, de servir les clients de web2.
Des exemples de clients web2 qui pourraient bénéficier hypothétiquement de l'IA web3 incluent :
Il s'agit d'une persona client relativement stable, puisque les clients sont généralement importants et précieux. Ils ne sont pas susceptibles de faire faillite de sitôt et représentent des clients potentiels très importants pour les services d'IA. Les services d'IA Web3 qui servent les clients Web2 bénéficieront de cette base de clients stable.
mais pourquoi un client web2 voudrait-il utiliser une pile web3? le reste de ce post fait valoir ce cas.
gpu déploie la puissance de calcul sous-utilisée d'aggreGate.io (la plus fiable provenant des centres de données) et les rend disponibles pour l'inférence d'IA (un exemple en est io.net, qui est une entreprise du portefeuille des fonds gérés par hack vc). Une façon simple de penser à cela est «airbnb pour les GPU» (en fait, une consommation collaborative d'actifs sous-utilisés).
La raison pour laquelle nous sommes enthousiasmés par les dépins GPU est que, comme indiqué ci-dessus, il y a une pénurie de puces Nvidia, et il y a actuellement des cycles GPU gaspillés qui peuvent être utilisés pour l’inférence de l’IA. Ces propriétaires de matériel ont un coût irrécupérable et n’utilisent pas pleinement leur équipement aujourd’hui, et peuvent donc offrir ces cycles GPU fractionnés à un coût beaucoup plus faible par rapport au statu quo, car il s’agit effectivement d’un « argent trouvé » pour les propriétaires de matériel.
exemples incluent:
Notez que tous les matériels GPU ne sont pas adaptés à l'inférence AI. Une raison flagrante à cela est que les anciens GPU n'ont pas la quantité de mémoire GPU nécessaire pour LLMS, bien qu'il y ait eu quelques innovations intéressantes pour aider à ce sujet.Exabits, par exemple, a une technologie qui charge les neurones actifs dans la mémoire du GPU et les neurones inactifs dans la mémoire du CPU. ils prédisent quels neurones doivent être actifs / inactifs. cela permet aux GPU de gamme inférieure de traiter les charges de travail d'IA, même avec une mémoire GPU limitée. cela rend effectivement les GPU de gamme inférieure plus utiles pour l'inférence d'IA.
notez également que les dépenses web3 AI devront se renforcer au fil du temps et proposer des services de classe entreprise, tels que l'authentification unique, la conformité SOC 2, les accords de niveau de service (SLA), et plus encore. cela refléterait les services proposés dans le cadre des offres cloud actuelles dont bénéficient actuellement les clients web2.
Il a beaucoup été question de la censure de l'IA. Par exemple, la Turquie a temporairement interdit OpenAI (ils ont ensuite fait marche arrière une fois qu'OpenAI a amélioré sa conformité). Nous pensons que ce genre de censure au niveau des pays est fondamentalement sans intérêt car les pays devront adopter l'IA pour rester compétitifs.
Ce qui est plus intéressant, c'est qu'OpenAI s'auto-censure. Par exemple, OpenAI ne traitera pas le contenu NSFW. OpenAI ne prédira pas non plus la prochaine élection présidentielle. Nous pensons qu'il existe un marché intéressant et important pour les cas d'utilisation d'IA que OpenAI n'abordera pas pour des raisons politiques.
la mise en open source est une excellente solution pour cela, car un dépôt github n'est pas lié aux actionnaires ni à un conseil d'administration. un exemple de cela estVenice.ai, qui promet de préserver votre vie privée tout en fonctionnant de manière non censurée. La clé, bien sûr, est d'être open source, ce qui alimente cela. Ce que Web3 AI peut apporter de manière efficace pour élever cela, c'est d'alimenter ces modèles de logiciels open source (OSS) à un coût inférieur avec un cluster GPU pour effectuer cette inférence. C'est pour ces raisons que nous pensons que OSS + Web3 sont la combinaison idéale pour ouvrir la voie à l'IA non censurée.
de nombreuses grandes entreprises ont des préoccupations en matière de confidentialité concernant leurs données internes d'entreprise. pour ces clients, il peut être extrêmement difficile de faire confiance à un tiers centralisé, comme openai, avec ces données.
avec web3, cela peut sembler (en surface) encore plus effrayant pour ces entreprises, car leurs données internes se trouvent soudainement sur un réseau décentralisé. Cependant, il existe des innovations dans les technologies d'amélioration de la confidentialité pour l'IA :
ces technologies sont encore en évolution, et les performances s'améliorent encore grâce aux prochaines ASIC à connaissance zéro (zk) et FHE. Mais l'objectif à long terme est de protéger les données d'entreprise lors du réglage fin d'un modèle. À mesure que ces protocoles émergent, Web3 pourrait devenir un lieu plus attrayant pour le calcul d'IA préservant la vie privée.
oss a systématiquement érodé la part de marché des logiciels propriétaires au cours des dernières décennies. nous considérons un llm simplement comme une forme sophistiquée de logiciel propriétaire qui est mûr pour une perturbation oss. quelques exemples remarquables de challengers incluent Lama, RWKVetMistral.ai. cette liste ne fera sans doute que s'allonger avec le temps (une liste plus complète est disponible à Openrouter.ai). en utilisant l'IA web3 (alimentée par des modèles OSS), on peut tirer parti de ces nouvelles innovations.
Nous pensons qu’au fil du temps, une main-d’œuvre mondiale de développement open source, combinée à des incitations cryptographiques, peut stimuler une innovation rapide dans les modèles open source, ainsi que dans les agents et les frameworks construits sur eux. Voici un exemple de protocole d’agent d’IA Théoriq. theoriq exploite des modèles oss pour créer un réseau interconnecté composable d'agents d'IA qui peuvent être assemblés pour créer des solutions d'IA de niveau supérieur.
La raison pour laquelle nous avons ici une conviction est due au passé : la plupart des logiciels de développement ont progressivement été surpassés par les logiciels open source. Microsoft était autrefois une entreprise de logiciels propriétaires, et maintenant c'est la première entreprise contribuant à GitHub, et il y a une raison à cela. Si vous regardez comment Databricks, PostgresSQL, MongoDB et d'autres ont perturbé les bases de données propriétaires, c'est un exemple d'une industrie entière qui a été bouleversée par l'open source, donc le précédent ici est assez fort.
Cependant, cela vient avec un hic. L'un des problèmes délicats avec les modèles linguistiques à code source ouvert (OSS LLMS) est qu'OpenAI a commencé à conclure des accords de licence de données payantes avec des organisations, telles que Reddit et le New York Times. Si cette tendance se poursuit, il pourrait devenir plus difficile pour les OSS LLMS de rivaliser en raison de la barrière financière liée à l'acquisition de données. Il est possible que Nvidia mise davantage sur le calcul confidentiel en tant qu'outil de partage sécurisé des données. Le temps nous dira comment cela se déroulera.
l'un des défis de l'inférence web3 ai est la vérification. Il existe une opportunité hypothétique pour les validateurs de tricher sur leurs résultats pour gagner des frais, donc vérifier les inférences est une mesure importante. Notez que cette triche ne s'est pas encore produite, car l'inférence ai est à ses balbutiements, mais c'est inévitable à moins que des mesures ne soient prises pour dissuader ce comportement.
l'approche web3 standard consiste à avoir plusieurs validateurs répéter la même opération et comparer les résultats. Le défi évident avec cela est, comme on l'a noté, que l'inférence de l'IA est coûteuse en raison de la pénurie actuelle de puces nvidia haut de gamme. Étant donné que web3 peut offrir une inférence à moindre coût via des dépendances gpu sous-utilisées, le calcul redondant compromettrait gravement la proposition de valeur de web3.
une solution plus prometteuse consiste à effectuer une preuve zk pour le calcul d'inférence d'IA hors chaîne. Dans ce cas, la preuve zk succincte peut être vérifiée pour déterminer si un modèle a été correctement formé, ou si l'inférence a été exécutée correctement (connu sous le nom de zkml). Des exemples incluent Modulus labsetZKonduit. les performances de ces solutions sont encore naissantes car les opérations zk sont assez intensives en calcul. Cependant, nous anticipons que cela devrait probablement s'améliorer avec la sortie prochaine de matériels asics zk.
encore plus prometteuse est l'idée d'une approche d'inférence ai basée sur un échantillonnage quelque peu «optimiste». dans ce modèle, vous vérifieriez seulement un pourcentage minuscule des résultats générés par les validateurs, mais fixeriez le coût économique de la réduction suffisamment élevé de sorte que, s'ils sont pris, cela créerait un fort désincitatif économique pour les validateurs de tricher. de cette façon, vous économisez sur les calculs redondants (par exemple, voir,Hyperbolique’sPreuve d'échantillonnage papier).
une autre idée prometteuse est une solution de tatouage et d'empreinte digitale, comme celle proposée par le réseau Bagel. c'est similaire au mécanisme d'assurance qualité d'amazon alexa pour les modèles d'ia embarqués de leurs millions d'appareils.
La prochaine opportunité que Web3 apporte à l'IA est de démocratiser les coûts. Jusqu'à présent, nous avons parlé d'économiser les coûts des GPU via depins. Mais Web3 offre également des opportunités d'économiser sur les marges bénéficiaires des services d'IA centralisés de Web2 (par exemple, OpenAI, qui réalise un chiffre d'affaires de plus de 1 milliard de dollars par an au moment de la rédaction). Ces économies de coûts proviennent du fait que des modèles open source sont utilisés plutôt que des modèles propriétaires, ce qui permet d'économiser une couche supplémentaire, puisque le créateur du modèle ne cherche pas à réaliser un profit.
de nombreux modèles OSS resteront complètement gratuits, ce qui permet une économie optimale pour les clients. Mais il peut y avoir aussi des modèles OSS qui tentent ces méthodes de monétisation. Considérez que seuls 4% des modèles totaux sur Hugging Face sont entraînés par des entreprises disposant de budgets pour aider à subventionner les modèles (voir ici). les 96% restants des modèles sont formés par la communauté. cette cohorte - 96% de hugging face - a des coûts réels fondamentaux (y compris les coûts de calcul et les coûts de données). donc ces modèles devront somehow monétiser.
Il existe plusieurs propositions pour accomplir cette monétisation de modèles OSS. L'un des plus intéressants est le concept d'une «offre initiale de modèle» (IMO) où vous tokenisez le modèle lui-même, réservez un pourcentage de jetons pour l'équipe et faites couler certaines futures revenus provenant de ce modèle aux détenteurs de jetons, même s'il y a clairement des obstacles juridiques et réglementaires.
d'autres modèles d'oss essaieront de monétiser l'utilisation. notez que si cela se concrétise, les modèles d'oss pourraient commencer à ressembler de plus en plus à leurs homologues web2 générant des bénéfices. mais, de manière réaliste, le marché sera bifurqué, certains modèles restant entièrement gratuits.
l'un des plus grands défis de l'IA est de trouver les bonnes données pour entraîner vos modèles. Nous avons mentionné précédemment que l'entraînement décentralisé de l'IA a ses défis. Mais qu'en est-il de l'utilisation d'un réseau décentralisé pour la collecte de données (qui peuvent ensuite être utilisées pour la formation ailleurs, même dans des lieux Web2 traditionnels)?
C'est exactement ce que les startups telles que CryptoHerbefont. grass est un réseau décentralisé de « récupérateurs de données », des individus qui contribuent à la puissance de traitement inutilisée de leur machine pour trouver des données permettant d'informer la formation de modèles d'IA. En théorie, à grande échelle, cette collecte de données peut être supérieure à tous les efforts internes d'une entreprise pour trouver des données en raison de la puissance d'un grand réseau de nœuds incitatifs. Cela comprend non seulement la collecte de plus de données, mais aussi la collecte de ces données plus fréquemment afin que les données soient plus pertinentes et plus à jour. Il est également pratiquement impossible d'arrêter une armée décentralisée de récupérateurs de données, car ils sont intrinsèquement fragmentés et ne résident pas dans une seule adresse IP. Ils disposent également d'un réseau de personnes qui peuvent nettoyer et normaliser les données, de sorte qu'elles soient utiles après avoir été collectées.
une fois que vous avez les données, vous avez également besoin d'un endroit pour les stocker sur la chaîne, ainsi que des llms générés avec ces données.0g.AIest le précurseur dans cette catégorie. C'est une solution de stockage web3 haute performance optimisée par l'IA qui est significativement moins chère que AWS (une autre victoire économique pour le web3 IA), tout en servant également d'infrastructure de disponibilité des données pour les couches 2, l'IA, et plus encore.
notez que le rôle des données pourrait changer dans le web3 ai à l'avenir. Aujourd'hui, l'état actuel des choses pour les llms est de pré-entraîner un modèle avec des données, et de le peaufiner au fil du temps avec plus de données. Cependant, ces modèles sont toujours légèrement obsolètes car les données sur Internet changent en temps réel. Ainsi, les réponses de l'inférence llm sont légèrement inexactes.
l'avenir de là où le monde pourrait se diriger est un nouveau paradigme - des données en temps réel. Le concept est que lorsqu'un llm est interrogé sur une question d'inférence, ce llm peut utiliser l'injection de données dans le llm, où ces données sont collectées en temps réel sur Internet. De cette manière, le llm utilise les données les plus à jour possibles. Grass étudie également cela.
conclusion
nous espérons que cela vous servira d'analyse utile lorsque vous réfléchissez aux promesses par rapport à la réalité de l'IA web3. ceci est simplement un point de départ pour la conversation, et le paysage évolue rapidement, alors n'hésitez pas à intervenir et à exprimer également vos points de vue, car nous aimerions continuer à apprendre et à construire ensemble.
remerciements
un merci très spécial à albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng et jw wang pour leurs retours et contributions à ce post.
Les informations ci-dessus sont fournies uniquement à titre d'information générale et ne constituent pas et ne sont pas destinées à constituer des conseils en investissement et ne doivent pas être utilisées pour l'évaluation de toute décision d'investissement. Ces informations ne doivent pas être utilisées pour des conseils comptables, juridiques, fiscaux, commerciaux, d'investissement ou autres conseils pertinents. Vous devriez consulter vos propres conseillers, y compris votre propre conseiller, pour des conseils comptables, juridiques, fiscaux, commerciaux, d'investissement ou autres conseils pertinents, notamment en ce qui concerne tout ce qui est discuté ici.
Ce post reflète les opinions actuelles de l'auteur (s) et n'est pas fait au nom de Hack VC ou de ses affiliés, y compris tous les fonds gérés par Hack VC, et ne reflète pas nécessairement les opinions de Hack VC, de ses affiliés, y compris ses affiliés partenaires généraux, ou de toute autre personne associée à Hack VC. Certaines informations contenues ici ont été obtenues à partir de sources publiées et/ou préparées par des tiers et, dans certains cas, n'ont pas été mises à jour à la date des présentes. Bien que ces sources soient réputées fiables, ni Hack VC, ni ses affiliés, y compris ses affiliés partenaires généraux, ni aucune autre personne associée à Hack VC ne font de déclarations quant à leur exactitude ou leur exhaustivité, et elles ne doivent pas être considérées comme telles ni servir de base à une décision en matière de comptabilité, de droit, de fiscalité, d'entreprise, d'investissement ou autre. Les informations contenues ici ne prétendent pas être complètes et sont susceptibles de changer, et Hack VC n'a aucune obligation de mettre à jour de telles informations ou de notifier si de telles informations deviennent inexactes.
Les performances passées ne préjugent pas nécessairement des résultats futurs. Les déclarations prospectives faites ici sont basées sur certaines hypothèses et analyses faites par l'auteur à la lumière de son expérience et de sa perception des tendances historiques, des conditions actuelles et des développements futurs prévus, ainsi que d'autres facteurs qu'il estime appropriés dans les circonstances. De telles déclarations ne garantissent pas les performances futures et sont soumises à certains risques, incertitudes et hypothèses difficiles à prévoir.
Cet article est reproduit à partir de [Hack vc], le titre original « AI X Crypto - Promesses et réalités », les droits d’auteur appartiennent à l’auteur original [Ed Roman, associé directeur chez Hack VC], si vous avez des objections à la réimpression, veuillez contacter Équipe d'apprentissage de Gate, l’équipe s’en occupera dans les plus brefs délais selon les procédures applicables.
disclaimer: les points de vue et opinions exprimés dans cet article ne représentent que les points de vue personnels de l'auteur et ne constituent aucun conseil en investissement.
d'autres versions linguistiques de l'article sont traduites par l'équipe de formation de Gate.io, non mentionnées dansGate.ioL'article traduit ne peut être reproduit, distribué ou plagié.