ZKML et l'informatique distribuée : un récit de gouvernance potentiel pour l'IA et le Web3

À propos de ZKML : ZKML (Zero Knowledge Machine Learning) est une technologie d'apprentissage automatique qui combine des preuves à zéro connaissance (Zero-Knowledge Proofs) et des algorithmes d'apprentissage automatique pour résoudre le problème de protection de la vie privée dans l'apprentissage automatique.

À propos de la puissance de calcul distribuée : La puissance de calcul distribuée fait référence à la décomposition d'une tâche informatique en plusieurs petites tâches et à l'attribution de ces petites tâches à plusieurs ordinateurs ou processeurs pour traitement afin d'obtenir un calcul efficace.

L'état de l'IA et du Web3 : essaims incontrôlables et croissance de l'entropie

Dans « Out of Control : The New Biology of Machines, Society, and the Economy », Kevin Kelly a un jour proposé un phénomène : la colonie d'abeilles conduira les décisions électorales dans une danse de groupe selon une gestion distribuée, et toute la colonie d'abeilles suivra ce phénomène. danse de groupe Les plus grands essaims d'abeilles du monde deviennent les maîtres d'un événement. C'est aussi ce qu'on appelle "l'âme de la ruche" mentionnée par Maurice Maeterlinck - chaque abeille peut prendre sa propre décision, guider les autres abeilles pour confirmer, et la décision finale est vraiment un choix de groupe.

La loi de l'augmentation et du désordre de l'entropie suit elle-même la loi de la thermodynamique, et la visualisation théorique en physique consiste à mettre un certain nombre de molécules dans une boîte vide et à calculer le profil de distribution final. Spécifique aux personnes, la foule générée par l'algorithme peut montrer la loi du groupe même s'il existe des différences individuelles dans la pensée.Elle est souvent confinée dans une case vide en raison de facteurs tels que les temps, et prend finalement une décision consensuelle.

Bien sûr, les règles du groupe peuvent ne pas être correctes, mais les leaders d'opinion qui peuvent représenter le consensus et obtenir le consensus par eux-mêmes sont des super-individus absolus. Mais dans la plupart des cas, le consensus ne recherche pas le consentement complet et inconditionnel de chacun, mais exige seulement que le groupe ait une identité générale.

Nous ne discutons pas ici de la question de savoir si l'IA va induire les humains en erreur. En fait, il existe déjà de nombreuses discussions de ce type, que ce soit la grande quantité de déchets générés par les applications d'intelligence artificielle qui a pollué l'authenticité des données du réseau, ou parce que la prise de décision en groupe erreurs conduiront à certains L'incident est allé à une situation plus dangereuse.

La situation actuelle de l'IA a un monopole naturel.Par exemple, la formation et le déploiement de grands modèles nécessitent beaucoup de ressources informatiques et de données, mais seul un petit nombre d'entreprises et d'institutions ont ces conditions. Ces centaines de millions de données sont considérées comme des trésors par chaque détenteur de monopole, sans parler du partage des sources, même l'accès mutuel est impossible.

Cela a entraîné un énorme gaspillage de données. Chaque projet d'IA à grande échelle doit collecter à plusieurs reprises les données des utilisateurs, et finalement le gagnant remporte tout, qu'il s'agisse de fusions et acquisitions ou de ventes, d'expansion de projets géants individuels ou d'Internet traditionnel. La logique du rodéo courses.

Beaucoup de gens disent que l'IA et le Web3 sont deux choses différentes et n'ont aucun lien - la première moitié de la phrase est correcte, ce sont deux pistes différentes, mais la seconde moitié de la phrase est problématique, utilisant la technologie distribuée pour limiter le monopole de l'artificiel intelligence, Et l'utilisation de la technologie de l'intelligence artificielle pour promouvoir la formation d'un mécanisme de consensus décentralisé est tout simplement une chose naturelle.

** Déduction inférieure : laissez l'IA former un véritable mécanisme de consensus de groupe distribué **

Le cœur de l'intelligence artificielle réside dans les personnes elles-mêmes, et les machines et les modèles ne sont que des spéculations et des imitations de la pensée humaine. Le soi-disant groupe est en fait difficile d'abstraire le groupe, car ce que nous voyons tous les jours est toujours un individu réel. Mais le modèle consiste à utiliser des données massives pour apprendre et ajuster, et enfin simuler la forme du groupe. N'évaluez pas le genre de résultats que ce modèle entraînera, car les incidents de groupes commettant le mal ne se produisent pas une ou deux fois. Mais le modèle représente la génération de ce mécanisme de consensus.

Par exemple, pour un DAO spécifique, si le mécanisme de gouvernance est mis en œuvre, cela affectera inévitablement l'efficacité.La raison en est que la formation d'un consensus de groupe est une chose gênante, sans parler des séries d'opérations de vote, de statistiques, etc. Si la gouvernance de DAO est incarnée sous la forme d'un modèle d'IA et que toute la collecte de données provient des données de parole de tout le monde dans DAO, alors la décision de sortie sera en fait plus proche du consensus du groupe.

Le consensus de groupe d'un modèle unique peut être formé selon le schéma ci-dessus, mais c'est toujours une île pour ces individus. S'il existe un système d'intelligence collective pour former une IA de groupe, chaque modèle d'IA de ce système travaillera ensemble pour résoudre des problèmes complexes, ce qui aura en fait un grand effet sur l'autonomisation du niveau de consensus.

Pour les petites collections, vous pouvez créer une écologie de manière indépendante ou former une collection coopérative avec d'autres collections pour répondre plus efficacement et à moindre coût à une très grande puissance de calcul ou à des transactions de données. Mais voici à nouveau le problème : le statu quo entre différentes bases de données modèles est complètement méfiant et se prémunit contre les autres - c'est exactement là que résident les attributs naturels de la blockchain : grâce à l'absence de confiance, la sécurité des machines d'IA véritablement distribuées peut être réalisée Interaction efficace.

Un cerveau intelligent mondial peut faire coopérer les modèles d'algorithmes d'IA à fonction unique et indépendants à l'origine, exécuter en interne des processus d'algorithmes intelligents complexes et former un réseau de consensus de groupe distribué qui peut continuer à se développer. C'est aussi la plus grande signification de l'autonomisation du Web3 par l'IA.

** Confidentialité ou monopole des données ? La combinaison de ZK et de machine learning**

Les êtres humains doivent prendre des précautions ciblées, qu'elles soient contre l'IA pour faire le mal ou basées sur la protection de la vie privée et la peur du monopole des données. Le problème central est que nous ne savons pas comment la conclusion a été tirée. De même, l'opérateur du modèle n'a pas l'intention de répondre à cette question. Et pour la combinaison du cerveau intelligent global que nous avons mentionné ci-dessus, il est encore plus nécessaire de résoudre ce problème, sinon aucune partie de données n'est disposée à partager son noyau avec d'autres.

ZKML (Zero Knowledge Machine Learning) est une technologie qui utilise des preuves à connaissance nulle pour l'apprentissage automatique. Zero-Knowledge Proofs (ZKP), c'est-à-dire que le prouveur (prouveur) peut convaincre le vérificateur (vérificateur) de l'authenticité des données sans révéler les données spécifiques.

Cité avec un cas théorique. Il existe un Sudoku standard 9 × 9. La condition de réalisation est de remplir les chiffres de 1 à 9 dans les neuf grilles, de sorte que chaque chiffre ne puisse apparaître qu'une seule fois dans chaque ligne, colonne et grille. Alors, comment la personne qui organise ce puzzle peut-elle prouver au challenger que le Sudoku a une solution sans révéler la réponse ?

Il vous suffit de couvrir le remplissage avec la réponse, puis de demander au challenger de sélectionner au hasard quelques lignes ou colonnes, de mélanger tous les chiffres et de vérifier qu'ils sont tous de un à neuf. Il s'agit d'un simple mode de réalisation sans connaissance.

La technologie de preuve de connaissance zéro a trois caractéristiques d'exhaustivité, d'exactitude et de connaissance zéro, c'est-à-dire qu'elle prouve la conclusion sans révéler aucun détail. La source de sa technologie peut refléter la simplicité : dans le cadre du chiffrement homomorphe, la difficulté de vérification est bien inférieure à la difficulté de générer des preuves.

L'apprentissage automatique est l'utilisation d'algorithmes et de modèles pour permettre aux systèmes informatiques d'apprendre et de s'améliorer à partir des données. Apprendre de l'expérience grâce à l'automatisation permet au système d'effectuer automatiquement des tâches telles que la prédiction, la classification, le regroupement et l'optimisation basée sur des données et des modèles.

À la base, l'apprentissage automatique consiste à créer des modèles qui apprennent à partir des données et font des prédictions et des décisions automatiquement. La construction de ces modèles nécessite généralement trois éléments clés : les ensembles de données, les algorithmes et l'évaluation du modèle. Les ensembles de données sont la base de l'apprentissage automatique et contiennent des échantillons de données pour la formation et le test des modèles d'apprentissage automatique. Les algorithmes sont au cœur des modèles d'apprentissage automatique, définissant comment le modèle apprend et prédit à partir des données. L'évaluation du modèle est une partie importante de l'apprentissage automatique, qui est utilisée pour évaluer les performances et la précision du modèle, et décider si le modèle doit être optimisé et amélioré.

Dans l'apprentissage automatique traditionnel, les ensembles de données doivent généralement être collectés dans un lieu centralisé pour la formation, ce qui signifie que les propriétaires de données doivent partager les données avec des tiers, ce qui peut entraîner un risque de fuite de données ou de fuite de confidentialité. Avec ZKML, les propriétaires de données peuvent partager des ensembles de données avec d'autres sans révéler les données, ce qui est réalisé en utilisant des preuves à connaissance nulle.

Lorsque la preuve de la connaissance zéro est appliquée à l'autonomisation de l'apprentissage automatique, l'effet devrait être prévisible, ce qui résout les problèmes de boîte noire de confidentialité et de monopole des données qui sévissent depuis longtemps : si la partie du projet peut l'utiliser sans révéler l'entrée de données utilisateur ou le spécifique Après avoir terminé la preuve et la vérification, est-il possible que chaque collection partage ses propres données ou que le modèle fonctionne sans révéler de données privées ? Bien sûr, la technologie actuelle est encore précoce et il y aura certainement de nombreux problèmes dans la pratique, ce qui n'entrave pas notre imagination et de nombreuses équipes se développent déjà.

Cette situation entraînera-t-elle une prostitution gratuite des petites bases de données vers les grandes bases de données ? Lorsque vous considérez les questions de gouvernance, cela revient à notre pensée Web 3. L'essence de Crypto réside dans la gouvernance. Que ce soit par le biais d'un grand nombre d'applications ou de partage, vous devriez obtenir les incitations que vous méritez. Que ce soit par le biais du mécanisme original Pow, PoS ou du dernier PoR (mécanisme de preuve de réputation), ils offrent tous des garanties pour l'effet incitatif.

Puissance de calcul distribuée : un récit innovant entrelacé de mensonges et de réalité

Le réseau de puissance de calcul décentralisé a toujours été un scénario vivement mentionné dans le cercle du cryptage.Après tout, les grands modèles d'IA nécessitent une puissance de calcul incroyable, et le réseau de puissance de calcul centralisé entraînera non seulement un gaspillage de ressources, mais formera également un monopole substantiel - si on le compare dans le En fin de compte, le nombre de GPU est la dernière chose à combattre, ce qui est trop ennuyeux.

L'essence d'un réseau de puissance de calcul décentralisé est d'intégrer des ressources informatiques dispersées dans différents endroits et sur différents appareils. Les principaux avantages souvent mentionnés sont : la fourniture de capacités informatiques distribuées, la résolution de problèmes de confidentialité, l'amélioration de la crédibilité et de la fiabilité des modèles d'intelligence artificielle, la prise en charge d'un déploiement et d'un fonctionnement rapides dans divers scénarios d'application et la fourniture de systèmes de stockage et de gestion de données décentralisés. C'est vrai, grâce à une puissance de calcul décentralisée, n'importe qui peut exécuter des modèles d'IA et les tester sur de vrais ensembles de données en chaîne provenant d'utilisateurs du monde entier, afin qu'ils puissent profiter de services informatiques plus flexibles, efficaces et à faible coût.

Dans le même temps, la puissance informatique décentralisée peut résoudre les problèmes de confidentialité en créant un cadre solide pour protéger la sécurité et la confidentialité des données des utilisateurs. Il fournit également un processus informatique transparent et vérifiable, améliore la crédibilité et la fiabilité des modèles d'intelligence artificielle et fournit des ressources informatiques flexibles et évolutives pour un déploiement et un fonctionnement rapides dans divers scénarios d'application.

Nous examinons la formation de modèles à partir d'un processus informatique centralisé complet. Les étapes sont généralement divisées en : préparation des données, segmentation des données, transmission des données entre les appareils, formation parallèle, agrégation de gradient, mise à jour des paramètres, synchronisation et formation répétée. Dans ce processus, même si la salle informatique centralisée utilise des grappes d'équipements informatiques à hautes performances et partage les tâches informatiques via des connexions réseau à haut débit, le coût élevé des communications est devenu l'une des plus grandes limitations du réseau de puissance de calcul décentralisé.

Par conséquent, bien que le réseau de puissance de calcul décentralisé présente de nombreux avantages et potentiels, le chemin de développement est encore tortueux en fonction du coût de communication actuel et de la difficulté de fonctionnement réelle. En pratique, la réalisation d'un réseau de puissance de calcul décentralisé nécessite de surmonter de nombreux problèmes techniques pratiques, qu'il s'agisse de savoir comment assurer la fiabilité et la sécurité des nœuds, comment gérer et planifier efficacement les ressources informatiques distribuées, ou comment parvenir à une transmission et une communication efficaces des données, etc. ., Je crains qu'ils ne soient en fait de gros problèmes.

Queue : Attentes pour les idéalistes

Pour en revenir à la réalité commerciale actuelle, le récit de l'intégration profonde de l'IA et du Web3 est si beau, mais le capital et les utilisateurs nous en disent plus avec des actions pratiques que cela est destiné à être un voyage d'innovation extrêmement difficile, à moins que le projet ne puisse être comme OpenAI , tout en conservant un soutien financier solide tant que nous sommes forts, sinon les coûts de recherche et développement sans fond et le modèle économique peu clair nous écraseront complètement.

Qu'il s'agisse de l'IA ou du Web3, ils sont aujourd'hui à un stade de développement très précoce, tout comme la bulle Internet à la fin du siècle dernier, et ce n'est que près de dix ans plus tard que le véritable âge d'or a été officiellement inauguré. McCarthy a fantasmé sur la conception d'une intelligence artificielle avec l'intelligence humaine en un seul jour férié, mais ce n'est que près de soixante-dix ans plus tard que nous avons franchi le pas critique vers l'intelligence artificielle.

Il en va de même pour Web3+AI Nous avons déterminé la justesse de la marche à suivre et le reste sera laissé au temps.

** Lorsque la marée du temps s'estompe, ces personnes et ces choses debout sont la pierre angulaire de notre transition de la science-fiction à la réalité. **

Voir l'original
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)