ZKML e Computação Distribuída: Uma Narrativa de Governança Potencial para IA e Web3

Sobre ZKML: ZKML (Zero Knowledge Machine Learning) é uma tecnologia de aprendizado de máquina que combina Provas de Zero Conhecimento (Zero-Knowledge Proofs) e algoritmos de aprendizado de máquina para resolver o problema de proteção de privacidade no aprendizado de máquina.

Sobre o poder de computação distribuído: O poder de computação distribuído refere-se à decomposição de uma tarefa de computação em várias tarefas pequenas e à atribuição dessas pequenas tarefas a vários computadores ou processadores para processamento e obtenção de computação eficiente.

O estado da IA e da Web3: enxames descontrolados e crescimento da entropia

Em "Out of Control: The New Biology of Machines, Society, and the Economy", Kevin Kelly uma vez propôs um fenômeno: a colônia de abelhas conduzirá as decisões eleitorais em uma dança de grupo de acordo com o gerenciamento distribuído, e toda a colônia de abelhas seguirá isso dança em grupo Os maiores enxames de abelhas do mundo se tornam os donos de um evento. Esta é também a chamada "alma da colmeia" mencionada por Maurice Maeterlinck - cada abelha pode tomar sua própria decisão, guiar outras abelhas para confirmar, e a decisão final é realmente uma escolha do grupo.

A lei do aumento da entropia e da própria desordem segue a lei da termodinâmica, e a visualização teórica na física é colocar um certo número de moléculas em uma caixa vazia e calcular o perfil de distribuição final. Específico para as pessoas, o mob gerado pelo algoritmo pode mostrar a lei do grupo, mesmo que haja diferenças individuais de pensamento. Muitas vezes é restrito a uma caixa vazia devido a fatores como os horários e, finalmente, toma uma decisão consensual.

É claro que as regras do grupo podem não estar corretas, mas os líderes de opinião que podem representar o consenso e obter o consenso por conta própria são superindivíduos absolutos. Mas, na maioria dos casos, o consenso não busca o consentimento completo e incondicional de todos, mas exige apenas que o grupo tenha uma identidade geral.

Não estamos discutindo aqui se a IA vai enganar o ser humano, na verdade, já existem muitas dessas discussões, seja pela grande quantidade de lixo gerado pelos aplicativos de inteligência artificial que tem poluído a autenticidade dos dados da rede, seja porque a tomada de decisões em grupo erros levarão a alguns O incidente foi para uma situação mais perigosa.

A situação atual da IA tem um monopólio natural, por exemplo, o treinamento e implantação de grandes modelos requer muitos recursos de computação e dados, mas apenas um pequeno número de empresas e instituições têm essas condições. Essas centenas de milhões de dados são considerados tesouros por cada proprietário de monopólio, sem mencionar o compartilhamento de fontes, mesmo o acesso mútuo é impossível.

Isso trouxe um enorme desperdício de dados. Todo projeto de IA em grande escala deve coletar repetidamente dados do usuário e, finalmente, o vencedor leva tudo - sejam fusões e aquisições ou vendas, expansão de projetos gigantes individuais ou Internet tradicional A lógica do rodeio corrida.

Muitas pessoas dizem que AI e Web3 são duas coisas diferentes e não têm conexão - a primeira metade da frase está correta, são duas faixas diferentes, mas a segunda metade da frase é problemática, usando tecnologia distribuída para limitar o monopólio de artificial inteligência, E o uso da tecnologia de inteligência artificial para promover a formação de um mecanismo de consenso descentralizado é simplesmente uma coisa natural.

Dedução inferior: deixe a IA formar um mecanismo de consenso de grupo distribuído real

O cerne da inteligência artificial está nas próprias pessoas, e máquinas e modelos nada mais são do que especulação e imitação do pensamento humano. O chamado grupo é realmente difícil de abstrair o grupo, porque o que vemos todos os dias ainda é um indivíduo real. Mas o modelo é usar dados massivos para aprender e ajustar e, finalmente, simular a forma de grupo. Não avalie que tipo de resultados este modelo irá causar, porque incidentes de grupos cometendo maldades não acontecem uma ou duas vezes. Mas o modelo representa a geração desse mecanismo de consenso.

Por exemplo, para um DAO específico, se o mecanismo de governança for implementado, isso inevitavelmente afetará a eficiência. A razão é que a formação de consenso de grupo é uma coisa problemática, sem mencionar votação, estatísticas, etc. série de operações. Se a governança do DAO for incorporada na forma de modelo de IA e toda a coleta de dados vier dos dados de fala de todos no DAO, a decisão de saída estará realmente mais próxima do consenso do grupo.

O consenso do grupo de um único modelo pode ser treinado de acordo com o esquema acima, mas ainda é uma ilha para esses indivíduos. Se houver um sistema de inteligência coletiva para formar uma IA de grupo, cada modelo de IA desse sistema trabalhará entre si para resolver problemas complexos, de fato, terá um grande efeito no fortalecimento do nível de consenso.

Para coleções pequenas, você pode criar uma ecologia de forma independente ou formar uma coleção cooperativa com outras coleções para atender a um poder de computação supergrande ou transações de dados com mais eficiência e baixo custo. Mas aí vem o problema novamente. O status quo entre vários bancos de dados modelo é completamente desconfiado e protetor contra outros - é exatamente aí que residem os atributos naturais do blockchain: por meio da falta de confiança, a segurança de máquinas de IA verdadeiramente distribuídas pode ser realizada Interação eficiente.

Um cérebro inteligente global pode fazer com que os modelos de algoritmo de IA originalmente independentes e de função única cooperem uns com os outros, execute processos complexos de algoritmos inteligentes internamente e forme uma rede de consenso de grupo distribuída que pode continuar a crescer. Este também é o maior significado do fortalecimento da Web3 pela IA.

Privacidade versus monopólio de dados? A combinação de ZK e aprendizado de máquina

Os seres humanos devem tomar precauções específicas, seja contra a IA para fazer o mal ou com base na proteção da privacidade e no medo do monopólio de dados. O problema central é que não sabemos como a conclusão foi tirada, da mesma forma que o operador do modelo não pretende responder a essa pergunta. E para a combinação do cérebro inteligente global que mencionamos acima, é ainda mais necessário resolver esse problema, caso contrário, nenhuma parte dos dados está disposta a compartilhar seu núcleo com outras pessoas.

ZKML (Zero Knowledge Machine Learning) é uma tecnologia que usa provas de conhecimento zero para aprendizado de máquina. Zero-Knowledge Proofs (ZKP), ou seja, o provador (provador) pode convencer o verificador (verificador) da autenticidade dos dados sem revelar os dados específicos.

Citado com um caso teórico. Existe um Sudoku padrão 9 × 9. A condição de conclusão é preencher os números de 1 a 9 nas nove grades de nove quadrados, de forma que cada número apareça apenas uma vez em cada linha, coluna e grade de nove quadrados. Então, como a pessoa que organiza esse quebra-cabeça pode provar ao desafiante que o Sudoku tem uma solução sem revelar a resposta?

Você só precisa cobrir o preenchimento com a resposta e, em seguida, pedir ao desafiante que selecione aleatoriamente algumas linhas ou colunas, embaralhe todos os números e verifique se todos são de um a nove. Esta é uma forma de realização simples de prova de conhecimento zero.

A tecnologia de prova de conhecimento zero tem três características de completude, correção e conhecimento zero, ou seja, prova a conclusão sem revelar nenhum detalhe. A fonte de sua tecnologia pode refletir a simplicidade.No contexto da criptografia homomórfica, a dificuldade de verificação é muito menor do que a dificuldade de geração de provas.

Machine Learning é o uso de algoritmos e modelos para permitir que os sistemas de computador aprendam e melhorem a partir dos dados. Aprender com a experiência por meio da automação permite que o sistema execute automaticamente tarefas como previsão, classificação, agrupamento e otimização com base em dados e modelos.

Em sua essência, o aprendizado de máquina trata da construção de modelos que aprendem com os dados e fazem previsões e decisões automaticamente. A construção desses modelos geralmente requer três elementos principais: conjuntos de dados, algoritmos e avaliação do modelo. Os conjuntos de dados são a base do aprendizado de máquina e contêm amostras de dados para treinar e testar modelos de aprendizado de máquina. Os algoritmos estão no centro dos modelos de aprendizado de máquina, definindo como o modelo aprende e prevê a partir dos dados. A avaliação do modelo é uma parte importante do aprendizado de máquina, que é usado para avaliar o desempenho e a precisão do modelo e decidir se o modelo precisa ser otimizado e aprimorado.

No aprendizado de máquina tradicional, os conjuntos de dados geralmente precisam ser coletados em um local centralizado para treinamento, o que significa que os proprietários dos dados devem compartilhar os dados com terceiros, o que pode levar ao risco de vazamento de dados ou vazamento de privacidade. Com o ZKML, os proprietários de dados podem compartilhar conjuntos de dados com outras pessoas sem revelar os dados, o que é obtido usando provas de conhecimento zero.

Quando a prova de conhecimento zero é aplicada ao fortalecimento do aprendizado de máquina, o efeito deve ser previsível, o que resolve os problemas de caixa preta de privacidade e monopólio de dados há muito atormentados: se a parte do projeto pode usá-lo sem revelar a entrada de dados do usuário ou o específico detalhes do modelo Depois de concluir a prova e verificação, é possível que cada coleção compartilhe seus próprios dados ou o modelo funcione sem revelar dados privados? É claro que a tecnologia atual ainda é precoce e com certeza haverá muitos problemas na prática, isso não atrapalha nossa imaginação e muitas equipes já estão se desenvolvendo.

Essa situação trará a livre prostituição de pequenos bancos de dados para grandes bancos de dados? Quando você considera as questões de governança, tudo volta ao nosso pensamento Web3. A essência do Crypto está na governança. Seja por meio de um grande número de aplicativos ou compartilhamento, você deve obter os incentivos que merece. Quer seja através do mecanismo Pow, PoS original ou o mais recente PoR (mecanismo de prova de reputação), todos eles fornecem garantias para o efeito de incentivo.

Poder de computação distribuído: uma narrativa inovadora entrelaçada com mentiras e realidade

A rede de poder de computação descentralizada sempre foi um cenário muito mencionado no círculo de criptografia. Afinal, grandes modelos de IA exigem um poder de computação incrível, e a rede de poder de computação centralizada não apenas causa desperdício de recursos, mas também forma um monopólio substancial - se comparado no final, o número de GPUs é a última coisa a lutar, o que é muito chato.

A essência de uma rede de poder de computação descentralizada é integrar recursos de computação espalhados em diferentes locais e em diferentes dispositivos. As principais vantagens frequentemente mencionadas são: fornecer recursos de computação distribuída, solucionar problemas de privacidade, aumentar a credibilidade e a confiabilidade dos modelos de inteligência artificial, oferecer suporte à implantação e operação rápidas em vários cenários de aplicativos e fornecer esquemas descentralizados de gerenciamento e armazenamento de dados. É isso mesmo, por meio do poder de computação descentralizado, qualquer pessoa pode executar modelos de IA e testá-los em conjuntos de dados reais on-chain de usuários de todo o mundo, para que possam desfrutar de serviços de computação mais flexíveis, eficientes e de baixo custo.

Ao mesmo tempo, o poder de computação descentralizado pode resolver problemas de privacidade criando uma estrutura sólida para proteger a segurança e a privacidade dos dados do usuário. Ele também fornece um processo de computação transparente e verificável, aumenta a credibilidade e a confiabilidade dos modelos de inteligência artificial e fornece recursos de computação flexíveis e escaláveis para implantação e operação rápidas em vários cenários de aplicativos.

Vemos o treinamento do modelo a partir de um processo de computação centralizado completo.As etapas geralmente são divididas em: preparação de dados, segmentação de dados, transmissão de dados entre dispositivos, treinamento paralelo, agregação de gradiente, atualização de parâmetros, sincronização e treinamento repetido. Nesse processo, mesmo que a sala de computação centralizada use clusters de equipamentos de computação de alto desempenho e compartilhe tarefas de computação por meio de conexões de rede de alta velocidade, o alto custo de comunicação tornou-se uma das maiores limitações da rede de poder de computação descentralizada.

Portanto, embora a rede de poder de computação descentralizada tenha muitas vantagens e potenciais, o caminho de desenvolvimento ainda é tortuoso de acordo com o custo atual de comunicação e a dificuldade real de operação. Na prática, a realização de uma rede de poder de computação descentralizada requer a superação de muitos problemas técnicos práticos, seja como garantir a confiabilidade e a segurança dos nós, como gerenciar e agendar recursos de computação distribuídos de maneira eficaz ou como obter transmissão e comunicação de dados eficientes, etc. ., Receio que sejam realmente grandes problemas.

Tail: Expectativas para idealistas

Voltando à realidade comercial atual, a narrativa da integração profunda de AI e Web3 parece tão bonita, mas o capital e os usuários nos dizem mais com ações práticas que esta está destinada a ser uma jornada de inovação extremamente difícil, a menos que o projeto possa ser como o OpenAI , enquanto mantemos um forte financiador enquanto somos fortes, caso contrário, os custos sem fundo de pesquisa e desenvolvimento e o modelo de negócios pouco claro nos esmagarão completamente.

Quer seja AI ou Web3, eles estão agora em um estágio muito inicial de desenvolvimento, assim como a bolha da Internet no final do século passado, e não foi até quase dez anos depois que a verdadeira idade de ouro foi oficialmente iniciada. McCarthy fantasiou sobre projetar uma inteligência artificial com inteligência humana em um único período de férias, mas foi só quase setenta anos depois que demos o passo crítico em direção à inteligência artificial.

O mesmo é verdade para Web3 + AI. Determinamos a correção do caminho a seguir e o resto será deixado para o tempo.

**Quando a maré do tempo desaparece, essas pessoas e coisas em pé são a pedra angular de nossa transição da ficção científica para a realidade. **

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)