Análise Profundidade: Que tipo de faíscas a IA e a Web3 podem criar?

AvançadoJun 07, 2024
Este artigo explora o rápido desenvolvimento das tecnologias de Inteligência Artificial (IA) e Web3 e o potencial valor e impacto de sua integração. A IA se destaca no aumento da produtividade, enquanto a Web3 transforma as relações de produção por meio da descentralização. A combinação dessas tecnologias traz aplicações inovadoras em análise de dados, serviços personalizados ao usuário e proteção de segurança e privacidade.
Análise Profundidade: Que tipo de faíscas a IA e a Web3 podem criar?

Introdução: Desenvolvimento de IA+Web3

Nos últimos anos, o rápido desenvolvimento das tecnologias de Inteligência Artificial (IA) e Web3 tem atraído ampla atenção global. A IA, uma tecnologia que simula e imita a inteligência humana, alcançou avanços significativos em campos como reconhecimento facial, processamento de linguagem natural e aprendizado de máquina. O rápido avanço da tecnologia de IA trouxe uma tremenda transformação e inovação em vários setores.

A indústria de IA atingiu um tamanho de mercado de US$ 200 bilhões em 2023, com gigantes do setor e jogadores proeminentes como OpenAI, Character.AI e Midjourney emergindo rapidamente e principal o boom da IA.

Simultaneamente, a Web3, um modelo emergente de internet, está gradualmente mudando nossa percepção e uso da internet. Com base na tecnologia blockchain descentralizada, a Web3 realiza compartilhamento e controle de dados, autonomia do usuário e o estabelecimento de mecanismos de confiança por meio de recursos como contratos inteligentes, armazenamento distribuído e verificação de identidade descentralizada. A ideia central do Web3 é liberar dados de autoridades centralizadas, concedendo aos usuários controle e a capacidade de compartilhar o valor de seus dados.

Atualmente, o valor de mercado da indústria Web3 atingiu US$ 25 trilhões. De Bitcoin, Ethereum e Solana a players de nível de aplicativo como Uniswap e Stepn, novas narrativas e cenários estão continuamente surgindo, atraindo cada vez mais pessoas para se juntar à indústria Web3.

É evidente que a integração da IA e da Web3 é um ponto focal para construtores e capitalistas de risco do Oriente e do Ocidente. Explorar como combinar efetivamente essas duas tecnologias é um esforço que vale muito a pena.

Este artigo se concentrará no estado atual do desenvolvimento de IA+Web3, explorando o valor potencial e o impacto de sua integração. Primeiro apresentaremos os conceitos básicos e as características da IA e da Web3, depois discutiremos sua inter-relação. Em seguida, analisaremos o estado atual dos projetos AI+Web3 e nos aprofundaremos nas limitações e desafios que eles enfrentam. Através desta pesquisa, pretendemos fornecer referências e insights valiosos para investidores e profissionais do setor.

Como a IA interage com a Web3

O desenvolvimento da IA e da Web3 pode ser visto como dois lados de uma escala: a IA traz melhorias de produtividade, enquanto a Web3 revoluciona as relações de produção. Então, que tipo de faíscas a IA e a Web3 podem criar quando colidem? Primeiro, analisaremos os desafios e possíveis melhorias nos setores de IA e Web3 e, em seguida, exploraremos como eles podem ajudar a resolver os problemas uns dos outros.

  1. Desafios e Melhorias Potenciais na Indústria de IA
  2. :
  3. Desafios e Melhorias Potenciais na Indústria Web3

2.1 Desafios na indústria de IA

Para explorar os desafios enfrentados pela indústria de IA, devemos primeiro entender sua essência. O núcleo da indústria de IA gira em torno de três elementos-chave: poder computacional, algoritmos e dados.

  1. Primeiro, poder computacional: Poder computacional refere-se à capacidade de realizar cálculos e processamento em larga escala. As tarefas de IA geralmente exigem o manuseio de grandes quantidades de dados e a realização de cálculos complexos, como o treinamento de modelos de redes neurais profundas. O alto poder computacional pode acelerar os processos de treinamento e inferência de modelos, melhorando o desempenho e a eficiência dos sistemas de IA. Nos últimos anos, os avanços na tecnologia de hardware, como unidades de processamento gráfico (GPUs) e chips de IA dedicados (como TPUs), aumentaram significativamente o poder computacional, impulsionando o desenvolvimento da indústria de IA. A Nvidia, uma grande fornecedora de GPUs, viu o preço de suas ações disparar nos últimos anos, capturando uma grande participação de mercado e obtendo lucros substanciais.
  2. O que é um algoritmo: Os algoritmos são os principais componentes dos sistemas de IA. São métodos matemáticos e estatísticos utilizados para resolver problemas e executar tarefas. Os algoritmos de IA podem ser categorizados em algoritmos tradicionais de aprendizado de máquina e algoritmos de aprendizado profundo, com algoritmos de aprendizado profundo tendo feito avanços significativos nos últimos anos. A escolha e o design de algoritmos são cruciais para o desempenho e a eficácia dos sistemas de IA. A melhoria contínua e a inovação em algoritmos podem aumentar a precisão, a robustez e os recursos de generalização dos sistemas de IA. Algoritmos diferentes produzem resultados diferentes, portanto, avanços nos algoritmos são essenciais para o desempenho da tarefa.
  3. Por que os dados são importantes: A principal tarefa dos sistemas de IA é extrair padrões e regras dos dados por meio de aprendizado e treinamento. Os dados formam a base para o treinamento e a otimização de modelos. Com amostras de dados em larga escala, os sistemas de IA podem aprender modelos mais precisos e inteligentes. Conjuntos de dados avançados fornecem informações abrangentes e diversificadas, permitindo que os modelos generalizem melhor para dados invisíveis e ajudando os sistemas de IA a entender e resolver melhor problemas do mundo real.

Depois de entender os três elementos centrais da IA atual, vamos examinar as dificuldades e os desafios que a IA enfrenta nessas áreas.

Primeiro, em termos de poder computacional, as tarefas de IA geralmente exigem uma grande quantidade de recursos computacionais para treinamento e inferência de modelos, especialmente para modelos de aprendizagem profunda. No entanto, obter e gerenciar poder computacional em larga escala é um desafio caro e complexo. O custo, o consumo de energia e a manutenção de equipamentos de computação de alto desempenho são questões significativas. Isso é particularmente desafiador para startups e desenvolvedores individuais, para os quais adquirir poder computacional suficiente pode ser difícil.

Em termos de algoritmos, apesar dos sucessos significativos dos algoritmos de aprendizagem profunda em muitos campos, ainda há desafios e dificuldades. Por exemplo, o treinamento de redes neurais profundas requer uma grande quantidade de dados e recursos computacionais. Além disso, para determinadas tarefas, a interpretabilidade e a explicabilidade dos modelos podem ser insuficientes. A robustez e os recursos de generalização dos algoritmos também são questões cruciais, já que o desempenho do modelo em dados não vistos pode ser instável. Encontrar o melhor algoritmo para fornecer o melhor desempenho entre muitos algoritmos é uma exploração contínua.

Em termos de dados, os dados são a força motriz por trás da IA, mas a obtenção de dados diversificados e de alta qualidade continua sendo um desafio. Dados em alguns campos, como dados sensíveis de saúde no setor médico, podem ser difíceis de obter. Além disso, a qualidade, a precisão e a rotulagem dos dados são questões críticas, pois dados incompletos ou tendenciosos podem levar a comportamentos errôneos ou vieses do modelo. Proteger a privacidade e a segurança dos dados também é uma consideração significativa.

Além disso, há questões relacionadas à interpretabilidade e transparência. A natureza de "caixa preta" dos modelos de IA é uma preocupação pública. Em certas aplicações, como finanças, saúde e justiça, o processo de tomada de decisão dos modelos precisa ser interpretável e rastreável. No entanto, os modelos de aprendizagem profunda existentes muitas vezes carecem de transparência. Explicar o processo de tomada de decisão dos modelos e fornecer explicações confiáveis continua sendo um desafio.

Além disso, os modelos de negócios de muitos projetos de startups de IA não são muito claros, o que também causa confusão para muitos empreendedores de IA.

2.2 Desafios na indústria Web3

Na indústria Web3, há inúmeros desafios que precisam ser abordados, abrangendo desde análise de dados e experiência do usuário até vulnerabilidades de contratos inteligentes e ataques de hackers. A IA, como ferramenta para aumentar a produtividade, tem um potencial significativo nessas áreas.

Em primeiro lugar, há espaço para melhorias na análise de dados e nos recursos preditivos. As aplicações de IA na análise e previsão de dados tiveram um impacto significativo na indústria Web3. Por meio de análise inteligente e mineração por algoritmos de IA, as plataformas Web3 podem extrair informações valiosas de grandes quantidades de dados e fazer previsões e decisões mais precisas. Isso é particularmente significativo para avaliação de risco, previsão de mercado e gestão de ativos em finanças descentralizadas (DeFi).

Além disso, há o potencial de melhorar a experiência do usuário e os serviços de personalização. Os aplicativos de IA permitem que as plataformas Web3 ofereçam melhores experiências ao usuário e serviços personalizados. Ao analisar e modelar dados do usuário, as plataformas Web3 podem fornecer recomendações personalizadas, serviços personalizados e experiências de interação inteligentes. Isso ajuda a aumentar o engajamento e a satisfação do usuário, fomentando o desenvolvimento do ecossistema Web3. Por exemplo, muitos protocolos Web3 integram ferramentas de IA como o ChatGPT para atender melhor os usuários.

Em termos de segurança e proteção de privacidade, os aplicativos de IA também têm um impacto profundo na indústria Web3. A tecnologia de IA pode ser usada para detectar e se defender contra ataques de rede, identificar comportamentos anormais e fornecer medidas de segurança mais fortes. Além disso, a IA pode ser aplicada à proteção da privacidade de dados, protegendo as informações pessoais dos usuários nas plataformas Web3 por meio de técnicas como criptografia de dados e computação de privacidade. Em relação à auditoria de contratos inteligentes, como vulnerabilidades e riscos de segurança podem existir nos processos de escrita e auditoria de contratos inteligentes, a tecnologia de IA pode ser usada para auditoria automatizada de contratos e detecção de vulnerabilidades, aumentando a segurança e a confiabilidade dos contratos.

É evidente que a IA pode contribuir significativamente para enfrentar os desafios e potenciais melhorias na indústria Web3 em vários aspectos.

Análise da situação atual do projeto AI+Web3

A combinação de projetos de IA e Web3 se concentra principalmente em dois aspectos principais: alavancar a tecnologia blockchain para aprimorar projetos de IA e utilizar a tecnologia de IA para servir à melhoria de projetos Web3. Inúmeros projetos surgiram ao longo desse caminho, incluindo Io.net, Gensyn, Ritual, entre outros. A análise a seguir se aprofundará em diferentes subdomínios onde a IA auxilia a Web3 e onde a Web3 aprimora a IA.

3.1 Web3 ajuda a AI

3.1.1 Poder de computação descentralizada

Desde o lançamento do ChatGPT pela OpenAI no final de 2022, acendeu um frenesi no campo da IA. Em cinco dias após seu lançamento, a base de usuários chegou a um milhão, superando a taxa de downloads do Instagram, que levou aproximadamente dois meses e meio para atingir a mesma marca. Posteriormente, o ChatGPT experimentou um rápido crescimento, com usuários ativos mensais atingindo 100 milhões em dois meses e usuários ativos semanais atingindo 100 milhões em novembro de 2023. Com o advento do ChatGPT, o setor de IA rapidamente fez a transição de um campo de nicho para uma indústria altamente conceituada.

De acordo com o relatório da Trendforce, o ChatGPT requer 30.000 GPUs NVIDIA A100 para operar, e futuros modelos como o GPT-5 exigirão ainda mais poder computacional. Isso provocou uma corrida armamentista entre várias empresas de IA, já que possuir poder computacional suficiente é crucial para manter uma vantagem competitiva na arena de IA, principal a uma escassez de GPUs.

Antes da Elevar da IA, o principal provedor de GPU, a NVIDIA, atendia principalmente clientes dos três principais serviços de nuvem: AWS, Azure e GCP. Com o Elevar da inteligência artificial, inúmeros novos compradores surgiram, incluindo grandes empresas de tecnologia como Meta, Oracle, bem como outras plataformas de dados e startups de IA, todos se juntando à corrida para estocar GPUs para treinar modelos de IA. Grandes empresas de tecnologia como Meta e Tesla aumentaram significativamente suas compras de modelos personalizados de IA e pesquisas internas. Empresas de modelos básicos como Anthropic e plataformas de dados como Snowflake e Databricks também compraram mais GPUs para ajudar seus clientes a fornecer serviços de IA.

Como mencionado pela Semi Analysis no ano passado, existe uma divisão entre empresas "ricas em GPU" e "pobres em GPU", com apenas algumas possuindo mais de 20.000 GPUs A100/H100, permitindo que os membros da equipe utilizem entre 100 e 1000 GPUs para projetos. Essas empresas são provedoras de nuvem ou construíram seus próprios modelos de linguagem de grande porte (LLMs), incluindo OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, entre outros.

No entanto, a maioria das empresas cair na categoria "pobre em GPU", lutando com significativamente menos GPUs e gastando uma quantidade considerável de tempo e esforço em tarefas que são mais difíceis de avançar no ecossistema. Além disso, essa situação não se limita às startups. Algumas das empresas de IA mais conhecidas, como Hugging Face, Databricks (MosaicML), Together e até mesmo Snowflake, têm quantidades de A100/H100 inferiores a 20.000. Apesar de terem talento técnico de classe mundial, essas empresas são limitadas pelo fornecimento limitado de GPUs, colocando-as em desvantagem em comparação com empresas maiores na competição de IA.

Essa escassez não se limita à categoria "pobre em GPU", mesmo até o final de 2023, o principal player de IA, OpenAI, teve que fechar temporariamente os registros pagos devido à incapacidade de obter GPUs suficientes e teve que adquirir mais suprimentos de GPU.

É evidente que o rápido desenvolvimento da IA levou a um sério descompasso entre a demanda e a oferta de GPUs, criando uma escassez iminente de oferta.

Para resolver esse problema, alguns projetos Web3 começaram a explorar soluções de poder de computação descentralizadas, aproveitando as características únicas da tecnologia Web3. Esses projetos incluem Akash, Render, Gensyn, entre outros. A característica comum entre esses projetos é o uso de tokens para incentivar os usuários a fornecer poder de computação de GPU ocioso, tornando-se assim o lado de fornecimento de poder de computação para apoiar clientes de IA.

O perfil do lado da oferta consiste principalmente em três aspectos: provedores de serviços em nuvem, mineradores de criptomoedas e empresas. Os provedores de serviços de nuvem incluem os principais provedores de serviços de nuvem (como AWS, Azure, GCP) e provedores de serviços de nuvem de GPU (como Coreweave, Lambda, Crusoé), onde os usuários podem revender o poder de computação ocioso desses provedores para gerar renda. Com Ethereum transição de PoW para PoS, o poder de computação ocioso da GPU se tornou um importante lado de fornecimento potencial para os mineradores de criptomoedas. Além disso, grandes empresas como Tesla e Meta, que compraram grandes quantidades de GPUs para fins estratégicos, também podem contribuir com seu poder de computação de GPU ociosa como parte do lado da oferta.

Atualmente, os jogadores neste campo geralmente podem ser divididos em duas categorias: aqueles que usam poder de computação descentralizado para inferência de IA e aqueles que o usam para treinamento de IA. A primeira categoria inclui projetos como Render (embora focado em renderização, também pode ser usado para computação de IA), Akash, Aethir, enquanto a segunda categoria inclui projetos como io.net (apoiando inferência e treinamento) e Gensyn. A principal diferença entre os dois está nos diferentes requisitos de poder de computação.

Vamos primeiro discutir os projetos com foco na inferência de IA. Esses projetos atraem usuários para fornecer poder de computação por meio de incentivos de token e, em seguida, fornecer serviços de rede de poder de computação para o lado da demanda, facilitando assim o Coincidindo da oferta e demanda de energia de computação ociosa. Detalhes sobre esses projetos são abordados em um relatório de pesquisa da DePIN de nossos Laboratórios Ryze, sinta-se à vontade para lê-los.

O ponto central está no mecanismo de incentivo simbólico, onde o projeto atrai primeiro fornecedores e depois usuários, alcançando assim o mecanismo de partida a frio e operação principal do projeto, permitindo maior expansão e desenvolvimento. Neste ciclo, o lado da oferta recebe recompensas de token mais valiosas, enquanto o lado da demanda desfruta de serviços mais econômicos. O valor dos tokens do projeto e o crescimento dos participantes de oferta e demanda permanecem consistentes. À medida que o preço do token aumenta, mais participantes e especuladores são atraídos, criando um ciclo de captura de valor.

Outra categoria envolve o uso de poder de computação descentralizado para treinamento de IA, como Gensyn e io.net (que apoiar treinamento e inferência de IA). Na verdade, a lógica operacional desses projetos não é fundamentalmente diferente dos projetos de inferência de IA. Eles ainda dependem de incentivos simbólicos para atrair a participação do lado da oferta para fornecer poder de computação, que é então utilizado pelo lado da demanda.

io.net, como uma rede de poder de computação descentralizada, atualmente possui mais de 500.000 GPUs, tornando-se um desempenho de destaque nos projetos de poder de computação descentralizada. Além disso, possui poder computacional integrado de Render e Filecoin, demonstrando o desenvolvimento contínuo de seu ecossistema.

Além disso, o Gensyn facilita a alocação de tarefas de aprendizado de máquina e recompensas por meio de contratos inteligentes para permitir o treinamento de IA. Conforme ilustrado no diagrama abaixo, o custo por hora do trabalho de treinamento de aprendizado de máquina no Gensyn é de aproximadamente US$ 0,4, o que é significativamente menor do que o custo de mais de US$ 2 na AWS e no GCP.

O ecossistema Gensyn envolve quatro entidades participantes:

  • Enviadores: são os usuários do lado da demanda que consomem tarefas e pagam por tarefas de treinamento de IA.
  • Executores: Os executores realizam as tarefas de treinamento do modelo e fornecem provas de conclusão da tarefa para verificação.
  • Verificadores: Os verificadores conectam o processo de treinamento não-determinístico com a computação linear determinística. Eles comparam as provas fornecidas pelos executores com os limites esperados.
  • Repórteres: Os repórteres inspecionam o trabalho dos verificadores e levantam desafios para ganhar recompensas ao identificar problemas.

Como podemos ver, o Gensyn pretende se tornar um protocolo de computação massivamente escalável e econômico para modelos globais de aprendizagem profunda. No entanto, olhando para esse campo, por que a maioria dos projetos escolhe o poder de computação descentralizado para inferência de IA em vez de treinamento?

Vamos também ajudar os amigos que não estão familiarizados com o treinamento e a inferência de IA a entender a diferença entre os dois:

  • Treinamento de IA: Se compararmos a inteligência artificial a um aluno, o treinamento é semelhante a fornecer à IA uma grande quantidade de conhecimento e exemplos, que podem ser entendidos como dados. A IA aprende com esses exemplos. Como o aprendizado envolve a compreensão e a memorização de uma grande quantidade de informações, esse processo requer uma quantidade significativa de poder computacional e tempo.
  • AI Inference: Então, o que é a inferência? Pode ser entendido como usar o conhecimento aprendido para resolver problemas ou fazer provas. Durante a inferência, a inteligência artificial usa o conhecimento aprendido para fornecer respostas, em vez de adquirir novos conhecimentos. Portanto, os requisitos computacionais para o processo de inferência são relativamente pequenos.

Pode-se ver que os requisitos de poder computacional para inferência de IA e treinamento de IA diferem significativamente. A disponibilidade de poder de computação descentralizada para inferência de IA e treinamento de IA será analisada mais detalhadamente na próxima seção de desafios.

Além disso, a Ritual visa combinar redes distribuídas com criadores de modelos para manter a descentralização e a segurança. Seu primeiro produto, o Infernet, permite que contratos inteligentes no blockchain acessem modelos de IA fora da cadeia, permitindo que esses contratos acessem a IA de uma forma que mantenha a verificação, a descentralização e a proteção da privacidade.

O coordenador da Infernet é responsável por gerenciar o comportamento dos nós na rede e responder às solicitações computacionais dos consumidores. Quando os usuários usam o Infernet, tarefas como inferência e prova são realizadas fora da cadeia, com a saída devolvida ao coordenador e, finalmente, transmitida aos consumidores na rede via contratos inteligentes.

Além das redes de poder computacional descentralizadas, existem também redes descentralizadas de largura de banda como a Grass, que visam melhorar a velocidade e a eficiência da transmissão de dados. No geral, o surgimento de redes de poder de computação descentralizadas fornece uma nova possibilidade para o lado da oferta de poder de computação de IA, impulsionando a IA em novas direções.

3.1.2 Modelo de algoritmo descentralizado

Assim como mencionado no segundo capítulo, os três elementos centrais da IA são poder computacional, algoritmos e dados. Uma vez que o poder computacional pode formar uma rede de suprimento através da descentralização, os algoritmos também podem seguir uma abordagem semelhante e formar uma rede de suprimento para modelos de algoritmos?

Antes de analisar projetos nesse campo, vamos primeiro entender a importância dos modelos de algoritmos descentralizados. Muitas pessoas podem se perguntar, já que já temos OpenAI, por que precisamos de uma rede de algoritmos descentralizada?

Essencialmente, uma rede de algoritmos descentralizada é um mercado de serviços de algoritmo de IA descentralizado que conecta muitos modelos diferentes de IA. Cada modelo de IA tem sua própria experiência e habilidades. Quando os usuários fazem perguntas, o mercado seleciona o modelo de IA mais adequado para responder à pergunta. O Chat-GPT, desenvolvido pela OpenAI, é um desses modelos de IA que pode entender e gerar texto semelhante aos humanos.

Em termos simples, o ChatGPT é como um aluno altamente capaz de ajudar a resolver diferentes tipos de problemas, enquanto uma rede de algoritmos descentralizada é como uma escola com muitos alunos ajudando a resolver problemas. Embora o aluno atual (ChatGPT) seja altamente capaz, a longo prazo, há um grande potencial para uma escola que possa recrutar alunos de todo o mundo.

Atualmente, no campo dos modelos de algoritmos descentralizados, existem também alguns projetos que estão experimentando e explorando. Em seguida, usaremos o projeto representativo Bittensor como um estudo de caso para ajudar a entender o desenvolvimento deste nicho de campo.

No Bittensor, o lado da oferta de modelos de algoritmos (ou mineradores) contribui com seus modelos de aprendizado de máquina para a rede. Esses modelos podem analisar dados e fornecer insights. Os provedores de modelos recebem tokens de criptomoedas, conhecidos como TAO, como recompensa por suas contribuições.

Para garantir a qualidade das respostas, o Bittensor usa um mecanismo de consenso exclusivo para chegar a um consenso sobre a melhor resposta. Quando uma pergunta é feita, vários mineradores de modelo fornecem respostas. Em seguida, validadores na rede começam a trabalhar para determinar a melhor resposta, que é então enviada de volta ao usuário.

O token TAO no ecossistema Bittensor desempenha dois papéis principais durante todo o processo. Por um lado, serve como um incentivo para que os mineradores contribuam com modelos de algoritmos para a rede. Por outro lado, os usuários precisam gastar tokens para fazer perguntas e fazer com que a rede conclua tarefas.

Como o Bittensor é descentralizado, qualquer pessoa com acesso à internet pode entrar na rede, seja como um usuário fazendo perguntas ou como um minerador fornecendo respostas. Isso permite que mais pessoas aproveitem o poder da inteligência artificial.

Em resumo, redes de modelos de algoritmos descentralizados como o Bittensor têm o potencial de criar um cenário mais aberto e transparente. Nesse ecossistema, os modelos de IA podem ser treinados, compartilhados e utilizados de forma segura e descentralizada. Além disso, outras redes como a BasedAI estão tentando esforços semelhantes, com o aspecto intrigante de usar Zero-Knowledge Proofs (ZK) para proteger a privacidade de dados interativos do modelo do usuário, que será discutido mais adiante na quarta subseção.

À medida que as plataformas de modelos de algoritmos descentralizados evoluem, elas permitirão que pequenas empresas compitam com grandes organizações no uso de ferramentas de IA de ponta, potencialmente tendo impactos significativos em vários setores.

3.1.3 Coleta descentralizada de dados

Para o treinamento de modelos de IA, um grande suprimento de dados é indispensável. No entanto, a maioria das empresas Web2 atualmente ainda monopoliza os dados dos usuários. Plataformas como X, Reddit, TikTok, Snapchat, Instagram e YouTube proíbem a coleta de dados para treinamento de IA, o que representa um obstáculo significativo para o desenvolvimento da indústria de IA.

Por outro lado, algumas plataformas Web2 vendem dados de usuários para empresas de IA sem compartilhar quaisquer lucros com os usuários. Por exemplo, o Reddit chegou a um acordo de US$ 60 milhões com o Google, permitindo que o Google treinasse modelos de IA usando suas postagens. Isso resulta em direitos de coleta de dados sendo monopolizados por grandes empresas de capital e big data, empurrando a indústria para uma direção intensiva em capital.

Em resposta a essa situação, alguns projetos estão aproveitando a Web3 e os incentivos de token para alcançar a coleta de dados descentralizada. Veja o PublicAI como exemplo: os usuários podem participar de duas funções:

  • Uma categoria são os provedores de dados de IA. Os usuários podem encontrar conteúdo valioso no X, marcar @PublicAI conta oficial com seus insights e usar hashtags #AI ou #Web3 para categorizar o conteúdo, enviando-o para o data center da PublicAI para coleta.
  • A outra categoria é a validadores de dados. Os usuários podem fazer login no data center da PublicAI e votar nos dados mais valiosos para o treinamento de IA.

Como recompensa, os usuários podem ganhar tokens por meio dessas contribuições, promovendo uma relação ganha-ganha entre os contribuidores de dados e a indústria de IA.

Além de projetos como o PublicAI, que coleta dados especificamente para treinamento de IA, há muitos outros projetos usando incentivos de token para coleta de dados descentralizada. Por exemplo, a Ocean coleta dados do usuário por meio de tokenização de dados para servir IA, a Hivemapper usa as câmeras do carro dos usuários para coletar dados do mapa, a Dimo coleta dados do carro e a WiHi coleta dados meteorológicos. Esses projetos, por meio da coleta descentralizada de dados, também servem como fontes de dados potenciais para treinamento em IA. Assim, em um sentido amplo, eles podem ser incluídos no paradigma da Web3 auxiliando a IA.

3.1.4 ZK protege a privacidade do usuário na IA

Blockchain tecnologia oferece benefícios de descentralização e também introduz uma característica crucial: provas de conhecimento zero. A tecnologia de conhecimento zero permite a verificação de informações, mantendo a privacidade.

No aprendizado de máquina tradicional, os dados normalmente precisam ser armazenados e processados centralmente, o que pode levar a riscos de privacidade. Métodos para proteger a privacidade de dados, como criptografia ou anonimização de dados, podem limitar a precisão e o desempenho de modelos de aprendizado de máquina.

A tecnologia à prova de conhecimento zero ajuda a resolver esse dilema, abordando o conflito entre proteção de privacidade e compartilhamento de dados. O Zero-Knowledge Machine Learning (ZKML) usa a tecnologia de prova de conhecimento zero para permitir o treinamento e a inferência do modelo de aprendizado de máquina sem expor os dados originais. Provas de conhecimento zero garantem que os recursos dos dados e os resultados do modelo possam ser verificados como corretos sem revelar o conteúdo real dos dados.

O principal objetivo da ZKML é equilibrar a proteção da privacidade e o compartilhamento de dados. Ele pode ser aplicado em vários cenários, como análise de dados de saúde, análise de dados financeiros e colaboração entre organizações. Ao usar o ZKML, os indivíduos podem proteger a privacidade de seus dados confidenciais enquanto compartilham dados com outras pessoas para obter insights mais amplos e oportunidades de colaboração sem o risco de violações de privacidade de dados. Este campo ainda está em seus estágios iniciais, com a maioria dos projetos ainda em exploração. Por exemplo, a BasedAI propõe uma abordagem descentralizada integrando perfeitamente o Fully Encriptação homomórfica (FHE) com Large Language Models (LLMs) para manter a confidencialidade dos dados. Os Modelos de Linguagem Grande de Conhecimento Zero (ZK-LLMs) incorporam privacidade em sua infraestrutura de rede distribuída, garantindo que os dados do usuário permaneçam confidenciais durante toda a operação da rede.

Aqui está uma breve explicação de Fully Encriptação homomórfica (FHE). FHE é uma técnica criptografia que permite que cálculos sejam realizados em dados criptografados sem a necessidade de descriptografá-los. Isso significa que várias operações matemáticas (como adição, multiplicação, etc.) realizadas em dados criptografados FHE produzem os mesmos resultados como se fossem executadas nos dados não criptografados originais, protegendo assim a privacidade dos dados do usuário.

Além dos métodos mencionados, o Web3 também suporta IA por meio de projetos como o Cortex, que permite na rede execução de programas de IA. A execução de programas de aprendizado de máquina em blockchains tradicionais enfrenta um desafio, pois as máquinas virtuais são altamente ineficientes na execução de quaisquer modelos de aprendizado de máquina não triviais. A maioria acredita que executar IA no blockchain é impossível. No entanto, o Cortex Máquina virtual (CVM) utiliza GPUs para executar programas de IA na rede e é compatível com o Máquina Virtual Ethereum (EVM). Em outras palavras, a cadeia Cortex pode executar todos os DApps Ethereum e integrar o aprendizado de máquina de IA nesses DApps. Isso permite que os modelos de aprendizado de máquina sejam executados de forma descentralizada, imutável e transparente, com o consenso da rede verificando cada etapa da inferência de IA.

3.2 AI Helps Web3

Na colisão entre IA e Web3, além da assistência da Web3 à IA, a assistência da IA à indústria Web3 também merece atenção. A principal contribuição da inteligência artificial é a melhoria da produtividade, por isso há muitas tentativas em contratos inteligentes de auditoria de IA, análise e previsão de dados, serviços personalizados, segurança e proteção de privacidade, etc.

3.2.1 Análise e Previsão de Dados

Muitos projetos Web3 estão integrando serviços de IA existentes (como o ChatGPT) ou desenvolvendo seus próprios para fornecer serviços de análise e previsão de dados para usuários Web3. Esses serviços cobrem uma ampla gama, incluindo algoritmos de IA para estratégias de investimento, ferramentas de análise de na rede e previsões de preços e mercado.

Por exemplo, a Pond usa algoritmos de gráficos de IA para prever tokens alfa futuros valiosos, oferecendo serviços de consultoria de investimento para usuários e instituições. A BullBear AI treina dados históricos do usuário, histórico de preços e tendências de mercado para fornecer informações precisas que apoiam as previsões de tendências de preços, ajudando os usuários a obter lucros.

Plataformas como a Numerai organizam competições de investimento onde os participantes usam IA e grandes modelos de linguagem para prever os mercados de ações. Eles treinam modelos em dados de alta qualidade fornecidos pela plataforma e enviam previsões diárias. A Numerai avalia essas previsões ao longo do mês seguinte, e os participantes podem staking NMR tokens em seus modelos para ganhar recompensas com base no desempenho.

A Arkham, uma plataforma de análise de dados blockchain, também integra IA em seus serviços. A Arkham vincula endereços de blockchain a entidades como exchanges, fundos e baleias, exibindo dados e análises importantes para dar aos usuários uma vantagem na tomada de decisões. O Arkham Ultra combina endereços com entidades do mundo real usando algoritmos desenvolvidos ao longo de três anos com apoiar dos fundadores da Palantir e da OpenAI.

3.2.2 Serviços Personalizados

Aplicações de IA em busca e recomendação são predominantes em projetos Web2, atendendo às necessidades personalizadas dos usuários. Os projetos Web3 também integram IA para melhorar a experiência do usuário.

Por exemplo, a conhecida plataforma de análise de dados Dune introduziu recentemente a ferramenta Wand, que usa grandes modelos de linguagem para escrever consultas SQL. Com o Wand Create, os usuários podem gerar consultas SQL a partir de perguntas de linguagem natural, facilitando a pesquisa de dados para aqueles que não estão familiarizados com SQL.

Plataformas de conteúdo como o Followin integram o ChatGPT para resumir pontos de vista e atualizações em setores específicos. A enciclopédia Web3 IQ.wiki pretende ser a fonte primária de conhecimento objetivo e de alta qualidade sobre a tecnologia blockchain e criptomoedas. Ele integra o GPT-4 para resumir artigos wiki, tornando as informações de blockchain mais acessíveis em todo o mundo. O motor de busca baseado em LLM Kaito visa revolucionar a recuperação de informações Web3.

No domínio criativo, projetos como o NFPrompt reduzem o custo de criação de conteúdo. O NFPrompt permite que os usuários gerem NFTs mais facilmente com IA, fornecendo vários serviços criativos personalizados.

3.2.3 Auditoria de IA em contratos inteligentes

Auditar contratos inteligentes é uma tarefa crucial na Web3, e a IA pode melhorar a eficiência e a precisão na identificação de vulnerabilidades de código.

Vitalik Buterin observou que um dos maiores desafios no espaço das criptomoedas são os erros em nosso código. A IA tem a promessa de simplificar significativamente o uso de ferramentas de verificação formal para provar a correção do código. Conseguir isso poderia levar a um SEK EVM (Máquina Virtual Ethereum) quase livre de erros, aumentando a segurança do espaço à medida que menos erros aumentam a segurança geral.

Por exemplo, o projeto 0x0.ai oferece um auditor de contrato inteligente alimentado por IA. Essa ferramenta usa algoritmos avançados para analisar contratos inteligentes e identificar possíveis vulnerabilidades ou problemas que possam levar a fraudes ou outros riscos de segurança. Os auditores usam aprendizado de máquina para detectar padrões e anomalias no código, sinalizando possíveis problemas para revisão posterior.

Há outros casos nativos em que a IA auxilia a Web3. PAAL ajuda os usuários a criar bots de IA personalizados que podem ser implantados no Telegram e no Discord para atender aos usuários da Web3. O agregador de DEX multi-chain orientado por IA Hera usa IA para fornecer os melhores caminhos de negociação entre quaisquer pares de tokens em vários tokens. No geral, a contribuição da IA para a Web3 está principalmente no nível da ferramenta, aprimorando vários processos e funcionalidades.

Limitations And Current Challenges Of The AI + Web3 Project

4.1 Obstáculos realistas em Poder de computação descentralizadas

Atualmente, muitos projetos Web3 que auxiliam a IA estão se concentrando no poder de computação descentralizado. Usar incentivos de token para promover usuários globais a se tornarem parte do lado da fonte de alimentação de computação é uma inovação muito interessante. No entanto, por outro lado, existem algumas questões realistas que precisam ser abordadas:

Em comparação com provedores de serviços de poder de computação centralizados, os produtos de poder de computação descentralizados normalmente dependem de nós e participantes distribuídos globalmente para fornecer recursos de computação. Devido à possível latência e instabilidade nas conexões de rede entre esses nós, o desempenho e a estabilidade podem ser piores do que os produtos de poder de computação centralizados.

Além disso, a disponibilidade de produtos de poder computacional descentralizados é afetada pelo Coincidindo grau entre oferta e demanda. Se não houver fornecedores suficientes ou se a demanda for muito alta, isso pode levar a uma escassez de recursos ou a uma incapacidade de atender às necessidades dos usuários.

Finalmente, em comparação com os produtos de poder de computação centralizados, os produtos de poder de computação descentralizados geralmente envolvem mais detalhes técnicos e complexidade. Os usuários podem precisar entender e lidar com aspectos de redes distribuídas, contratos inteligentes e pagamentos com criptomoedas, o que aumenta o custo de compreensão e uso do usuário.

Após discussões aprofundadas com várias equipes de projeto de poder de computação descentralizada, descobriu-se que o poder de computação descentralizado atual ainda é principalmente limitado à inferência de IA em vez de treinamento de IA.

Em seguida, usarei quatro perguntas para ajudar todos a entender as razões por trás disso:

  1. Por que a maioria dos projetos de poder de computação descentralizados opta por fazer inferência de IA em vez de treinamento de IA?

  2. O que torna a NVIDIA tão poderosa? Quais são as razões pelas quais o treinamento de poder de computação descentralizada é difícil?

  3. Qual será o final do jogo para o poder de computação descentralizado (Render, Akash, io.net, etc.)?

  4. Qual será o final do jogo para algoritmos descentralizados (Bittensor)?

Vamos nos aprofundar nos detalhes passo a passo:

1) Observando esse campo, a maioria dos projetos de poder de computação descentralizados opta por se concentrar na inferência de IA em vez de treinamento, principalmente devido aos diferentes requisitos de poder de computação e largura de banda.

Para ajudar todos a entender melhor, vamos comparar a IA com um aluno:

  • Treinamento de IA: Se compararmos a inteligência artificial com um aluno, o treinamento é semelhante a fornecer à IA uma grande quantidade de conhecimento e exemplos, semelhante ao que muitas vezes chamamos de dados. A IA aprende com esses exemplos. Como o aprendizado envolve a compreensão e a memorização de grandes quantidades de informações, esse processo requer poder computacional e tempo substanciais.

  • Inferência de IA: A inferência pode ser entendida como o uso do conhecimento adquirido para resolver problemas ou fazer exames. Durante a inferência, a IA utiliza o conhecimento aprendido para responder a perguntas em vez de adquirir novas informações, portanto, os requisitos computacionais são relativamente menores.

É fácil ver que a diferença fundamental na dificuldade está no fato de que o treinamento de IA de modelos grandes requer enormes volumes de dados e largura de banda extremamente alta para transmissão de dados, tornando-o muito desafiador de alcançar com poder de computação descentralizado. Em contraste, a inferência requer muito menos dados e largura de banda, tornando-a mais viável.

Para modelos grandes, a estabilidade é crucial. Se o treinamento for interrompido, ele deve ser reiniciado, resultando em altos custos afundados. Por outro lado, demandas com requisitos de poder computacional relativamente mais baixos, como inferência de IA ou certos cenários específicos envolvendo treinamento de modelos de médio a pequeno porte, podem ser alcançadas. Em redes de poder de computação descentralizadas, alguns provedores de serviços de nó relativamente grandes podem atender a essas demandas de poder de computação relativamente mais altas.

2) Então, onde estão os gargalos em dados e largura de banda? Por que o treinamento descentralizado é difícil de alcançar?

Isso envolve dois elementos-chave do treinamento de grandes modelos: poder de computação de placa única e paralelismo de várias cartas.

Poder de computação de placa única: Atualmente, todos os centros que exigem treinamento de modelo grande, conhecidos como centros de supercomputação, podem ser comparados ao corpo humano, onde a unidade subjacente, a GPU, é como uma célula. Se o poder de computação de uma única célula (GPU) é forte, então o poder de computação geral (célula única × quantidade) também pode ser muito forte.

Paralelismo multicartão: O treinamento de um modelo grande geralmente envolve centenas de bilhões de gigabytes. Para centros de supercomputação que treinam grandes modelos, pelo menos dezenas de milhares de GPUs A100 são necessárias. Isso exige a mobilização de milhares de cartões para treinamento. No entanto, treinar um modelo grande não é um processo serial simples; ele não treina apenas na primeira placa A100 e depois passa para a segunda. Em vez disso, diferentes partes do modelo são treinadas em diferentes GPUs simultaneamente, e o treinamento da parte A pode exigir resultados da parte B, envolvendo processamento paralelo.

O domínio da NVIDIA e o aumento do valor de mercado, enquanto a AMD e empresas nacionais como Huawei e Horizon têm dificuldade em recuperar o atraso, decorrem de dois aspectos: o ambiente de software CUDA e a comunicação multiplaca NVLink.

CUDA Software Environment: Se há um ecossistema de software para corresponder ao hardware é crucial, como o sistema CUDA da NVIDIA. Construir um novo sistema é um desafio, semelhante à criação de uma nova linguagem com altos custos de substituição.

NVLink Multi-card Communication: Essencialmente, a comunicação multi-card envolve a entrada e saída de informações. Como paralelizar e transmitir é crucial. A presença da NVLink significa que as placas NVIDIA e AMD não podem se comunicar; Além disso, o NVLink limita a distância física entre as GPUs, exigindo que elas estejam no mesmo centro de supercomputação. Isso dificulta que o poder de computação descentralizado espalhado pelo mundo forme um cluster de computação coeso para treinamento de modelos grandes.

O primeiro ponto explica por que a AMD e empresas nacionais como Huawei e Horizon lutam para recuperar o atraso, o segundo ponto explica por que o treinamento descentralizado é difícil de alcançar.

3) Qual será o final do jogo para o poder de computação descentralizado? O poder de computação descentralizado atualmente luta com o treinamento de modelos grandes porque a estabilidade é primordial. As interrupções exigem reciclagem, resultando em altos custos afundados. Os altos requisitos para paralelismo de várias placas são limitados por restrições de largura de banda física. O NVLink da NVIDIA alcança a comunicação multi-cartão, mas dentro de um centro de supercomputação, o NVLink limita a distância física entre GPUs. Assim, o poder computacional disperso não pode formar um cluster de computação para treinamento de modelos grandes.

No entanto, para demandas com requisitos de poder computacional relativamente mais baixos, como inferência de IA ou certos cenários específicos envolvendo treinamento de modelos de médio a pequeno porte, redes de poder de computação descentralizadas com alguns provedores de serviços de nó relativamente grandes têm potencial. Além disso, cenários como computação de borda para renderização são relativamente mais fáceis de implementar.

4) Qual será o desfecho para modelos de algoritmos descentralizados? O futuro dos modelos de algoritmos descentralizados depende da direção final da IA. Acredito que o futuro da IA pode apresentar 1-2 gigantes de modelos de código fechado (como o ChatGPT) ao lado de uma infinidade de modelos. Nesse contexto, os produtos da camada de aplicativo não precisam se vincular a um único modelo grande, mas cooperar com vários modelos grandes. Neste cenário, o modelo de Bittensor mostra potencial significativo.

Em projetos atuais combinando Web3 e IA, particularmente aqueles em que a IA auxilia iniciativas Web3, a maioria dos projetos simplesmente usa IA superficialmente sem demonstrar uma integração profunda entre IA e criptomoedas. Essa aplicação superficial é evidente nos dois aspectos a seguir:

  • Primeiro, seja usando IA para análise e previsão de dados, em cenários de recomendação e pesquisa, ou para auditoria de código, há pouca diferença em comparação com a integração de IA em projetos Web2. Esses projetos simplesmente aproveitam a IA para melhorar a eficiência e a análise sem apresentar uma fusão nativa de IA e criptomoedas ou apresentar soluções inovadoras.
  • Em segundo lugar, muitas equipes da Web3 incorporam a IA mais como um truque de marketing, puramente capitalizando o conceito de IA. Eles aplicam a tecnologia de IA em áreas muito limitadas e, em seguida, começam a promover a tendência da IA, criando uma fachada de estreita integração com a IA. No entanto, estes projectos carecem de inovações substanciais.

Embora os projetos atuais de Web3 e IA tenham essas limitações, devemos reconhecer que este é apenas o estágio inicial de desenvolvimento. No futuro, podemos esperar pesquisas e inovações mais aprofundadas para alcançar uma integração mais estreita entre IA e criptomoedas, criando soluções mais nativas e significativas em áreas como finanças, organizações autônomas descentralizadas (DAOs), mercados de previsão e NFTs.

4.3 Token Economics serve como um buffer para narrativas de projetos de IA

Como mencionado inicialmente, os projetos de IA enfrentam desafios em seus modelos de negócios, especialmente à medida que mais e mais modelos grandes estão gradualmente se tornando de código aberto. Muitos projetos de IA + Web3, muitas vezes projetos de IA pura lutando para prosperar e proteger financiamento no espaço Web2, optam por sobrepor narrativas e economia de tokens da Web3 para incentivar a participação do usuário.

No entanto, a questão crucial é se a integração da economia de tokens realmente ajuda os projetos de IA a atender às necessidades do mundo real ou se simplesmente serve como uma narrativa ou proposta de valor de curto prazo. Atualmente, a maioria dos projetos de IA + Web3 está longe de atingir um estágio prático. Espera-se que equipes mais fundamentadas e atenciosas não apenas usem tokens como um meio de promover projetos de IA, mas também cumpram genuinamente casos de uso práticos.

Resumo

Atualmente, inúmeros casos e aplicações têm surgido em projetos de IA + Web3. Em primeiro lugar, a tecnologia de IA pode fornecer casos de uso mais eficientes e inteligentes para a Web3. Através dos recursos de IA em análise e previsão de dados, os usuários na Web3 podem ter melhores ferramentas para decisões de investimento e outros cenários. Além disso, a IA pode auditar o código do contrato inteligente, otimizar a execução do contrato e melhorar o desempenho e a eficiência do blockchain. Além disso, a tecnologia de IA pode oferecer recomendações mais precisas e inteligentes e serviços personalizados para aplicativos descentralizados, melhorando assim a experiência do usuário.

Ao mesmo tempo, a natureza descentralizada e programável da Web3 também apresenta novas oportunidades para a tecnologia de IA. Por meio de incentivos simbólicos, projetos de poder de computação descentralizados fornecem novas soluções para o dilema do poder de computação de IA insuficiente. Os mecanismos de armazenamento contratos inteligentes e distribuído da Web3 também oferecem um espaço e recursos mais amplos para compartilhamento e treinamento de algoritmos de IA. Os mecanismos de autonomia e confiança do usuário da Web3 também trazem novas possibilidades para o desenvolvimento de IA, permitindo que os usuários escolham de forma autônoma participar do compartilhamento de dados e treinamento, aumentando assim a diversidade e a qualidade dos dados e melhorando ainda mais o desempenho e a precisão dos modelos de IA.

Embora os projetos atuais de cross-over IA + Web3 ainda estejam em seus estágios iniciais e enfrentem muitos desafios, eles também trazem muitas vantagens. Por exemplo, os produtos de poder de computação descentralizados têm algumas desvantagens, mas reduzem a dependência de instituições centralizadas, fornecem maior transparência e auditabilidade e permitem uma participação e inovação mais amplas. Para casos de uso específicos e necessidades do usuário, os produtos de poder de computação descentralizados podem ser uma escolha valiosa. O mesmo se aplica à coleta de dados; Projetos de coleta de dados descentralizados oferecem vantagens como reduzir a dependência de fontes de dados únicas, fornecer cobertura de dados mais ampla e promover a diversidade e a inclusão de dados. Na prática, é necessário equilibrar essas vantagens e desvantagens e tomar medidas gerenciais e técnicas adequadas para superar desafios, garantindo que projetos de coleta de dados descentralizados tenham um impacto positivo no desenvolvimento de IA.

No geral, a integração da IA + Web3 oferece infinitas possibilidades para a inovação tecnológica futura e o desenvolvimento econômico. Ao combinar as capacidades inteligentes de análise e tomada de decisão da IA com a natureza descentralizada e autônoma do usuário da Web3, acredita-se que podemos construir um sistema econômico e até social mais inteligente, aberto e justo.

Isenção de responsabilidade:

  1. Este artigo foi reimpresso de [Ryze Labs]. Todos os direitos autorais pertencem ao autor original [Fred]. Se houver objeções a essa reimpressão, entre em contato com a equipe Gate Learn e eles lidarão com isso prontamente.
  2. Isenção de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe do Gate Learn. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Análise Profundidade: Que tipo de faíscas a IA e a Web3 podem criar?

AvançadoJun 07, 2024
Este artigo explora o rápido desenvolvimento das tecnologias de Inteligência Artificial (IA) e Web3 e o potencial valor e impacto de sua integração. A IA se destaca no aumento da produtividade, enquanto a Web3 transforma as relações de produção por meio da descentralização. A combinação dessas tecnologias traz aplicações inovadoras em análise de dados, serviços personalizados ao usuário e proteção de segurança e privacidade.
Análise Profundidade: Que tipo de faíscas a IA e a Web3 podem criar?

Introdução: Desenvolvimento de IA+Web3

Nos últimos anos, o rápido desenvolvimento das tecnologias de Inteligência Artificial (IA) e Web3 tem atraído ampla atenção global. A IA, uma tecnologia que simula e imita a inteligência humana, alcançou avanços significativos em campos como reconhecimento facial, processamento de linguagem natural e aprendizado de máquina. O rápido avanço da tecnologia de IA trouxe uma tremenda transformação e inovação em vários setores.

A indústria de IA atingiu um tamanho de mercado de US$ 200 bilhões em 2023, com gigantes do setor e jogadores proeminentes como OpenAI, Character.AI e Midjourney emergindo rapidamente e principal o boom da IA.

Simultaneamente, a Web3, um modelo emergente de internet, está gradualmente mudando nossa percepção e uso da internet. Com base na tecnologia blockchain descentralizada, a Web3 realiza compartilhamento e controle de dados, autonomia do usuário e o estabelecimento de mecanismos de confiança por meio de recursos como contratos inteligentes, armazenamento distribuído e verificação de identidade descentralizada. A ideia central do Web3 é liberar dados de autoridades centralizadas, concedendo aos usuários controle e a capacidade de compartilhar o valor de seus dados.

Atualmente, o valor de mercado da indústria Web3 atingiu US$ 25 trilhões. De Bitcoin, Ethereum e Solana a players de nível de aplicativo como Uniswap e Stepn, novas narrativas e cenários estão continuamente surgindo, atraindo cada vez mais pessoas para se juntar à indústria Web3.

É evidente que a integração da IA e da Web3 é um ponto focal para construtores e capitalistas de risco do Oriente e do Ocidente. Explorar como combinar efetivamente essas duas tecnologias é um esforço que vale muito a pena.

Este artigo se concentrará no estado atual do desenvolvimento de IA+Web3, explorando o valor potencial e o impacto de sua integração. Primeiro apresentaremos os conceitos básicos e as características da IA e da Web3, depois discutiremos sua inter-relação. Em seguida, analisaremos o estado atual dos projetos AI+Web3 e nos aprofundaremos nas limitações e desafios que eles enfrentam. Através desta pesquisa, pretendemos fornecer referências e insights valiosos para investidores e profissionais do setor.

Como a IA interage com a Web3

O desenvolvimento da IA e da Web3 pode ser visto como dois lados de uma escala: a IA traz melhorias de produtividade, enquanto a Web3 revoluciona as relações de produção. Então, que tipo de faíscas a IA e a Web3 podem criar quando colidem? Primeiro, analisaremos os desafios e possíveis melhorias nos setores de IA e Web3 e, em seguida, exploraremos como eles podem ajudar a resolver os problemas uns dos outros.

  1. Desafios e Melhorias Potenciais na Indústria de IA
  2. :
  3. Desafios e Melhorias Potenciais na Indústria Web3

2.1 Desafios na indústria de IA

Para explorar os desafios enfrentados pela indústria de IA, devemos primeiro entender sua essência. O núcleo da indústria de IA gira em torno de três elementos-chave: poder computacional, algoritmos e dados.

  1. Primeiro, poder computacional: Poder computacional refere-se à capacidade de realizar cálculos e processamento em larga escala. As tarefas de IA geralmente exigem o manuseio de grandes quantidades de dados e a realização de cálculos complexos, como o treinamento de modelos de redes neurais profundas. O alto poder computacional pode acelerar os processos de treinamento e inferência de modelos, melhorando o desempenho e a eficiência dos sistemas de IA. Nos últimos anos, os avanços na tecnologia de hardware, como unidades de processamento gráfico (GPUs) e chips de IA dedicados (como TPUs), aumentaram significativamente o poder computacional, impulsionando o desenvolvimento da indústria de IA. A Nvidia, uma grande fornecedora de GPUs, viu o preço de suas ações disparar nos últimos anos, capturando uma grande participação de mercado e obtendo lucros substanciais.
  2. O que é um algoritmo: Os algoritmos são os principais componentes dos sistemas de IA. São métodos matemáticos e estatísticos utilizados para resolver problemas e executar tarefas. Os algoritmos de IA podem ser categorizados em algoritmos tradicionais de aprendizado de máquina e algoritmos de aprendizado profundo, com algoritmos de aprendizado profundo tendo feito avanços significativos nos últimos anos. A escolha e o design de algoritmos são cruciais para o desempenho e a eficácia dos sistemas de IA. A melhoria contínua e a inovação em algoritmos podem aumentar a precisão, a robustez e os recursos de generalização dos sistemas de IA. Algoritmos diferentes produzem resultados diferentes, portanto, avanços nos algoritmos são essenciais para o desempenho da tarefa.
  3. Por que os dados são importantes: A principal tarefa dos sistemas de IA é extrair padrões e regras dos dados por meio de aprendizado e treinamento. Os dados formam a base para o treinamento e a otimização de modelos. Com amostras de dados em larga escala, os sistemas de IA podem aprender modelos mais precisos e inteligentes. Conjuntos de dados avançados fornecem informações abrangentes e diversificadas, permitindo que os modelos generalizem melhor para dados invisíveis e ajudando os sistemas de IA a entender e resolver melhor problemas do mundo real.

Depois de entender os três elementos centrais da IA atual, vamos examinar as dificuldades e os desafios que a IA enfrenta nessas áreas.

Primeiro, em termos de poder computacional, as tarefas de IA geralmente exigem uma grande quantidade de recursos computacionais para treinamento e inferência de modelos, especialmente para modelos de aprendizagem profunda. No entanto, obter e gerenciar poder computacional em larga escala é um desafio caro e complexo. O custo, o consumo de energia e a manutenção de equipamentos de computação de alto desempenho são questões significativas. Isso é particularmente desafiador para startups e desenvolvedores individuais, para os quais adquirir poder computacional suficiente pode ser difícil.

Em termos de algoritmos, apesar dos sucessos significativos dos algoritmos de aprendizagem profunda em muitos campos, ainda há desafios e dificuldades. Por exemplo, o treinamento de redes neurais profundas requer uma grande quantidade de dados e recursos computacionais. Além disso, para determinadas tarefas, a interpretabilidade e a explicabilidade dos modelos podem ser insuficientes. A robustez e os recursos de generalização dos algoritmos também são questões cruciais, já que o desempenho do modelo em dados não vistos pode ser instável. Encontrar o melhor algoritmo para fornecer o melhor desempenho entre muitos algoritmos é uma exploração contínua.

Em termos de dados, os dados são a força motriz por trás da IA, mas a obtenção de dados diversificados e de alta qualidade continua sendo um desafio. Dados em alguns campos, como dados sensíveis de saúde no setor médico, podem ser difíceis de obter. Além disso, a qualidade, a precisão e a rotulagem dos dados são questões críticas, pois dados incompletos ou tendenciosos podem levar a comportamentos errôneos ou vieses do modelo. Proteger a privacidade e a segurança dos dados também é uma consideração significativa.

Além disso, há questões relacionadas à interpretabilidade e transparência. A natureza de "caixa preta" dos modelos de IA é uma preocupação pública. Em certas aplicações, como finanças, saúde e justiça, o processo de tomada de decisão dos modelos precisa ser interpretável e rastreável. No entanto, os modelos de aprendizagem profunda existentes muitas vezes carecem de transparência. Explicar o processo de tomada de decisão dos modelos e fornecer explicações confiáveis continua sendo um desafio.

Além disso, os modelos de negócios de muitos projetos de startups de IA não são muito claros, o que também causa confusão para muitos empreendedores de IA.

2.2 Desafios na indústria Web3

Na indústria Web3, há inúmeros desafios que precisam ser abordados, abrangendo desde análise de dados e experiência do usuário até vulnerabilidades de contratos inteligentes e ataques de hackers. A IA, como ferramenta para aumentar a produtividade, tem um potencial significativo nessas áreas.

Em primeiro lugar, há espaço para melhorias na análise de dados e nos recursos preditivos. As aplicações de IA na análise e previsão de dados tiveram um impacto significativo na indústria Web3. Por meio de análise inteligente e mineração por algoritmos de IA, as plataformas Web3 podem extrair informações valiosas de grandes quantidades de dados e fazer previsões e decisões mais precisas. Isso é particularmente significativo para avaliação de risco, previsão de mercado e gestão de ativos em finanças descentralizadas (DeFi).

Além disso, há o potencial de melhorar a experiência do usuário e os serviços de personalização. Os aplicativos de IA permitem que as plataformas Web3 ofereçam melhores experiências ao usuário e serviços personalizados. Ao analisar e modelar dados do usuário, as plataformas Web3 podem fornecer recomendações personalizadas, serviços personalizados e experiências de interação inteligentes. Isso ajuda a aumentar o engajamento e a satisfação do usuário, fomentando o desenvolvimento do ecossistema Web3. Por exemplo, muitos protocolos Web3 integram ferramentas de IA como o ChatGPT para atender melhor os usuários.

Em termos de segurança e proteção de privacidade, os aplicativos de IA também têm um impacto profundo na indústria Web3. A tecnologia de IA pode ser usada para detectar e se defender contra ataques de rede, identificar comportamentos anormais e fornecer medidas de segurança mais fortes. Além disso, a IA pode ser aplicada à proteção da privacidade de dados, protegendo as informações pessoais dos usuários nas plataformas Web3 por meio de técnicas como criptografia de dados e computação de privacidade. Em relação à auditoria de contratos inteligentes, como vulnerabilidades e riscos de segurança podem existir nos processos de escrita e auditoria de contratos inteligentes, a tecnologia de IA pode ser usada para auditoria automatizada de contratos e detecção de vulnerabilidades, aumentando a segurança e a confiabilidade dos contratos.

É evidente que a IA pode contribuir significativamente para enfrentar os desafios e potenciais melhorias na indústria Web3 em vários aspectos.

Análise da situação atual do projeto AI+Web3

A combinação de projetos de IA e Web3 se concentra principalmente em dois aspectos principais: alavancar a tecnologia blockchain para aprimorar projetos de IA e utilizar a tecnologia de IA para servir à melhoria de projetos Web3. Inúmeros projetos surgiram ao longo desse caminho, incluindo Io.net, Gensyn, Ritual, entre outros. A análise a seguir se aprofundará em diferentes subdomínios onde a IA auxilia a Web3 e onde a Web3 aprimora a IA.

3.1 Web3 ajuda a AI

3.1.1 Poder de computação descentralizada

Desde o lançamento do ChatGPT pela OpenAI no final de 2022, acendeu um frenesi no campo da IA. Em cinco dias após seu lançamento, a base de usuários chegou a um milhão, superando a taxa de downloads do Instagram, que levou aproximadamente dois meses e meio para atingir a mesma marca. Posteriormente, o ChatGPT experimentou um rápido crescimento, com usuários ativos mensais atingindo 100 milhões em dois meses e usuários ativos semanais atingindo 100 milhões em novembro de 2023. Com o advento do ChatGPT, o setor de IA rapidamente fez a transição de um campo de nicho para uma indústria altamente conceituada.

De acordo com o relatório da Trendforce, o ChatGPT requer 30.000 GPUs NVIDIA A100 para operar, e futuros modelos como o GPT-5 exigirão ainda mais poder computacional. Isso provocou uma corrida armamentista entre várias empresas de IA, já que possuir poder computacional suficiente é crucial para manter uma vantagem competitiva na arena de IA, principal a uma escassez de GPUs.

Antes da Elevar da IA, o principal provedor de GPU, a NVIDIA, atendia principalmente clientes dos três principais serviços de nuvem: AWS, Azure e GCP. Com o Elevar da inteligência artificial, inúmeros novos compradores surgiram, incluindo grandes empresas de tecnologia como Meta, Oracle, bem como outras plataformas de dados e startups de IA, todos se juntando à corrida para estocar GPUs para treinar modelos de IA. Grandes empresas de tecnologia como Meta e Tesla aumentaram significativamente suas compras de modelos personalizados de IA e pesquisas internas. Empresas de modelos básicos como Anthropic e plataformas de dados como Snowflake e Databricks também compraram mais GPUs para ajudar seus clientes a fornecer serviços de IA.

Como mencionado pela Semi Analysis no ano passado, existe uma divisão entre empresas "ricas em GPU" e "pobres em GPU", com apenas algumas possuindo mais de 20.000 GPUs A100/H100, permitindo que os membros da equipe utilizem entre 100 e 1000 GPUs para projetos. Essas empresas são provedoras de nuvem ou construíram seus próprios modelos de linguagem de grande porte (LLMs), incluindo OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, entre outros.

No entanto, a maioria das empresas cair na categoria "pobre em GPU", lutando com significativamente menos GPUs e gastando uma quantidade considerável de tempo e esforço em tarefas que são mais difíceis de avançar no ecossistema. Além disso, essa situação não se limita às startups. Algumas das empresas de IA mais conhecidas, como Hugging Face, Databricks (MosaicML), Together e até mesmo Snowflake, têm quantidades de A100/H100 inferiores a 20.000. Apesar de terem talento técnico de classe mundial, essas empresas são limitadas pelo fornecimento limitado de GPUs, colocando-as em desvantagem em comparação com empresas maiores na competição de IA.

Essa escassez não se limita à categoria "pobre em GPU", mesmo até o final de 2023, o principal player de IA, OpenAI, teve que fechar temporariamente os registros pagos devido à incapacidade de obter GPUs suficientes e teve que adquirir mais suprimentos de GPU.

É evidente que o rápido desenvolvimento da IA levou a um sério descompasso entre a demanda e a oferta de GPUs, criando uma escassez iminente de oferta.

Para resolver esse problema, alguns projetos Web3 começaram a explorar soluções de poder de computação descentralizadas, aproveitando as características únicas da tecnologia Web3. Esses projetos incluem Akash, Render, Gensyn, entre outros. A característica comum entre esses projetos é o uso de tokens para incentivar os usuários a fornecer poder de computação de GPU ocioso, tornando-se assim o lado de fornecimento de poder de computação para apoiar clientes de IA.

O perfil do lado da oferta consiste principalmente em três aspectos: provedores de serviços em nuvem, mineradores de criptomoedas e empresas. Os provedores de serviços de nuvem incluem os principais provedores de serviços de nuvem (como AWS, Azure, GCP) e provedores de serviços de nuvem de GPU (como Coreweave, Lambda, Crusoé), onde os usuários podem revender o poder de computação ocioso desses provedores para gerar renda. Com Ethereum transição de PoW para PoS, o poder de computação ocioso da GPU se tornou um importante lado de fornecimento potencial para os mineradores de criptomoedas. Além disso, grandes empresas como Tesla e Meta, que compraram grandes quantidades de GPUs para fins estratégicos, também podem contribuir com seu poder de computação de GPU ociosa como parte do lado da oferta.

Atualmente, os jogadores neste campo geralmente podem ser divididos em duas categorias: aqueles que usam poder de computação descentralizado para inferência de IA e aqueles que o usam para treinamento de IA. A primeira categoria inclui projetos como Render (embora focado em renderização, também pode ser usado para computação de IA), Akash, Aethir, enquanto a segunda categoria inclui projetos como io.net (apoiando inferência e treinamento) e Gensyn. A principal diferença entre os dois está nos diferentes requisitos de poder de computação.

Vamos primeiro discutir os projetos com foco na inferência de IA. Esses projetos atraem usuários para fornecer poder de computação por meio de incentivos de token e, em seguida, fornecer serviços de rede de poder de computação para o lado da demanda, facilitando assim o Coincidindo da oferta e demanda de energia de computação ociosa. Detalhes sobre esses projetos são abordados em um relatório de pesquisa da DePIN de nossos Laboratórios Ryze, sinta-se à vontade para lê-los.

O ponto central está no mecanismo de incentivo simbólico, onde o projeto atrai primeiro fornecedores e depois usuários, alcançando assim o mecanismo de partida a frio e operação principal do projeto, permitindo maior expansão e desenvolvimento. Neste ciclo, o lado da oferta recebe recompensas de token mais valiosas, enquanto o lado da demanda desfruta de serviços mais econômicos. O valor dos tokens do projeto e o crescimento dos participantes de oferta e demanda permanecem consistentes. À medida que o preço do token aumenta, mais participantes e especuladores são atraídos, criando um ciclo de captura de valor.

Outra categoria envolve o uso de poder de computação descentralizado para treinamento de IA, como Gensyn e io.net (que apoiar treinamento e inferência de IA). Na verdade, a lógica operacional desses projetos não é fundamentalmente diferente dos projetos de inferência de IA. Eles ainda dependem de incentivos simbólicos para atrair a participação do lado da oferta para fornecer poder de computação, que é então utilizado pelo lado da demanda.

io.net, como uma rede de poder de computação descentralizada, atualmente possui mais de 500.000 GPUs, tornando-se um desempenho de destaque nos projetos de poder de computação descentralizada. Além disso, possui poder computacional integrado de Render e Filecoin, demonstrando o desenvolvimento contínuo de seu ecossistema.

Além disso, o Gensyn facilita a alocação de tarefas de aprendizado de máquina e recompensas por meio de contratos inteligentes para permitir o treinamento de IA. Conforme ilustrado no diagrama abaixo, o custo por hora do trabalho de treinamento de aprendizado de máquina no Gensyn é de aproximadamente US$ 0,4, o que é significativamente menor do que o custo de mais de US$ 2 na AWS e no GCP.

O ecossistema Gensyn envolve quatro entidades participantes:

  • Enviadores: são os usuários do lado da demanda que consomem tarefas e pagam por tarefas de treinamento de IA.
  • Executores: Os executores realizam as tarefas de treinamento do modelo e fornecem provas de conclusão da tarefa para verificação.
  • Verificadores: Os verificadores conectam o processo de treinamento não-determinístico com a computação linear determinística. Eles comparam as provas fornecidas pelos executores com os limites esperados.
  • Repórteres: Os repórteres inspecionam o trabalho dos verificadores e levantam desafios para ganhar recompensas ao identificar problemas.

Como podemos ver, o Gensyn pretende se tornar um protocolo de computação massivamente escalável e econômico para modelos globais de aprendizagem profunda. No entanto, olhando para esse campo, por que a maioria dos projetos escolhe o poder de computação descentralizado para inferência de IA em vez de treinamento?

Vamos também ajudar os amigos que não estão familiarizados com o treinamento e a inferência de IA a entender a diferença entre os dois:

  • Treinamento de IA: Se compararmos a inteligência artificial a um aluno, o treinamento é semelhante a fornecer à IA uma grande quantidade de conhecimento e exemplos, que podem ser entendidos como dados. A IA aprende com esses exemplos. Como o aprendizado envolve a compreensão e a memorização de uma grande quantidade de informações, esse processo requer uma quantidade significativa de poder computacional e tempo.
  • AI Inference: Então, o que é a inferência? Pode ser entendido como usar o conhecimento aprendido para resolver problemas ou fazer provas. Durante a inferência, a inteligência artificial usa o conhecimento aprendido para fornecer respostas, em vez de adquirir novos conhecimentos. Portanto, os requisitos computacionais para o processo de inferência são relativamente pequenos.

Pode-se ver que os requisitos de poder computacional para inferência de IA e treinamento de IA diferem significativamente. A disponibilidade de poder de computação descentralizada para inferência de IA e treinamento de IA será analisada mais detalhadamente na próxima seção de desafios.

Além disso, a Ritual visa combinar redes distribuídas com criadores de modelos para manter a descentralização e a segurança. Seu primeiro produto, o Infernet, permite que contratos inteligentes no blockchain acessem modelos de IA fora da cadeia, permitindo que esses contratos acessem a IA de uma forma que mantenha a verificação, a descentralização e a proteção da privacidade.

O coordenador da Infernet é responsável por gerenciar o comportamento dos nós na rede e responder às solicitações computacionais dos consumidores. Quando os usuários usam o Infernet, tarefas como inferência e prova são realizadas fora da cadeia, com a saída devolvida ao coordenador e, finalmente, transmitida aos consumidores na rede via contratos inteligentes.

Além das redes de poder computacional descentralizadas, existem também redes descentralizadas de largura de banda como a Grass, que visam melhorar a velocidade e a eficiência da transmissão de dados. No geral, o surgimento de redes de poder de computação descentralizadas fornece uma nova possibilidade para o lado da oferta de poder de computação de IA, impulsionando a IA em novas direções.

3.1.2 Modelo de algoritmo descentralizado

Assim como mencionado no segundo capítulo, os três elementos centrais da IA são poder computacional, algoritmos e dados. Uma vez que o poder computacional pode formar uma rede de suprimento através da descentralização, os algoritmos também podem seguir uma abordagem semelhante e formar uma rede de suprimento para modelos de algoritmos?

Antes de analisar projetos nesse campo, vamos primeiro entender a importância dos modelos de algoritmos descentralizados. Muitas pessoas podem se perguntar, já que já temos OpenAI, por que precisamos de uma rede de algoritmos descentralizada?

Essencialmente, uma rede de algoritmos descentralizada é um mercado de serviços de algoritmo de IA descentralizado que conecta muitos modelos diferentes de IA. Cada modelo de IA tem sua própria experiência e habilidades. Quando os usuários fazem perguntas, o mercado seleciona o modelo de IA mais adequado para responder à pergunta. O Chat-GPT, desenvolvido pela OpenAI, é um desses modelos de IA que pode entender e gerar texto semelhante aos humanos.

Em termos simples, o ChatGPT é como um aluno altamente capaz de ajudar a resolver diferentes tipos de problemas, enquanto uma rede de algoritmos descentralizada é como uma escola com muitos alunos ajudando a resolver problemas. Embora o aluno atual (ChatGPT) seja altamente capaz, a longo prazo, há um grande potencial para uma escola que possa recrutar alunos de todo o mundo.

Atualmente, no campo dos modelos de algoritmos descentralizados, existem também alguns projetos que estão experimentando e explorando. Em seguida, usaremos o projeto representativo Bittensor como um estudo de caso para ajudar a entender o desenvolvimento deste nicho de campo.

No Bittensor, o lado da oferta de modelos de algoritmos (ou mineradores) contribui com seus modelos de aprendizado de máquina para a rede. Esses modelos podem analisar dados e fornecer insights. Os provedores de modelos recebem tokens de criptomoedas, conhecidos como TAO, como recompensa por suas contribuições.

Para garantir a qualidade das respostas, o Bittensor usa um mecanismo de consenso exclusivo para chegar a um consenso sobre a melhor resposta. Quando uma pergunta é feita, vários mineradores de modelo fornecem respostas. Em seguida, validadores na rede começam a trabalhar para determinar a melhor resposta, que é então enviada de volta ao usuário.

O token TAO no ecossistema Bittensor desempenha dois papéis principais durante todo o processo. Por um lado, serve como um incentivo para que os mineradores contribuam com modelos de algoritmos para a rede. Por outro lado, os usuários precisam gastar tokens para fazer perguntas e fazer com que a rede conclua tarefas.

Como o Bittensor é descentralizado, qualquer pessoa com acesso à internet pode entrar na rede, seja como um usuário fazendo perguntas ou como um minerador fornecendo respostas. Isso permite que mais pessoas aproveitem o poder da inteligência artificial.

Em resumo, redes de modelos de algoritmos descentralizados como o Bittensor têm o potencial de criar um cenário mais aberto e transparente. Nesse ecossistema, os modelos de IA podem ser treinados, compartilhados e utilizados de forma segura e descentralizada. Além disso, outras redes como a BasedAI estão tentando esforços semelhantes, com o aspecto intrigante de usar Zero-Knowledge Proofs (ZK) para proteger a privacidade de dados interativos do modelo do usuário, que será discutido mais adiante na quarta subseção.

À medida que as plataformas de modelos de algoritmos descentralizados evoluem, elas permitirão que pequenas empresas compitam com grandes organizações no uso de ferramentas de IA de ponta, potencialmente tendo impactos significativos em vários setores.

3.1.3 Coleta descentralizada de dados

Para o treinamento de modelos de IA, um grande suprimento de dados é indispensável. No entanto, a maioria das empresas Web2 atualmente ainda monopoliza os dados dos usuários. Plataformas como X, Reddit, TikTok, Snapchat, Instagram e YouTube proíbem a coleta de dados para treinamento de IA, o que representa um obstáculo significativo para o desenvolvimento da indústria de IA.

Por outro lado, algumas plataformas Web2 vendem dados de usuários para empresas de IA sem compartilhar quaisquer lucros com os usuários. Por exemplo, o Reddit chegou a um acordo de US$ 60 milhões com o Google, permitindo que o Google treinasse modelos de IA usando suas postagens. Isso resulta em direitos de coleta de dados sendo monopolizados por grandes empresas de capital e big data, empurrando a indústria para uma direção intensiva em capital.

Em resposta a essa situação, alguns projetos estão aproveitando a Web3 e os incentivos de token para alcançar a coleta de dados descentralizada. Veja o PublicAI como exemplo: os usuários podem participar de duas funções:

  • Uma categoria são os provedores de dados de IA. Os usuários podem encontrar conteúdo valioso no X, marcar @PublicAI conta oficial com seus insights e usar hashtags #AI ou #Web3 para categorizar o conteúdo, enviando-o para o data center da PublicAI para coleta.
  • A outra categoria é a validadores de dados. Os usuários podem fazer login no data center da PublicAI e votar nos dados mais valiosos para o treinamento de IA.

Como recompensa, os usuários podem ganhar tokens por meio dessas contribuições, promovendo uma relação ganha-ganha entre os contribuidores de dados e a indústria de IA.

Além de projetos como o PublicAI, que coleta dados especificamente para treinamento de IA, há muitos outros projetos usando incentivos de token para coleta de dados descentralizada. Por exemplo, a Ocean coleta dados do usuário por meio de tokenização de dados para servir IA, a Hivemapper usa as câmeras do carro dos usuários para coletar dados do mapa, a Dimo coleta dados do carro e a WiHi coleta dados meteorológicos. Esses projetos, por meio da coleta descentralizada de dados, também servem como fontes de dados potenciais para treinamento em IA. Assim, em um sentido amplo, eles podem ser incluídos no paradigma da Web3 auxiliando a IA.

3.1.4 ZK protege a privacidade do usuário na IA

Blockchain tecnologia oferece benefícios de descentralização e também introduz uma característica crucial: provas de conhecimento zero. A tecnologia de conhecimento zero permite a verificação de informações, mantendo a privacidade.

No aprendizado de máquina tradicional, os dados normalmente precisam ser armazenados e processados centralmente, o que pode levar a riscos de privacidade. Métodos para proteger a privacidade de dados, como criptografia ou anonimização de dados, podem limitar a precisão e o desempenho de modelos de aprendizado de máquina.

A tecnologia à prova de conhecimento zero ajuda a resolver esse dilema, abordando o conflito entre proteção de privacidade e compartilhamento de dados. O Zero-Knowledge Machine Learning (ZKML) usa a tecnologia de prova de conhecimento zero para permitir o treinamento e a inferência do modelo de aprendizado de máquina sem expor os dados originais. Provas de conhecimento zero garantem que os recursos dos dados e os resultados do modelo possam ser verificados como corretos sem revelar o conteúdo real dos dados.

O principal objetivo da ZKML é equilibrar a proteção da privacidade e o compartilhamento de dados. Ele pode ser aplicado em vários cenários, como análise de dados de saúde, análise de dados financeiros e colaboração entre organizações. Ao usar o ZKML, os indivíduos podem proteger a privacidade de seus dados confidenciais enquanto compartilham dados com outras pessoas para obter insights mais amplos e oportunidades de colaboração sem o risco de violações de privacidade de dados. Este campo ainda está em seus estágios iniciais, com a maioria dos projetos ainda em exploração. Por exemplo, a BasedAI propõe uma abordagem descentralizada integrando perfeitamente o Fully Encriptação homomórfica (FHE) com Large Language Models (LLMs) para manter a confidencialidade dos dados. Os Modelos de Linguagem Grande de Conhecimento Zero (ZK-LLMs) incorporam privacidade em sua infraestrutura de rede distribuída, garantindo que os dados do usuário permaneçam confidenciais durante toda a operação da rede.

Aqui está uma breve explicação de Fully Encriptação homomórfica (FHE). FHE é uma técnica criptografia que permite que cálculos sejam realizados em dados criptografados sem a necessidade de descriptografá-los. Isso significa que várias operações matemáticas (como adição, multiplicação, etc.) realizadas em dados criptografados FHE produzem os mesmos resultados como se fossem executadas nos dados não criptografados originais, protegendo assim a privacidade dos dados do usuário.

Além dos métodos mencionados, o Web3 também suporta IA por meio de projetos como o Cortex, que permite na rede execução de programas de IA. A execução de programas de aprendizado de máquina em blockchains tradicionais enfrenta um desafio, pois as máquinas virtuais são altamente ineficientes na execução de quaisquer modelos de aprendizado de máquina não triviais. A maioria acredita que executar IA no blockchain é impossível. No entanto, o Cortex Máquina virtual (CVM) utiliza GPUs para executar programas de IA na rede e é compatível com o Máquina Virtual Ethereum (EVM). Em outras palavras, a cadeia Cortex pode executar todos os DApps Ethereum e integrar o aprendizado de máquina de IA nesses DApps. Isso permite que os modelos de aprendizado de máquina sejam executados de forma descentralizada, imutável e transparente, com o consenso da rede verificando cada etapa da inferência de IA.

3.2 AI Helps Web3

Na colisão entre IA e Web3, além da assistência da Web3 à IA, a assistência da IA à indústria Web3 também merece atenção. A principal contribuição da inteligência artificial é a melhoria da produtividade, por isso há muitas tentativas em contratos inteligentes de auditoria de IA, análise e previsão de dados, serviços personalizados, segurança e proteção de privacidade, etc.

3.2.1 Análise e Previsão de Dados

Muitos projetos Web3 estão integrando serviços de IA existentes (como o ChatGPT) ou desenvolvendo seus próprios para fornecer serviços de análise e previsão de dados para usuários Web3. Esses serviços cobrem uma ampla gama, incluindo algoritmos de IA para estratégias de investimento, ferramentas de análise de na rede e previsões de preços e mercado.

Por exemplo, a Pond usa algoritmos de gráficos de IA para prever tokens alfa futuros valiosos, oferecendo serviços de consultoria de investimento para usuários e instituições. A BullBear AI treina dados históricos do usuário, histórico de preços e tendências de mercado para fornecer informações precisas que apoiam as previsões de tendências de preços, ajudando os usuários a obter lucros.

Plataformas como a Numerai organizam competições de investimento onde os participantes usam IA e grandes modelos de linguagem para prever os mercados de ações. Eles treinam modelos em dados de alta qualidade fornecidos pela plataforma e enviam previsões diárias. A Numerai avalia essas previsões ao longo do mês seguinte, e os participantes podem staking NMR tokens em seus modelos para ganhar recompensas com base no desempenho.

A Arkham, uma plataforma de análise de dados blockchain, também integra IA em seus serviços. A Arkham vincula endereços de blockchain a entidades como exchanges, fundos e baleias, exibindo dados e análises importantes para dar aos usuários uma vantagem na tomada de decisões. O Arkham Ultra combina endereços com entidades do mundo real usando algoritmos desenvolvidos ao longo de três anos com apoiar dos fundadores da Palantir e da OpenAI.

3.2.2 Serviços Personalizados

Aplicações de IA em busca e recomendação são predominantes em projetos Web2, atendendo às necessidades personalizadas dos usuários. Os projetos Web3 também integram IA para melhorar a experiência do usuário.

Por exemplo, a conhecida plataforma de análise de dados Dune introduziu recentemente a ferramenta Wand, que usa grandes modelos de linguagem para escrever consultas SQL. Com o Wand Create, os usuários podem gerar consultas SQL a partir de perguntas de linguagem natural, facilitando a pesquisa de dados para aqueles que não estão familiarizados com SQL.

Plataformas de conteúdo como o Followin integram o ChatGPT para resumir pontos de vista e atualizações em setores específicos. A enciclopédia Web3 IQ.wiki pretende ser a fonte primária de conhecimento objetivo e de alta qualidade sobre a tecnologia blockchain e criptomoedas. Ele integra o GPT-4 para resumir artigos wiki, tornando as informações de blockchain mais acessíveis em todo o mundo. O motor de busca baseado em LLM Kaito visa revolucionar a recuperação de informações Web3.

No domínio criativo, projetos como o NFPrompt reduzem o custo de criação de conteúdo. O NFPrompt permite que os usuários gerem NFTs mais facilmente com IA, fornecendo vários serviços criativos personalizados.

3.2.3 Auditoria de IA em contratos inteligentes

Auditar contratos inteligentes é uma tarefa crucial na Web3, e a IA pode melhorar a eficiência e a precisão na identificação de vulnerabilidades de código.

Vitalik Buterin observou que um dos maiores desafios no espaço das criptomoedas são os erros em nosso código. A IA tem a promessa de simplificar significativamente o uso de ferramentas de verificação formal para provar a correção do código. Conseguir isso poderia levar a um SEK EVM (Máquina Virtual Ethereum) quase livre de erros, aumentando a segurança do espaço à medida que menos erros aumentam a segurança geral.

Por exemplo, o projeto 0x0.ai oferece um auditor de contrato inteligente alimentado por IA. Essa ferramenta usa algoritmos avançados para analisar contratos inteligentes e identificar possíveis vulnerabilidades ou problemas que possam levar a fraudes ou outros riscos de segurança. Os auditores usam aprendizado de máquina para detectar padrões e anomalias no código, sinalizando possíveis problemas para revisão posterior.

Há outros casos nativos em que a IA auxilia a Web3. PAAL ajuda os usuários a criar bots de IA personalizados que podem ser implantados no Telegram e no Discord para atender aos usuários da Web3. O agregador de DEX multi-chain orientado por IA Hera usa IA para fornecer os melhores caminhos de negociação entre quaisquer pares de tokens em vários tokens. No geral, a contribuição da IA para a Web3 está principalmente no nível da ferramenta, aprimorando vários processos e funcionalidades.

Limitations And Current Challenges Of The AI + Web3 Project

4.1 Obstáculos realistas em Poder de computação descentralizadas

Atualmente, muitos projetos Web3 que auxiliam a IA estão se concentrando no poder de computação descentralizado. Usar incentivos de token para promover usuários globais a se tornarem parte do lado da fonte de alimentação de computação é uma inovação muito interessante. No entanto, por outro lado, existem algumas questões realistas que precisam ser abordadas:

Em comparação com provedores de serviços de poder de computação centralizados, os produtos de poder de computação descentralizados normalmente dependem de nós e participantes distribuídos globalmente para fornecer recursos de computação. Devido à possível latência e instabilidade nas conexões de rede entre esses nós, o desempenho e a estabilidade podem ser piores do que os produtos de poder de computação centralizados.

Além disso, a disponibilidade de produtos de poder computacional descentralizados é afetada pelo Coincidindo grau entre oferta e demanda. Se não houver fornecedores suficientes ou se a demanda for muito alta, isso pode levar a uma escassez de recursos ou a uma incapacidade de atender às necessidades dos usuários.

Finalmente, em comparação com os produtos de poder de computação centralizados, os produtos de poder de computação descentralizados geralmente envolvem mais detalhes técnicos e complexidade. Os usuários podem precisar entender e lidar com aspectos de redes distribuídas, contratos inteligentes e pagamentos com criptomoedas, o que aumenta o custo de compreensão e uso do usuário.

Após discussões aprofundadas com várias equipes de projeto de poder de computação descentralizada, descobriu-se que o poder de computação descentralizado atual ainda é principalmente limitado à inferência de IA em vez de treinamento de IA.

Em seguida, usarei quatro perguntas para ajudar todos a entender as razões por trás disso:

  1. Por que a maioria dos projetos de poder de computação descentralizados opta por fazer inferência de IA em vez de treinamento de IA?

  2. O que torna a NVIDIA tão poderosa? Quais são as razões pelas quais o treinamento de poder de computação descentralizada é difícil?

  3. Qual será o final do jogo para o poder de computação descentralizado (Render, Akash, io.net, etc.)?

  4. Qual será o final do jogo para algoritmos descentralizados (Bittensor)?

Vamos nos aprofundar nos detalhes passo a passo:

1) Observando esse campo, a maioria dos projetos de poder de computação descentralizados opta por se concentrar na inferência de IA em vez de treinamento, principalmente devido aos diferentes requisitos de poder de computação e largura de banda.

Para ajudar todos a entender melhor, vamos comparar a IA com um aluno:

  • Treinamento de IA: Se compararmos a inteligência artificial com um aluno, o treinamento é semelhante a fornecer à IA uma grande quantidade de conhecimento e exemplos, semelhante ao que muitas vezes chamamos de dados. A IA aprende com esses exemplos. Como o aprendizado envolve a compreensão e a memorização de grandes quantidades de informações, esse processo requer poder computacional e tempo substanciais.

  • Inferência de IA: A inferência pode ser entendida como o uso do conhecimento adquirido para resolver problemas ou fazer exames. Durante a inferência, a IA utiliza o conhecimento aprendido para responder a perguntas em vez de adquirir novas informações, portanto, os requisitos computacionais são relativamente menores.

É fácil ver que a diferença fundamental na dificuldade está no fato de que o treinamento de IA de modelos grandes requer enormes volumes de dados e largura de banda extremamente alta para transmissão de dados, tornando-o muito desafiador de alcançar com poder de computação descentralizado. Em contraste, a inferência requer muito menos dados e largura de banda, tornando-a mais viável.

Para modelos grandes, a estabilidade é crucial. Se o treinamento for interrompido, ele deve ser reiniciado, resultando em altos custos afundados. Por outro lado, demandas com requisitos de poder computacional relativamente mais baixos, como inferência de IA ou certos cenários específicos envolvendo treinamento de modelos de médio a pequeno porte, podem ser alcançadas. Em redes de poder de computação descentralizadas, alguns provedores de serviços de nó relativamente grandes podem atender a essas demandas de poder de computação relativamente mais altas.

2) Então, onde estão os gargalos em dados e largura de banda? Por que o treinamento descentralizado é difícil de alcançar?

Isso envolve dois elementos-chave do treinamento de grandes modelos: poder de computação de placa única e paralelismo de várias cartas.

Poder de computação de placa única: Atualmente, todos os centros que exigem treinamento de modelo grande, conhecidos como centros de supercomputação, podem ser comparados ao corpo humano, onde a unidade subjacente, a GPU, é como uma célula. Se o poder de computação de uma única célula (GPU) é forte, então o poder de computação geral (célula única × quantidade) também pode ser muito forte.

Paralelismo multicartão: O treinamento de um modelo grande geralmente envolve centenas de bilhões de gigabytes. Para centros de supercomputação que treinam grandes modelos, pelo menos dezenas de milhares de GPUs A100 são necessárias. Isso exige a mobilização de milhares de cartões para treinamento. No entanto, treinar um modelo grande não é um processo serial simples; ele não treina apenas na primeira placa A100 e depois passa para a segunda. Em vez disso, diferentes partes do modelo são treinadas em diferentes GPUs simultaneamente, e o treinamento da parte A pode exigir resultados da parte B, envolvendo processamento paralelo.

O domínio da NVIDIA e o aumento do valor de mercado, enquanto a AMD e empresas nacionais como Huawei e Horizon têm dificuldade em recuperar o atraso, decorrem de dois aspectos: o ambiente de software CUDA e a comunicação multiplaca NVLink.

CUDA Software Environment: Se há um ecossistema de software para corresponder ao hardware é crucial, como o sistema CUDA da NVIDIA. Construir um novo sistema é um desafio, semelhante à criação de uma nova linguagem com altos custos de substituição.

NVLink Multi-card Communication: Essencialmente, a comunicação multi-card envolve a entrada e saída de informações. Como paralelizar e transmitir é crucial. A presença da NVLink significa que as placas NVIDIA e AMD não podem se comunicar; Além disso, o NVLink limita a distância física entre as GPUs, exigindo que elas estejam no mesmo centro de supercomputação. Isso dificulta que o poder de computação descentralizado espalhado pelo mundo forme um cluster de computação coeso para treinamento de modelos grandes.

O primeiro ponto explica por que a AMD e empresas nacionais como Huawei e Horizon lutam para recuperar o atraso, o segundo ponto explica por que o treinamento descentralizado é difícil de alcançar.

3) Qual será o final do jogo para o poder de computação descentralizado? O poder de computação descentralizado atualmente luta com o treinamento de modelos grandes porque a estabilidade é primordial. As interrupções exigem reciclagem, resultando em altos custos afundados. Os altos requisitos para paralelismo de várias placas são limitados por restrições de largura de banda física. O NVLink da NVIDIA alcança a comunicação multi-cartão, mas dentro de um centro de supercomputação, o NVLink limita a distância física entre GPUs. Assim, o poder computacional disperso não pode formar um cluster de computação para treinamento de modelos grandes.

No entanto, para demandas com requisitos de poder computacional relativamente mais baixos, como inferência de IA ou certos cenários específicos envolvendo treinamento de modelos de médio a pequeno porte, redes de poder de computação descentralizadas com alguns provedores de serviços de nó relativamente grandes têm potencial. Além disso, cenários como computação de borda para renderização são relativamente mais fáceis de implementar.

4) Qual será o desfecho para modelos de algoritmos descentralizados? O futuro dos modelos de algoritmos descentralizados depende da direção final da IA. Acredito que o futuro da IA pode apresentar 1-2 gigantes de modelos de código fechado (como o ChatGPT) ao lado de uma infinidade de modelos. Nesse contexto, os produtos da camada de aplicativo não precisam se vincular a um único modelo grande, mas cooperar com vários modelos grandes. Neste cenário, o modelo de Bittensor mostra potencial significativo.

Em projetos atuais combinando Web3 e IA, particularmente aqueles em que a IA auxilia iniciativas Web3, a maioria dos projetos simplesmente usa IA superficialmente sem demonstrar uma integração profunda entre IA e criptomoedas. Essa aplicação superficial é evidente nos dois aspectos a seguir:

  • Primeiro, seja usando IA para análise e previsão de dados, em cenários de recomendação e pesquisa, ou para auditoria de código, há pouca diferença em comparação com a integração de IA em projetos Web2. Esses projetos simplesmente aproveitam a IA para melhorar a eficiência e a análise sem apresentar uma fusão nativa de IA e criptomoedas ou apresentar soluções inovadoras.
  • Em segundo lugar, muitas equipes da Web3 incorporam a IA mais como um truque de marketing, puramente capitalizando o conceito de IA. Eles aplicam a tecnologia de IA em áreas muito limitadas e, em seguida, começam a promover a tendência da IA, criando uma fachada de estreita integração com a IA. No entanto, estes projectos carecem de inovações substanciais.

Embora os projetos atuais de Web3 e IA tenham essas limitações, devemos reconhecer que este é apenas o estágio inicial de desenvolvimento. No futuro, podemos esperar pesquisas e inovações mais aprofundadas para alcançar uma integração mais estreita entre IA e criptomoedas, criando soluções mais nativas e significativas em áreas como finanças, organizações autônomas descentralizadas (DAOs), mercados de previsão e NFTs.

4.3 Token Economics serve como um buffer para narrativas de projetos de IA

Como mencionado inicialmente, os projetos de IA enfrentam desafios em seus modelos de negócios, especialmente à medida que mais e mais modelos grandes estão gradualmente se tornando de código aberto. Muitos projetos de IA + Web3, muitas vezes projetos de IA pura lutando para prosperar e proteger financiamento no espaço Web2, optam por sobrepor narrativas e economia de tokens da Web3 para incentivar a participação do usuário.

No entanto, a questão crucial é se a integração da economia de tokens realmente ajuda os projetos de IA a atender às necessidades do mundo real ou se simplesmente serve como uma narrativa ou proposta de valor de curto prazo. Atualmente, a maioria dos projetos de IA + Web3 está longe de atingir um estágio prático. Espera-se que equipes mais fundamentadas e atenciosas não apenas usem tokens como um meio de promover projetos de IA, mas também cumpram genuinamente casos de uso práticos.

Resumo

Atualmente, inúmeros casos e aplicações têm surgido em projetos de IA + Web3. Em primeiro lugar, a tecnologia de IA pode fornecer casos de uso mais eficientes e inteligentes para a Web3. Através dos recursos de IA em análise e previsão de dados, os usuários na Web3 podem ter melhores ferramentas para decisões de investimento e outros cenários. Além disso, a IA pode auditar o código do contrato inteligente, otimizar a execução do contrato e melhorar o desempenho e a eficiência do blockchain. Além disso, a tecnologia de IA pode oferecer recomendações mais precisas e inteligentes e serviços personalizados para aplicativos descentralizados, melhorando assim a experiência do usuário.

Ao mesmo tempo, a natureza descentralizada e programável da Web3 também apresenta novas oportunidades para a tecnologia de IA. Por meio de incentivos simbólicos, projetos de poder de computação descentralizados fornecem novas soluções para o dilema do poder de computação de IA insuficiente. Os mecanismos de armazenamento contratos inteligentes e distribuído da Web3 também oferecem um espaço e recursos mais amplos para compartilhamento e treinamento de algoritmos de IA. Os mecanismos de autonomia e confiança do usuário da Web3 também trazem novas possibilidades para o desenvolvimento de IA, permitindo que os usuários escolham de forma autônoma participar do compartilhamento de dados e treinamento, aumentando assim a diversidade e a qualidade dos dados e melhorando ainda mais o desempenho e a precisão dos modelos de IA.

Embora os projetos atuais de cross-over IA + Web3 ainda estejam em seus estágios iniciais e enfrentem muitos desafios, eles também trazem muitas vantagens. Por exemplo, os produtos de poder de computação descentralizados têm algumas desvantagens, mas reduzem a dependência de instituições centralizadas, fornecem maior transparência e auditabilidade e permitem uma participação e inovação mais amplas. Para casos de uso específicos e necessidades do usuário, os produtos de poder de computação descentralizados podem ser uma escolha valiosa. O mesmo se aplica à coleta de dados; Projetos de coleta de dados descentralizados oferecem vantagens como reduzir a dependência de fontes de dados únicas, fornecer cobertura de dados mais ampla e promover a diversidade e a inclusão de dados. Na prática, é necessário equilibrar essas vantagens e desvantagens e tomar medidas gerenciais e técnicas adequadas para superar desafios, garantindo que projetos de coleta de dados descentralizados tenham um impacto positivo no desenvolvimento de IA.

No geral, a integração da IA + Web3 oferece infinitas possibilidades para a inovação tecnológica futura e o desenvolvimento econômico. Ao combinar as capacidades inteligentes de análise e tomada de decisão da IA com a natureza descentralizada e autônoma do usuário da Web3, acredita-se que podemos construir um sistema econômico e até social mais inteligente, aberto e justo.

Isenção de responsabilidade:

  1. Este artigo foi reimpresso de [Ryze Labs]. Todos os direitos autorais pertencem ao autor original [Fred]. Se houver objeções a essa reimpressão, entre em contato com a equipe Gate Learn e eles lidarão com isso prontamente.
  2. Isenção de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe do Gate Learn. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Comece agora
Inscreva-se e ganhe um cupom de
$100
!