Análise em Profundidade: Que tipo de faíscas a IA e a Web3 podem criar?

AvançadoJun 07, 2024
Este artigo explora o rápido desenvolvimento das tecnologias de Inteligência Artificial (IA) e Web3 e o potencial valor e impacto da sua integração. A IA se destaca no aumento da produtividade, enquanto a Web3 transforma as relações de produção por meio da descentralização. A combinação dessas tecnologias traz aplicações inovadoras em análise de dados, serviços personalizados ao usuário e segurança e proteção de privacidade.
Análise em Profundidade: Que tipo de faíscas a IA e a Web3 podem criar?

Introdução: Desenvolvimento de IA+Web3

Nos últimos anos, o rápido desenvolvimento das tecnologias de Inteligência Artificial (IA) e Web3 atraiu ampla atenção global. A IA, uma tecnologia que simula e imita a inteligência humana, alcançou avanços significativos em campos como reconhecimento facial, processamento de linguagem natural e aprendizado de máquina. O rápido avanço da tecnologia de IA trouxe uma tremenda transformação e inovação em vários setores.

A indústria de IA atingiu um tamanho de mercado de US$ 200 bilhões em 2023, com gigantes da indústria e players proeminentes como OpenAI, Character.AI e Midjourney emergindo rapidamente e principal o boom da IA.

Simultaneamente, a Web3, um modelo emergente da Internet, está gradualmente a mudar a nossa perceção e utilização da Internet. Baseada na tecnologia blockchain descentralizada, a Web3 realiza o compartilhamento e controle de dados, a autonomia do usuário e o estabelecimento de mecanismos de confiança por meio de recursos como contratos inteligentes, armazenamento distribuído e verificação de identidade descentralizada. A ideia central da Web3 é liberar dados de autoridades centralizadas, concedendo aos usuários controle e a capacidade de compartilhar o valor de seus dados.

Atualmente, o valor de mercado da indústria Web3 atingiu US$ 25 trilhões. De Bitcoin, Ethereum e Solana a players de nível de aplicação como Uniswap e Stepn, novas narrativas e cenários estão continuamente surgindo, atraindo cada vez mais pessoas para se juntarem à indústria Web3.

É evidente que a integração da IA e da Web3 é um ponto focal para construtores e capitalistas de risco tanto do Oriente como do Ocidente. Explorar como combinar eficazmente estas duas tecnologias é um esforço que vale muito a pena.

Este artigo se concentrará no estado atual do desenvolvimento de IA+Web3, explorando o valor potencial e o impacto de sua integração. Primeiro, apresentaremos os conceitos básicos e as características da IA e da Web3 e, em seguida, discutiremos sua inter-relação. Em seguida, analisaremos o estado atual dos projetos AI+Web3 e nos aprofundaremos nas limitações e desafios que eles enfrentam. Através desta pesquisa, pretendemos fornecer referências e insights valiosos para investidores e profissionais do setor.

Como a IA interage com a Web3

O desenvolvimento da IA e da Web3 pode ser visto como dois lados de uma escala: a IA traz melhorias de produtividade, enquanto a Web3 revoluciona as relações de produção. Então, que tipo de faíscas a IA e a Web3 podem criar quando colidem? Primeiro, analisaremos os desafios e potenciais melhorias nas indústrias de IA e Web3 e, em seguida, exploraremos como elas podem ajudar a resolver os problemas umas das outras.

  1. Desafios e melhorias potenciais na indústria de IA
  2. Desafios e melhorias potenciais na indústria Web3

2.1 Desafios na indústria de IA

Para explorar os desafios enfrentados pela indústria de IA, devemos primeiro entender sua essência. O núcleo da indústria de IA gira em torno de três elementos-chave: poder computacional, algoritmos e dados.

  1. Primeiro, poder computacional: Poder computacional refere-se à capacidade de realizar cálculos e processamento em larga escala. As tarefas de IA normalmente exigem o tratamento de grandes quantidades de dados e a execução de cálculos complexos, como o treinamento de modelos de redes neurais profundas. O alto poder computacional pode acelerar os processos de treinamento e inferência de modelos, melhorando o desempenho e a eficiência dos sistemas de IA. Nos últimos anos, os avanços na tecnologia de hardware, como unidades de processamento gráfico (GPUs) e chips de IA dedicados (como TPUs), aumentaram significativamente o poder computacional, impulsionando o desenvolvimento da indústria de IA. A Nvidia, uma grande fornecedora de GPUs, viu o preço de suas ações disparar nos últimos anos, capturando uma grande participação de mercado e obtendo lucros substanciais.
  2. O que é um algoritmo: Os algoritmos são os componentes centrais dos sistemas de IA. São métodos matemáticos e estatísticos utilizados para resolver problemas e executar tarefas. Os algoritmos de IA podem ser categorizados em algoritmos tradicionais de aprendizado de máquina e algoritmos de aprendizado profundo, com algoritmos de aprendizado profundo tendo feito avanços significativos nos últimos anos. A escolha e a conceção dos algoritmos são cruciais para o desempenho e a eficácia dos sistemas de IA. A melhoria contínua e a inovação em algoritmos podem aumentar a precisão, robustez e capacidades de generalização dos sistemas de IA. Algoritmos diferentes produzem resultados diferentes, por isso os avanços nos algoritmos são essenciais para o desempenho das tarefas.
  3. Por que os dados são importantes: A principal tarefa dos sistemas de IA é extrair padrões e regras dos dados por meio de aprendizado e treinamento. Os dados formam a base para o treinamento e a otimização de modelos. Com amostras de dados em grande escala, os sistemas de IA podem aprender modelos mais precisos e inteligentes. Conjuntos de dados ricos fornecem informações abrangentes e diversificadas, permitindo que os modelos generalizem melhor para dados invisíveis e ajudando os sistemas de IA a entender e resolver melhor problemas do mundo real.

Depois de entender os três elementos centrais da IA atual, vamos examinar as dificuldades e desafios que a IA enfrenta nessas áreas.

Primeiro, em termos de poder computacional, as tarefas de IA geralmente exigem uma grande quantidade de recursos computacionais para treinamento e inferência de modelos, especialmente para modelos de aprendizagem profunda. No entanto, obter e gerenciar o poder computacional em larga escala é um desafio caro e complexo. O custo, o consumo de energia e a manutenção de equipamentos de computação de alto desempenho são questões significativas. Isso é particularmente desafiador para startups e desenvolvedores individuais, para quem adquirir poder computacional suficiente pode ser difícil.

Em termos de algoritmos, apesar dos sucessos significativos dos algoritmos de aprendizagem profunda em muitos campos, ainda existem desafios e dificuldades. Por exemplo, treinar redes neurais profundas requer uma grande quantidade de dados e recursos computacionais. Além disso, para certas tarefas, a interpretabilidade e a explicabilidade dos modelos podem ser insuficientes. A robustez e as capacidades de generalização dos algoritmos também são questões cruciais, já que o desempenho do modelo em dados invisíveis pode ser instável. Encontrar o melhor algoritmo para fornecer o melhor desempenho entre muitos algoritmos é uma exploração contínua.

Em termos de dados, os dados são a força motriz por trás da IA, mas a obtenção de dados diversificados e de alta qualidade continua sendo um desafio. Os dados em alguns domínios, como os dados sensíveis no domínio da saúde no setor médico, podem ser difíceis de obter. Além disso, a qualidade, a precisão e a rotulagem dos dados são questões críticas, pois dados incompletos ou tendenciosos podem levar a comportamentos ou vieses errados do modelo. A proteção da privacidade e da segurança dos dados também é uma consideração importante.

Além disso, há questões relacionadas com a interpretabilidade e a transparência. A natureza de "caixa preta" dos modelos de IA é uma preocupação pública. Em certas aplicações, como finanças, saúde e justiça, o processo de tomada de decisão de modelos precisa ser interpretável e rastreável. No entanto, os modelos de aprendizagem profunda existentes muitas vezes carecem de transparência. Explicar o processo de tomada de decisão dos modelos e fornecer explicações fiáveis continua a ser um desafio.

Além disso, os modelos de negócios de muitos projetos de startups de IA não são muito claros, o que também causa confusão para muitos empreendedores de IA.

2.2 Desafios na indústria Web3

Na indústria Web3, existem inúmeros desafios que precisam ser enfrentados, desde a análise de dados e experiência do usuário até vulnerabilidades de contratos inteligentes e ataques de hackers. A IA, como ferramenta para aumentar a produtividade, tem um potencial significativo nessas áreas.

Em primeiro lugar, há espaço para melhorias na análise de dados e nos recursos preditivos. As aplicações de IA na análise e previsão de dados tiveram um impacto significativo na indústria Web3. Através de análise inteligente e mineração por algoritmos de IA, as plataformas Web3 podem extrair informações valiosas de grandes quantidades de dados e fazer previsões e decisões mais precisas. Isso é particularmente significativo para avaliação de risco, previsão de mercado e gestão de ativos em finanças descentralizadas (DeFi).

Além disso, há o potencial de melhorar a experiência do usuário e os serviços de personalização. As aplicações de IA permitem que as plataformas Web3 ofereçam melhores experiências de utilizador e serviços personalizados. Ao analisar e modelar os dados do usuário, as plataformas Web3 podem fornecer recomendações personalizadas, serviços personalizados e experiências de interação inteligentes. Isso ajuda a aumentar o envolvimento e a satisfação dos usuários, promovendo o desenvolvimento do ecossistema Web3. Por exemplo, muitos protocolos Web3 integram ferramentas de IA como o ChatGPT para melhor servir os utilizadores.

Em termos de segurança e proteção da privacidade, as aplicações de IA também têm um impacto profundo na indústria Web3. A tecnologia de IA pode ser usada para detetar e se defender contra ataques de rede, identificar comportamentos anormais e fornecer medidas de segurança mais fortes. Além disso, a IA pode ser aplicada à proteção da privacidade de dados, salvaguardando as informações pessoais dos utilizadores nas plataformas Web3 através de técnicas como encriptação de dados e computação de privacidade. No que diz respeito à auditoria de contratos inteligentes, uma vez que podem existir vulnerabilidades e riscos de segurança nos processos de escrita e auditoria de contratos inteligentes, a tecnologia de IA pode ser utilizada para auditoria automatizada de contratos e deteção de vulnerabilidades, aumentando a segurança e fiabilidade dos contratos.

É evidente que a IA pode contribuir significativamente para enfrentar os desafios e potenciais melhorias na indústria Web3 em vários aspetos.

Análise da situação atual do projeto AI+Web3

A combinação de projetos de IA e Web3 se concentra principalmente em dois aspetos principais: alavancar a tecnologia blockchain para aprimorar projetos de IA e utilizar a tecnologia de IA para servir à melhoria de projetos Web3. Inúmeros projetos surgiram ao longo deste caminho, incluindo Io.net, Gensyn, Ritual, entre outros. A análise a seguir irá mergulhar em diferentes subdomínios onde a IA auxilia a Web3 e onde a Web3 aprimora a IA.

3.1 Web3 ajuda AI

3.1.1 Poder de computação descentralizada

Desde o lançamento do ChatGPT pela OpenAI no final de 2022, ele desencadeou um frenesi no campo da IA. Em cinco dias após seu lançamento, a base de usuários chegou a um milhão, superando a taxa de downloads do Instagram, que levou aproximadamente dois meses e meio para atingir a mesma marca. Posteriormente, o ChatGPT experimentou um rápido crescimento, com usuários ativos mensais atingindo 100 milhões em dois meses e usuários ativos semanais atingindo 100 milhões em novembro de 2023. Com o advento do ChatGPT, o setor de IA rapidamente passou de um campo de nicho para uma indústria altamente conceituada.

De acordo com o relatório da Trendforce, o ChatGPT requer 30.000 GPUs NVIDIA A100 para operar, e modelos futuros como o GPT-5 exigirão ainda mais poder computacional. Isso desencadeou uma corrida armamentista entre várias empresas de IA, já que possuir poder computacional suficiente é crucial para manter uma vantagem competitiva na arena de IA, principal à escassez de GPUs.

Antes do subir da IA, o principal provedor de GPU, NVIDIA, atendia principalmente clientes dos três principais serviços de nuvem: AWS, Azure e GCP. Com o subir da inteligência artificial, inúmeros novos compradores surgiram, incluindo grandes empresas de tecnologia como Meta, Oracle, bem como outras plataformas de dados e startups de IA, todas se juntando à corrida para estocar GPUs para treinar modelos de IA. Grandes empresas de tecnologia como Meta e Tesla aumentaram significativamente suas compras de modelos personalizados de IA e pesquisas internas. Empresas de modelos básicos, como a Anthropic, e plataformas de dados, como Snowflake e Databricks, também compraram mais GPUs para ajudar seus clientes a fornecer serviços de IA.

Como mencionado pela Semi Analysis no ano passado, existe uma divisão entre empresas "ricas em GPU" e "pobres em GPU", com apenas algumas possuindo mais de 20.000 GPUs A100/H100, permitindo que os membros da equipe utilizem entre 100 a 1000 GPUs para projetos. Essas empresas são provedores de nuvem ou construíram seus próprios modelos de linguagem de grande porte (LLMs), incluindo OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, entre outros.

No entanto, a maioria das empresas cair na categoria "GPU pobre", lutando com significativamente menos GPUs e gastando uma quantidade considerável de tempo e esforço em tarefas que são mais difíceis de avançar no ecossistema. Além disso, essa situação não se limita às startups. Algumas das empresas de IA mais conhecidas, como Hugging Face, Databricks (MosaicML), Together e até mesmo Snowflake, têm quantidades de A100/H100 inferiores a 20.000. Apesar de terem talento técnico de classe mundial, essas empresas são limitadas pela oferta limitada de GPUs, colocando-as em desvantagem em comparação com empresas maiores na competição de IA.

Essa escassez não se limita à categoria "GPU pobre", mesmo até o final de 2023, o principal player de IA, OpenAI, teve que fechar temporariamente os registros pagos devido à incapacidade de obter GPUs suficientes e teve que adquirir mais suprimentos de GPU.

É evidente que o rápido desenvolvimento da IA levou a um sério descompasso entre a demanda e a oferta de GPUs, criando uma escassez iminente de oferta.

Para resolver este problema, alguns projetos Web3 começaram a explorar soluções de poder de computação descentralizadas, aproveitando as características únicas da tecnologia Web3. Estes projetos incluem Akash, Render, Gensyn, entre outros. A característica comum entre esses projetos é o uso de tokens para incentivar os usuários a fornecer poder de computação de GPU ocioso, tornando-se assim o lado da oferta de poder de computação para suporte clientes de IA.

O perfil do lado da oferta consiste principalmente em três aspetos: provedores de serviços em nuvem, mineradores de criptomoedas e empresas. Os provedores de serviços de nuvem incluem os principais provedores de serviços de nuvem (como AWS, Azure, GCP) e provedores de serviços de nuvem de GPU (como Coreweave, Lambda, Crusoe), onde os usuários podem revender poder de computação ocioso desses provedores para gerar renda. Com Ethereum transição de PoW para PoS, o poder de computação ocioso da GPU tornou-se um importante lado de fornecimento potencial para os mineradores de criptomoedas. Além disso, grandes empresas como Tesla e Meta, que compraram grandes quantidades de GPUs para fins estratégicos, também podem contribuir com seu poder de computação de GPU ocioso como parte do lado da oferta.

Atualmente, os jogadores neste campo geralmente podem ser divididos em duas categorias: aqueles que usam poder de computação descentralizado para inferência de IA e aqueles que o usam para treinamento de IA. A primeira categoria inclui projetos como Render (embora focado em renderização, também pode ser usado para computação de IA), Akash, Aethir, enquanto a segunda categoria inclui projetos como io.net (apoiando inferência e treinamento) e Gensyn. A principal diferença entre os dois reside nos diferentes requisitos para o poder de computação.

Vamos primeiro discutir os projetos com foco na inferência de IA. Esses projetos atraem usuários para fornecer poder de computação por meio de incentivos de token e, em seguida, fornecer serviços de rede de poder de computação para o lado da demanda, facilitando assim a correspondência de oferta e demanda de energia de computação ociosa. Detalhes sobre tais projetos são abordados em um relatório de pesquisa do DePIN de nossos Ryze Labs, sinta-se livre para lê-los.

O ponto central reside no mecanismo de incentivo simbólico, onde o projeto atrai primeiro fornecedores e depois usuários, alcançando assim o mecanismo de arranque a frio e operação central do projeto, permitindo uma maior expansão e desenvolvimento. Neste ciclo, o lado da oferta recebe recompensas simbólicas mais valiosas, enquanto o lado da procura beneficia de serviços mais rentáveis. O valor dos tokens do projeto e o crescimento dos participantes da oferta e da demanda permanecem consistentes. À medida que o preço do token aumenta, mais participantes e especuladores são atraídos, criando um loop de captura de valor.

Outra categoria envolve o uso de poder de computação descentralizado para treinamento de IA, como Gensyn e io.net (que suporte treinamento de IA e inferência). Na verdade, a lógica operacional desses projetos não é fundamentalmente diferente dos projetos de inferência de IA. Eles ainda dependem de incentivos simbólicos para atrair a participação do lado da oferta para fornecer poder de computação, que é então utilizado pelo lado da demanda.

io.net, como uma rede de poder de computação descentralizada, atualmente possui mais de 500.000 GPUs, tornando-se um desempenho de destaque nos projetos de poder de computação descentralizada. Além disso, integrou o poder de computação de Render e Filecoin, demonstrando o desenvolvimento contínuo de seu ecossistema.

Além disso, o Gensyn facilita a alocação de tarefas de aprendizado de máquina e recompensas por meio de contratos inteligentes para permitir o treinamento de IA. Como ilustrado no diagrama abaixo, o custo horário do trabalho de treinamento de aprendizado de máquina no Gensyn é de aproximadamente US$ 0,4, o que é significativamente menor do que o custo de mais de US$ 2 na AWS e no GCP.

O ecossistema Gensyn envolve quatro entidades participantes:

  • Transmitentes: Estes são os usuários do lado da demanda que consomem tarefas e pagam por tarefas de treinamento de IA.
  • Executores: Os executores realizam as tarefas de treinamento de modelo e fornecem provas de conclusão de tarefas para verificação.
  • Verificadores: Os verificadores conectam o processo de treinamento não determinístico com a computação linear determinística. Eles comparam as provas fornecidas pelos executores com os limites esperados.
  • Repórteres: Os repórteres inspecionam o trabalho dos verificadores e levantam desafios para ganhar recompensas ao identificar problemas.

Como podemos ver, o Gensyn pretende se tornar um protocolo de computação massivamente escalável e econômico para modelos globais de aprendizagem profunda. No entanto, olhando para este campo, por que a maioria dos projetos escolhe o poder de computação descentralizada para inferência de IA em vez de treinamento?

Vamos também ajudar os amigos que não estão familiarizados com o treinamento e inferência de IA a entender a diferença entre os dois:

  • Treinamento de IA: Se compararmos a inteligência artificial a um aluno, então o treinamento é semelhante a fornecer à IA uma grande quantidade de conhecimento e exemplos, que podem ser entendidos como dados. A IA aprende com estes exemplos. Como a aprendizagem envolve a compreensão e memorização de uma grande quantidade de informações, esse processo requer uma quantidade significativa de poder computacional e tempo.
  • AI Inference: Então, qual é a inferência? Pode ser entendido como usar o conhecimento aprendido para resolver problemas ou fazer exames. Durante a inferência, a inteligência artificial usa o conhecimento aprendido para fornecer respostas, em vez de adquirir novos conhecimentos. Portanto, os requisitos computacionais para o processo de inferência são relativamente pequenos.

Pode-se ver que os requisitos de poder computacional para inferência de IA e treinamento de IA diferem significativamente. A disponibilidade de poder de computação descentralizada para inferência de IA e treinamento de IA será analisada mais detalhadamente na próxima seção de desafios.

Além disso, a Ritual pretende combinar redes distribuídas com criadores de modelos para manter a descentralização e a segurança. Seu primeiro produto, o Infernet, permite que contratos inteligentes no blockchain acessem modelos de IA fora da cadeia, permitindo que esses contratos acessem a IA de uma forma que mantenha a verificação, a descentralização e a proteção da privacidade.

O coordenador do Infernet é responsável por gerenciar o comportamento dos nós na rede e responder às solicitações computacionais dos consumidores. Quando os usuários usam o Infernet, tarefas como inferência e prova são realizadas fora da cadeia, com a saída devolvida ao coordenador e, finalmente, transmitida aos consumidores na cadeia via contratos inteligentes.

Além de redes de poder de computação descentralizadas, existem também redes de largura de banda descentralizadas como Grass, que visam melhorar a velocidade e eficiência da transmissão de dados. No geral, o surgimento de redes de poder de computação descentralizadas fornece uma nova possibilidade para o lado da oferta do poder de computação da IA, impulsionando a IA em novas direções.

3.1.2 Modelo de algoritmo descentralizado

Assim como mencionado no segundo capítulo, os três elementos centrais da IA são poder computacional, algoritmos e dados. Uma vez que o poder computacional pode formar uma rede de fornecimento através da descentralização, os algoritmos também podem seguir uma abordagem semelhante e formar uma rede de fornecimento para modelos de algoritmos?

Antes de analisar projetos neste campo, vamos primeiro entender a importância dos modelos de algoritmos descentralizados. Muitas pessoas podem se perguntar, já que já temos OpenAI, por que precisamos de uma rede de algoritmos descentralizada?

Essencialmente, uma rede de algoritmos descentralizada é um mercado de serviços de algoritmos de IA descentralizado que conecta muitos modelos diferentes de IA. Cada modelo de IA tem sua própria experiência e habilidades. Quando os usuários fazem perguntas, o mercado seleciona o modelo de IA mais adequado para responder à pergunta. Chat-GPT, desenvolvido pela OpenAI, é um desses modelos de IA que pode entender e gerar texto semelhante aos humanos.

Em termos simples, o ChatGPT é como um aluno altamente capaz ajudando a resolver diferentes tipos de problemas, enquanto uma rede de algoritmos descentralizada é como uma escola com muitos alunos ajudando a resolver problemas. Embora o aluno atual (ChatGPT) seja altamente capaz, a longo prazo, há um grande potencial para uma escola que pode recrutar alunos de todo o mundo.

Atualmente, no campo dos modelos de algoritmos descentralizados, existem também alguns projetos que estão a experimentar e a explorar. Em seguida, usaremos o projeto representativo Bittensor como um estudo de caso para ajudar a entender o desenvolvimento deste campo de nicho.

No Bittensor, o lado da oferta de modelos de algoritmos (ou mineradores) contribui com seus modelos de aprendizado de máquina para a rede. Esses modelos podem analisar dados e fornecer insights. Os provedores de modelos recebem tokens de criptomoedas, conhecidos como TAO, como recompensas por suas contribuições.

Para garantir a qualidade das respostas, a Bittensor usa um mecanismo de consenso único para chegar a um consenso sobre a melhor resposta. Quando uma pergunta é feita, vários mineradores de modelo fornecem respostas. Em seguida, validadores na rede começam a trabalhar para determinar a melhor resposta, que é então enviada de volta para o usuário.

O token TAO no ecossistema Bittensor desempenha dois papéis principais durante todo o processo. Por um lado, serve como um incentivo para os mineiros contribuírem com modelos de algoritmos para a rede. Por outro lado, os usuários precisam gastar tokens para fazer perguntas e fazer com que a rede conclua tarefas.

Como o Bittensor é descentralizado, qualquer pessoa com acesso à internet pode se juntar à rede, seja como um usuário fazendo perguntas ou como um minerador fornecendo respostas. Isso permite que mais pessoas aproveitem o poder da inteligência artificial.

Em resumo, redes de modelos de algoritmos descentralizados como o Bittensor têm o potencial de criar um cenário mais aberto e transparente. Nesse ecossistema, os modelos de IA podem ser treinados, compartilhados e utilizados de forma segura e descentralizada. Além disso, outras redes como a BasedAI estão tentando esforços semelhantes, com o aspeto intrigante de usar Zero-Knowledge Proofs (ZK) para proteger a privacidade de dados interativos do modelo de usuário, que será discutido mais adiante na quarta subseção.

À medida que as plataformas de modelos de algoritmos descentralizados evoluem, elas permitirão que pequenas empresas compitam com grandes organizações no uso de ferramentas de IA de ponta, potencialmente tendo impactos significativos em vários setores.

3.1.3 Recolha descentralizada de dados

Para o treinamento de modelos de IA, uma grande oferta de dados é indispensável. No entanto, a maioria das empresas Web2 atualmente ainda monopoliza os dados dos usuários. Plataformas como X, Reddit, TikTok, Snapchat, Instagram e YouTube proíbem a coleta de dados para treinamento de IA, o que representa um obstáculo significativo para o desenvolvimento da indústria de IA.

Por outro lado, algumas plataformas Web2 vendem dados de usuários para empresas de IA sem compartilhar lucros com os usuários. Por exemplo, o Reddit chegou a um acordo de US$ 60 milhões com o Google, permitindo que o Google treinasse modelos de IA usando suas postagens. Isso resulta em direitos de coleta de dados sendo monopolizados por grandes empresas de capital e big data, empurrando o setor para uma direção de capital intensivo.

Em resposta a essa situação, alguns projetos estão aproveitando incentivos Web3 e token para alcançar a coleta de dados descentralizada. Tomemos o PublicAI como exemplo: os usuários podem participar de duas funções:

  • Uma categoria são os provedores de dados de IA. Os usuários podem encontrar conteúdo valioso no X, marcar @PublicAI conta oficial com seus insights e usar hashtags #AI ou #Web3 para categorizar o conteúdo, enviando-o para o centro de dados da PublicAI para coleta.
  • A outra categoria é a validadores de dados. Os usuários podem entrar no data center da PublicAI e votar nos dados mais valiosos para treinamento de IA.

Como recompensa, os usuários podem ganhar tokens por meio dessas contribuições, promovendo uma relação ganha-ganha entre os contribuidores de dados e a indústria de IA.

Além de projetos como o PublicAI, que coleta dados especificamente para treinamento de IA, há muitos outros projetos que usam incentivos de token para coleta de dados descentralizada. Por exemplo, o Ocean coleta dados do usuário por meio de dados tokenização para servir IA, o Hivemapper usa câmeras de carro dos usuários para coletar dados de mapas, o Dimo coleta dados do carro e o WiHi coleta dados meteorológicos. Esses projetos, por meio da coleta descentralizada de dados, também servem como potenciais fontes de dados para o treinamento de IA. Assim, em sentido amplo, eles podem ser incluídos no paradigma da Web3 auxiliando a IA.

3.1.4 ZK protege a privacidade do usuário em IA

Blockchain tecnologia oferece benefícios de descentralização e também introduz uma característica crucial: provas de conhecimento zero. A tecnologia de conhecimento zero permite a verificação de informações, mantendo a privacidade.

No aprendizado de máquina tradicional, os dados normalmente precisam ser armazenados e processados centralmente, o que pode levar a riscos de privacidade. Métodos para proteger a privacidade de dados, como encriptação ou anonimização de dados, podem limitar a precisão e o desempenho de modelos de aprendizado de máquina.

A tecnologia à prova de conhecimento zero ajuda a resolver este dilema, abordando o conflito entre a proteção da privacidade e a partilha de dados. O Zero-Knowledge Machine Learning (ZKML) usa tecnologia de prova de conhecimento zero para permitir o treinamento e a inferência do modelo de aprendizado de máquina sem expor os dados originais. Provas de conhecimento zero garantem que as características dos dados e os resultados do modelo possam ser verificados como corretos sem revelar o conteúdo real dos dados.

O principal objetivo da ZKML é equilibrar a proteção da privacidade e o compartilhamento de dados. Ele pode ser aplicado em vários cenários, como análise de dados de saúde, análise de dados financeiros e colaboração entre organizações. Ao usar o ZKML, os indivíduos podem proteger a privacidade de seus dados confidenciais enquanto compartilham dados com outras pessoas para obter insights mais amplos e oportunidades de colaboração sem o risco de violações de privacidade de dados. Este domínio encontra-se ainda numa fase inicial, estando a maioria dos projetos ainda em fase de exploração. Por exemplo, a BasedAI propõe uma abordagem descentralizada integrando perfeitamente o Fully Criptografia homomórfica (FHE) com os Large Language Models (LLMs) para manter a confidencialidade dos dados. Os Zero-Knowledge Large Language Models (ZK-LLMs) incorporam privacidade em sua infraestrutura de rede distribuída, garantindo que os dados do usuário permaneçam confidenciais durante toda a operação da rede.

Aqui está uma breve explicação do Fully Criptografia homomórfica (FHE). FHE é uma técnica encriptação que permite que cálculos sejam realizados em dados criptografados sem a necessidade de descriptografá-los. Isto significa que várias operações matemáticas (tais como adição, multiplicação, etc.) realizadas em dados encriptados FHE produzem os mesmos resultados como se fossem realizadas nos dados não encriptados originais, protegendo assim a privacidade dos dados do utilizador.

Além dos métodos acima mencionados, o Web3 também suporta IA através de projetos como o Cortex, que permite na cadeia execução de programas de IA. A execução de programas de aprendizado de máquina em blockchains tradicionais enfrenta um desafio, pois as máquinas virtuais são altamente ineficientes na execução de quaisquer modelos de aprendizado de máquina não triviais. A maioria acredita que executar IA no blockchain é impossível. No entanto, o Cortex Máquina virtual (CVM) utiliza GPUs para executar programas de IA na cadeia e é compatível com o Máquina Virtual Ethereum (EVM). Em outras palavras, a cadeia Cortex pode executar todos os DApps Ethereum e integrar o aprendizado de máquina de IA nesses DApps. Isso permite que os modelos de aprendizado de máquina sejam executados de forma descentralizada, imutável e transparente, com o consenso da rede verificando cada etapa da inferência da IA.

3.2 AI Helps Web3

Na colisão entre IA e Web3, além da assistência da Web3 à IA, a assistência da IA à indústria Web3 também é digna de atenção. A principal contribuição da inteligência artificial é a melhoria da produtividade, por isso há muitas tentativas de auditoria de IA contratos inteligentes, análise e previsão de dados, serviços personalizados, segurança e proteção de privacidade, etc.

3.2.1 Análise e Previsão de Dados

Muitos projetos Web3 estão integrando serviços de IA existentes (como o ChatGPT) ou desenvolvendo seus próprios para fornecer serviços de análise e previsão de dados para usuários da Web3. Esses serviços abrangem uma ampla gama, incluindo algoritmos de IA para estratégias de investimento, ferramentas de análise de na cadeia e previsões de preços e mercado.

Por exemplo, Pond usa algoritmos de gráficos de IA para prever tokens alfa futuros valiosos, oferecendo serviços de consultoria de investimento para usuários e instituições. A IA BullBear treina dados históricos do usuário, histórico de preços e tendências de mercado para fornecer informações precisas que apoiam as previsões de tendência de preços, ajudando os usuários a obter lucros.

Plataformas como a Numerai organizam competições de investimento onde os participantes usam IA e grandes modelos linguísticos para prever os mercados bolsistas. Eles treinam modelos em dados de alta qualidade fornecidos pela plataforma e enviam previsões diárias. A Numerai avalia essas previsões ao longo do mês seguinte, e os participantes podem stake NMR tokens em seus modelos para ganhar recompensas com base no desempenho.

A Arkham, uma plataforma de análise de dados blockchain, também integra IA em seus serviços. Arkham vincula endereços de blockchain a entidades como bolsas, fundos e baleias, exibindo dados e análises importantes para dar aos usuários uma vantagem na tomada de decisões. O Arkham Ultra combina endereços com entidades do mundo real usando algoritmos desenvolvidos ao longo de três anos com suporte dos fundadores da Palantir e da OpenAI.

3.2.2 Serviços Personalizados

Aplicações de IA em busca e recomendação são predominantes em projetos Web2, atendendo às necessidades personalizadas dos usuários. Os projetos Web3 integram de forma semelhante a IA para melhorar a experiência do utilizador.

Por exemplo, a conhecida plataforma de análise de dados Dune introduziu recentemente a ferramenta Wand, que usa grandes modelos de linguagem para escrever consultas SQL. Com o Wand Create, os usuários podem gerar consultas SQL a partir de perguntas de linguagem natural, facilitando a pesquisa de dados para aqueles que não estão familiarizados com SQL.

Plataformas de conteúdo como o Followin integram o ChatGPT para resumir pontos de vista e atualizações em setores específicos. A enciclopédia Web3 IQ.wiki pretende ser a principal fonte de conhecimento objetivo e de alta qualidade sobre a tecnologia blockchain e criptomoedas. Ele integra o GPT-4 para resumir artigos wiki, tornando as informações do blockchain mais acessíveis em todo o mundo. O motor de busca baseado em LLM Kaito pretende revolucionar a recuperação de informação Web3.

No domínio criativo, projetos como o NFPrompt reduzem o custo de criação de conteúdo. O NFPrompt permite que os usuários gerem NFTs mais facilmente com IA, fornecendo vários serviços criativos personalizados.

3.2.3 Auditoria de IA de contratos inteligentes

Auditar contratos inteligentes é uma tarefa crucial na Web3, e a IA pode aumentar a eficiência e a precisão na identificação de vulnerabilidades de código.

Vitalik Buterin observou que um dos maiores desafios no espaço das criptomoedas são os erros em nosso código. A IA tem a promessa de simplificar significativamente o uso de ferramentas de verificação formal para provar a correção do código. Conseguir isso poderia levar a um SEK EVM (Máquina Virtual Ethereum) quase livre de erros, aumentando a segurança do espaço à medida que menos erros aumentam a segurança geral.

Por exemplo, o projeto 0x0.ai oferece um auditor de contrato inteligente alimentado por IA. Esta ferramenta utiliza algoritmos avançados para analisar contratos inteligentes e identificar potenciais vulnerabilidades ou problemas que possam levar a fraudes ou outros riscos de segurança. Os auditores usam aprendizado de máquina para detetar padrões e anomalias no código, sinalizando possíveis problemas para revisão posterior.

Há outros casos nativos em que a IA ajuda a Web3. PAAL ajuda os usuários a criar bots de IA personalizados que podem ser implantados no Telegram e no Discord para atender os usuários da Web3. O agregador de DEX multicadeia orientado por IA Hera usa IA para fornecer os melhores caminhos de negociação entre quaisquer pares de tokens em vários tokens. No geral, a contribuição da IA para a Web3 é principalmente ao nível da ferramenta, melhorando vários processos e funcionalidades.

Limitações e desafios atuais do projeto AI + Web3

4.1 Obstáculos realistas na Poder de computação descentralizada

Atualmente, muitos projetos Web3 que auxiliam a IA estão se concentrando no poder de computação descentralizado. Usar incentivos de token para promover usuários globais a se tornarem parte do lado da fonte de alimentação de computação é uma inovação muito interessante. No entanto, por outro lado, existem algumas questões realistas que precisam de ser abordadas:

Em comparação com provedores de serviços de poder de computação centralizados, os produtos de poder de computação descentralizados normalmente dependem de nós e participantes distribuídos globalmente para fornecer recursos de computação. Devido a possíveis latência e instabilidade nas conexões de rede entre esses nós, o desempenho e a estabilidade podem ser piores do que os produtos de poder de computação centralizado.

Além disso, a disponibilidade de produtos de poder de computação descentralizados é afetada pelo correspondência grau entre a oferta e a procura. Se não existirem fornecedores suficientes ou se a procura for demasiado elevada, tal pode conduzir a uma escassez de recursos ou a uma incapacidade de satisfazer as necessidades dos utilizadores.

Finalmente, em comparação com os produtos de poder de computação centralizado, os produtos de poder de computação descentralizada geralmente envolvem mais detalhes técnicos e complexidade. Os usuários podem precisar entender e lidar com aspetos de redes distribuídas, contratos inteligentes e pagamentos de criptomoedas, o que aumenta o custo de compreensão e uso do usuário.

Depois de discussões aprofundadas com várias equipes de projeto de poder de computação descentralizada, descobriu-se que o poder de computação descentralizada atual ainda é principalmente limitado à inferência de IA em vez de treinamento de IA.

Em seguida, usarei quatro perguntas para ajudar todos a entender as razões por trás disso:

  1. Por que a maioria dos projetos de poder de computação descentralizados opta por fazer inferência de IA em vez de treinamento de IA?

  2. O que torna a NVIDIA tão poderosa? Quais são as razões pelas quais o treinamento de poder de computação descentralizada é difícil?

  3. Qual será o objetivo do poder de computação descentralizado (Render, Akash, io.net, etc.)?

  4. Qual será o endgame para algoritmos descentralizados (Bittensor)?

Vamos nos aprofundar nos detalhes passo a passo:

1) Observando este campo, a maioria dos projetos de poder de computação descentralizados opta por se concentrar na inferência de IA em vez de treinamento, principalmente devido a diferentes requisitos de poder de computação e largura de banda.

Para ajudar todos a entender melhor, vamos comparar a IA com um aluno:

  • Treinamento de IA: Se compararmos a inteligência artificial com um aluno, o treinamento é semelhante a fornecer à IA uma grande quantidade de conhecimento e exemplos, semelhante ao que muitas vezes chamamos de dados. A IA aprende com estes exemplos. Uma vez que a aprendizagem envolve a compreensão e memorização de grandes quantidades de informação, este processo requer poder de computação e tempo substanciais.

  • Inferência de IA: A inferência pode ser entendida como o uso dos conhecimentos adquiridos para resolver problemas ou fazer exames. Durante a inferência, a IA utiliza o conhecimento aprendido para responder a perguntas em vez de adquirir novas informações, portanto, os requisitos computacionais são relativamente menores.

É fácil ver que a diferença fundamental na dificuldade reside no fato de que o treinamento de IA de modelo grande requer enormes volumes de dados e largura de banda extremamente alta para transmissão de dados, tornando-o muito desafiador de alcançar com poder de computação descentralizado. Em contraste, a inferência requer muito menos dados e largura de banda, tornando-a mais viável.

Para modelos grandes, a estabilidade é crucial. Se a formação for interrompida, deve ser reiniciada, o que resulta em custos irrecuperáveis elevados. Por outro lado, demandas com requisitos de poder de computação relativamente mais baixos, como inferência de IA ou certos cenários específicos envolvendo treinamento de modelos médios a pequenos, podem ser alcançadas. Em redes de poder de computação descentralizadas, alguns provedores de serviços de nó relativamente grandes podem atender a essas demandas de poder de computação relativamente mais altas.

2) Então, onde estão os gargalos em dados e largura de banda? Por que o treinamento descentralizado é difícil de alcançar?

Isso envolve dois elementos-chave do treinamento de modelos grandes: poder de computação de cartão único e paralelismo de várias placas.

Poder de computação de cartão único: Atualmente, todos os centros que exigem treinamento de modelo grande, referidos como centros de supercomputação, podem ser comparados ao corpo humano, onde a unidade subjacente, a GPU, é como uma célula. Se o poder de computação de uma única célula (GPU) é forte, então o poder de computação geral (quantidade de × de célula única) também pode ser muito forte.

Paralelismo de várias placas: o treinamento de um modelo grande geralmente envolve centenas de bilhões de gigabytes. Para centros de supercomputação que treinam modelos grandes, são necessárias pelo menos dezenas de milhares de GPUs A100. Para isso, é necessário mobilizar milhares de cartões para treinamento. No entanto, treinar um modelo grande não é um simples processo serial; ele não treina apenas na primeira placa A100 e depois passa para a segunda. Em vez disso, diferentes partes do modelo são treinadas em diferentes GPUs simultaneamente, e a parte A de treinamento pode exigir resultados da parte B, envolvendo processamento paralelo.

O domínio da NVIDIA e o crescente valor de mercado, enquanto a AMD e empresas domésticas como Huawei e Horizon têm dificuldade em recuperar o atraso, decorrem de dois aspetos: o ambiente de software CUDA e a comunicação multi-placa NVLink.

Ambiente de software CUDA: Se há um ecossistema de software para corresponder ao hardware é crucial, como o sistema CUDA da NVIDIA. Construir um novo sistema é um desafio, semelhante à criação de uma nova linguagem com altos custos de substituição.

Comunicação multi-cartão NVLink: Essencialmente, a comunicação multi-cartão envolve a entrada e saída de informações. Como paralelizar e transmitir é crucial. A presença da NVLink significa que as placas NVIDIA e AMD não podem se comunicar; Além disso, o NVLink limita a distância física entre GPUs, exigindo que elas estejam no mesmo centro de supercomputação. Isso dificulta que o poder de computação descentralizado espalhado pelo mundo forme um cluster de computação coeso para treinamento de grandes modelos.

O primeiro ponto explica por que a AMD e empresas nacionais como Huawei e Horizon lutam para recuperar o atraso, o segundo ponto explica por que o treinamento descentralizado é difícil de alcançar.

3) Qual será o desfecho para o poder de computação descentralizada? O poder de computação descentralizado atualmente luta com o treinamento de grandes modelos porque a estabilidade é primordial. As interrupções exigem reconversão profissional, o que resulta em elevados custos irrecuperáveis. Os altos requisitos para paralelismo de várias placas são limitados por restrições de largura de banda física. O NVLink da NVIDIA alcança comunicação com várias placas, mas dentro de um centro de supercomputação, o NVLink limita a distância física entre GPUs. Assim, o poder de computação disperso não pode formar um cluster de computação para treinamento de grandes modelos.

No entanto, para demandas com requisitos de poder de computação relativamente mais baixos, como inferência de IA ou certos cenários específicos envolvendo treinamento de modelos médios a pequenos, redes de poder de computação descentralizadas com alguns provedores de serviços de nó relativamente grandes têm potencial. Além disso, cenários como computação de borda para renderização são relativamente mais fáceis de implementar.

4) Qual será o desfecho para modelos de algoritmos descentralizados? O futuro dos modelos de algoritmos descentralizados depende da direção final da IA. Acredito que o futuro da IA pode apresentar 1-2 gigantes de modelos de código fechado (como o ChatGPT) ao lado de uma infinidade de modelos. Neste contexto, os produtos da camada de aplicação não precisam de se ligar a um único modelo grande, mas sim de cooperar com vários modelos grandes. Neste cenário, o modelo de Bittensor mostra um potencial significativo.

Em projetos atuais que combinam Web3 e IA, particularmente aqueles em que a IA auxilia iniciativas Web3, a maioria dos projetos simplesmente usa IA superficialmente sem demonstrar uma integração profunda entre IA e criptomoedas. Esta aplicação superficial é evidente nos dois aspetos seguintes:

  • Primeiro, seja usando IA para análise e previsão de dados, em cenários de recomendação e pesquisa, ou para auditoria de código, há pouca diferença em comparação com a integração de IA em projetos Web2. Esses projetos simplesmente aproveitam a IA para melhorar a eficiência e a análise sem mostrar uma fusão nativa de IA e criptomoedas ou apresentar soluções inovadoras.
  • Em segundo lugar, muitas equipes Web3 incorporam a IA mais como um truque de marketing, puramente capitalizando o conceito de IA. Eles aplicam a tecnologia de IA em áreas muito limitadas e, em seguida, começam a promover a tendência da IA, criando uma fachada de estreita integração com a IA. No entanto, estes projetos carecem de inovação substancial.

Embora os projetos atuais de Web3 e IA tenham essas limitações, devemos reconhecer que este é apenas o estágio inicial de desenvolvimento. No futuro, podemos esperar uma pesquisa e inovação mais aprofundadas para alcançar uma integração mais estreita entre IA e criptomoedas, criando soluções mais nativas e significativas em áreas como finanças, organizações autônomas descentralizadas (DAOs), mercados de previsão e NFTs.

4.3 Economia Token Serve como um buffer para narrativas de projetos de IA

Como mencionado inicialmente, os projetos de IA enfrentam desafios em seus modelos de negócios, especialmente porque cada vez mais modelos grandes estão gradualmente se tornando de código aberto. Muitos projetos de IA + Web3, muitas vezes projetos de IA pura lutando para prosperar e garantir financiamento no espaço Web2, optam por sobrepor narrativas e economia de tokens da Web3 para incentivar a participação do usuário.

No entanto, a questão crucial é se a integração da economia de tokens realmente ajuda os projetos de IA a atender às necessidades do mundo real ou se ela simplesmente serve como uma narrativa ou proposta de valor de curto prazo. Atualmente, a maioria dos projetos de IA + Web3 está longe de atingir um estágio prático. Espera-se que equipes mais fundamentadas e atenciosas não apenas usem tokens como um meio para promover projetos de IA, mas também cumpram genuinamente casos de uso práticos.

Resumo

Atualmente, inúmeros casos e aplicações têm surgido em projetos de IA + Web3. Em primeiro lugar, a tecnologia de IA pode fornecer casos de uso mais eficientes e inteligentes para a Web3. Através das capacidades de IA em análise e previsão de dados, os utilizadores na Web3 podem ter melhores ferramentas para decisões de investimento e outros cenários. Além disso, a IA pode auditar o código do contrato inteligente, otimizar a execução do contrato e melhorar o desempenho e a eficiência do blockchain. Além disso, a tecnologia de IA pode oferecer recomendações mais precisas e inteligentes e serviços personalizados para aplicações descentralizadas, melhorando assim a experiência do usuário.

Ao mesmo tempo, a natureza descentralizada e programável da Web3 também apresenta novas oportunidades para a tecnologia de IA. Por meio de incentivos de tokens, projetos de poder de computação descentralizados fornecem novas soluções para o dilema do poder de computação insuficiente da IA. Os mecanismos de armazenamento contratos inteligentes e distribuído da Web3 também oferecem um espaço e recursos mais amplos para o compartilhamento e treinamento de algoritmos de IA. Os mecanismos de autonomia e confiança dos utilizadores da Web3 também trazem novas possibilidades para o desenvolvimento da IA, permitindo que os utilizadores escolham autonomamente participar na partilha de dados e na formação, aumentando assim a diversidade e a qualidade dos dados e melhorando ainda mais o desempenho e a precisão dos modelos de IA.

Embora os atuais projetos cruzados IA + Web3 ainda estejam em seus estágios iniciais e enfrentem muitos desafios, eles também trazem muitas vantagens. Por exemplo, os produtos de poder de computação descentralizado têm algumas desvantagens, mas reduzem a dependência de instituições centralizadas, fornecem maior transparência e auditabilidade e permitem uma participação e inovação mais amplas. Para casos de uso específicos e necessidades do usuário, produtos de poder de computação descentralizada podem ser uma escolha valiosa. O mesmo se aplica à recolha de dados; Os projetos descentralizados de coleta de dados oferecem vantagens, como a redução da dependência de fontes de dados únicas, o fornecimento de uma cobertura de dados mais ampla e a promoção da diversidade e inclusão de dados. Na prática, é necessário equilibrar essas vantagens e desvantagens e tomar medidas técnicas e de gestão adequadas para superar desafios, garantindo que os projetos descentralizados de coleta de dados tenham um impacto positivo no desenvolvimento da IA.

De um modo geral, a integração da IA + Web3 oferece infinitas possibilidades para a futura inovação tecnológica e desenvolvimento económico. Ao combinar as capacidades inteligentes de análise e tomada de decisão da IA com a natureza descentralizada e autónoma do utilizador da Web3, acredita-se que podemos construir um sistema económico e até social mais inteligente, mais aberto e mais justo.

Declaração de exoneração de responsabilidade:

  1. Este artigo foi reproduzido a partir de [Ryze Labs]. Todos os direitos autorais pertencem ao autor original [Fred]. Se houver objeções a essa reimpressão, entre em contato com a equipe Gate Learn e eles lidarão com isso imediatamente.
  2. Isenção de Responsabilidade: Os pontos de vista e opiniões expressos neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe do Gate Learn. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Análise em Profundidade: Que tipo de faíscas a IA e a Web3 podem criar?

AvançadoJun 07, 2024
Este artigo explora o rápido desenvolvimento das tecnologias de Inteligência Artificial (IA) e Web3 e o potencial valor e impacto da sua integração. A IA se destaca no aumento da produtividade, enquanto a Web3 transforma as relações de produção por meio da descentralização. A combinação dessas tecnologias traz aplicações inovadoras em análise de dados, serviços personalizados ao usuário e segurança e proteção de privacidade.
Análise em Profundidade: Que tipo de faíscas a IA e a Web3 podem criar?

Introdução: Desenvolvimento de IA+Web3

Nos últimos anos, o rápido desenvolvimento das tecnologias de Inteligência Artificial (IA) e Web3 atraiu ampla atenção global. A IA, uma tecnologia que simula e imita a inteligência humana, alcançou avanços significativos em campos como reconhecimento facial, processamento de linguagem natural e aprendizado de máquina. O rápido avanço da tecnologia de IA trouxe uma tremenda transformação e inovação em vários setores.

A indústria de IA atingiu um tamanho de mercado de US$ 200 bilhões em 2023, com gigantes da indústria e players proeminentes como OpenAI, Character.AI e Midjourney emergindo rapidamente e principal o boom da IA.

Simultaneamente, a Web3, um modelo emergente da Internet, está gradualmente a mudar a nossa perceção e utilização da Internet. Baseada na tecnologia blockchain descentralizada, a Web3 realiza o compartilhamento e controle de dados, a autonomia do usuário e o estabelecimento de mecanismos de confiança por meio de recursos como contratos inteligentes, armazenamento distribuído e verificação de identidade descentralizada. A ideia central da Web3 é liberar dados de autoridades centralizadas, concedendo aos usuários controle e a capacidade de compartilhar o valor de seus dados.

Atualmente, o valor de mercado da indústria Web3 atingiu US$ 25 trilhões. De Bitcoin, Ethereum e Solana a players de nível de aplicação como Uniswap e Stepn, novas narrativas e cenários estão continuamente surgindo, atraindo cada vez mais pessoas para se juntarem à indústria Web3.

É evidente que a integração da IA e da Web3 é um ponto focal para construtores e capitalistas de risco tanto do Oriente como do Ocidente. Explorar como combinar eficazmente estas duas tecnologias é um esforço que vale muito a pena.

Este artigo se concentrará no estado atual do desenvolvimento de IA+Web3, explorando o valor potencial e o impacto de sua integração. Primeiro, apresentaremos os conceitos básicos e as características da IA e da Web3 e, em seguida, discutiremos sua inter-relação. Em seguida, analisaremos o estado atual dos projetos AI+Web3 e nos aprofundaremos nas limitações e desafios que eles enfrentam. Através desta pesquisa, pretendemos fornecer referências e insights valiosos para investidores e profissionais do setor.

Como a IA interage com a Web3

O desenvolvimento da IA e da Web3 pode ser visto como dois lados de uma escala: a IA traz melhorias de produtividade, enquanto a Web3 revoluciona as relações de produção. Então, que tipo de faíscas a IA e a Web3 podem criar quando colidem? Primeiro, analisaremos os desafios e potenciais melhorias nas indústrias de IA e Web3 e, em seguida, exploraremos como elas podem ajudar a resolver os problemas umas das outras.

  1. Desafios e melhorias potenciais na indústria de IA
  2. Desafios e melhorias potenciais na indústria Web3

2.1 Desafios na indústria de IA

Para explorar os desafios enfrentados pela indústria de IA, devemos primeiro entender sua essência. O núcleo da indústria de IA gira em torno de três elementos-chave: poder computacional, algoritmos e dados.

  1. Primeiro, poder computacional: Poder computacional refere-se à capacidade de realizar cálculos e processamento em larga escala. As tarefas de IA normalmente exigem o tratamento de grandes quantidades de dados e a execução de cálculos complexos, como o treinamento de modelos de redes neurais profundas. O alto poder computacional pode acelerar os processos de treinamento e inferência de modelos, melhorando o desempenho e a eficiência dos sistemas de IA. Nos últimos anos, os avanços na tecnologia de hardware, como unidades de processamento gráfico (GPUs) e chips de IA dedicados (como TPUs), aumentaram significativamente o poder computacional, impulsionando o desenvolvimento da indústria de IA. A Nvidia, uma grande fornecedora de GPUs, viu o preço de suas ações disparar nos últimos anos, capturando uma grande participação de mercado e obtendo lucros substanciais.
  2. O que é um algoritmo: Os algoritmos são os componentes centrais dos sistemas de IA. São métodos matemáticos e estatísticos utilizados para resolver problemas e executar tarefas. Os algoritmos de IA podem ser categorizados em algoritmos tradicionais de aprendizado de máquina e algoritmos de aprendizado profundo, com algoritmos de aprendizado profundo tendo feito avanços significativos nos últimos anos. A escolha e a conceção dos algoritmos são cruciais para o desempenho e a eficácia dos sistemas de IA. A melhoria contínua e a inovação em algoritmos podem aumentar a precisão, robustez e capacidades de generalização dos sistemas de IA. Algoritmos diferentes produzem resultados diferentes, por isso os avanços nos algoritmos são essenciais para o desempenho das tarefas.
  3. Por que os dados são importantes: A principal tarefa dos sistemas de IA é extrair padrões e regras dos dados por meio de aprendizado e treinamento. Os dados formam a base para o treinamento e a otimização de modelos. Com amostras de dados em grande escala, os sistemas de IA podem aprender modelos mais precisos e inteligentes. Conjuntos de dados ricos fornecem informações abrangentes e diversificadas, permitindo que os modelos generalizem melhor para dados invisíveis e ajudando os sistemas de IA a entender e resolver melhor problemas do mundo real.

Depois de entender os três elementos centrais da IA atual, vamos examinar as dificuldades e desafios que a IA enfrenta nessas áreas.

Primeiro, em termos de poder computacional, as tarefas de IA geralmente exigem uma grande quantidade de recursos computacionais para treinamento e inferência de modelos, especialmente para modelos de aprendizagem profunda. No entanto, obter e gerenciar o poder computacional em larga escala é um desafio caro e complexo. O custo, o consumo de energia e a manutenção de equipamentos de computação de alto desempenho são questões significativas. Isso é particularmente desafiador para startups e desenvolvedores individuais, para quem adquirir poder computacional suficiente pode ser difícil.

Em termos de algoritmos, apesar dos sucessos significativos dos algoritmos de aprendizagem profunda em muitos campos, ainda existem desafios e dificuldades. Por exemplo, treinar redes neurais profundas requer uma grande quantidade de dados e recursos computacionais. Além disso, para certas tarefas, a interpretabilidade e a explicabilidade dos modelos podem ser insuficientes. A robustez e as capacidades de generalização dos algoritmos também são questões cruciais, já que o desempenho do modelo em dados invisíveis pode ser instável. Encontrar o melhor algoritmo para fornecer o melhor desempenho entre muitos algoritmos é uma exploração contínua.

Em termos de dados, os dados são a força motriz por trás da IA, mas a obtenção de dados diversificados e de alta qualidade continua sendo um desafio. Os dados em alguns domínios, como os dados sensíveis no domínio da saúde no setor médico, podem ser difíceis de obter. Além disso, a qualidade, a precisão e a rotulagem dos dados são questões críticas, pois dados incompletos ou tendenciosos podem levar a comportamentos ou vieses errados do modelo. A proteção da privacidade e da segurança dos dados também é uma consideração importante.

Além disso, há questões relacionadas com a interpretabilidade e a transparência. A natureza de "caixa preta" dos modelos de IA é uma preocupação pública. Em certas aplicações, como finanças, saúde e justiça, o processo de tomada de decisão de modelos precisa ser interpretável e rastreável. No entanto, os modelos de aprendizagem profunda existentes muitas vezes carecem de transparência. Explicar o processo de tomada de decisão dos modelos e fornecer explicações fiáveis continua a ser um desafio.

Além disso, os modelos de negócios de muitos projetos de startups de IA não são muito claros, o que também causa confusão para muitos empreendedores de IA.

2.2 Desafios na indústria Web3

Na indústria Web3, existem inúmeros desafios que precisam ser enfrentados, desde a análise de dados e experiência do usuário até vulnerabilidades de contratos inteligentes e ataques de hackers. A IA, como ferramenta para aumentar a produtividade, tem um potencial significativo nessas áreas.

Em primeiro lugar, há espaço para melhorias na análise de dados e nos recursos preditivos. As aplicações de IA na análise e previsão de dados tiveram um impacto significativo na indústria Web3. Através de análise inteligente e mineração por algoritmos de IA, as plataformas Web3 podem extrair informações valiosas de grandes quantidades de dados e fazer previsões e decisões mais precisas. Isso é particularmente significativo para avaliação de risco, previsão de mercado e gestão de ativos em finanças descentralizadas (DeFi).

Além disso, há o potencial de melhorar a experiência do usuário e os serviços de personalização. As aplicações de IA permitem que as plataformas Web3 ofereçam melhores experiências de utilizador e serviços personalizados. Ao analisar e modelar os dados do usuário, as plataformas Web3 podem fornecer recomendações personalizadas, serviços personalizados e experiências de interação inteligentes. Isso ajuda a aumentar o envolvimento e a satisfação dos usuários, promovendo o desenvolvimento do ecossistema Web3. Por exemplo, muitos protocolos Web3 integram ferramentas de IA como o ChatGPT para melhor servir os utilizadores.

Em termos de segurança e proteção da privacidade, as aplicações de IA também têm um impacto profundo na indústria Web3. A tecnologia de IA pode ser usada para detetar e se defender contra ataques de rede, identificar comportamentos anormais e fornecer medidas de segurança mais fortes. Além disso, a IA pode ser aplicada à proteção da privacidade de dados, salvaguardando as informações pessoais dos utilizadores nas plataformas Web3 através de técnicas como encriptação de dados e computação de privacidade. No que diz respeito à auditoria de contratos inteligentes, uma vez que podem existir vulnerabilidades e riscos de segurança nos processos de escrita e auditoria de contratos inteligentes, a tecnologia de IA pode ser utilizada para auditoria automatizada de contratos e deteção de vulnerabilidades, aumentando a segurança e fiabilidade dos contratos.

É evidente que a IA pode contribuir significativamente para enfrentar os desafios e potenciais melhorias na indústria Web3 em vários aspetos.

Análise da situação atual do projeto AI+Web3

A combinação de projetos de IA e Web3 se concentra principalmente em dois aspetos principais: alavancar a tecnologia blockchain para aprimorar projetos de IA e utilizar a tecnologia de IA para servir à melhoria de projetos Web3. Inúmeros projetos surgiram ao longo deste caminho, incluindo Io.net, Gensyn, Ritual, entre outros. A análise a seguir irá mergulhar em diferentes subdomínios onde a IA auxilia a Web3 e onde a Web3 aprimora a IA.

3.1 Web3 ajuda AI

3.1.1 Poder de computação descentralizada

Desde o lançamento do ChatGPT pela OpenAI no final de 2022, ele desencadeou um frenesi no campo da IA. Em cinco dias após seu lançamento, a base de usuários chegou a um milhão, superando a taxa de downloads do Instagram, que levou aproximadamente dois meses e meio para atingir a mesma marca. Posteriormente, o ChatGPT experimentou um rápido crescimento, com usuários ativos mensais atingindo 100 milhões em dois meses e usuários ativos semanais atingindo 100 milhões em novembro de 2023. Com o advento do ChatGPT, o setor de IA rapidamente passou de um campo de nicho para uma indústria altamente conceituada.

De acordo com o relatório da Trendforce, o ChatGPT requer 30.000 GPUs NVIDIA A100 para operar, e modelos futuros como o GPT-5 exigirão ainda mais poder computacional. Isso desencadeou uma corrida armamentista entre várias empresas de IA, já que possuir poder computacional suficiente é crucial para manter uma vantagem competitiva na arena de IA, principal à escassez de GPUs.

Antes do subir da IA, o principal provedor de GPU, NVIDIA, atendia principalmente clientes dos três principais serviços de nuvem: AWS, Azure e GCP. Com o subir da inteligência artificial, inúmeros novos compradores surgiram, incluindo grandes empresas de tecnologia como Meta, Oracle, bem como outras plataformas de dados e startups de IA, todas se juntando à corrida para estocar GPUs para treinar modelos de IA. Grandes empresas de tecnologia como Meta e Tesla aumentaram significativamente suas compras de modelos personalizados de IA e pesquisas internas. Empresas de modelos básicos, como a Anthropic, e plataformas de dados, como Snowflake e Databricks, também compraram mais GPUs para ajudar seus clientes a fornecer serviços de IA.

Como mencionado pela Semi Analysis no ano passado, existe uma divisão entre empresas "ricas em GPU" e "pobres em GPU", com apenas algumas possuindo mais de 20.000 GPUs A100/H100, permitindo que os membros da equipe utilizem entre 100 a 1000 GPUs para projetos. Essas empresas são provedores de nuvem ou construíram seus próprios modelos de linguagem de grande porte (LLMs), incluindo OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, entre outros.

No entanto, a maioria das empresas cair na categoria "GPU pobre", lutando com significativamente menos GPUs e gastando uma quantidade considerável de tempo e esforço em tarefas que são mais difíceis de avançar no ecossistema. Além disso, essa situação não se limita às startups. Algumas das empresas de IA mais conhecidas, como Hugging Face, Databricks (MosaicML), Together e até mesmo Snowflake, têm quantidades de A100/H100 inferiores a 20.000. Apesar de terem talento técnico de classe mundial, essas empresas são limitadas pela oferta limitada de GPUs, colocando-as em desvantagem em comparação com empresas maiores na competição de IA.

Essa escassez não se limita à categoria "GPU pobre", mesmo até o final de 2023, o principal player de IA, OpenAI, teve que fechar temporariamente os registros pagos devido à incapacidade de obter GPUs suficientes e teve que adquirir mais suprimentos de GPU.

É evidente que o rápido desenvolvimento da IA levou a um sério descompasso entre a demanda e a oferta de GPUs, criando uma escassez iminente de oferta.

Para resolver este problema, alguns projetos Web3 começaram a explorar soluções de poder de computação descentralizadas, aproveitando as características únicas da tecnologia Web3. Estes projetos incluem Akash, Render, Gensyn, entre outros. A característica comum entre esses projetos é o uso de tokens para incentivar os usuários a fornecer poder de computação de GPU ocioso, tornando-se assim o lado da oferta de poder de computação para suporte clientes de IA.

O perfil do lado da oferta consiste principalmente em três aspetos: provedores de serviços em nuvem, mineradores de criptomoedas e empresas. Os provedores de serviços de nuvem incluem os principais provedores de serviços de nuvem (como AWS, Azure, GCP) e provedores de serviços de nuvem de GPU (como Coreweave, Lambda, Crusoe), onde os usuários podem revender poder de computação ocioso desses provedores para gerar renda. Com Ethereum transição de PoW para PoS, o poder de computação ocioso da GPU tornou-se um importante lado de fornecimento potencial para os mineradores de criptomoedas. Além disso, grandes empresas como Tesla e Meta, que compraram grandes quantidades de GPUs para fins estratégicos, também podem contribuir com seu poder de computação de GPU ocioso como parte do lado da oferta.

Atualmente, os jogadores neste campo geralmente podem ser divididos em duas categorias: aqueles que usam poder de computação descentralizado para inferência de IA e aqueles que o usam para treinamento de IA. A primeira categoria inclui projetos como Render (embora focado em renderização, também pode ser usado para computação de IA), Akash, Aethir, enquanto a segunda categoria inclui projetos como io.net (apoiando inferência e treinamento) e Gensyn. A principal diferença entre os dois reside nos diferentes requisitos para o poder de computação.

Vamos primeiro discutir os projetos com foco na inferência de IA. Esses projetos atraem usuários para fornecer poder de computação por meio de incentivos de token e, em seguida, fornecer serviços de rede de poder de computação para o lado da demanda, facilitando assim a correspondência de oferta e demanda de energia de computação ociosa. Detalhes sobre tais projetos são abordados em um relatório de pesquisa do DePIN de nossos Ryze Labs, sinta-se livre para lê-los.

O ponto central reside no mecanismo de incentivo simbólico, onde o projeto atrai primeiro fornecedores e depois usuários, alcançando assim o mecanismo de arranque a frio e operação central do projeto, permitindo uma maior expansão e desenvolvimento. Neste ciclo, o lado da oferta recebe recompensas simbólicas mais valiosas, enquanto o lado da procura beneficia de serviços mais rentáveis. O valor dos tokens do projeto e o crescimento dos participantes da oferta e da demanda permanecem consistentes. À medida que o preço do token aumenta, mais participantes e especuladores são atraídos, criando um loop de captura de valor.

Outra categoria envolve o uso de poder de computação descentralizado para treinamento de IA, como Gensyn e io.net (que suporte treinamento de IA e inferência). Na verdade, a lógica operacional desses projetos não é fundamentalmente diferente dos projetos de inferência de IA. Eles ainda dependem de incentivos simbólicos para atrair a participação do lado da oferta para fornecer poder de computação, que é então utilizado pelo lado da demanda.

io.net, como uma rede de poder de computação descentralizada, atualmente possui mais de 500.000 GPUs, tornando-se um desempenho de destaque nos projetos de poder de computação descentralizada. Além disso, integrou o poder de computação de Render e Filecoin, demonstrando o desenvolvimento contínuo de seu ecossistema.

Além disso, o Gensyn facilita a alocação de tarefas de aprendizado de máquina e recompensas por meio de contratos inteligentes para permitir o treinamento de IA. Como ilustrado no diagrama abaixo, o custo horário do trabalho de treinamento de aprendizado de máquina no Gensyn é de aproximadamente US$ 0,4, o que é significativamente menor do que o custo de mais de US$ 2 na AWS e no GCP.

O ecossistema Gensyn envolve quatro entidades participantes:

  • Transmitentes: Estes são os usuários do lado da demanda que consomem tarefas e pagam por tarefas de treinamento de IA.
  • Executores: Os executores realizam as tarefas de treinamento de modelo e fornecem provas de conclusão de tarefas para verificação.
  • Verificadores: Os verificadores conectam o processo de treinamento não determinístico com a computação linear determinística. Eles comparam as provas fornecidas pelos executores com os limites esperados.
  • Repórteres: Os repórteres inspecionam o trabalho dos verificadores e levantam desafios para ganhar recompensas ao identificar problemas.

Como podemos ver, o Gensyn pretende se tornar um protocolo de computação massivamente escalável e econômico para modelos globais de aprendizagem profunda. No entanto, olhando para este campo, por que a maioria dos projetos escolhe o poder de computação descentralizada para inferência de IA em vez de treinamento?

Vamos também ajudar os amigos que não estão familiarizados com o treinamento e inferência de IA a entender a diferença entre os dois:

  • Treinamento de IA: Se compararmos a inteligência artificial a um aluno, então o treinamento é semelhante a fornecer à IA uma grande quantidade de conhecimento e exemplos, que podem ser entendidos como dados. A IA aprende com estes exemplos. Como a aprendizagem envolve a compreensão e memorização de uma grande quantidade de informações, esse processo requer uma quantidade significativa de poder computacional e tempo.
  • AI Inference: Então, qual é a inferência? Pode ser entendido como usar o conhecimento aprendido para resolver problemas ou fazer exames. Durante a inferência, a inteligência artificial usa o conhecimento aprendido para fornecer respostas, em vez de adquirir novos conhecimentos. Portanto, os requisitos computacionais para o processo de inferência são relativamente pequenos.

Pode-se ver que os requisitos de poder computacional para inferência de IA e treinamento de IA diferem significativamente. A disponibilidade de poder de computação descentralizada para inferência de IA e treinamento de IA será analisada mais detalhadamente na próxima seção de desafios.

Além disso, a Ritual pretende combinar redes distribuídas com criadores de modelos para manter a descentralização e a segurança. Seu primeiro produto, o Infernet, permite que contratos inteligentes no blockchain acessem modelos de IA fora da cadeia, permitindo que esses contratos acessem a IA de uma forma que mantenha a verificação, a descentralização e a proteção da privacidade.

O coordenador do Infernet é responsável por gerenciar o comportamento dos nós na rede e responder às solicitações computacionais dos consumidores. Quando os usuários usam o Infernet, tarefas como inferência e prova são realizadas fora da cadeia, com a saída devolvida ao coordenador e, finalmente, transmitida aos consumidores na cadeia via contratos inteligentes.

Além de redes de poder de computação descentralizadas, existem também redes de largura de banda descentralizadas como Grass, que visam melhorar a velocidade e eficiência da transmissão de dados. No geral, o surgimento de redes de poder de computação descentralizadas fornece uma nova possibilidade para o lado da oferta do poder de computação da IA, impulsionando a IA em novas direções.

3.1.2 Modelo de algoritmo descentralizado

Assim como mencionado no segundo capítulo, os três elementos centrais da IA são poder computacional, algoritmos e dados. Uma vez que o poder computacional pode formar uma rede de fornecimento através da descentralização, os algoritmos também podem seguir uma abordagem semelhante e formar uma rede de fornecimento para modelos de algoritmos?

Antes de analisar projetos neste campo, vamos primeiro entender a importância dos modelos de algoritmos descentralizados. Muitas pessoas podem se perguntar, já que já temos OpenAI, por que precisamos de uma rede de algoritmos descentralizada?

Essencialmente, uma rede de algoritmos descentralizada é um mercado de serviços de algoritmos de IA descentralizado que conecta muitos modelos diferentes de IA. Cada modelo de IA tem sua própria experiência e habilidades. Quando os usuários fazem perguntas, o mercado seleciona o modelo de IA mais adequado para responder à pergunta. Chat-GPT, desenvolvido pela OpenAI, é um desses modelos de IA que pode entender e gerar texto semelhante aos humanos.

Em termos simples, o ChatGPT é como um aluno altamente capaz ajudando a resolver diferentes tipos de problemas, enquanto uma rede de algoritmos descentralizada é como uma escola com muitos alunos ajudando a resolver problemas. Embora o aluno atual (ChatGPT) seja altamente capaz, a longo prazo, há um grande potencial para uma escola que pode recrutar alunos de todo o mundo.

Atualmente, no campo dos modelos de algoritmos descentralizados, existem também alguns projetos que estão a experimentar e a explorar. Em seguida, usaremos o projeto representativo Bittensor como um estudo de caso para ajudar a entender o desenvolvimento deste campo de nicho.

No Bittensor, o lado da oferta de modelos de algoritmos (ou mineradores) contribui com seus modelos de aprendizado de máquina para a rede. Esses modelos podem analisar dados e fornecer insights. Os provedores de modelos recebem tokens de criptomoedas, conhecidos como TAO, como recompensas por suas contribuições.

Para garantir a qualidade das respostas, a Bittensor usa um mecanismo de consenso único para chegar a um consenso sobre a melhor resposta. Quando uma pergunta é feita, vários mineradores de modelo fornecem respostas. Em seguida, validadores na rede começam a trabalhar para determinar a melhor resposta, que é então enviada de volta para o usuário.

O token TAO no ecossistema Bittensor desempenha dois papéis principais durante todo o processo. Por um lado, serve como um incentivo para os mineiros contribuírem com modelos de algoritmos para a rede. Por outro lado, os usuários precisam gastar tokens para fazer perguntas e fazer com que a rede conclua tarefas.

Como o Bittensor é descentralizado, qualquer pessoa com acesso à internet pode se juntar à rede, seja como um usuário fazendo perguntas ou como um minerador fornecendo respostas. Isso permite que mais pessoas aproveitem o poder da inteligência artificial.

Em resumo, redes de modelos de algoritmos descentralizados como o Bittensor têm o potencial de criar um cenário mais aberto e transparente. Nesse ecossistema, os modelos de IA podem ser treinados, compartilhados e utilizados de forma segura e descentralizada. Além disso, outras redes como a BasedAI estão tentando esforços semelhantes, com o aspeto intrigante de usar Zero-Knowledge Proofs (ZK) para proteger a privacidade de dados interativos do modelo de usuário, que será discutido mais adiante na quarta subseção.

À medida que as plataformas de modelos de algoritmos descentralizados evoluem, elas permitirão que pequenas empresas compitam com grandes organizações no uso de ferramentas de IA de ponta, potencialmente tendo impactos significativos em vários setores.

3.1.3 Recolha descentralizada de dados

Para o treinamento de modelos de IA, uma grande oferta de dados é indispensável. No entanto, a maioria das empresas Web2 atualmente ainda monopoliza os dados dos usuários. Plataformas como X, Reddit, TikTok, Snapchat, Instagram e YouTube proíbem a coleta de dados para treinamento de IA, o que representa um obstáculo significativo para o desenvolvimento da indústria de IA.

Por outro lado, algumas plataformas Web2 vendem dados de usuários para empresas de IA sem compartilhar lucros com os usuários. Por exemplo, o Reddit chegou a um acordo de US$ 60 milhões com o Google, permitindo que o Google treinasse modelos de IA usando suas postagens. Isso resulta em direitos de coleta de dados sendo monopolizados por grandes empresas de capital e big data, empurrando o setor para uma direção de capital intensivo.

Em resposta a essa situação, alguns projetos estão aproveitando incentivos Web3 e token para alcançar a coleta de dados descentralizada. Tomemos o PublicAI como exemplo: os usuários podem participar de duas funções:

  • Uma categoria são os provedores de dados de IA. Os usuários podem encontrar conteúdo valioso no X, marcar @PublicAI conta oficial com seus insights e usar hashtags #AI ou #Web3 para categorizar o conteúdo, enviando-o para o centro de dados da PublicAI para coleta.
  • A outra categoria é a validadores de dados. Os usuários podem entrar no data center da PublicAI e votar nos dados mais valiosos para treinamento de IA.

Como recompensa, os usuários podem ganhar tokens por meio dessas contribuições, promovendo uma relação ganha-ganha entre os contribuidores de dados e a indústria de IA.

Além de projetos como o PublicAI, que coleta dados especificamente para treinamento de IA, há muitos outros projetos que usam incentivos de token para coleta de dados descentralizada. Por exemplo, o Ocean coleta dados do usuário por meio de dados tokenização para servir IA, o Hivemapper usa câmeras de carro dos usuários para coletar dados de mapas, o Dimo coleta dados do carro e o WiHi coleta dados meteorológicos. Esses projetos, por meio da coleta descentralizada de dados, também servem como potenciais fontes de dados para o treinamento de IA. Assim, em sentido amplo, eles podem ser incluídos no paradigma da Web3 auxiliando a IA.

3.1.4 ZK protege a privacidade do usuário em IA

Blockchain tecnologia oferece benefícios de descentralização e também introduz uma característica crucial: provas de conhecimento zero. A tecnologia de conhecimento zero permite a verificação de informações, mantendo a privacidade.

No aprendizado de máquina tradicional, os dados normalmente precisam ser armazenados e processados centralmente, o que pode levar a riscos de privacidade. Métodos para proteger a privacidade de dados, como encriptação ou anonimização de dados, podem limitar a precisão e o desempenho de modelos de aprendizado de máquina.

A tecnologia à prova de conhecimento zero ajuda a resolver este dilema, abordando o conflito entre a proteção da privacidade e a partilha de dados. O Zero-Knowledge Machine Learning (ZKML) usa tecnologia de prova de conhecimento zero para permitir o treinamento e a inferência do modelo de aprendizado de máquina sem expor os dados originais. Provas de conhecimento zero garantem que as características dos dados e os resultados do modelo possam ser verificados como corretos sem revelar o conteúdo real dos dados.

O principal objetivo da ZKML é equilibrar a proteção da privacidade e o compartilhamento de dados. Ele pode ser aplicado em vários cenários, como análise de dados de saúde, análise de dados financeiros e colaboração entre organizações. Ao usar o ZKML, os indivíduos podem proteger a privacidade de seus dados confidenciais enquanto compartilham dados com outras pessoas para obter insights mais amplos e oportunidades de colaboração sem o risco de violações de privacidade de dados. Este domínio encontra-se ainda numa fase inicial, estando a maioria dos projetos ainda em fase de exploração. Por exemplo, a BasedAI propõe uma abordagem descentralizada integrando perfeitamente o Fully Criptografia homomórfica (FHE) com os Large Language Models (LLMs) para manter a confidencialidade dos dados. Os Zero-Knowledge Large Language Models (ZK-LLMs) incorporam privacidade em sua infraestrutura de rede distribuída, garantindo que os dados do usuário permaneçam confidenciais durante toda a operação da rede.

Aqui está uma breve explicação do Fully Criptografia homomórfica (FHE). FHE é uma técnica encriptação que permite que cálculos sejam realizados em dados criptografados sem a necessidade de descriptografá-los. Isto significa que várias operações matemáticas (tais como adição, multiplicação, etc.) realizadas em dados encriptados FHE produzem os mesmos resultados como se fossem realizadas nos dados não encriptados originais, protegendo assim a privacidade dos dados do utilizador.

Além dos métodos acima mencionados, o Web3 também suporta IA através de projetos como o Cortex, que permite na cadeia execução de programas de IA. A execução de programas de aprendizado de máquina em blockchains tradicionais enfrenta um desafio, pois as máquinas virtuais são altamente ineficientes na execução de quaisquer modelos de aprendizado de máquina não triviais. A maioria acredita que executar IA no blockchain é impossível. No entanto, o Cortex Máquina virtual (CVM) utiliza GPUs para executar programas de IA na cadeia e é compatível com o Máquina Virtual Ethereum (EVM). Em outras palavras, a cadeia Cortex pode executar todos os DApps Ethereum e integrar o aprendizado de máquina de IA nesses DApps. Isso permite que os modelos de aprendizado de máquina sejam executados de forma descentralizada, imutável e transparente, com o consenso da rede verificando cada etapa da inferência da IA.

3.2 AI Helps Web3

Na colisão entre IA e Web3, além da assistência da Web3 à IA, a assistência da IA à indústria Web3 também é digna de atenção. A principal contribuição da inteligência artificial é a melhoria da produtividade, por isso há muitas tentativas de auditoria de IA contratos inteligentes, análise e previsão de dados, serviços personalizados, segurança e proteção de privacidade, etc.

3.2.1 Análise e Previsão de Dados

Muitos projetos Web3 estão integrando serviços de IA existentes (como o ChatGPT) ou desenvolvendo seus próprios para fornecer serviços de análise e previsão de dados para usuários da Web3. Esses serviços abrangem uma ampla gama, incluindo algoritmos de IA para estratégias de investimento, ferramentas de análise de na cadeia e previsões de preços e mercado.

Por exemplo, Pond usa algoritmos de gráficos de IA para prever tokens alfa futuros valiosos, oferecendo serviços de consultoria de investimento para usuários e instituições. A IA BullBear treina dados históricos do usuário, histórico de preços e tendências de mercado para fornecer informações precisas que apoiam as previsões de tendência de preços, ajudando os usuários a obter lucros.

Plataformas como a Numerai organizam competições de investimento onde os participantes usam IA e grandes modelos linguísticos para prever os mercados bolsistas. Eles treinam modelos em dados de alta qualidade fornecidos pela plataforma e enviam previsões diárias. A Numerai avalia essas previsões ao longo do mês seguinte, e os participantes podem stake NMR tokens em seus modelos para ganhar recompensas com base no desempenho.

A Arkham, uma plataforma de análise de dados blockchain, também integra IA em seus serviços. Arkham vincula endereços de blockchain a entidades como bolsas, fundos e baleias, exibindo dados e análises importantes para dar aos usuários uma vantagem na tomada de decisões. O Arkham Ultra combina endereços com entidades do mundo real usando algoritmos desenvolvidos ao longo de três anos com suporte dos fundadores da Palantir e da OpenAI.

3.2.2 Serviços Personalizados

Aplicações de IA em busca e recomendação são predominantes em projetos Web2, atendendo às necessidades personalizadas dos usuários. Os projetos Web3 integram de forma semelhante a IA para melhorar a experiência do utilizador.

Por exemplo, a conhecida plataforma de análise de dados Dune introduziu recentemente a ferramenta Wand, que usa grandes modelos de linguagem para escrever consultas SQL. Com o Wand Create, os usuários podem gerar consultas SQL a partir de perguntas de linguagem natural, facilitando a pesquisa de dados para aqueles que não estão familiarizados com SQL.

Plataformas de conteúdo como o Followin integram o ChatGPT para resumir pontos de vista e atualizações em setores específicos. A enciclopédia Web3 IQ.wiki pretende ser a principal fonte de conhecimento objetivo e de alta qualidade sobre a tecnologia blockchain e criptomoedas. Ele integra o GPT-4 para resumir artigos wiki, tornando as informações do blockchain mais acessíveis em todo o mundo. O motor de busca baseado em LLM Kaito pretende revolucionar a recuperação de informação Web3.

No domínio criativo, projetos como o NFPrompt reduzem o custo de criação de conteúdo. O NFPrompt permite que os usuários gerem NFTs mais facilmente com IA, fornecendo vários serviços criativos personalizados.

3.2.3 Auditoria de IA de contratos inteligentes

Auditar contratos inteligentes é uma tarefa crucial na Web3, e a IA pode aumentar a eficiência e a precisão na identificação de vulnerabilidades de código.

Vitalik Buterin observou que um dos maiores desafios no espaço das criptomoedas são os erros em nosso código. A IA tem a promessa de simplificar significativamente o uso de ferramentas de verificação formal para provar a correção do código. Conseguir isso poderia levar a um SEK EVM (Máquina Virtual Ethereum) quase livre de erros, aumentando a segurança do espaço à medida que menos erros aumentam a segurança geral.

Por exemplo, o projeto 0x0.ai oferece um auditor de contrato inteligente alimentado por IA. Esta ferramenta utiliza algoritmos avançados para analisar contratos inteligentes e identificar potenciais vulnerabilidades ou problemas que possam levar a fraudes ou outros riscos de segurança. Os auditores usam aprendizado de máquina para detetar padrões e anomalias no código, sinalizando possíveis problemas para revisão posterior.

Há outros casos nativos em que a IA ajuda a Web3. PAAL ajuda os usuários a criar bots de IA personalizados que podem ser implantados no Telegram e no Discord para atender os usuários da Web3. O agregador de DEX multicadeia orientado por IA Hera usa IA para fornecer os melhores caminhos de negociação entre quaisquer pares de tokens em vários tokens. No geral, a contribuição da IA para a Web3 é principalmente ao nível da ferramenta, melhorando vários processos e funcionalidades.

Limitações e desafios atuais do projeto AI + Web3

4.1 Obstáculos realistas na Poder de computação descentralizada

Atualmente, muitos projetos Web3 que auxiliam a IA estão se concentrando no poder de computação descentralizado. Usar incentivos de token para promover usuários globais a se tornarem parte do lado da fonte de alimentação de computação é uma inovação muito interessante. No entanto, por outro lado, existem algumas questões realistas que precisam de ser abordadas:

Em comparação com provedores de serviços de poder de computação centralizados, os produtos de poder de computação descentralizados normalmente dependem de nós e participantes distribuídos globalmente para fornecer recursos de computação. Devido a possíveis latência e instabilidade nas conexões de rede entre esses nós, o desempenho e a estabilidade podem ser piores do que os produtos de poder de computação centralizado.

Além disso, a disponibilidade de produtos de poder de computação descentralizados é afetada pelo correspondência grau entre a oferta e a procura. Se não existirem fornecedores suficientes ou se a procura for demasiado elevada, tal pode conduzir a uma escassez de recursos ou a uma incapacidade de satisfazer as necessidades dos utilizadores.

Finalmente, em comparação com os produtos de poder de computação centralizado, os produtos de poder de computação descentralizada geralmente envolvem mais detalhes técnicos e complexidade. Os usuários podem precisar entender e lidar com aspetos de redes distribuídas, contratos inteligentes e pagamentos de criptomoedas, o que aumenta o custo de compreensão e uso do usuário.

Depois de discussões aprofundadas com várias equipes de projeto de poder de computação descentralizada, descobriu-se que o poder de computação descentralizada atual ainda é principalmente limitado à inferência de IA em vez de treinamento de IA.

Em seguida, usarei quatro perguntas para ajudar todos a entender as razões por trás disso:

  1. Por que a maioria dos projetos de poder de computação descentralizados opta por fazer inferência de IA em vez de treinamento de IA?

  2. O que torna a NVIDIA tão poderosa? Quais são as razões pelas quais o treinamento de poder de computação descentralizada é difícil?

  3. Qual será o objetivo do poder de computação descentralizado (Render, Akash, io.net, etc.)?

  4. Qual será o endgame para algoritmos descentralizados (Bittensor)?

Vamos nos aprofundar nos detalhes passo a passo:

1) Observando este campo, a maioria dos projetos de poder de computação descentralizados opta por se concentrar na inferência de IA em vez de treinamento, principalmente devido a diferentes requisitos de poder de computação e largura de banda.

Para ajudar todos a entender melhor, vamos comparar a IA com um aluno:

  • Treinamento de IA: Se compararmos a inteligência artificial com um aluno, o treinamento é semelhante a fornecer à IA uma grande quantidade de conhecimento e exemplos, semelhante ao que muitas vezes chamamos de dados. A IA aprende com estes exemplos. Uma vez que a aprendizagem envolve a compreensão e memorização de grandes quantidades de informação, este processo requer poder de computação e tempo substanciais.

  • Inferência de IA: A inferência pode ser entendida como o uso dos conhecimentos adquiridos para resolver problemas ou fazer exames. Durante a inferência, a IA utiliza o conhecimento aprendido para responder a perguntas em vez de adquirir novas informações, portanto, os requisitos computacionais são relativamente menores.

É fácil ver que a diferença fundamental na dificuldade reside no fato de que o treinamento de IA de modelo grande requer enormes volumes de dados e largura de banda extremamente alta para transmissão de dados, tornando-o muito desafiador de alcançar com poder de computação descentralizado. Em contraste, a inferência requer muito menos dados e largura de banda, tornando-a mais viável.

Para modelos grandes, a estabilidade é crucial. Se a formação for interrompida, deve ser reiniciada, o que resulta em custos irrecuperáveis elevados. Por outro lado, demandas com requisitos de poder de computação relativamente mais baixos, como inferência de IA ou certos cenários específicos envolvendo treinamento de modelos médios a pequenos, podem ser alcançadas. Em redes de poder de computação descentralizadas, alguns provedores de serviços de nó relativamente grandes podem atender a essas demandas de poder de computação relativamente mais altas.

2) Então, onde estão os gargalos em dados e largura de banda? Por que o treinamento descentralizado é difícil de alcançar?

Isso envolve dois elementos-chave do treinamento de modelos grandes: poder de computação de cartão único e paralelismo de várias placas.

Poder de computação de cartão único: Atualmente, todos os centros que exigem treinamento de modelo grande, referidos como centros de supercomputação, podem ser comparados ao corpo humano, onde a unidade subjacente, a GPU, é como uma célula. Se o poder de computação de uma única célula (GPU) é forte, então o poder de computação geral (quantidade de × de célula única) também pode ser muito forte.

Paralelismo de várias placas: o treinamento de um modelo grande geralmente envolve centenas de bilhões de gigabytes. Para centros de supercomputação que treinam modelos grandes, são necessárias pelo menos dezenas de milhares de GPUs A100. Para isso, é necessário mobilizar milhares de cartões para treinamento. No entanto, treinar um modelo grande não é um simples processo serial; ele não treina apenas na primeira placa A100 e depois passa para a segunda. Em vez disso, diferentes partes do modelo são treinadas em diferentes GPUs simultaneamente, e a parte A de treinamento pode exigir resultados da parte B, envolvendo processamento paralelo.

O domínio da NVIDIA e o crescente valor de mercado, enquanto a AMD e empresas domésticas como Huawei e Horizon têm dificuldade em recuperar o atraso, decorrem de dois aspetos: o ambiente de software CUDA e a comunicação multi-placa NVLink.

Ambiente de software CUDA: Se há um ecossistema de software para corresponder ao hardware é crucial, como o sistema CUDA da NVIDIA. Construir um novo sistema é um desafio, semelhante à criação de uma nova linguagem com altos custos de substituição.

Comunicação multi-cartão NVLink: Essencialmente, a comunicação multi-cartão envolve a entrada e saída de informações. Como paralelizar e transmitir é crucial. A presença da NVLink significa que as placas NVIDIA e AMD não podem se comunicar; Além disso, o NVLink limita a distância física entre GPUs, exigindo que elas estejam no mesmo centro de supercomputação. Isso dificulta que o poder de computação descentralizado espalhado pelo mundo forme um cluster de computação coeso para treinamento de grandes modelos.

O primeiro ponto explica por que a AMD e empresas nacionais como Huawei e Horizon lutam para recuperar o atraso, o segundo ponto explica por que o treinamento descentralizado é difícil de alcançar.

3) Qual será o desfecho para o poder de computação descentralizada? O poder de computação descentralizado atualmente luta com o treinamento de grandes modelos porque a estabilidade é primordial. As interrupções exigem reconversão profissional, o que resulta em elevados custos irrecuperáveis. Os altos requisitos para paralelismo de várias placas são limitados por restrições de largura de banda física. O NVLink da NVIDIA alcança comunicação com várias placas, mas dentro de um centro de supercomputação, o NVLink limita a distância física entre GPUs. Assim, o poder de computação disperso não pode formar um cluster de computação para treinamento de grandes modelos.

No entanto, para demandas com requisitos de poder de computação relativamente mais baixos, como inferência de IA ou certos cenários específicos envolvendo treinamento de modelos médios a pequenos, redes de poder de computação descentralizadas com alguns provedores de serviços de nó relativamente grandes têm potencial. Além disso, cenários como computação de borda para renderização são relativamente mais fáceis de implementar.

4) Qual será o desfecho para modelos de algoritmos descentralizados? O futuro dos modelos de algoritmos descentralizados depende da direção final da IA. Acredito que o futuro da IA pode apresentar 1-2 gigantes de modelos de código fechado (como o ChatGPT) ao lado de uma infinidade de modelos. Neste contexto, os produtos da camada de aplicação não precisam de se ligar a um único modelo grande, mas sim de cooperar com vários modelos grandes. Neste cenário, o modelo de Bittensor mostra um potencial significativo.

Em projetos atuais que combinam Web3 e IA, particularmente aqueles em que a IA auxilia iniciativas Web3, a maioria dos projetos simplesmente usa IA superficialmente sem demonstrar uma integração profunda entre IA e criptomoedas. Esta aplicação superficial é evidente nos dois aspetos seguintes:

  • Primeiro, seja usando IA para análise e previsão de dados, em cenários de recomendação e pesquisa, ou para auditoria de código, há pouca diferença em comparação com a integração de IA em projetos Web2. Esses projetos simplesmente aproveitam a IA para melhorar a eficiência e a análise sem mostrar uma fusão nativa de IA e criptomoedas ou apresentar soluções inovadoras.
  • Em segundo lugar, muitas equipes Web3 incorporam a IA mais como um truque de marketing, puramente capitalizando o conceito de IA. Eles aplicam a tecnologia de IA em áreas muito limitadas e, em seguida, começam a promover a tendência da IA, criando uma fachada de estreita integração com a IA. No entanto, estes projetos carecem de inovação substancial.

Embora os projetos atuais de Web3 e IA tenham essas limitações, devemos reconhecer que este é apenas o estágio inicial de desenvolvimento. No futuro, podemos esperar uma pesquisa e inovação mais aprofundadas para alcançar uma integração mais estreita entre IA e criptomoedas, criando soluções mais nativas e significativas em áreas como finanças, organizações autônomas descentralizadas (DAOs), mercados de previsão e NFTs.

4.3 Economia Token Serve como um buffer para narrativas de projetos de IA

Como mencionado inicialmente, os projetos de IA enfrentam desafios em seus modelos de negócios, especialmente porque cada vez mais modelos grandes estão gradualmente se tornando de código aberto. Muitos projetos de IA + Web3, muitas vezes projetos de IA pura lutando para prosperar e garantir financiamento no espaço Web2, optam por sobrepor narrativas e economia de tokens da Web3 para incentivar a participação do usuário.

No entanto, a questão crucial é se a integração da economia de tokens realmente ajuda os projetos de IA a atender às necessidades do mundo real ou se ela simplesmente serve como uma narrativa ou proposta de valor de curto prazo. Atualmente, a maioria dos projetos de IA + Web3 está longe de atingir um estágio prático. Espera-se que equipes mais fundamentadas e atenciosas não apenas usem tokens como um meio para promover projetos de IA, mas também cumpram genuinamente casos de uso práticos.

Resumo

Atualmente, inúmeros casos e aplicações têm surgido em projetos de IA + Web3. Em primeiro lugar, a tecnologia de IA pode fornecer casos de uso mais eficientes e inteligentes para a Web3. Através das capacidades de IA em análise e previsão de dados, os utilizadores na Web3 podem ter melhores ferramentas para decisões de investimento e outros cenários. Além disso, a IA pode auditar o código do contrato inteligente, otimizar a execução do contrato e melhorar o desempenho e a eficiência do blockchain. Além disso, a tecnologia de IA pode oferecer recomendações mais precisas e inteligentes e serviços personalizados para aplicações descentralizadas, melhorando assim a experiência do usuário.

Ao mesmo tempo, a natureza descentralizada e programável da Web3 também apresenta novas oportunidades para a tecnologia de IA. Por meio de incentivos de tokens, projetos de poder de computação descentralizados fornecem novas soluções para o dilema do poder de computação insuficiente da IA. Os mecanismos de armazenamento contratos inteligentes e distribuído da Web3 também oferecem um espaço e recursos mais amplos para o compartilhamento e treinamento de algoritmos de IA. Os mecanismos de autonomia e confiança dos utilizadores da Web3 também trazem novas possibilidades para o desenvolvimento da IA, permitindo que os utilizadores escolham autonomamente participar na partilha de dados e na formação, aumentando assim a diversidade e a qualidade dos dados e melhorando ainda mais o desempenho e a precisão dos modelos de IA.

Embora os atuais projetos cruzados IA + Web3 ainda estejam em seus estágios iniciais e enfrentem muitos desafios, eles também trazem muitas vantagens. Por exemplo, os produtos de poder de computação descentralizado têm algumas desvantagens, mas reduzem a dependência de instituições centralizadas, fornecem maior transparência e auditabilidade e permitem uma participação e inovação mais amplas. Para casos de uso específicos e necessidades do usuário, produtos de poder de computação descentralizada podem ser uma escolha valiosa. O mesmo se aplica à recolha de dados; Os projetos descentralizados de coleta de dados oferecem vantagens, como a redução da dependência de fontes de dados únicas, o fornecimento de uma cobertura de dados mais ampla e a promoção da diversidade e inclusão de dados. Na prática, é necessário equilibrar essas vantagens e desvantagens e tomar medidas técnicas e de gestão adequadas para superar desafios, garantindo que os projetos descentralizados de coleta de dados tenham um impacto positivo no desenvolvimento da IA.

De um modo geral, a integração da IA + Web3 oferece infinitas possibilidades para a futura inovação tecnológica e desenvolvimento económico. Ao combinar as capacidades inteligentes de análise e tomada de decisão da IA com a natureza descentralizada e autónoma do utilizador da Web3, acredita-se que podemos construir um sistema económico e até social mais inteligente, mais aberto e mais justo.

Declaração de exoneração de responsabilidade:

  1. Este artigo foi reproduzido a partir de [Ryze Labs]. Todos os direitos autorais pertencem ao autor original [Fred]. Se houver objeções a essa reimpressão, entre em contato com a equipe Gate Learn e eles lidarão com isso imediatamente.
  2. Isenção de Responsabilidade: Os pontos de vista e opiniões expressos neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe do Gate Learn. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Comece agora
Registe-se e ganhe um cupão de
100 USD
!