ai é uma das categorias mais quentes e promissoras nos mercados cripto recentemente.
💡treinamento de IA descentralizado
💡gpu depins
💡modelos de IA sem censura
são essas inovações ou apenas palavras da moda? 🤔
Na Hack VC, estamos cortando o ruído para separar a promessa da realidade.
esta postagem analisa as principais ideias de cripto x ai. vamos discutir os desafios reais e oportunidades.
ideias com promessa inicial, mas que encontraram desafios na realidade.
Primeiro, vamos começar com a “promessa da web3 ai”—ideias que têm bastante hype, mas para as quais a realidade pode não ser tão brilhante.
O problema com o treinamento de IA on-chain é que o treinamento requer comunicação e coordenação em alta velocidade entre GPUs, devido às redes neurais exigirem retropropagação durante o treinamento. A Nvidia tem duas inovações para isso (NVLink e InfiniBand). Essas tecnologias tornam a comunicação da GPU ultra rápida, mas são tecnologias exclusivas para uso local, aplicáveis apenas em clusters de GPU localizados em um único datacenter (velocidades de 50+ gigabits).
se você introduzir uma rede descentralizada na imagem, de repente você fica ordens de magnitude mais lento devido à latência e largura de banda adicionais da rede. isso é inviável para casos de uso de treinamento de IA em comparação com a taxa de transferência que você obtém da conectividade de alta velocidade da Nvidia dentro de um datacenter.
note que houve algumas inovações aqui que podem oferecer alguma esperança para o futuro:
o componente de dados do treinamento também é desafiador. qualquer processo de treinamento de IA envolve trabalhar com vastas quantidades de dados. tipicamente, os modelos são treinados em sistemas de armazenamento de dados centralizados e seguros com alta escalabilidade e desempenho. isso requer transferência e processamento de terabytes de dados, e isso não é um ciclo único. os dados geralmente estão ruidosos e contêm erros, então devem ser limpos e transformados em um formato utilizável antes de treinar o modelo. essa etapa envolve tarefas repetitivas de normalização, filtragem e tratamento de valores ausentes. tudo isso representa sérios desafios em um ambiente descentralizado.
o componente de dados do treinamento também é iterativo, o que não se adequa bem ao web3. levou à openai milhares de iterações para alcançar seus resultados. o cenário de tarefa mais básico para um especialista em ciência de dados em uma equipe de ia inclui a definição de objetivos, a preparação de dados e a análise e estruturação de dados para extrair informações importantes e torná-las adequadas para a modelagem. em seguida, um modelo de aprendizado de máquina é desenvolvido para resolver o problema definido e seu desempenho é validado usando um conjunto de dados de teste. esse processo é iterativo: se o modelo atual não se comportar como esperado, o especialista retorna à etapa de coleta de dados ou treinamento do modelo para melhorar os resultados. agora, imagine esse processo em um ambiente descentralizado, onde os melhores frameworks e ferramentas existentes não estão facilmente disponíveis no web3.
a outra preocupação ao treinar modelos de ia on-chain é que é um mercado muito menos interessante em comparação com a inferência. por enquanto, há uma enorme quantidade de computação gpu sendo usada para o treinamento de ia llm. mas, a longo prazo, a inferência se tornará (de longe) o caso de uso mais prevalente de gpus. considere: quantos ia llms precisam ser treinados para o mundo ficar feliz, em comparação com o número de clientes que usarão esses modelos?
uma solução que está progredindo em todas as frentes é 0g.ai (apoiada pela hack vc) que fornece tanto armazenamento de dados on-chain quanto infraestrutura de disponibilidade de dados. sua arquitetura ultra rápida e capacidade de armazenar grandes quantidades de dados on-chain permitem treinamento rápido e iterativo de modelos de ia on-chain de qualquer tipo.
um dos desafios da cripto x ai é verificar a precisão da inferência de ai, uma vez que você não pode necessariamente confiar em uma única parte centralizada para realizar essa inferência devido ao potencial de nós mal comportados. esse desafio não existe na ai web2 porque não há um sistema de estilo de consenso descentralizado.
uma ideia proposta para resolver isso é a computação redundante, onde múltiplos nós repetem a mesma operação de inferência de IA, para que você possa operar de maneira sem confiança e não ter um único ponto de falha.
o problema com essa abordagem é que vivemos em um mundo com uma escassez drástica de chips de alta qualidade de IA. há um período de espera de vários anos para chips nvidia de alta qualidade, e isso resulta em aumentos de preço. se você exigisse (adicionalmente) que sua inferência de IA fosse reexecutada várias vezes em vários nós, agora você está multiplicando esses custos caros. isso será inviável para muitos projetos.
houve sugestões de que o web3 deveria ter seus próprios casos de uso de ia exclusivos que são específicos para os clientes do web3. isso pode ser (por exemplo) um protocolo web3 que usa ia para realizar a pontuação de risco de um pool defi, uma carteira web3 sugerindo novos protocolos para você com base no histórico da sua carteira, ou um jogo web3 que usa ia para controlar personagens não-jogadores (npcs).
por enquanto, este é (a curto prazo) um mercado incipiente onde os casos de uso ainda estão sendo descobertos. alguns desafios incluem:
a longo prazo, somos bastante otimistas em relação aos casos de uso de inteligência artificial nativa da web3, especialmente à medida que os agentes de IA se tornam mais prevalentes. imaginamos um futuro onde qualquer usuário da web3 tenha uma infinidade de agentes de IA auxiliando-os. o líder da categoria inicial para isso é Theoriq(apoiado pela hack vc), que permite agentes de IA componíveis e autônomos on-chain.
existem várias redes de computação de IA descentralizadas que dependem de GPUs de nível de consumidor em vez de data centers. As GPUs de consumidor são úteis para tarefas de inferência de IA de baixo nível ou para casos de uso do consumidor em que a latência, a taxa de transferência e a confiabilidade são flexíveis. Mas para casos de uso empresarial sérios (que é a maioria do mercado que importa), os clientes desejam uma rede de confiabilidade mais alta em comparação com as máquinas domésticas das pessoas e frequentemente precisam de GPUs de nível superior se tiverem tarefas de inferência mais complexas. Data centers são mais apropriados para esses casos de uso mais valiosos para os clientes.
note que consideramos as GPUs de nível de consumo úteis para fins de demonstração ou para pessoas físicas e startups que podem tolerar uma confiabilidade mais baixa. Mas esses clientes são fundamentalmente menos valiosos, então acreditamos que os depins que atendem às empresas web2 serão mais valiosos a longo prazo. Como tal, os projetos de depin de GPU bem conhecidos geralmente evoluíram dos primeiros dias de hardware principalmente de nível de consumo para ter disponibilidade de a100/h100 e em nível de cluster.
realidade - os casos de uso práticos e realistas de cripto x IA
agora, vamos discutir os casos de uso que fornecem 'benefícios reais'. estes são 'ganha' reais onde a cripto x ai pode adicionar valor significativo.
mckinseyestimativas aquele ai generativo poderia adicionar o equivalente a $2.6 trilhões a $4.4 trilhões anualmente em 63 casos de uso analisados—em comparação, o PIB inteiro do Reino Unido em 2021 foi de $3.1 trilhões. isso aumentaria o impacto de toda a inteligência artificial em 15% a 40%. essa estimativa dobraria aproximadamente se incluirmos o impacto da incorporação de ai generativo em software que atualmente é usado para outras tarefas além desses casos de uso.
se você fizer as contas na estimativa acima, isso implica que o mercado total para IA (além da IA generativa) poderia valer dezenas de trilhões de dólares em todo o mundo. Em comparação, todas as criptomoedas combinadas, incluindo o bitcoin e todas as altcoins, valem apenas cerca de US$2,7 trilhões hoje. Então vamos ser realistas aqui: a grande maioria dos clientes que precisam de IA no curto prazo serão os clientes da web2, já que os clientes da web3 que realmente precisam de IA serão uma pequena parcela desses US$2,7 trilhões (considere que o BTC representa metade desse mercado e o próprio BTC não precisa/usará IA).
os casos de uso da web3 ai estão apenas começando e não está nada claro qual será o tamanho desse mercado. mas uma coisa é intuitivamente certa - será uma pequena fração do mercado da web2 no futuro previsível. acreditamos que a web3 ai ainda tem um futuro brilhante, mas isso simplesmente significa que a aplicação mais poderosa da web3 ai, por agora, é servir aos clientes da web2.
exemplos de clientes web2 que poderiam se beneficiar hipoteticamente da IA web3 incluem:
Esta é uma persona de cliente relativamente estável, uma vez que os clientes geralmente são grandes e valiosos. Eles provavelmente não vão sair do negócio em breve e representam clientes potenciais muito grandes para os serviços de IA. Os serviços de IA da web3 que atendem aos clientes da web2 se beneficiarão dessa base de clientes estável.
mas por que um cliente web2 gostaria de usar uma pilha web3? o restante deste post faz esse caso.
gpu depins aggreGate.io under-utilized gpu compute power (the most reliable of which come from data centers) and make them available for ai inference (an example of this is io.net, que é uma empresa de portfólio de fundos gerenciados pela hack vc). Uma maneira simples de pensar nisso é “airbnb para GPUs” (efetivamente, consumo colaborativo de ativos subutilizados).
a razão pela qual estamos entusiasmados com gpu depins é que, como mencionado acima, há uma escassez de chips nvidia, e atualmente existem ciclos de gpu desperdiçados que podem ser usados para inferência de ia. esses proprietários de hardware têm um custo afundado e não estão fazendo uso total de seu equipamento hoje, e, portanto, podem oferecer esses ciclos fracionados de gpu a um custo muito mais baixo em comparação com o status quo, já que é efetivamente “dinheiro encontrado” para os proprietários de hardware.
exemplos incluem:
observe que nem todo hardware de GPU é adequado para inferência de IA. Uma razão óbvia para isso é que GPUs mais antigas não possuem a quantidade necessária de memória de GPU para LLMS, embora tenham ocorrido algumas inovações interessantes para ajudar nesse aspecto.Exabits, por exemplo, possui tecnologia que carrega neurônios ativos na memória da gpu e neurônios inativos na memória da cpu. eles preveem quais neurônios precisam estar ativos / inativos. isso permite que gpus de menor desempenho processem cargas de trabalho de ia, mesmo com memória de gpu limitada. isso efetivamente torna gpus de menor desempenho mais úteis para inferência de ia.
observe também que os desenvolvedores de web3 ai precisarão fortalecer suas ofertas ao longo do tempo e oferecer serviços de classe empresarial, como logon único, conformidade com soc 2, acordos de nível de serviço (slas) e mais. isso refletiria os serviços sob as ofertas de nuvem atuais que os clientes web2 atualmente desfrutam.
tem se falado muito sobre a censura de ia. a turquia, por exemplo, temporariamente proibiu a openai (mais tarde, voltou atrás nessa decisão, uma vez que a openai melhorou sua conformidade). acreditamos que esse tipo de censura a nível de país é fundamentalmente desinteressante, uma vez que os países precisarão adotar a ia para se manterem competitivos.
o que é mais interessante é que a openai se autocensura. por exemplo, a openai não lidará com conteúdo nsfw. nem a openai preverá a próxima eleição presidencial. achamos que há um mercado interessante e grande para casos de uso de ia que a openai não tocará por razões políticas.
a abertura de código é uma ótima solução para isso, uma vez que um repositório do github não está sujeito a acionistas nem a um conselho. Um exemplo disso é Venice.ai, que promete preservar sua privacidade e operar de forma não censurada. A chave, é claro, é ser de código aberto, o que alimenta isso. O que o web3 ai pode efetivamente trazer para elevar isso é alimentar esses modelos de software de código aberto (oss) em um cluster de gpu de baixo custo para realizar essa inferência. É por essas razões que acreditamos que oss + web3 são a combinação ideal para pavimentar o caminho para uma IA não censurada.
muitas grandes empresas têm preocupações com a privacidade de seus dados internos da empresa. para esses clientes, pode ser extremamente difícil confiar em uma terceira parte centralizada, como openai, com esses dados.
com web3, pode parecer (à primeira vista) ainda mais assustador para essas empresas, já que seus dados internos estão de repente em uma rede descentralizada. No entanto, existem algumas inovações em tecnologias de aprimoramento de privacidade para a IA:
essas tecnologias ainda estão evoluindo, e o desempenho ainda está melhorando por meio dos próximos zero conhecimento (zk) e fhe asics. mas o objetivo a longo prazo é proteger os dados da empresa ao ajustar um modelo. à medida que esses protocolos surgem, a web3 pode se tornar um local mais atraente para computação de inteligência artificial preservando a privacidade.
O OSS tem consistentemente corroído a participação de mercado de software proprietário nas últimas décadas. Olhamos para um LLM simplesmente como uma forma sofisticada de software proprietário que está maduro para a interrupção do OSS. Alguns exemplos notáveis de desafiantes incluem Llama, RWKV, e Mistral.ai. esta lista certamente crescerá à medida que o tempo passa (uma lista mais abrangente está disponível emOpenrouter.ai). aproveitando a web3 ai (alimentada por modelos oss), pode-se aproveitar essas novas inovações.
acreditamos que, à medida que o tempo passa, uma força de trabalho global de desenvolvimento de código aberto, combinada com incentivos criptográficos, pode impulsionar uma rápida inovação em modelos de código aberto, bem como nos agentes e estruturas construídos sobre eles. Um exemplo de protocolo de agente de IA é.Theoriq. a theoriq utiliza modelos oss para criar uma rede interconectada e componível de agentes de IA que podem ser montados para criar soluções de IA de nível superior.
a razão pela qual temos convicção aqui se deve ao passado: a maioria do “software de desenvolvedor” foi lentamente superada pelo oss ao longo do tempo. a microsoft costumava ser uma empresa de software proprietário, e agora eles são a empresa nº 1 contribuindo para o github, e há uma razão para isso. se você olhar para como databricks, postgressql, mongodb e outros têm perturbado bancos de dados proprietários, esse é um exemplo de uma indústria inteira que foi virada de cabeça para baixo pelo oss, então o precedente aqui é bastante forte.
isso, no entanto, vem com uma ressalva. uma das coisas complicadas com os sistemas de aprendizado de máquina de código aberto é que a OpenAI começou a criar acordos de licenciamento de dados pagos com organizações, como o Reddit e o New York Times. Se essa tendência continuar, pode se tornar mais difícil para os sistemas de aprendizado de máquina de código aberto competirem devido à barreira financeira envolvida na aquisição de dados. É possível que a Nvidia invista mais na computação confidencial como facilitador seguro de compartilhamento de dados. O tempo dirá como isso se desenrola.
um dos desafios com a inferência de IA web3 é a verificação. existe uma oportunidade hipotética para validadores trapacearem em seus resultados para ganhar taxas, portanto, verificar inferências é uma medida importante. observe que essa trapaça ainda não aconteceu, porque a inferência de IA está em seus estágios iniciais, mas é inevitável a menos que medidas sejam tomadas para desincentivar esse comportamento.
a abordagem padrão web3 é ter vários validadores repetindo a mesma operação e comparando os resultados. O desafio evidente com isso é, como observado, a inferência de IA é cara devido à escassez atual de chips nvidia de alta qualidade. Dado que o web3 pode oferecer inferência de baixo custo por meio de gpu depins subutilizadas, a computação redundante prejudicaria gravemente a proposta de valor do web3.
uma solução mais promissora é realizar uma prova zk para computação de inferência de IA fora da cadeia. Nesse caso, a prova zk sucinta pode ser verificada para determinar se um modelo foi treinado corretamente ou se a inferência foi executada corretamente (conhecido como zkml). Exemplos incluem Modulus labseZKonduit. o desempenho dessas soluções ainda é incipiente, uma vez que as operações zk são bastante intensivas em computação. No entanto, antecipamos que isso provavelmente melhorará à medida que os asics de hardware zk forem lançados em um futuro próximo.
Ainda mais promissora é a ideia de uma abordagem de inferência de IA baseada em amostragem um tanto "otimista". Nesse modelo, você verificaria apenas uma pequena porcentagem dos resultados gerados pelos validadores, mas definiria o custo econômico de corte alto o suficiente para que, se pego, criasse um forte desincentivo econômico para os validadores trapacearem. Dessa forma, você está economizando em computação redundante (por exemplo, consulte Hiperbólicode Prova de amostragem de papel).
outra ideia promissora é uma solução de marca d'água e impressão digital, como a proposta pelorede de bagels. isso é semelhante ao mecanismo da amazon alexa para garantia de qualidade dos modelos de inteligência artificial em dispositivos para milhões de dispositivos.
a próxima oportunidade que o web3 traz para a ia é democratizar os custos. até agora, falamos sobre a economia de custos de gpu via depins. mas o web3 também oferece oportunidades para economizar nas margens de lucro dos serviços de ia centralizados da web2 (por exemplo, openai, que está gerando mais de $1b/ano em receita até o momento desta escrita). essas economias de custo vêm do fato de que modelos de software livre estão sendo usados em vez de modelos proprietários, para uma camada adicional de economia, já que o criador do modelo não está tentando obter lucro.
muitos modelos de OSS continuarão completamente gratuitos, o que permite a melhor economia possível para os clientes. Mas pode haver alguns modelos de OSS que também tentem esses métodos de monetização. Considere que apenas 4% dos modelos totais no Hugging Face são treinados por empresas com orçamentos para ajudar a subsidiar os modelos (ver aqui). os restantes 96% dos modelos são treinados pela comunidade. Essa coorte - 96% da Hugging Face - tem custos reais fundamentais (incluindo custos de computação e dados). Portanto, esses modelos precisarão monetizar de alguma forma.
existem várias propostas para realizar a monetização de modelos de código aberto. uma das mais interessantes é o conceito de uma “oferta inicial de modelo” (imo) onde você tokeniza o próprio modelo, reserva uma porcentagem de tokens para a equipe, e repassa algumas receitas futuras desse modelo para os detentores de tokens, embora claramente existam alguns obstáculos legais e regulatórios lá.
outros modelos de OSS tentarão monetizar o uso. Note que, se isso se concretizar, os modelos de OSS podem começar a se assemelhar cada vez mais aos seus equivalentes web2 geradores de lucro. Mas, realisticamente, o mercado será bifurcado, com alguns modelos permanecendo completamente gratuitos.
um dos maiores desafios com ai é encontrar os dados certos para treinar seus modelos. mencionamos anteriormente que o treinamento de ai descentralizado tem seus desafios. mas e usar uma rede descentralizada para obter dados (que podem então ser usados para treinamento em outro lugar, mesmo em locais tradicionais da web2)?
isso é exatamente o que startups como Gramaestão fazendo. a grama é uma rede descentralizada de "raspadores de dados," indivíduos que contribuem com a potência de processamento ociosa de suas máquinas para obter dados para informar o treinamento de modelos de ia. hipoteticamente, em escala, essa obtenção de dados pode ser superior aos esforços internos de uma única empresa para obter dados devido ao poder imenso de uma grande rede de nós incentivados. isso inclui não apenas a obtenção de mais dados, mas também a obtenção desses dados com mais frequência, para que os dados sejam mais relevantes e atualizados. também é virtualmente impossível parar um exército descentralizado de raspadores de dados, pois eles são inerentemente fragmentados e não residem em um único endereço ip. eles também têm uma rede de seres humanos que podem limpar e normalizar os dados, para que sejam úteis após a obtenção.
uma vez que você tenha os dados, você também precisa de um lugar para armazená-los na cadeia, bem como os llms gerados com esses dados.0g.AIé o líder inicial nesta categoria. é uma solução de armazenamento web3 de alto desempenho otimizada para IA que é significativamente mais barata que a aws (outra vitória econômica para a IA web3), além de servir como infraestrutura de disponibilidade de dados para camadas 2, IA e muito mais.
observe que o papel dos dados pode estar mudando no web3 ai no futuro. hoje, o status quo atual para llms é pré-treinar um modelo com dados e refiná-lo ao longo do tempo com mais dados. no entanto, esses modelos estão sempre levemente desatualizados, já que os dados na internet estão mudando em tempo real. portanto, as respostas da inferência llm são ligeiramente imprecisas.
o futuro para onde o mundo pode estar indo é um novo paradigma - dados em tempo real. O conceito é quando um llm é solicitado a responder uma pergunta de inferência, esse llm pode usar a injeção de prompt de dados no llm, onde esses dados são coletados em tempo real da internet. Dessa forma, o llm usa os dados mais atualizados possíveis. A Grass também está pesquisando isso.
conclusão
esperamos que isso sirva como uma análise útil para você ao pensar em promessas versus realidades da web3 ai. este é apenas um ponto de partida para a conversa, e o cenário está mudando rapidamente, então sinta-se à vontade para participar e expressar suas opiniões também, pois adoraríamos continuar aprendendo e construindo juntos.
agradecimentos
um agradecimento muito especial a albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng e jw wang por seu feedback e contribuições para esta postagem.
as informações aqui contidas têm apenas fins informativos gerais e não constituem, nem são destinadas a constituir, aconselhamento de investimento e não devem ser utilizadas na avaliação de qualquer decisão de investimento. tais informações não devem ser consideradas para fins contábeis, jurídicos, fiscais, comerciais, de investimento ou outros conselhos relevantes. você deve consultar seus próprios consultores, incluindo seu próprio conselheiro, para obter conselhos contábeis, jurídicos, fiscais, comerciais, de investimento ou outros conselhos relevantes, inclusive em relação a qualquer assunto discutido aqui.
esta postagem reflete as opiniões atuais do(s) autor(es) e não é feita em nome do hack vc ou de suas afiliadas, incluindo quaisquer fundos gerenciados pelo hack vc, e não reflete necessariamente as opiniões do hack vc, suas afiliadas, incluindo suas afiliadas parceiras gerais, ou qualquer outra pessoa associada ao hack vc. certas informações aqui contidas foram obtidas de fontes publicadas e/ou preparadas por terceiros e, em certos casos, não foram atualizadas até a data de hoje. embora tais fontes sejam consideradas confiáveis, nem o hack vc, suas afiliadas, incluindo suas afiliadas parceiras gerais, nem qualquer outra pessoa associada ao hack vc estão fazendo representações quanto à sua precisão ou integridade, e elas não devem ser consideradas como tal ou ser a base para uma decisão de contabilidade, jurídica, fiscal, empresarial, de investimento ou outra. as informações aqui contidas não pretendem ser completas e estão sujeitas a alterações, e o hack vc não tem a obrigação de atualizar tais informações ou fazer qualquer notificação caso tais informações se tornem imprecisas.
o desempenho passado não é necessariamente indicativo de resultados futuros. quaisquer declarações prospectivas feitas aqui são baseadas em certas suposições e análises feitas pelo autor à luz de sua experiência e percepção das tendências históricas, condições atuais e desenvolvimentos futuros esperados, bem como outros fatores que ele acredita serem apropriados nas circunstâncias. tais declarações não são garantias de desempenho futuro e estão sujeitas a certos riscos, incertezas e suposições que são difíceis de prever.
este artigo é reproduzido a partir de[Hack vc], o título original "ai x cripto - promessas e realidades", os direitos autorais pertencem ao autor original [ed roman, sócio-gerente da hack vc], se você tiver alguma objeção à reprodução, entre em contatoEquipe de aprendizado da Gate, a equipe irá lidar com isso o mais rápido possível de acordo com os procedimentos relevantes.
aviso legal: as opiniões e pontos de vista expressos neste artigo representam apenas as opiniões pessoais do autor e não constituem qualquer conselho de investimento.
outras versões do artigo são traduzidas pela equipe de aprendizado da Gate.io, não mencionadas emGate.io, o artigo traduzido não pode ser reproduzido, distribuído ou plagiado.
ai é uma das categorias mais quentes e promissoras nos mercados cripto recentemente.
💡treinamento de IA descentralizado
💡gpu depins
💡modelos de IA sem censura
são essas inovações ou apenas palavras da moda? 🤔
Na Hack VC, estamos cortando o ruído para separar a promessa da realidade.
esta postagem analisa as principais ideias de cripto x ai. vamos discutir os desafios reais e oportunidades.
ideias com promessa inicial, mas que encontraram desafios na realidade.
Primeiro, vamos começar com a “promessa da web3 ai”—ideias que têm bastante hype, mas para as quais a realidade pode não ser tão brilhante.
O problema com o treinamento de IA on-chain é que o treinamento requer comunicação e coordenação em alta velocidade entre GPUs, devido às redes neurais exigirem retropropagação durante o treinamento. A Nvidia tem duas inovações para isso (NVLink e InfiniBand). Essas tecnologias tornam a comunicação da GPU ultra rápida, mas são tecnologias exclusivas para uso local, aplicáveis apenas em clusters de GPU localizados em um único datacenter (velocidades de 50+ gigabits).
se você introduzir uma rede descentralizada na imagem, de repente você fica ordens de magnitude mais lento devido à latência e largura de banda adicionais da rede. isso é inviável para casos de uso de treinamento de IA em comparação com a taxa de transferência que você obtém da conectividade de alta velocidade da Nvidia dentro de um datacenter.
note que houve algumas inovações aqui que podem oferecer alguma esperança para o futuro:
o componente de dados do treinamento também é desafiador. qualquer processo de treinamento de IA envolve trabalhar com vastas quantidades de dados. tipicamente, os modelos são treinados em sistemas de armazenamento de dados centralizados e seguros com alta escalabilidade e desempenho. isso requer transferência e processamento de terabytes de dados, e isso não é um ciclo único. os dados geralmente estão ruidosos e contêm erros, então devem ser limpos e transformados em um formato utilizável antes de treinar o modelo. essa etapa envolve tarefas repetitivas de normalização, filtragem e tratamento de valores ausentes. tudo isso representa sérios desafios em um ambiente descentralizado.
o componente de dados do treinamento também é iterativo, o que não se adequa bem ao web3. levou à openai milhares de iterações para alcançar seus resultados. o cenário de tarefa mais básico para um especialista em ciência de dados em uma equipe de ia inclui a definição de objetivos, a preparação de dados e a análise e estruturação de dados para extrair informações importantes e torná-las adequadas para a modelagem. em seguida, um modelo de aprendizado de máquina é desenvolvido para resolver o problema definido e seu desempenho é validado usando um conjunto de dados de teste. esse processo é iterativo: se o modelo atual não se comportar como esperado, o especialista retorna à etapa de coleta de dados ou treinamento do modelo para melhorar os resultados. agora, imagine esse processo em um ambiente descentralizado, onde os melhores frameworks e ferramentas existentes não estão facilmente disponíveis no web3.
a outra preocupação ao treinar modelos de ia on-chain é que é um mercado muito menos interessante em comparação com a inferência. por enquanto, há uma enorme quantidade de computação gpu sendo usada para o treinamento de ia llm. mas, a longo prazo, a inferência se tornará (de longe) o caso de uso mais prevalente de gpus. considere: quantos ia llms precisam ser treinados para o mundo ficar feliz, em comparação com o número de clientes que usarão esses modelos?
uma solução que está progredindo em todas as frentes é 0g.ai (apoiada pela hack vc) que fornece tanto armazenamento de dados on-chain quanto infraestrutura de disponibilidade de dados. sua arquitetura ultra rápida e capacidade de armazenar grandes quantidades de dados on-chain permitem treinamento rápido e iterativo de modelos de ia on-chain de qualquer tipo.
um dos desafios da cripto x ai é verificar a precisão da inferência de ai, uma vez que você não pode necessariamente confiar em uma única parte centralizada para realizar essa inferência devido ao potencial de nós mal comportados. esse desafio não existe na ai web2 porque não há um sistema de estilo de consenso descentralizado.
uma ideia proposta para resolver isso é a computação redundante, onde múltiplos nós repetem a mesma operação de inferência de IA, para que você possa operar de maneira sem confiança e não ter um único ponto de falha.
o problema com essa abordagem é que vivemos em um mundo com uma escassez drástica de chips de alta qualidade de IA. há um período de espera de vários anos para chips nvidia de alta qualidade, e isso resulta em aumentos de preço. se você exigisse (adicionalmente) que sua inferência de IA fosse reexecutada várias vezes em vários nós, agora você está multiplicando esses custos caros. isso será inviável para muitos projetos.
houve sugestões de que o web3 deveria ter seus próprios casos de uso de ia exclusivos que são específicos para os clientes do web3. isso pode ser (por exemplo) um protocolo web3 que usa ia para realizar a pontuação de risco de um pool defi, uma carteira web3 sugerindo novos protocolos para você com base no histórico da sua carteira, ou um jogo web3 que usa ia para controlar personagens não-jogadores (npcs).
por enquanto, este é (a curto prazo) um mercado incipiente onde os casos de uso ainda estão sendo descobertos. alguns desafios incluem:
a longo prazo, somos bastante otimistas em relação aos casos de uso de inteligência artificial nativa da web3, especialmente à medida que os agentes de IA se tornam mais prevalentes. imaginamos um futuro onde qualquer usuário da web3 tenha uma infinidade de agentes de IA auxiliando-os. o líder da categoria inicial para isso é Theoriq(apoiado pela hack vc), que permite agentes de IA componíveis e autônomos on-chain.
existem várias redes de computação de IA descentralizadas que dependem de GPUs de nível de consumidor em vez de data centers. As GPUs de consumidor são úteis para tarefas de inferência de IA de baixo nível ou para casos de uso do consumidor em que a latência, a taxa de transferência e a confiabilidade são flexíveis. Mas para casos de uso empresarial sérios (que é a maioria do mercado que importa), os clientes desejam uma rede de confiabilidade mais alta em comparação com as máquinas domésticas das pessoas e frequentemente precisam de GPUs de nível superior se tiverem tarefas de inferência mais complexas. Data centers são mais apropriados para esses casos de uso mais valiosos para os clientes.
note que consideramos as GPUs de nível de consumo úteis para fins de demonstração ou para pessoas físicas e startups que podem tolerar uma confiabilidade mais baixa. Mas esses clientes são fundamentalmente menos valiosos, então acreditamos que os depins que atendem às empresas web2 serão mais valiosos a longo prazo. Como tal, os projetos de depin de GPU bem conhecidos geralmente evoluíram dos primeiros dias de hardware principalmente de nível de consumo para ter disponibilidade de a100/h100 e em nível de cluster.
realidade - os casos de uso práticos e realistas de cripto x IA
agora, vamos discutir os casos de uso que fornecem 'benefícios reais'. estes são 'ganha' reais onde a cripto x ai pode adicionar valor significativo.
mckinseyestimativas aquele ai generativo poderia adicionar o equivalente a $2.6 trilhões a $4.4 trilhões anualmente em 63 casos de uso analisados—em comparação, o PIB inteiro do Reino Unido em 2021 foi de $3.1 trilhões. isso aumentaria o impacto de toda a inteligência artificial em 15% a 40%. essa estimativa dobraria aproximadamente se incluirmos o impacto da incorporação de ai generativo em software que atualmente é usado para outras tarefas além desses casos de uso.
se você fizer as contas na estimativa acima, isso implica que o mercado total para IA (além da IA generativa) poderia valer dezenas de trilhões de dólares em todo o mundo. Em comparação, todas as criptomoedas combinadas, incluindo o bitcoin e todas as altcoins, valem apenas cerca de US$2,7 trilhões hoje. Então vamos ser realistas aqui: a grande maioria dos clientes que precisam de IA no curto prazo serão os clientes da web2, já que os clientes da web3 que realmente precisam de IA serão uma pequena parcela desses US$2,7 trilhões (considere que o BTC representa metade desse mercado e o próprio BTC não precisa/usará IA).
os casos de uso da web3 ai estão apenas começando e não está nada claro qual será o tamanho desse mercado. mas uma coisa é intuitivamente certa - será uma pequena fração do mercado da web2 no futuro previsível. acreditamos que a web3 ai ainda tem um futuro brilhante, mas isso simplesmente significa que a aplicação mais poderosa da web3 ai, por agora, é servir aos clientes da web2.
exemplos de clientes web2 que poderiam se beneficiar hipoteticamente da IA web3 incluem:
Esta é uma persona de cliente relativamente estável, uma vez que os clientes geralmente são grandes e valiosos. Eles provavelmente não vão sair do negócio em breve e representam clientes potenciais muito grandes para os serviços de IA. Os serviços de IA da web3 que atendem aos clientes da web2 se beneficiarão dessa base de clientes estável.
mas por que um cliente web2 gostaria de usar uma pilha web3? o restante deste post faz esse caso.
gpu depins aggreGate.io under-utilized gpu compute power (the most reliable of which come from data centers) and make them available for ai inference (an example of this is io.net, que é uma empresa de portfólio de fundos gerenciados pela hack vc). Uma maneira simples de pensar nisso é “airbnb para GPUs” (efetivamente, consumo colaborativo de ativos subutilizados).
a razão pela qual estamos entusiasmados com gpu depins é que, como mencionado acima, há uma escassez de chips nvidia, e atualmente existem ciclos de gpu desperdiçados que podem ser usados para inferência de ia. esses proprietários de hardware têm um custo afundado e não estão fazendo uso total de seu equipamento hoje, e, portanto, podem oferecer esses ciclos fracionados de gpu a um custo muito mais baixo em comparação com o status quo, já que é efetivamente “dinheiro encontrado” para os proprietários de hardware.
exemplos incluem:
observe que nem todo hardware de GPU é adequado para inferência de IA. Uma razão óbvia para isso é que GPUs mais antigas não possuem a quantidade necessária de memória de GPU para LLMS, embora tenham ocorrido algumas inovações interessantes para ajudar nesse aspecto.Exabits, por exemplo, possui tecnologia que carrega neurônios ativos na memória da gpu e neurônios inativos na memória da cpu. eles preveem quais neurônios precisam estar ativos / inativos. isso permite que gpus de menor desempenho processem cargas de trabalho de ia, mesmo com memória de gpu limitada. isso efetivamente torna gpus de menor desempenho mais úteis para inferência de ia.
observe também que os desenvolvedores de web3 ai precisarão fortalecer suas ofertas ao longo do tempo e oferecer serviços de classe empresarial, como logon único, conformidade com soc 2, acordos de nível de serviço (slas) e mais. isso refletiria os serviços sob as ofertas de nuvem atuais que os clientes web2 atualmente desfrutam.
tem se falado muito sobre a censura de ia. a turquia, por exemplo, temporariamente proibiu a openai (mais tarde, voltou atrás nessa decisão, uma vez que a openai melhorou sua conformidade). acreditamos que esse tipo de censura a nível de país é fundamentalmente desinteressante, uma vez que os países precisarão adotar a ia para se manterem competitivos.
o que é mais interessante é que a openai se autocensura. por exemplo, a openai não lidará com conteúdo nsfw. nem a openai preverá a próxima eleição presidencial. achamos que há um mercado interessante e grande para casos de uso de ia que a openai não tocará por razões políticas.
a abertura de código é uma ótima solução para isso, uma vez que um repositório do github não está sujeito a acionistas nem a um conselho. Um exemplo disso é Venice.ai, que promete preservar sua privacidade e operar de forma não censurada. A chave, é claro, é ser de código aberto, o que alimenta isso. O que o web3 ai pode efetivamente trazer para elevar isso é alimentar esses modelos de software de código aberto (oss) em um cluster de gpu de baixo custo para realizar essa inferência. É por essas razões que acreditamos que oss + web3 são a combinação ideal para pavimentar o caminho para uma IA não censurada.
muitas grandes empresas têm preocupações com a privacidade de seus dados internos da empresa. para esses clientes, pode ser extremamente difícil confiar em uma terceira parte centralizada, como openai, com esses dados.
com web3, pode parecer (à primeira vista) ainda mais assustador para essas empresas, já que seus dados internos estão de repente em uma rede descentralizada. No entanto, existem algumas inovações em tecnologias de aprimoramento de privacidade para a IA:
essas tecnologias ainda estão evoluindo, e o desempenho ainda está melhorando por meio dos próximos zero conhecimento (zk) e fhe asics. mas o objetivo a longo prazo é proteger os dados da empresa ao ajustar um modelo. à medida que esses protocolos surgem, a web3 pode se tornar um local mais atraente para computação de inteligência artificial preservando a privacidade.
O OSS tem consistentemente corroído a participação de mercado de software proprietário nas últimas décadas. Olhamos para um LLM simplesmente como uma forma sofisticada de software proprietário que está maduro para a interrupção do OSS. Alguns exemplos notáveis de desafiantes incluem Llama, RWKV, e Mistral.ai. esta lista certamente crescerá à medida que o tempo passa (uma lista mais abrangente está disponível emOpenrouter.ai). aproveitando a web3 ai (alimentada por modelos oss), pode-se aproveitar essas novas inovações.
acreditamos que, à medida que o tempo passa, uma força de trabalho global de desenvolvimento de código aberto, combinada com incentivos criptográficos, pode impulsionar uma rápida inovação em modelos de código aberto, bem como nos agentes e estruturas construídos sobre eles. Um exemplo de protocolo de agente de IA é.Theoriq. a theoriq utiliza modelos oss para criar uma rede interconectada e componível de agentes de IA que podem ser montados para criar soluções de IA de nível superior.
a razão pela qual temos convicção aqui se deve ao passado: a maioria do “software de desenvolvedor” foi lentamente superada pelo oss ao longo do tempo. a microsoft costumava ser uma empresa de software proprietário, e agora eles são a empresa nº 1 contribuindo para o github, e há uma razão para isso. se você olhar para como databricks, postgressql, mongodb e outros têm perturbado bancos de dados proprietários, esse é um exemplo de uma indústria inteira que foi virada de cabeça para baixo pelo oss, então o precedente aqui é bastante forte.
isso, no entanto, vem com uma ressalva. uma das coisas complicadas com os sistemas de aprendizado de máquina de código aberto é que a OpenAI começou a criar acordos de licenciamento de dados pagos com organizações, como o Reddit e o New York Times. Se essa tendência continuar, pode se tornar mais difícil para os sistemas de aprendizado de máquina de código aberto competirem devido à barreira financeira envolvida na aquisição de dados. É possível que a Nvidia invista mais na computação confidencial como facilitador seguro de compartilhamento de dados. O tempo dirá como isso se desenrola.
um dos desafios com a inferência de IA web3 é a verificação. existe uma oportunidade hipotética para validadores trapacearem em seus resultados para ganhar taxas, portanto, verificar inferências é uma medida importante. observe que essa trapaça ainda não aconteceu, porque a inferência de IA está em seus estágios iniciais, mas é inevitável a menos que medidas sejam tomadas para desincentivar esse comportamento.
a abordagem padrão web3 é ter vários validadores repetindo a mesma operação e comparando os resultados. O desafio evidente com isso é, como observado, a inferência de IA é cara devido à escassez atual de chips nvidia de alta qualidade. Dado que o web3 pode oferecer inferência de baixo custo por meio de gpu depins subutilizadas, a computação redundante prejudicaria gravemente a proposta de valor do web3.
uma solução mais promissora é realizar uma prova zk para computação de inferência de IA fora da cadeia. Nesse caso, a prova zk sucinta pode ser verificada para determinar se um modelo foi treinado corretamente ou se a inferência foi executada corretamente (conhecido como zkml). Exemplos incluem Modulus labseZKonduit. o desempenho dessas soluções ainda é incipiente, uma vez que as operações zk são bastante intensivas em computação. No entanto, antecipamos que isso provavelmente melhorará à medida que os asics de hardware zk forem lançados em um futuro próximo.
Ainda mais promissora é a ideia de uma abordagem de inferência de IA baseada em amostragem um tanto "otimista". Nesse modelo, você verificaria apenas uma pequena porcentagem dos resultados gerados pelos validadores, mas definiria o custo econômico de corte alto o suficiente para que, se pego, criasse um forte desincentivo econômico para os validadores trapacearem. Dessa forma, você está economizando em computação redundante (por exemplo, consulte Hiperbólicode Prova de amostragem de papel).
outra ideia promissora é uma solução de marca d'água e impressão digital, como a proposta pelorede de bagels. isso é semelhante ao mecanismo da amazon alexa para garantia de qualidade dos modelos de inteligência artificial em dispositivos para milhões de dispositivos.
a próxima oportunidade que o web3 traz para a ia é democratizar os custos. até agora, falamos sobre a economia de custos de gpu via depins. mas o web3 também oferece oportunidades para economizar nas margens de lucro dos serviços de ia centralizados da web2 (por exemplo, openai, que está gerando mais de $1b/ano em receita até o momento desta escrita). essas economias de custo vêm do fato de que modelos de software livre estão sendo usados em vez de modelos proprietários, para uma camada adicional de economia, já que o criador do modelo não está tentando obter lucro.
muitos modelos de OSS continuarão completamente gratuitos, o que permite a melhor economia possível para os clientes. Mas pode haver alguns modelos de OSS que também tentem esses métodos de monetização. Considere que apenas 4% dos modelos totais no Hugging Face são treinados por empresas com orçamentos para ajudar a subsidiar os modelos (ver aqui). os restantes 96% dos modelos são treinados pela comunidade. Essa coorte - 96% da Hugging Face - tem custos reais fundamentais (incluindo custos de computação e dados). Portanto, esses modelos precisarão monetizar de alguma forma.
existem várias propostas para realizar a monetização de modelos de código aberto. uma das mais interessantes é o conceito de uma “oferta inicial de modelo” (imo) onde você tokeniza o próprio modelo, reserva uma porcentagem de tokens para a equipe, e repassa algumas receitas futuras desse modelo para os detentores de tokens, embora claramente existam alguns obstáculos legais e regulatórios lá.
outros modelos de OSS tentarão monetizar o uso. Note que, se isso se concretizar, os modelos de OSS podem começar a se assemelhar cada vez mais aos seus equivalentes web2 geradores de lucro. Mas, realisticamente, o mercado será bifurcado, com alguns modelos permanecendo completamente gratuitos.
um dos maiores desafios com ai é encontrar os dados certos para treinar seus modelos. mencionamos anteriormente que o treinamento de ai descentralizado tem seus desafios. mas e usar uma rede descentralizada para obter dados (que podem então ser usados para treinamento em outro lugar, mesmo em locais tradicionais da web2)?
isso é exatamente o que startups como Gramaestão fazendo. a grama é uma rede descentralizada de "raspadores de dados," indivíduos que contribuem com a potência de processamento ociosa de suas máquinas para obter dados para informar o treinamento de modelos de ia. hipoteticamente, em escala, essa obtenção de dados pode ser superior aos esforços internos de uma única empresa para obter dados devido ao poder imenso de uma grande rede de nós incentivados. isso inclui não apenas a obtenção de mais dados, mas também a obtenção desses dados com mais frequência, para que os dados sejam mais relevantes e atualizados. também é virtualmente impossível parar um exército descentralizado de raspadores de dados, pois eles são inerentemente fragmentados e não residem em um único endereço ip. eles também têm uma rede de seres humanos que podem limpar e normalizar os dados, para que sejam úteis após a obtenção.
uma vez que você tenha os dados, você também precisa de um lugar para armazená-los na cadeia, bem como os llms gerados com esses dados.0g.AIé o líder inicial nesta categoria. é uma solução de armazenamento web3 de alto desempenho otimizada para IA que é significativamente mais barata que a aws (outra vitória econômica para a IA web3), além de servir como infraestrutura de disponibilidade de dados para camadas 2, IA e muito mais.
observe que o papel dos dados pode estar mudando no web3 ai no futuro. hoje, o status quo atual para llms é pré-treinar um modelo com dados e refiná-lo ao longo do tempo com mais dados. no entanto, esses modelos estão sempre levemente desatualizados, já que os dados na internet estão mudando em tempo real. portanto, as respostas da inferência llm são ligeiramente imprecisas.
o futuro para onde o mundo pode estar indo é um novo paradigma - dados em tempo real. O conceito é quando um llm é solicitado a responder uma pergunta de inferência, esse llm pode usar a injeção de prompt de dados no llm, onde esses dados são coletados em tempo real da internet. Dessa forma, o llm usa os dados mais atualizados possíveis. A Grass também está pesquisando isso.
conclusão
esperamos que isso sirva como uma análise útil para você ao pensar em promessas versus realidades da web3 ai. este é apenas um ponto de partida para a conversa, e o cenário está mudando rapidamente, então sinta-se à vontade para participar e expressar suas opiniões também, pois adoraríamos continuar aprendendo e construindo juntos.
agradecimentos
um agradecimento muito especial a albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng e jw wang por seu feedback e contribuições para esta postagem.
as informações aqui contidas têm apenas fins informativos gerais e não constituem, nem são destinadas a constituir, aconselhamento de investimento e não devem ser utilizadas na avaliação de qualquer decisão de investimento. tais informações não devem ser consideradas para fins contábeis, jurídicos, fiscais, comerciais, de investimento ou outros conselhos relevantes. você deve consultar seus próprios consultores, incluindo seu próprio conselheiro, para obter conselhos contábeis, jurídicos, fiscais, comerciais, de investimento ou outros conselhos relevantes, inclusive em relação a qualquer assunto discutido aqui.
esta postagem reflete as opiniões atuais do(s) autor(es) e não é feita em nome do hack vc ou de suas afiliadas, incluindo quaisquer fundos gerenciados pelo hack vc, e não reflete necessariamente as opiniões do hack vc, suas afiliadas, incluindo suas afiliadas parceiras gerais, ou qualquer outra pessoa associada ao hack vc. certas informações aqui contidas foram obtidas de fontes publicadas e/ou preparadas por terceiros e, em certos casos, não foram atualizadas até a data de hoje. embora tais fontes sejam consideradas confiáveis, nem o hack vc, suas afiliadas, incluindo suas afiliadas parceiras gerais, nem qualquer outra pessoa associada ao hack vc estão fazendo representações quanto à sua precisão ou integridade, e elas não devem ser consideradas como tal ou ser a base para uma decisão de contabilidade, jurídica, fiscal, empresarial, de investimento ou outra. as informações aqui contidas não pretendem ser completas e estão sujeitas a alterações, e o hack vc não tem a obrigação de atualizar tais informações ou fazer qualquer notificação caso tais informações se tornem imprecisas.
o desempenho passado não é necessariamente indicativo de resultados futuros. quaisquer declarações prospectivas feitas aqui são baseadas em certas suposições e análises feitas pelo autor à luz de sua experiência e percepção das tendências históricas, condições atuais e desenvolvimentos futuros esperados, bem como outros fatores que ele acredita serem apropriados nas circunstâncias. tais declarações não são garantias de desempenho futuro e estão sujeitas a certos riscos, incertezas e suposições que são difíceis de prever.
este artigo é reproduzido a partir de[Hack vc], o título original "ai x cripto - promessas e realidades", os direitos autorais pertencem ao autor original [ed roman, sócio-gerente da hack vc], se você tiver alguma objeção à reprodução, entre em contatoEquipe de aprendizado da Gate, a equipe irá lidar com isso o mais rápido possível de acordo com os procedimentos relevantes.
aviso legal: as opiniões e pontos de vista expressos neste artigo representam apenas as opiniões pessoais do autor e não constituem qualquer conselho de investimento.
outras versões do artigo são traduzidas pela equipe de aprendizado da Gate.io, não mencionadas emGate.io, o artigo traduzido não pode ser reproduzido, distribuído ou plagiado.