Ao longo do ano passado, devido a uma desconexão nas narrativas da camada de aplicativos, incapaz de acompanhar o ritmo de crescimento da infraestrutura, o espaço cripto gradualmente se transformou em uma competição por recursos de atenção. De Silly Dragon a Goat, de Pump.fun a Clanker, a inconstância da atenção levou a um ciclo de reinvenção constante nesta batalha. O que começou com a forma mais convencional de monetização atraente rapidamente evoluiu para um modelo de plataforma que unificou buscadores de atenção e provedores, levando a formas de vida baseadas em silício se tornando novos provedores de conteúdo. Entre a bizarra variedade de moedas meme, surgiu uma nova entidade que permite que investidores de varejo e VCs cheguem a um consenso: AI Agents.
A atenção é, em última análise, um jogo de soma zero, embora a especulação possa, de facto, impulsionar um crescimento rápido. Em nosso artigo anterior sobre UNI, revisitamos o início da última era de ouro do blockchain, quando o crescimento explosivo do DeFi foi desencadeado pelo lançamento da mineração de LP pela Compound Finance. Durante essa época, participar de centenas, às vezes milhares, de pools de mineração com rendimentos na casa dos milhares ou mesmo dezenas de milhares de por cento APY era a forma mais primitiva de especulação on-chain. Embora o resultado tenha sido um colapso caótico de muitos pools, o influxo de mineradores da "corrida do ouro" deixou uma liquidez sem precedentes no espaço blockchain. DeFi eventualmente se libertou da pura especulação e amadureceu em uma vertical sólida que atendia às necessidades financeiras dos usuários em áreas como pagamentos, negociação, arbitragem e staking. Os agentes de IA estão atualmente passando por uma fase semelhante de "crescimento selvagem". O que estamos explorando agora é como a criptografia pode integrar melhor a IA e, finalmente, elevar a camada de aplicativos a novos patamares.
No nosso artigo anterior, introduzimos brevemente as origens dos memes de IA através do Truth Terminal e exploramos o potencial futuro dos Agentes de IA. Este artigo irá focar-se nos próprios Agentes de IA.
Vamos começar com a definição de um Agente de IA. No campo da IA, o termo "Agente" é um conceito mais antigo, mas ainda vago, enfatizando principalmente a autonomia. Em outras palavras, qualquer IA que possa perceber seu ambiente e tomar decisões reflexivas é considerada um Agente. Hoje, a definição de um Agente de IA está mais próxima da de uma entidade inteligente, um sistema projetado para imitar os processos de tomada de decisão humanos. Este sistema é considerado na academia como a abordagem mais promissora para alcançar a AGI (Inteligência Geral Artificial).
Nas primeiras versões do GPT, podíamos claramente sentir que os modelos grandes eram semelhantes aos humanos, mas ao responder a perguntas complexas, frequentemente forneciam respostas vagas ou imprecisas. A razão fundamental para isso era que esses modelos eram baseados em probabilidades em vez de causalidade e careciam de habilidades semelhantes às humanas, como uso de ferramentas, memória e planeamento. Os Agentes de IA visam colmatar estas lacunas. Assim, para resumir numa fórmula: Agente de IA = LLM (Modelo de Linguagem Grande) + Planeamento + Memória + Ferramentas.
Os modelos baseados em prompt são mais parecidos com uma versão estática de uma pessoa, ganhando vida apenas quando inserimos dados. Em contraste, o objetivo de um Agente de IA é ser uma entidade mais dinâmica, semelhante a um ser humano. Atualmente, a maioria dos Agentes de IA no campo são modelos ajustados com base nas versões abertas Llama 70b ou 405b da Meta (com diferentes parâmetros), equipados com memória e a capacidade de usar APIs para integração de ferramentas. Em outras áreas, eles ainda podem precisar de entrada ou assistência humana, como interagir ou colaborar com outros Agentes de IA. Por isso, a maioria dos Agentes de IA hoje existem principalmente na forma de KOLs em redes sociais. Para tornar um Agente de IA mais semelhante a um ser humano, é necessário incorporar capacidades de planeamento e ação, sendo especialmente crucial a cadeia de pensamento dentro do processo de planeamento.
O conceito de Chain of Thought (CoT) apareceu pela primeira vez no artigo de 2022 do Google intitulado Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. O artigo apontou que, ao gerar uma série de etapas de raciocínio intermediárias, a capacidade de raciocínio do modelo poderia ser aprimorada, ajudando-o a entender e resolver problemas complexos com mais facilidade.
Um prompt típico de CoT consiste em três partes: uma descrição da tarefa com instruções claras, uma base lógica para a tarefa com a fundamentação teórica ou princípios que sustentam a solução e um exemplo específico da solução. Essa abordagem estruturada ajuda o modelo a entender os requisitos da tarefa e, por meio de raciocínio lógico, aproximar gradualmente a resposta, melhorando tanto a eficiência quanto a precisão na resolução de problemas. CoT é particularmente adequado para tarefas que exigem análise profunda e raciocínio de múltiplas etapas, como resolução de problemas matemáticos ou redação de relatórios de projetos. Para tarefas mais simples, CoT pode não apresentar vantagens óbvias, mas para as mais complexas, ele pode melhorar significativamente o desempenho do modelo, reduzindo as taxas de erro por meio de uma estratégia de resolução de problemas passo a passo, melhorando assim a qualidade da conclusão da tarefa.
Na construção de Agentes de IA, CoT desempenha um papel crucial. Os Agentes de IA precisam entender as informações que recebem e tomar decisões razoáveis com base nelas. CoT fornece um processo de pensamento ordenado que ajuda o Agente a processar e analisar eficazmente os dados de entrada, transformando a análise em diretrizes acionáveis. Este método não só fortalece a confiabilidade e eficiência da tomada de decisão do Agente, mas também melhora a transparência do processo decisório, tornando o comportamento do Agente mais previsível e rastreável. Ao dividir tarefas em etapas menores, CoT ajuda o Agente a considerar cada ponto de decisão em detalhes, reduzindo erros causados pela sobrecarga de informações e tornando o processo de tomada de decisão mais transparente. Esta transparência permite aos usuários compreender melhor a base das decisões do Agente. Em interações com o ambiente, CoT permite que o Agente aprenda continuamente novas informações e ajuste sua estratégia de comportamento.
Como estratégia eficaz, CoT não só melhora a capacidade de raciocínio de grandes modelos de linguagem, mas também desempenha um papel importante na construção de Agentes de IA mais inteligentes e confiáveis. Ao alavancar CoT, pesquisadores e desenvolvedores podem criar sistemas inteligentes mais adaptáveis a ambientes complexos e altamente autônomos. Em aplicações práticas, CoT tem mostrado suas vantagens únicas, especialmente no tratamento de tarefas complexas. Ao dividir as tarefas em uma série de etapas menores, não só melhora a precisão na resolução de tarefas, mas também a interpretabilidade e controlabilidade do modelo. Essa abordagem de resolução de problemas passo a passo pode reduzir significativamente os erros causados por informações excessivas ou excessivamente complexas ao enfrentar tarefas complexas. Ao mesmo tempo, este método também melhora a rastreabilidade e verificabilidade de toda a solução.
A função principal do CoT reside na integração do planeamento, da ação e da observação, preenchendo a lacuna entre o raciocínio e a ação. Este modelo de pensamento permite que o Agente de IA desenvolva contra-medidas eficazes ao prever potenciais anomalias e acumule novas informações ao interagir com o ambiente externo, validando previsões predefinidas e fornecendo novas bases de raciocínio. O CoT atua como um motor poderoso de precisão e estabilidade, ajudando o Agente de IA a manter uma alta eficiência em ambientes complexos.
Como exatamente a Cripto deve integrar-se com pilhas de tecnologia de IA? No artigo do ano passado, sugeri que descentralizar a potência de computação e os dados é um passo fundamental para ajudar pequenas empresas e desenvolvedores individuais a economizar custos. Este ano, na análise detalhada dos setores de Cripto x IA compilada pela Coinbase, podemos ver divisões mais específicas:
(1) Camada de Computação (centrada em fornecer recursos de GPU para desenvolvedores de IA);
(2) Camada de Dados (centrada no acesso descentralizado, orquestração e verificação de pipelines de dados de IA);
(3) Camada intermédia (plataformas ou redes que suportam o desenvolvimento, implementação e hospedagem de modelos ou agentes de IA);
(4) Application Layer (produtos voltados para o usuário que utilizam mecanismos de IA on-chain, seja B2B ou B2C).
Cada uma dessas quatro camadas tem grandes visões, todas com o objetivo de desafiar a dominação dos gigantes do Vale do Silício na próxima era da internet. Como disse no ano passado, será que realmente precisamos aceitar que os gigantes do Vale do Silício controlam exclusivamente o poder de computação e os dados? Sob seus monopólios, modelos grandes de código fechado são caixas-pretas, e a ciência, como o sistema de crenças mais reverenciado da humanidade hoje, dependerá das respostas fornecidas por esses modelos grandes. Mas como podemos verificar essas verdades? De acordo com a visão desses gigantes do Vale do Silício, os poderes detidos por agentes inteligentes podem exceder nossa imaginação - como ter a autoridade para fazer pagamentos da sua carteira ou controlar o acesso ao seu terminal. Como podemos garantir que não haja más intenções?
A descentralização é a única resposta, mas às vezes precisamos considerar razoavelmente quantos compradores existem para essas grandes visões. No passado, podíamos ignorar a necessidade de um ciclo comercial e usar Tokens para preencher as lacunas causadas pelo idealismo. No entanto, a situação atual é muito mais desafiadora. Cripto x AI deve ser projetado com base em circunstâncias práticas. Por exemplo, como equilibrar o fornecimento em ambas as extremidades da camada de computação em casos de perda de desempenho e instabilidade, e ainda competir com os provedores de nuvem centralizados? Quantos usuários reais os projetos de camada de dados realmente terão? Como podemos verificar a autenticidade e validade dos dados fornecidos? Que tipos de clientes realmente precisam desses dados? A mesma lógica se aplica às outras camadas. Nesta era, não precisamos de tantas pseudo-demandas aparentemente corretas.
Como mencionei na primeira seção, o Meme evoluiu rapidamente para uma forma de SocialFi compatível com Web3. Friend.tech foi o DApp que disparou o primeiro tiro nesta rodada de aplicativos sociais, mas, infelizmente, falhou devido ao seu design de token apressado. Por outro lado, Pump.fun demonstrou a viabilidade de um modelo de plataforma puro, sem quaisquer Tokens ou regras. As necessidades dos buscadores de atenção e provedores convergem para esta plataforma, onde você pode postar memes, transmitir ao vivo, cunhar tokens, comentar, negociar e tudo é gratuito. Pump.fun cobra apenas uma taxa de serviço. Este modelo é essencialmente idêntico à economia de atenção das atuais plataformas de mídia social, como YouTube e Instagram, mas com um modelo de receita diferente e jogabilidade mais centrada na Web3.
O Clanker da Base, por outro lado, é a história de sucesso definitiva, beneficiando do ecossistema integrado projetado pela própria plataforma. A Base tem a sua própria DApp social como uma ferramenta auxiliar, criando um ciclo interno completo. O Meme Agent é a forma 2.0 da Meme Coin. As pessoas estão sempre perseguindo novidades e, neste momento, o Pump.fun está no centro das atenções. Do ponto de vista das tendências, é apenas uma questão de tempo antes que as ideias excêntricas das formas de vida à base de silício substituam os memes mais rudimentares das formas de vida à base de carbono.
Já mencionei a Base inúmeras vezes, com diferentes aspectos a cada vez, mas uma coisa permanece clara: a Base nunca foi a primeira a agir, mas sempre foi a vencedora.
Do ponto de vista prático, os agentes de IA provavelmente não serão descentralizados num futuro próximo. No campo tradicional da IA, construir um agente de IA não é um problema que pode ser resolvido simplesmente através da descentralização ou de processos de código aberto. Os agentes de IA precisam de se ligar a várias APIs para aceder a conteúdo Web2, e os seus custos de funcionamento são elevados. O design da Cadeia de Pensamento (CoT) e a colaboração multiagente muitas vezes ainda requerem mediação humana. Vamos passar por um longo período de transição até encontrarmos uma forma adequada de integração — talvez algo como UNI, mas por agora, acredito ainda que os agentes de IA terão um impacto significativo na nossa indústria, muito semelhante à existência dos CEX no nosso setor — incorretos, mas extremamente importantes.
No mês passado, a Stanford & Microsoft publicaram uma Avaliação de Agente de IA que descrevia as aplicações de agentes de IA em indústrias como saúde, máquinas inteligentes e mundos virtuais. No apêndice deste artigo, já existem inúmeros casos experimentais em que o GPT-4V, como agente de IA, está a participar no desenvolvimento de jogos AAA de primeira linha.
Não devemos apressar a integração de agentes de IA com descentralização. O que eu espero é que a primeira peça do quebra-cabeça que os agentes de IA completem sejam suas capacidades de baixo para cima e velocidade. Há tantas ruínas narrativas e metaversos vazios que precisam ser preenchidos, e quando chegar a hora certa, podemos considerar como transformar agentes de IA no próximo UNI.
YBB é um fundo web3 que se dedica a identificar projetos definidores da Web3 com a visão de criar um habitat online melhor para todos os residentes da internet. Fundada por um grupo de crentes em blockchain que têm participado ativamente nesta indústria desde 2013, a YBB está sempre disposta a ajudar projetos em estágio inicial a evoluir de 0 a 1. Valorizamos a inovação, a paixão auto-motivada e produtos orientados para o usuário, reconhecendo ao mesmo tempo o potencial das criptomoedas e das aplicações blockchain.
Ao longo do ano passado, devido a uma desconexão nas narrativas da camada de aplicativos, incapaz de acompanhar o ritmo de crescimento da infraestrutura, o espaço cripto gradualmente se transformou em uma competição por recursos de atenção. De Silly Dragon a Goat, de Pump.fun a Clanker, a inconstância da atenção levou a um ciclo de reinvenção constante nesta batalha. O que começou com a forma mais convencional de monetização atraente rapidamente evoluiu para um modelo de plataforma que unificou buscadores de atenção e provedores, levando a formas de vida baseadas em silício se tornando novos provedores de conteúdo. Entre a bizarra variedade de moedas meme, surgiu uma nova entidade que permite que investidores de varejo e VCs cheguem a um consenso: AI Agents.
A atenção é, em última análise, um jogo de soma zero, embora a especulação possa, de facto, impulsionar um crescimento rápido. Em nosso artigo anterior sobre UNI, revisitamos o início da última era de ouro do blockchain, quando o crescimento explosivo do DeFi foi desencadeado pelo lançamento da mineração de LP pela Compound Finance. Durante essa época, participar de centenas, às vezes milhares, de pools de mineração com rendimentos na casa dos milhares ou mesmo dezenas de milhares de por cento APY era a forma mais primitiva de especulação on-chain. Embora o resultado tenha sido um colapso caótico de muitos pools, o influxo de mineradores da "corrida do ouro" deixou uma liquidez sem precedentes no espaço blockchain. DeFi eventualmente se libertou da pura especulação e amadureceu em uma vertical sólida que atendia às necessidades financeiras dos usuários em áreas como pagamentos, negociação, arbitragem e staking. Os agentes de IA estão atualmente passando por uma fase semelhante de "crescimento selvagem". O que estamos explorando agora é como a criptografia pode integrar melhor a IA e, finalmente, elevar a camada de aplicativos a novos patamares.
No nosso artigo anterior, introduzimos brevemente as origens dos memes de IA através do Truth Terminal e exploramos o potencial futuro dos Agentes de IA. Este artigo irá focar-se nos próprios Agentes de IA.
Vamos começar com a definição de um Agente de IA. No campo da IA, o termo "Agente" é um conceito mais antigo, mas ainda vago, enfatizando principalmente a autonomia. Em outras palavras, qualquer IA que possa perceber seu ambiente e tomar decisões reflexivas é considerada um Agente. Hoje, a definição de um Agente de IA está mais próxima da de uma entidade inteligente, um sistema projetado para imitar os processos de tomada de decisão humanos. Este sistema é considerado na academia como a abordagem mais promissora para alcançar a AGI (Inteligência Geral Artificial).
Nas primeiras versões do GPT, podíamos claramente sentir que os modelos grandes eram semelhantes aos humanos, mas ao responder a perguntas complexas, frequentemente forneciam respostas vagas ou imprecisas. A razão fundamental para isso era que esses modelos eram baseados em probabilidades em vez de causalidade e careciam de habilidades semelhantes às humanas, como uso de ferramentas, memória e planeamento. Os Agentes de IA visam colmatar estas lacunas. Assim, para resumir numa fórmula: Agente de IA = LLM (Modelo de Linguagem Grande) + Planeamento + Memória + Ferramentas.
Os modelos baseados em prompt são mais parecidos com uma versão estática de uma pessoa, ganhando vida apenas quando inserimos dados. Em contraste, o objetivo de um Agente de IA é ser uma entidade mais dinâmica, semelhante a um ser humano. Atualmente, a maioria dos Agentes de IA no campo são modelos ajustados com base nas versões abertas Llama 70b ou 405b da Meta (com diferentes parâmetros), equipados com memória e a capacidade de usar APIs para integração de ferramentas. Em outras áreas, eles ainda podem precisar de entrada ou assistência humana, como interagir ou colaborar com outros Agentes de IA. Por isso, a maioria dos Agentes de IA hoje existem principalmente na forma de KOLs em redes sociais. Para tornar um Agente de IA mais semelhante a um ser humano, é necessário incorporar capacidades de planeamento e ação, sendo especialmente crucial a cadeia de pensamento dentro do processo de planeamento.
O conceito de Chain of Thought (CoT) apareceu pela primeira vez no artigo de 2022 do Google intitulado Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. O artigo apontou que, ao gerar uma série de etapas de raciocínio intermediárias, a capacidade de raciocínio do modelo poderia ser aprimorada, ajudando-o a entender e resolver problemas complexos com mais facilidade.
Um prompt típico de CoT consiste em três partes: uma descrição da tarefa com instruções claras, uma base lógica para a tarefa com a fundamentação teórica ou princípios que sustentam a solução e um exemplo específico da solução. Essa abordagem estruturada ajuda o modelo a entender os requisitos da tarefa e, por meio de raciocínio lógico, aproximar gradualmente a resposta, melhorando tanto a eficiência quanto a precisão na resolução de problemas. CoT é particularmente adequado para tarefas que exigem análise profunda e raciocínio de múltiplas etapas, como resolução de problemas matemáticos ou redação de relatórios de projetos. Para tarefas mais simples, CoT pode não apresentar vantagens óbvias, mas para as mais complexas, ele pode melhorar significativamente o desempenho do modelo, reduzindo as taxas de erro por meio de uma estratégia de resolução de problemas passo a passo, melhorando assim a qualidade da conclusão da tarefa.
Na construção de Agentes de IA, CoT desempenha um papel crucial. Os Agentes de IA precisam entender as informações que recebem e tomar decisões razoáveis com base nelas. CoT fornece um processo de pensamento ordenado que ajuda o Agente a processar e analisar eficazmente os dados de entrada, transformando a análise em diretrizes acionáveis. Este método não só fortalece a confiabilidade e eficiência da tomada de decisão do Agente, mas também melhora a transparência do processo decisório, tornando o comportamento do Agente mais previsível e rastreável. Ao dividir tarefas em etapas menores, CoT ajuda o Agente a considerar cada ponto de decisão em detalhes, reduzindo erros causados pela sobrecarga de informações e tornando o processo de tomada de decisão mais transparente. Esta transparência permite aos usuários compreender melhor a base das decisões do Agente. Em interações com o ambiente, CoT permite que o Agente aprenda continuamente novas informações e ajuste sua estratégia de comportamento.
Como estratégia eficaz, CoT não só melhora a capacidade de raciocínio de grandes modelos de linguagem, mas também desempenha um papel importante na construção de Agentes de IA mais inteligentes e confiáveis. Ao alavancar CoT, pesquisadores e desenvolvedores podem criar sistemas inteligentes mais adaptáveis a ambientes complexos e altamente autônomos. Em aplicações práticas, CoT tem mostrado suas vantagens únicas, especialmente no tratamento de tarefas complexas. Ao dividir as tarefas em uma série de etapas menores, não só melhora a precisão na resolução de tarefas, mas também a interpretabilidade e controlabilidade do modelo. Essa abordagem de resolução de problemas passo a passo pode reduzir significativamente os erros causados por informações excessivas ou excessivamente complexas ao enfrentar tarefas complexas. Ao mesmo tempo, este método também melhora a rastreabilidade e verificabilidade de toda a solução.
A função principal do CoT reside na integração do planeamento, da ação e da observação, preenchendo a lacuna entre o raciocínio e a ação. Este modelo de pensamento permite que o Agente de IA desenvolva contra-medidas eficazes ao prever potenciais anomalias e acumule novas informações ao interagir com o ambiente externo, validando previsões predefinidas e fornecendo novas bases de raciocínio. O CoT atua como um motor poderoso de precisão e estabilidade, ajudando o Agente de IA a manter uma alta eficiência em ambientes complexos.
Como exatamente a Cripto deve integrar-se com pilhas de tecnologia de IA? No artigo do ano passado, sugeri que descentralizar a potência de computação e os dados é um passo fundamental para ajudar pequenas empresas e desenvolvedores individuais a economizar custos. Este ano, na análise detalhada dos setores de Cripto x IA compilada pela Coinbase, podemos ver divisões mais específicas:
(1) Camada de Computação (centrada em fornecer recursos de GPU para desenvolvedores de IA);
(2) Camada de Dados (centrada no acesso descentralizado, orquestração e verificação de pipelines de dados de IA);
(3) Camada intermédia (plataformas ou redes que suportam o desenvolvimento, implementação e hospedagem de modelos ou agentes de IA);
(4) Application Layer (produtos voltados para o usuário que utilizam mecanismos de IA on-chain, seja B2B ou B2C).
Cada uma dessas quatro camadas tem grandes visões, todas com o objetivo de desafiar a dominação dos gigantes do Vale do Silício na próxima era da internet. Como disse no ano passado, será que realmente precisamos aceitar que os gigantes do Vale do Silício controlam exclusivamente o poder de computação e os dados? Sob seus monopólios, modelos grandes de código fechado são caixas-pretas, e a ciência, como o sistema de crenças mais reverenciado da humanidade hoje, dependerá das respostas fornecidas por esses modelos grandes. Mas como podemos verificar essas verdades? De acordo com a visão desses gigantes do Vale do Silício, os poderes detidos por agentes inteligentes podem exceder nossa imaginação - como ter a autoridade para fazer pagamentos da sua carteira ou controlar o acesso ao seu terminal. Como podemos garantir que não haja más intenções?
A descentralização é a única resposta, mas às vezes precisamos considerar razoavelmente quantos compradores existem para essas grandes visões. No passado, podíamos ignorar a necessidade de um ciclo comercial e usar Tokens para preencher as lacunas causadas pelo idealismo. No entanto, a situação atual é muito mais desafiadora. Cripto x AI deve ser projetado com base em circunstâncias práticas. Por exemplo, como equilibrar o fornecimento em ambas as extremidades da camada de computação em casos de perda de desempenho e instabilidade, e ainda competir com os provedores de nuvem centralizados? Quantos usuários reais os projetos de camada de dados realmente terão? Como podemos verificar a autenticidade e validade dos dados fornecidos? Que tipos de clientes realmente precisam desses dados? A mesma lógica se aplica às outras camadas. Nesta era, não precisamos de tantas pseudo-demandas aparentemente corretas.
Como mencionei na primeira seção, o Meme evoluiu rapidamente para uma forma de SocialFi compatível com Web3. Friend.tech foi o DApp que disparou o primeiro tiro nesta rodada de aplicativos sociais, mas, infelizmente, falhou devido ao seu design de token apressado. Por outro lado, Pump.fun demonstrou a viabilidade de um modelo de plataforma puro, sem quaisquer Tokens ou regras. As necessidades dos buscadores de atenção e provedores convergem para esta plataforma, onde você pode postar memes, transmitir ao vivo, cunhar tokens, comentar, negociar e tudo é gratuito. Pump.fun cobra apenas uma taxa de serviço. Este modelo é essencialmente idêntico à economia de atenção das atuais plataformas de mídia social, como YouTube e Instagram, mas com um modelo de receita diferente e jogabilidade mais centrada na Web3.
O Clanker da Base, por outro lado, é a história de sucesso definitiva, beneficiando do ecossistema integrado projetado pela própria plataforma. A Base tem a sua própria DApp social como uma ferramenta auxiliar, criando um ciclo interno completo. O Meme Agent é a forma 2.0 da Meme Coin. As pessoas estão sempre perseguindo novidades e, neste momento, o Pump.fun está no centro das atenções. Do ponto de vista das tendências, é apenas uma questão de tempo antes que as ideias excêntricas das formas de vida à base de silício substituam os memes mais rudimentares das formas de vida à base de carbono.
Já mencionei a Base inúmeras vezes, com diferentes aspectos a cada vez, mas uma coisa permanece clara: a Base nunca foi a primeira a agir, mas sempre foi a vencedora.
Do ponto de vista prático, os agentes de IA provavelmente não serão descentralizados num futuro próximo. No campo tradicional da IA, construir um agente de IA não é um problema que pode ser resolvido simplesmente através da descentralização ou de processos de código aberto. Os agentes de IA precisam de se ligar a várias APIs para aceder a conteúdo Web2, e os seus custos de funcionamento são elevados. O design da Cadeia de Pensamento (CoT) e a colaboração multiagente muitas vezes ainda requerem mediação humana. Vamos passar por um longo período de transição até encontrarmos uma forma adequada de integração — talvez algo como UNI, mas por agora, acredito ainda que os agentes de IA terão um impacto significativo na nossa indústria, muito semelhante à existência dos CEX no nosso setor — incorretos, mas extremamente importantes.
No mês passado, a Stanford & Microsoft publicaram uma Avaliação de Agente de IA que descrevia as aplicações de agentes de IA em indústrias como saúde, máquinas inteligentes e mundos virtuais. No apêndice deste artigo, já existem inúmeros casos experimentais em que o GPT-4V, como agente de IA, está a participar no desenvolvimento de jogos AAA de primeira linha.
Não devemos apressar a integração de agentes de IA com descentralização. O que eu espero é que a primeira peça do quebra-cabeça que os agentes de IA completem sejam suas capacidades de baixo para cima e velocidade. Há tantas ruínas narrativas e metaversos vazios que precisam ser preenchidos, e quando chegar a hora certa, podemos considerar como transformar agentes de IA no próximo UNI.
YBB é um fundo web3 que se dedica a identificar projetos definidores da Web3 com a visão de criar um habitat online melhor para todos os residentes da internet. Fundada por um grupo de crentes em blockchain que têm participado ativamente nesta indústria desde 2013, a YBB está sempre disposta a ajudar projetos em estágio inicial a evoluir de 0 a 1. Valorizamos a inovação, a paixão auto-motivada e produtos orientados para o usuário, reconhecendo ao mesmo tempo o potencial das criptomoedas e das aplicações blockchain.