A transparência e a componibilidade padrão das blockchains as tornam um substrato perfeito para a interação de agente para agente, onde agentes desenvolvidos por diferentes entidades para diferentes propósitos podem interagir entre si de forma perfeita. Já houve grandes experimentações deagentes enviando fundos um para o outro,lançando tokens juntos, e muito mais. Adoraríamos ver como a interação agente-a-agente pode se expandir criando novos espaços de aplicação, comonovos locais sociais impulsionados por interações de agentes, assim como pormelhorando os fluxos de trabalho empresariaissabemos que hoje em dia é tedioso, desde autenticação e verificação de plataforma até micropagamentos, integrações de fluxo de trabalho entre plataformas e muito mais.
aethernet e clanker lançando um token juntos no Warpcast
A coordenação de vários agentes em escala é uma área de pesquisa igualmente emocionante. Como os sistemas de vários agentes podem trabalhar juntos para completar tarefas, resolver problemas e governar sistemas e protocolos? Em sua postagem no início de 2024, " A promessa e desafios das aplicações de cripto + IA,” Vitalik faz referência à utilização de agentes de IA para mercados de previsão e adjudicação. Em grande escala, ele basicamente postula que sistemas multi-agentes têm uma capacidade notável para encontrar a “verdade” e sistemas de governança geralmente autônomos. Estamos interessados em ver como as capacidades de sistemas multi-agentes e formas de “inteligência de enxame” continuam a ser descobertas e experimentadas.
Como uma extensão da coordenação de agente para agente, a coordenação de agente para humano é um espaço de design interessante - especificamente como as comunidades interagem em torno de agentes ou como os agentes organizam os humanos para realizar ações coletivas. Gostaríamos de ver mais experimentação com agentes cuja função objetiva envolve a coordenação humana em larga escala. Isso precisará ser combinado com algum mecanismo de verificação, especialmente se o trabalho humano foi feito offchain, mas pode haver comportamentos emergentes muito estranhos e interessantes.
O conceito de personas digitais existe há décadas.Hatsune Miku (2007) esgotou locais com 20.000 lugares e Lil Miquela (2016) tem 2M+ seguidores no Instagram. Exemplos mais recentes e menos conhecidos incluem o vtuber de IANeuro-sama (2022) que tem mais de 600 mil inscritos no Twitch e o grupo de kpop pseudônimo@plave_official/featured"> PLAVE (2023), que acumulou mais de 300 milhões de visualizações no YouTube em menos de dois anos. Com avanços na infraestrutura de IA e a integração de blockchains para pagamentos, transferência de valor e plataformas de dados abertos, estamos animados para ver como esses agentes podem se tornar mais autônomos e potencialmente desbloquear uma nova categoria mainstream de entretenimento em 2025.
No sentido horário, a partir do canto superior esquerdo: Hatsune Miku, Luna por Virtuals, Lil Miquela e PLAVE
Onde no caso anterior, o agente éno produto, também há o caso em que os agentes podem complementar os produtos. Em uma economia de atenção, manter um fluxo constante de conteúdo cativante é crucial para o sucesso de qualquer ideia, produto, empresa, etc. O conteúdo gerativo/agente é uma ferramenta poderosa que as equipes podem usar para garantir um pipeline escalável de origem de conteúdo 24/7. Este espaço de ideias foi acelerado pora discussão em torno do que distingue uma memecoin de um agente.Agentes são uma maneira poderosa para memecoins obterem distribuição, mesmo que não sejam estritamente 'agentes' (ainda).
Como outro exemplo,@archetype/from-players-to-gods-games-and-autonomous-worlds"> os jogos estão cada vez mais esperados para serem mais dinâmicos para manter o envolvimento dos usuários. Um método clássico para criar dinamismo nos jogos é cultivar conteúdo gerado pelo usuário; conteúdo puramente generativo (de itens no jogo, a NPCs, a níveis inteiramente generativos) é talvez a próxima era desta evolução. Estamos curiosos para ver até onde os limites da estratégia de distribuição tradicional serão estendidos pelas capacidades do agente em 2025.
Em 2024, lançamos@archetype"> EM CONVERSA COM, uma série de entrevistas com artistas em/na borda da cripto em música, arte visual, design, curadoria e mais. Uma das principais observações que tirei das entrevistas deste ano foi que artistas interessados em cripto geralmente estão interessados em tecnologia de fronteira de forma mais ampla, além de terem essa tecnologia mais firmemente dentro da estética ou foco de sua prática, ou seja, objetos de AR/VR, arte baseada em código e livecoding.
A arte generativa, em particular, historicamente tem visto sinergias com blockchains, tornando seu potencial como um substrato semelhante para a arte de IA mais claro. Mostrar e exibir esses meios de arte adequadamente é incrivelmente difícil de conseguir em fóruns tradicionais. O ArtBlocks forneceu um vislumbre de como poderia ser o futuro da apresentação, armazenamento, monetização e preservação de arte digital, aproveitando blockchains, melhorando a experiência geral para artistas e espectadores. Além da apresentação, As ferramentas de IA até ampliaram a capacidade de leigos criarem sua própria arte. Será muito interessante ver como as criptomoedas podem ampliar ou impulsionar essas ferramentas em 2025.
- Katie
Um trecho de EM CONVERSA COM: Maya Man
Nos 20 anos desde que Clive Humby cunhou a frase “data is the new oil,” as empresas tomaram medidas robustas para armazenar e monetizar os dados do usuário. Os usuários acordaram para a realidade de que seus dados são a base sobre a qual essas empresas multibilionárias são construídas, mas têm muito pouco controle sobre como seus dados são alavancados ou exposição ao lucro que ajudam a gerar. A aceleração de modelos poderosos de IA torna essa tensão ainda mais existencial. Se combater a exploração do usuário é uma parte da oportunidade de dados, a outra diz respeito à resolução das deficiências de oferta de dados, à medida que modelos cada vez maiores e melhores drenam os campos de petróleo facilmente acessíveis dos dados públicos da internet e exigem novas fontes.
Na primeira questão de como podemos usar a infraestrutura descentralizada para transferir o poder dos dados de volta ao seu ponto de origem (usuários), é um espaço de design vasto que requer soluções inovadoras em uma variedade de áreas. Alguns dos mais urgentes incluem: onde os dados são armazenados e como preservamos a privacidade (durante o armazenamento, transferência e cálculo), como fazemos benchmarking objetivo, filtragem e valoração da qualidade dos dados, quais mecanismos usamos para atribuição e monetização (especialmente ao vincular valor de volta à fonte pós-inferência) e quais sistemas de orquestração ou recuperação de dados usamos em um ecossistema de modelos diversificado.
Na segunda pergunta sobre a resolução de restrições de fornecimento, não se trata apenas de tentar replicar a Scale AI com tokens, mas de entender onde podemos ter uma vantagem dadas as tendências técnicas e como podemos construir soluções ponderadas com uma vantagem competitiva, seja em escala, qualidade ou mecanismos de incentivo (e filtragem) melhores para originar um produto de dados de maior valor. Especialmente porque grande parte da demanda continua vindo de IA web2, pensar em como podemos unir mecanismos inteligentes de contrato com SLAs e instrumentos convencionais é uma área importante para se estar ciente.
Se os dados são um dos blocos fundamentais no desenvolvimento e implantação de IA, o cálculo é o outro. O paradigma legado de grandes centros de dados com acesso exclusivo a locais, energia e hardware tem definido em grande parte a trajetória da aprendizagem profunda e IA nos últimos anos, mas as restrições físicas ao lado dos desenvolvimentos de código aberto estão começando a desafiar essa dinâmica.
v1 do cálculo em IA descentralizada parecia uma réplica das nuvens de GPU web2 sem vantagem real no fornecimento (hardware ou data centers) e demanda orgânica mínima. No v2, estamos começando a ver algumas equipes notáveis construírem pilhas de tecnologia adequadas em cima de suprimentos heterogêneos de cálculo de alto desempenho (HPC) com competências em orquestração, roteamento e precificação, juntamente com recursos proprietários adicionais projetados para atrair demanda e combater a compressão de margem, especialmente no lado da inferência. As equipes também estão começando a divergir em casos de uso e GTM, com algumas focadas na incorporação de estruturas de compiladores para roteamento de inferência eficiente em hardware diverso, enquanto outras estão pioneirando estruturas de treinamento de modelo distribuído em cima das redes de cálculo que estão construindo.
Estamos até mesmo começando a ver um mercado de IA-Fi emergir com novos primitivos econômicos para transformar computação e GPUs em ativos geradores de rendimento ou usar a liquidez onchain para oferecer aos data centers uma fonte de capital alternativa para adquirir hardware. A grande questão aqui é até que ponto a DeAI será desenvolvida e implantada em trilhos de computação descentralizados ou, se como acontece com o armazenamento, a lacuna entre ideologia e necessidades práticas nunca se fecha suficientemente para alcançar todo o potencial da ideia.
Relacionado à incentivação de redes de computação descentralizada de alto desempenho, um grande desafio na orquestração de computação heterogênea é a falta de um conjunto de padrões acordados para contabilizar essa computação. Os modelos de IA adicionam várias complicações ao espaço de saída do HPC, que vão desde variantes e quantização de modelos até níveis ajustáveis de estocasticidade por meio dos modelos'temperaturae parâmetros de amostragem. Além disso, o hardware de AI pode introduzir mais complicações através de saídas variadas com base em arquiteturas de GPU e versões deCUDA. Em última análise, isso resulta na necessidade de padrões em torno de como os modelos e os mercados de computação totalizam suas capacidades quando cruzados com sistemas distribuídos heterogêneos.
Ao menos parcialmente devido a essa falta de padrões, vimos inúmeras instâncias este ano na web2 e web3 em que modelos e mercados de computação não conseguiram contabilizar com precisão a qualidade e quantidade de seu poder de processamento. Isso resultou em usuários tendo que auditar o verdadeiro desempenho dessas camadas de IA executando seus próprios benchmarks de modelos comparativos e realizando prova de trabalho, limitando a taxa de mercado de computação.
Dado o princípio fundamental de verificabilidade do espaço cripto, esperamos que a interseção entre cripto e IA em 2025 seja mais facilmente verificável em comparação com a IA tradicional. Especificamente, é importante que usuários comuns possam realizar comparações justas em relação aos aspectos de um modelo ou cluster específico que definem suas saídas, a fim de auditar e avaliar o desempenho de um sistema.
Em “A promessa e desafios das aplicações de cripto + IAVitalik faz referência a um desafio único na ponte entre cripto e IA:
“Na criptografia, o código aberto é a única maneira de tornar algo verdadeiramente seguro, mas na IA, um modelo (ou até mesmo seus dados de treinamento) ser aberto aumenta muito sua vulnerabilidade a ataques adversários de aprendizado de máquina.”
Embora a privacidade não seja uma nova área de pesquisa para blockchains, acreditamos que a proliferação da IA continuará a acelerar a pesquisa e o uso de primitivas criptográficas que permitem a privacidade. Este ano já vimos avanços significativos em tecnologias de melhoria da privacidade, como ZK, FHE, TEEs e MPC, para casos de uso como estado compartilhado privado para computação em dados criptografados para aplicações gerais. Ao mesmo tempo, vimos gigantes centralizados de IA, como Nvidia e Apple, usando TEEs proprietários para aprendizado federado e inferência de IA privada ao manter hardware, firmware e modelos constantes entre os sistemas.
Com isso em mente, acompanharemos de perto os desenvolvimentos na manutenção da privacidade para transições de estado estocásticas, bem como como elas aceleram o progresso de aplicações descentralizadas de IA do mundo real em sistemas heterogêneos - desde inferência privada descentralizada até pipelines de armazenamento/acesso para dados criptografados e ambientes de execução totalmente soberanos.
A pilha de Inteligência da Apple e a GPU H100 da Nvidia
Um dos casos de uso de IA mais iminentes é usá-los para transacionar de forma autônoma na nossa cadeia em nosso nome. Há, admitidamente, muita linguagem confusa nos últimos 12-16 meses sobre o que exatamente dita uma intenção, uma ação agente, uma intenção agente, solucionador, solucionador agente, etc., e como eles se diferenciam do desenvolvimento mais convencional de 'bots' dos últimos anos.
Nos próximos 12 meses, estamos entusiasmados em ver sistemas de linguagem cada vez mais sofisticados combinados com diferentes tipos de dados e arquiteturas de redes neurais para avançar o espaço geral de design. Os agentes farão transações usando os mesmos sistemas onchain que usamos hoje ou desenvolverão suas próprias ferramentas/métodos para transacionar onchain? Os LLMs continuarão a ser o back-end desses sistemas de transação agencial ou de outro sistema inteiramente? Na camada de interface, os usuários começarão a transacionar usando linguagem natural? Será que a clássica tese das "carteiras como navegadores" finalmente se concretizará?
Compartilhar
İçerik
A transparência e a componibilidade padrão das blockchains as tornam um substrato perfeito para a interação de agente para agente, onde agentes desenvolvidos por diferentes entidades para diferentes propósitos podem interagir entre si de forma perfeita. Já houve grandes experimentações deagentes enviando fundos um para o outro,lançando tokens juntos, e muito mais. Adoraríamos ver como a interação agente-a-agente pode se expandir criando novos espaços de aplicação, comonovos locais sociais impulsionados por interações de agentes, assim como pormelhorando os fluxos de trabalho empresariaissabemos que hoje em dia é tedioso, desde autenticação e verificação de plataforma até micropagamentos, integrações de fluxo de trabalho entre plataformas e muito mais.
aethernet e clanker lançando um token juntos no Warpcast
A coordenação de vários agentes em escala é uma área de pesquisa igualmente emocionante. Como os sistemas de vários agentes podem trabalhar juntos para completar tarefas, resolver problemas e governar sistemas e protocolos? Em sua postagem no início de 2024, " A promessa e desafios das aplicações de cripto + IA,” Vitalik faz referência à utilização de agentes de IA para mercados de previsão e adjudicação. Em grande escala, ele basicamente postula que sistemas multi-agentes têm uma capacidade notável para encontrar a “verdade” e sistemas de governança geralmente autônomos. Estamos interessados em ver como as capacidades de sistemas multi-agentes e formas de “inteligência de enxame” continuam a ser descobertas e experimentadas.
Como uma extensão da coordenação de agente para agente, a coordenação de agente para humano é um espaço de design interessante - especificamente como as comunidades interagem em torno de agentes ou como os agentes organizam os humanos para realizar ações coletivas. Gostaríamos de ver mais experimentação com agentes cuja função objetiva envolve a coordenação humana em larga escala. Isso precisará ser combinado com algum mecanismo de verificação, especialmente se o trabalho humano foi feito offchain, mas pode haver comportamentos emergentes muito estranhos e interessantes.
O conceito de personas digitais existe há décadas.Hatsune Miku (2007) esgotou locais com 20.000 lugares e Lil Miquela (2016) tem 2M+ seguidores no Instagram. Exemplos mais recentes e menos conhecidos incluem o vtuber de IANeuro-sama (2022) que tem mais de 600 mil inscritos no Twitch e o grupo de kpop pseudônimo@plave_official/featured"> PLAVE (2023), que acumulou mais de 300 milhões de visualizações no YouTube em menos de dois anos. Com avanços na infraestrutura de IA e a integração de blockchains para pagamentos, transferência de valor e plataformas de dados abertos, estamos animados para ver como esses agentes podem se tornar mais autônomos e potencialmente desbloquear uma nova categoria mainstream de entretenimento em 2025.
No sentido horário, a partir do canto superior esquerdo: Hatsune Miku, Luna por Virtuals, Lil Miquela e PLAVE
Onde no caso anterior, o agente éno produto, também há o caso em que os agentes podem complementar os produtos. Em uma economia de atenção, manter um fluxo constante de conteúdo cativante é crucial para o sucesso de qualquer ideia, produto, empresa, etc. O conteúdo gerativo/agente é uma ferramenta poderosa que as equipes podem usar para garantir um pipeline escalável de origem de conteúdo 24/7. Este espaço de ideias foi acelerado pora discussão em torno do que distingue uma memecoin de um agente.Agentes são uma maneira poderosa para memecoins obterem distribuição, mesmo que não sejam estritamente 'agentes' (ainda).
Como outro exemplo,@archetype/from-players-to-gods-games-and-autonomous-worlds"> os jogos estão cada vez mais esperados para serem mais dinâmicos para manter o envolvimento dos usuários. Um método clássico para criar dinamismo nos jogos é cultivar conteúdo gerado pelo usuário; conteúdo puramente generativo (de itens no jogo, a NPCs, a níveis inteiramente generativos) é talvez a próxima era desta evolução. Estamos curiosos para ver até onde os limites da estratégia de distribuição tradicional serão estendidos pelas capacidades do agente em 2025.
Em 2024, lançamos@archetype"> EM CONVERSA COM, uma série de entrevistas com artistas em/na borda da cripto em música, arte visual, design, curadoria e mais. Uma das principais observações que tirei das entrevistas deste ano foi que artistas interessados em cripto geralmente estão interessados em tecnologia de fronteira de forma mais ampla, além de terem essa tecnologia mais firmemente dentro da estética ou foco de sua prática, ou seja, objetos de AR/VR, arte baseada em código e livecoding.
A arte generativa, em particular, historicamente tem visto sinergias com blockchains, tornando seu potencial como um substrato semelhante para a arte de IA mais claro. Mostrar e exibir esses meios de arte adequadamente é incrivelmente difícil de conseguir em fóruns tradicionais. O ArtBlocks forneceu um vislumbre de como poderia ser o futuro da apresentação, armazenamento, monetização e preservação de arte digital, aproveitando blockchains, melhorando a experiência geral para artistas e espectadores. Além da apresentação, As ferramentas de IA até ampliaram a capacidade de leigos criarem sua própria arte. Será muito interessante ver como as criptomoedas podem ampliar ou impulsionar essas ferramentas em 2025.
- Katie
Um trecho de EM CONVERSA COM: Maya Man
Nos 20 anos desde que Clive Humby cunhou a frase “data is the new oil,” as empresas tomaram medidas robustas para armazenar e monetizar os dados do usuário. Os usuários acordaram para a realidade de que seus dados são a base sobre a qual essas empresas multibilionárias são construídas, mas têm muito pouco controle sobre como seus dados são alavancados ou exposição ao lucro que ajudam a gerar. A aceleração de modelos poderosos de IA torna essa tensão ainda mais existencial. Se combater a exploração do usuário é uma parte da oportunidade de dados, a outra diz respeito à resolução das deficiências de oferta de dados, à medida que modelos cada vez maiores e melhores drenam os campos de petróleo facilmente acessíveis dos dados públicos da internet e exigem novas fontes.
Na primeira questão de como podemos usar a infraestrutura descentralizada para transferir o poder dos dados de volta ao seu ponto de origem (usuários), é um espaço de design vasto que requer soluções inovadoras em uma variedade de áreas. Alguns dos mais urgentes incluem: onde os dados são armazenados e como preservamos a privacidade (durante o armazenamento, transferência e cálculo), como fazemos benchmarking objetivo, filtragem e valoração da qualidade dos dados, quais mecanismos usamos para atribuição e monetização (especialmente ao vincular valor de volta à fonte pós-inferência) e quais sistemas de orquestração ou recuperação de dados usamos em um ecossistema de modelos diversificado.
Na segunda pergunta sobre a resolução de restrições de fornecimento, não se trata apenas de tentar replicar a Scale AI com tokens, mas de entender onde podemos ter uma vantagem dadas as tendências técnicas e como podemos construir soluções ponderadas com uma vantagem competitiva, seja em escala, qualidade ou mecanismos de incentivo (e filtragem) melhores para originar um produto de dados de maior valor. Especialmente porque grande parte da demanda continua vindo de IA web2, pensar em como podemos unir mecanismos inteligentes de contrato com SLAs e instrumentos convencionais é uma área importante para se estar ciente.
Se os dados são um dos blocos fundamentais no desenvolvimento e implantação de IA, o cálculo é o outro. O paradigma legado de grandes centros de dados com acesso exclusivo a locais, energia e hardware tem definido em grande parte a trajetória da aprendizagem profunda e IA nos últimos anos, mas as restrições físicas ao lado dos desenvolvimentos de código aberto estão começando a desafiar essa dinâmica.
v1 do cálculo em IA descentralizada parecia uma réplica das nuvens de GPU web2 sem vantagem real no fornecimento (hardware ou data centers) e demanda orgânica mínima. No v2, estamos começando a ver algumas equipes notáveis construírem pilhas de tecnologia adequadas em cima de suprimentos heterogêneos de cálculo de alto desempenho (HPC) com competências em orquestração, roteamento e precificação, juntamente com recursos proprietários adicionais projetados para atrair demanda e combater a compressão de margem, especialmente no lado da inferência. As equipes também estão começando a divergir em casos de uso e GTM, com algumas focadas na incorporação de estruturas de compiladores para roteamento de inferência eficiente em hardware diverso, enquanto outras estão pioneirando estruturas de treinamento de modelo distribuído em cima das redes de cálculo que estão construindo.
Estamos até mesmo começando a ver um mercado de IA-Fi emergir com novos primitivos econômicos para transformar computação e GPUs em ativos geradores de rendimento ou usar a liquidez onchain para oferecer aos data centers uma fonte de capital alternativa para adquirir hardware. A grande questão aqui é até que ponto a DeAI será desenvolvida e implantada em trilhos de computação descentralizados ou, se como acontece com o armazenamento, a lacuna entre ideologia e necessidades práticas nunca se fecha suficientemente para alcançar todo o potencial da ideia.
Relacionado à incentivação de redes de computação descentralizada de alto desempenho, um grande desafio na orquestração de computação heterogênea é a falta de um conjunto de padrões acordados para contabilizar essa computação. Os modelos de IA adicionam várias complicações ao espaço de saída do HPC, que vão desde variantes e quantização de modelos até níveis ajustáveis de estocasticidade por meio dos modelos'temperaturae parâmetros de amostragem. Além disso, o hardware de AI pode introduzir mais complicações através de saídas variadas com base em arquiteturas de GPU e versões deCUDA. Em última análise, isso resulta na necessidade de padrões em torno de como os modelos e os mercados de computação totalizam suas capacidades quando cruzados com sistemas distribuídos heterogêneos.
Ao menos parcialmente devido a essa falta de padrões, vimos inúmeras instâncias este ano na web2 e web3 em que modelos e mercados de computação não conseguiram contabilizar com precisão a qualidade e quantidade de seu poder de processamento. Isso resultou em usuários tendo que auditar o verdadeiro desempenho dessas camadas de IA executando seus próprios benchmarks de modelos comparativos e realizando prova de trabalho, limitando a taxa de mercado de computação.
Dado o princípio fundamental de verificabilidade do espaço cripto, esperamos que a interseção entre cripto e IA em 2025 seja mais facilmente verificável em comparação com a IA tradicional. Especificamente, é importante que usuários comuns possam realizar comparações justas em relação aos aspectos de um modelo ou cluster específico que definem suas saídas, a fim de auditar e avaliar o desempenho de um sistema.
Em “A promessa e desafios das aplicações de cripto + IAVitalik faz referência a um desafio único na ponte entre cripto e IA:
“Na criptografia, o código aberto é a única maneira de tornar algo verdadeiramente seguro, mas na IA, um modelo (ou até mesmo seus dados de treinamento) ser aberto aumenta muito sua vulnerabilidade a ataques adversários de aprendizado de máquina.”
Embora a privacidade não seja uma nova área de pesquisa para blockchains, acreditamos que a proliferação da IA continuará a acelerar a pesquisa e o uso de primitivas criptográficas que permitem a privacidade. Este ano já vimos avanços significativos em tecnologias de melhoria da privacidade, como ZK, FHE, TEEs e MPC, para casos de uso como estado compartilhado privado para computação em dados criptografados para aplicações gerais. Ao mesmo tempo, vimos gigantes centralizados de IA, como Nvidia e Apple, usando TEEs proprietários para aprendizado federado e inferência de IA privada ao manter hardware, firmware e modelos constantes entre os sistemas.
Com isso em mente, acompanharemos de perto os desenvolvimentos na manutenção da privacidade para transições de estado estocásticas, bem como como elas aceleram o progresso de aplicações descentralizadas de IA do mundo real em sistemas heterogêneos - desde inferência privada descentralizada até pipelines de armazenamento/acesso para dados criptografados e ambientes de execução totalmente soberanos.
A pilha de Inteligência da Apple e a GPU H100 da Nvidia
Um dos casos de uso de IA mais iminentes é usá-los para transacionar de forma autônoma na nossa cadeia em nosso nome. Há, admitidamente, muita linguagem confusa nos últimos 12-16 meses sobre o que exatamente dita uma intenção, uma ação agente, uma intenção agente, solucionador, solucionador agente, etc., e como eles se diferenciam do desenvolvimento mais convencional de 'bots' dos últimos anos.
Nos próximos 12 meses, estamos entusiasmados em ver sistemas de linguagem cada vez mais sofisticados combinados com diferentes tipos de dados e arquiteturas de redes neurais para avançar o espaço geral de design. Os agentes farão transações usando os mesmos sistemas onchain que usamos hoje ou desenvolverão suas próprias ferramentas/métodos para transacionar onchain? Os LLMs continuarão a ser o back-end desses sistemas de transação agencial ou de outro sistema inteiramente? Na camada de interface, os usuários começarão a transacionar usando linguagem natural? Será que a clássica tese das "carteiras como navegadores" finalmente se concretizará?