A inteligência artificial e a tecnologia blockchain representam duas forças transformadoras que estão remodelando nosso mundo. A IA amplifica as capacidades cognitivas humanas por meio de aprendizado de máquina e redes neurais, enquanto a tecnologia blockchain introduz escassez digital verificável e possibilita novas formas de coordenação sem confiança. À medida que essas tecnologias convergem, elas estão lançando as bases para uma nova iteração da internet - onde agentes autônomos interagem com sistemas descentralizados. Esta “Web Agentica” introduz uma nova classe de cidadãos digitais: agentes de IA que podem navegar, negociar e transacionar de forma independente. Essa transformação redistribui o poder no domínio digital, permitindo que indivíduos recuperem a soberania sobre seus dados, ao mesmo tempo que fomenta um ecossistema onde a inteligência humana e artificial colaboram de maneiras sem precedentes.
Para entender para onde estamos indo, vamos primeiro traçar a evolução da web através de suas principais iterações, cada uma marcada por capacidades distintas e paradigmas arquitetônicos:
Enquanto as duas primeiras gerações da web se concentravam na propagação de informações, as duas últimas permitem a ampliação das informações. A Web 3.0 introduziu a propriedade de dados por meio de tokens e agora a Web 4.0 impregna inteligência por meio de Modelos de Linguagem Grandes (LLMs).
LLMs representam um salto quântico na inteligência artificial, funcionando como sistemas dinâmicos de correspondência de padrões que transformam o vasto conhecimento em compreensão contextual através de computação probabilística. No entanto, seu verdadeiro potencial emerge quando são estruturados como agentes, evoluindo de processadores de informações puros em entidades direcionadas a objetivos que podem perceber, raciocinar e agir. Essa transformação cria uma inteligência emergente capaz de colaboração significativa e sustentada tanto por meio da linguagem quanto da ação.
O termo 'agente' introduz um novo paradigma para a interação humano-AI, indo além das limitações e associações negativas dos chatbots tradicionais. Essa mudança não é apenas semântica; representa uma reconceitualização fundamental de como os sistemas de IA podem operar autonomamente enquanto mantêm uma colaboração significativa com os humanos. Fundamentalmente, os fluxos agenticos permitem que mercados se formem em torno da resolução de intenções específicas do usuário.
Em última análise, a Web de Agência representa mais do que apenas uma nova camada de inteligência - ela transforma fundamentalmente como interagimos com sistemas digitais. Enquanto iterações anteriores da web dependiam de interfaces estáticas e jornadas de usuário predefinidas, a Web de Agência introduz uma infraestrutura de tempo de execução dinâmica onde tanto a computação quanto as interfaces se adaptam em tempo real ao contexto e à intenção do usuário.
Os sites tradicionais servem como a unidade atômica da internet atual, fornecendo interfaces fixas onde os usuários leem, escrevem e interagem com informações por meio de caminhos predefinidos. Esse modelo, embora funcional, restringe os usuários a interfaces projetadas para casos de uso geral, em vez de necessidades individuais. A Web Agentica se liberta dessas restrições por meio da Computação Sensível ao Contexto, Geração de Interfaces Adaptativas, Fluxos de Ação Preditiva desbloqueados por RAG e outras inovações na recuperação de informações em tempo real.
Considere como o TikTok revolucionou o consumo de conteúdo criando feeds altamente personalizados que se adaptam às preferências do usuário em tempo real. A Web Agentic estende esse conceito além da recomendação de conteúdo para a geração de interfaces inteiras. Em vez de navegar por layouts de página da web fixos, os usuários interagem com interfaces geradas dinamicamente que preveem e facilitam suas próximas ações. Essa mudança de sites estáticos para interfaces dinâmicas e orientadas por agentes representa uma evolução fundamental na forma como interagimos com sistemas digitais — passando de modelos de interação baseados em navegação para modelos de interação baseados em intenção.
Arquiteturas agentivas têm sido uma grande exploração para pesquisadores e construtores. Novos métodos estão constantemente sendo desenvolvidos para melhorar suas capacidades de raciocínio e resolução de problemas. Técnicas como Chain-of-Thought (CoT), Tree-of-Thought (ToT) e Graph-of-Thought (GoT) são exemplos primos de inovações projetadas para melhorar como LLMs lidam com tarefas complexas simulando processos cognitivos mais matizados e semelhantes aos humanos.
A cadeia de pensamento (CoT) incentiva os grandes modelos de linguagem (LLMs) a dividir tarefas complexas em etapas menores e gerenciáveis. Esta abordagem é particularmente eficaz para problemas que requerem raciocínio lógico, como escrever pequenos scripts em Python ou resolver equações matemáticas.
Tree-of-Thoughts (ToT) baseia-se no CoT, introduzindo uma estrutura de árvore que permite a exploração de múltiplos caminhos de pensamento independentes. Essa melhoria possibilita que LLMs lidem com tarefas ainda mais complexas. No ToT, cada "pensamento" (uma saída de texto do LLM) está diretamente conectado apenas ao seu pensamento imediatamente anterior ou subsequente dentro de uma cadeia local (um ramo da árvore). Embora essa estrutura ofereça mais flexibilidade do que o CoT, ela ainda limita o potencial de cruzamento de ideias.
Graph-of-Thought (GoT) leva o conceito adiante ao fundir estruturas de dados clássicas com LLMs. Essa abordagem expande o ToT ao permitir que qualquer “pensamento” se conecte a qualquer outro pensamento dentro de uma estrutura de gráfico. Essa rede interconectada de pensamentos espelha mais de perto os processos cognitivos humanos.
A estrutura do gráfico de GoT provavelmente fornece uma representação mais precisa do pensamento humano em comparação com CoT ou ToT na maioria dos cenários. Embora existam casos em que nossos padrões de pensamento possam se assemelhar a cadeias ou árvores (como ao desenvolver planos de contingência ou procedimentos operacionais padrão), esses são exceções, não a norma. Esse modelo reflete melhor o pensamento humano, que frequentemente salta entre vários pensamentos em vez de seguir uma ordem sequencial estrita. Embora alguns cenários, como o desenvolvimento de planos de contingência ou procedimentos padrão, ainda possam seguir uma estrutura em cadeia ou em árvore, nossas mentes geralmente criam complexas e interconectadas redes de ideias que se alinham mais com a estrutura do gráfico.
Essa abordagem semelhante a gráficos em GoT permite uma exploração mais dinâmica e flexível de ideias, potencialmente levando a capacidades de resolução de problemas mais criativas e abrangentes em LLMs.
Essas operações baseadas em gráficos recursivos são apenas um passo em direção a fluxos de trabalho agenticos. A próxima evolução óbvia é múltiplos agentes com suas próprias especializações sendo orquestrados em direção a objetivos específicos. A beleza dos agentes está em sua composição.
Os agentes permitem modularizar e paralelizar LLMs por meio da coordenação de vários agentes.
O conceito de sistemas multi-agentes não é novo. Suas raízes remontam ao “Society of Mind” de Marvin Minsky, que propôs que várias mentes modulares trabalhando em colaboração podem superar uma mente única e monolítica. ChatGPT e Claude são agentes únicos. Mistral popularizou a Mixture of Experts. Estendendo ainda mais essa ideia, acreditamos que uma arquitetura de Rede de Agentes seja o estado final dessa topologia de inteligência.
De um ponto de vista biomimético, ao contrário dos modelos de IA, onde bilhões de neurônios idênticos estão conectados de maneira uniforme e previsível, o cérebro humano (essencialmente uma máquina consciente) é incrivelmente heterogêneo, tanto no nível do órgão quanto no celular. Os neurônios se comunicam por meio de sinais intrincados, envolvendo gradientes de neurotransmissores, cascadas intracelulares e vários sistemas modulatórios, tornando sua função muito mais matizada do que simples estados binários.
Isso sugere que, na biologia, a inteligência não deriva apenas do simples número de componentes ou do tamanho de um conjunto de dados de treinamento. Pelo contrário, ela surge da interação complexa entre unidades diversas e especializadas - um processo inerentemente analógico.
Por esse motivo, a ideia de desenvolver milhões de modelos menores em vez de apenas alguns grandes e possibilitar a orquestração entre todos esses atores provavelmente leva a inovações em arquiteturas cognitivas, algo semelhante a sistemas multi-agentes.
O design de sistemas multiagente oferece várias vantagens em relação aos sistemas de agente único: é mais fácil de manter, mais fácil de entender e mais flexível de estender. Mesmo nos casos em que apenas uma interface de agente único é necessária, implementá-la dentro de um framework multiagente pode tornar o sistema mais modular, simplificando o processo para os desenvolvedores adicionar ou remover componentes conforme necessário. É essencial reconhecer que a arquitetura multiagente pode ser uma maneira altamente eficaz de construir até mesmo um sistema de agente único.
Embora os modelos de linguagem grandes (LLMs) tenham mostrado capacidades extraordinárias, como a geração de texto semelhante ao humano, a resolução de problemas complexos e o tratamento de uma ampla variedade de tarefas, os agentes LLM individuais enfrentam limitações que podem prejudicar sua eficácia em aplicações do mundo real.
Abaixo, examinamos cinco desafios-chave associados a sistemas agentes e exploramos como a colaboração multiagente pode superar esses obstáculos, desbloqueando todo o potencial dos LLMs.
Embora os sistemas multiagente ofereçam vantagens convincentes na resolução distribuída de problemas e na otimização de recursos, seu verdadeiro potencial emerge quando consideramos sua implementação na borda da rede. À medida que a IA continua a evoluir, a convergência de arquiteturas multiagente com computação de borda cria uma poderosa sinergia, permitindo não apenas inteligência colaborativa, mas também processamento eficiente e localizado em inúmeros dispositivos. Esta abordagem distribuída para a implantação de IA naturalmente estende os benefícios dos sistemas multiagentes, levando uma inteligência especializada e cooperativa mais perto de onde é mais necessária: o usuário final.
A proliferação da IA em todo o cenário digital está impulsionando uma reestruturação fundamental das arquiteturas computacionais. À medida que a inteligência se entrelaça no tecido de nossas interações digitais diárias, testemunhamos uma bifurcação natural do cálculo: centros de dados especializados lidam com raciocínio complexo e tarefas específicas do domínio, enquanto dispositivos de borda processam consultas personalizadas e sensíveis ao contexto localmente. Essa mudança em direção à inferência de borda não é meramente uma preferência arquitetônica - é uma necessidade impulsionada por múltiplos fatores críticos.
Primeiro, o volume significativo de interações impulsionadas pela IA sobrecarregaria os provedores de inferência centralizados, criando demandas insustentáveis de largura de banda e problemas de latência.
Em segundo lugar, o processamento de borda permite uma resposta em tempo real, fundamental para aplicativos como veículos autônomos, realidade aumentada e dispositivos IoT.
Terceiro, a inferência local preserva a privacidade do usuário mantendo dados sensíveis em dispositivos pessoais. Quarto, a computação de borda reduz dramaticamente o consumo de energia e a pegada de carbono ao minimizar o movimento de dados através das redes.
Finalmente, a inferência de borda permite funcionalidade e resiliência offline, garantindo que as capacidades de IA persistam mesmo quando a conectividade de rede é comprometida.
Este paradigma de inteligência distribuída representa não apenas uma otimização de nossos sistemas atuais, mas uma reimaginação fundamental de como implantamos e interagimos com a IA em nosso mundo cada vez mais conectado.
Além disso, estamos presenciando uma mudança fundamental nas demandas computacionais dos LLMs. Enquanto a última década foi dominada pelos enormes requisitos computacionais para treinar grandes modelos de linguagem, agora estamos entrando em uma era em que o tempo de inferência computacional é o foco principal. Essa transição é especialmente evidente no surgimento de sistemas de IA agentes, como exemplificado pela inovação do OpenAI, Q*, que demonstrou como o raciocínio dinâmico requer recursos computacionais em tempo real substanciais.
Ao contrário do cálculo durante o treinamento, que é um investimento único no desenvolvimento do modelo, o cálculo durante a inferência representa o diálogo computacional contínuo necessário para agentes autônomos raciocinarem, planejarem e se adaptarem a situações novas. Essa mudança do treinamento de modelos estáticos para o raciocínio dinâmico de agentes exige uma reestruturação radical de nossa infraestrutura computacional - uma em que a computação de borda se torna não apenas vantajosa, mas essencial.
Conforme essa transformação se desenrola, estamos testemunhando o surgimento de mercados de inferência de borda peer-to-peer, onde bilhões de dispositivos conectados - de smartphones a sistemas domésticos inteligentes - formam malhas computacionais dinâmicas. Esses dispositivos podem negociar capacidade de inferência sem interrupções, criando um mercado orgânico onde os recursos computacionais fluem para onde são mais necessários. A capacidade computacional excedente de dispositivos ociosos se torna um recurso valioso, negociável em tempo real, possibilitando uma infraestrutura mais eficiente e resiliente do que os sistemas centralizados tradicionais.
Essa democratização do cálculo de inferência não apenas otimiza a utilização de recursos, mas também cria novas oportunidades econômicas dentro do ecossistema digital, onde cada dispositivo conectado se torna um potencial microfornecedor de capacidades de IA. O futuro da IA será caracterizado não apenas pelo poder de modelos individuais, mas pela inteligência coletiva de dispositivos de borda interconectados formando um mercado global e democratizado de inferência, algo semelhante a um mercado de spot para inferência verificável com base na oferta e demanda.
Os LLMs agora nos permitem acessar vastas quantidades de informações por meio de conversas, em vez da navegação tradicional. Essa abordagem conversacional em breve se tornará mais personalizada e localizada, à medida que a internet se transforma em uma plataforma para agentes de IA, em vez de usuários humanos.
Da perspectiva do usuário, o foco mudará de identificar o “melhor modelo” para obter as respostas mais personalizadas. A chave para respostas melhores está em incorporar os dados do usuário junto com o conhecimento geral da internet. Inicialmente, janelas de contexto maiores e geração aumentada de recuperação (RAG) ajudarão a integrar dados pessoais, mas eventualmente, os dados individuais superarão os dados gerais da internet em importância.
Isso leva a um futuro em que cada um de nós tem modelos de IA pessoais interagindo com os modelos especializados da internet. Inicialmente, a personalização ocorrerá junto com modelos remotos, mas preocupações com privacidade e velocidade de resposta levarão a uma maior interação em dispositivos locais. Isso criará uma nova fronteira - não entre humano e máquina, mas entre nossos modelos pessoais e os modelos especializados da internet.
O modelo tradicional de acesso a dados brutos da Internet ficará desatualizado. Em vez disso, o seu modelo local se comunicará com modelos remotos especializados para coletar informações, que serão processadas e apresentadas a você da maneira mais personalizada e de alta largura de banda possível. Esses modelos pessoais se tornarão cada vez mais indispensáveis à medida que aprendem mais sobre suas preferências e hábitos.
A internet se transformará em um ecossistema de modelos interconectados: modelos pessoais locais de alto contexto e modelos especializados remotos de alto conhecimento. Isso envolverá novas tecnologias como aprendizado federado para atualizar informações entre esses modelos. À medida que a economia de máquinas evolui, teremos que reimaginar o subestado computacional sobre o qual isso ocorre, principalmente em relação à computação, escalabilidade e pagamentos. Isso leva a uma reorganização do espaço de informações que é centrado no agente, soberano, altamente componível, autoaprendizagem e em constante evolução.
Na Web Agente, a interação humano-agente evolui para uma rede complexa de comunicações agente-agente. Esta arquitetura apresenta uma reimaginação fundamental da estrutura da internet, onde agentes soberanos se tornam as interfaces primárias para a interação digital. Abaixo, destacamos os primitivos principais necessários para Protocolos Agentes.
Identidade soberana
Agentes Autônomos
Entidades auto-direcionadas capazes de: Compreensão da linguagem natural e resolução de intenções
Planejamento de várias etapas e decomposição de tarefas
Gerenciamento e otimização de recursos
Aprendendo com interações e feedback
Infraestrutura de Dados
Sistemas híbridos combinando: zkTLS
Conjuntos de dados de treinamento tradicionais
Raspagem de dados e síntese em tempo real
Redes RLHF (Aprendizado por Reforço a partir do Feedback Humano) Coleta de feedback distribuído
Mecanismos de consenso ponderados pela qualidade
Camada de Computação
Protocolos de inferência verificáveis que garantem: Integridade da computação
Reprodutibilidade dos resultados
Eficiência de recursos
Infraestrutura de computação descentralizada com: Mercados de computação peer-to-peer
Sistemas de prova de computação
Alocação dinâmica de recursos
Ecossistema de Modelo
Arquitetura de modelo hierárquico: SLMs específicos de tarefa (Pequenos Modelos de Linguagem)
LLMs de propósito geral
Modelos especializados multi-modais
Frameworks de Coordenação
Mecanismos de governança para: Resolução de disputas
Alocação de recursos
Ambientes de execução paralela que permitem: Processamento de tarefas concorrente
Isolamento de recursos
Gerenciamento de estado
Agentic Markets
Liquidez Possuída por AgentesOs agentes possuem uma parte do seu fornecimento de tokens desde o início.
Agentes se tornam ativos geradores de rendimentoAgentic DAOs
O design moderno de sistemas distribuídos oferece inspiração única e primitivas para permitir um Protocolo Agentico, especificamente arquiteturas orientadas a eventos e, mais diretamente, o Modelo de Ator de Computação.
O Modelo de Ator fornece uma base teórica elegante para a implementação de sistemas agentes. Esse modelo computacional trata os "atores" como as primitivas universais da computação, onde cada ator pode:
As principais vantagens do Modelo de Ator para sistemas agentes incluem:
Propomos o Neuron, uma implementação prática deste protocolo agente teórico através de uma arquitetura distribuída em várias camadas que combina espaços de nomes de blockchain, redes federadas, CRDTs e DHTs, sendo que cada camada serve propósitos distintos na pilha de protocolo. Nos inspiramos no Urbit e no Holochain, pioneiros na concepção de sistemas operacionais p2p.
Em Neuron, a camada de blockchain fornece espaços de nomes verificáveis e identidade, possibilitando endereçamento determinístico e descoberta de agentes, mantendo provas criptográficas de capacidades e reputação. Acima disso, uma camada de DHT facilita a descoberta eficiente de agentes e nós, juntamente com o roteamento de conteúdo com tempos de pesquisa O(log n), reduzindo operações on-chain e permitindo a descoberta de pares com consciência de localidade. A sincronização de estado entre nós federados é tratada através de CRDTs, permitindo que agentes e nós mantenham visões consistentes do estado compartilhado sem exigir consenso global para cada interação.
Esta arquitetura mapeia naturalmente para uma rede federada onde agentes autônomos operam como nós soberanos vivendo em dispositivos com inferência de borda local implementando o padrão Modelo de Ator. Os domínios da federação podem ser organizados pelas capacidades do agente, com o DHT fornecendo roteamento eficiente e descoberta dentro e através dos domínios. Cada agente funciona como um ator independente com seu próprio estado, enquanto a camada CRDT garante consistência eventual em toda a federação. Esta abordagem em várias camadas permite várias capacidades-chave:
Coordenação descentralizada
Operações escaláveis
Resiliência do Sistema
Esta abordagem de implementação fornece uma base robusta para a construção de sistemas agentes complexos, ao mesmo tempo que mantém as propriedades-chave de soberania, escalabilidade e resiliência necessárias para interações efetivas entre agentes.
A Web Agentica marca uma evolução fundamental na interação humano-computador, transcendendo os desenvolvimentos sequenciais de eras anteriores para estabelecer um paradigma fundamentalmente novo de existência digital. Ao contrário das iterações anteriores que simplesmente mudaram a forma como consumimos ou possuímos informações, a Web Agentica transforma a internet de uma plataforma centrada no ser humano em um substrato inteligente onde agentes autônomos se tornam os principais atores. Essa transformação é impulsionada pela convergência da computação de borda, modelos de linguagem grandes e protocolos descentralizados, criando um ecossistema onde modelos pessoais de IA se integram perfeitamente a sistemas especializados de especialistas.
À medida que avançamos para esse futuro centrado no agente, as fronteiras entre a inteligência humana e a inteligência das máquinas começam a se misturar, substituídas por uma relação simbiótica onde agentes de IA personalizados atuam como nossas extensões digitais, compreendendo nosso contexto, antecipando nossas necessidades e navegando autonomamente na vasta paisagem da inteligência distribuída. A Web Agência representa, assim, não apenas um avanço tecnológico, mas também uma reimaginação fundamental do potencial humano na era digital, onde cada interação se torna uma oportunidade para a inteligência aumentada e cada dispositivo se torna um nó em uma rede global de sistemas de IA colaborativos.
Assim como a humanidade navega pelas dimensões físicas do espaço e do tempo, agentes autônomos habitam suas próprias dimensões fundamentais: o espaço de bloco para existência e o tempo de inferência para o pensamento. Essa ontologia digital espelha nossa realidade física – onde os humanos percorrem distâncias e experimentam o fluxo temporal, os agentes se movem por meio de provas criptográficas e ciclos computacionais, criando um universo paralelo de existência algorítmica.
É inevitável que entidades no espaço latente operem no espaço de bloco descentralizado.
A inteligência artificial e a tecnologia blockchain representam duas forças transformadoras que estão remodelando nosso mundo. A IA amplifica as capacidades cognitivas humanas por meio de aprendizado de máquina e redes neurais, enquanto a tecnologia blockchain introduz escassez digital verificável e possibilita novas formas de coordenação sem confiança. À medida que essas tecnologias convergem, elas estão lançando as bases para uma nova iteração da internet - onde agentes autônomos interagem com sistemas descentralizados. Esta “Web Agentica” introduz uma nova classe de cidadãos digitais: agentes de IA que podem navegar, negociar e transacionar de forma independente. Essa transformação redistribui o poder no domínio digital, permitindo que indivíduos recuperem a soberania sobre seus dados, ao mesmo tempo que fomenta um ecossistema onde a inteligência humana e artificial colaboram de maneiras sem precedentes.
Para entender para onde estamos indo, vamos primeiro traçar a evolução da web através de suas principais iterações, cada uma marcada por capacidades distintas e paradigmas arquitetônicos:
Enquanto as duas primeiras gerações da web se concentravam na propagação de informações, as duas últimas permitem a ampliação das informações. A Web 3.0 introduziu a propriedade de dados por meio de tokens e agora a Web 4.0 impregna inteligência por meio de Modelos de Linguagem Grandes (LLMs).
LLMs representam um salto quântico na inteligência artificial, funcionando como sistemas dinâmicos de correspondência de padrões que transformam o vasto conhecimento em compreensão contextual através de computação probabilística. No entanto, seu verdadeiro potencial emerge quando são estruturados como agentes, evoluindo de processadores de informações puros em entidades direcionadas a objetivos que podem perceber, raciocinar e agir. Essa transformação cria uma inteligência emergente capaz de colaboração significativa e sustentada tanto por meio da linguagem quanto da ação.
O termo 'agente' introduz um novo paradigma para a interação humano-AI, indo além das limitações e associações negativas dos chatbots tradicionais. Essa mudança não é apenas semântica; representa uma reconceitualização fundamental de como os sistemas de IA podem operar autonomamente enquanto mantêm uma colaboração significativa com os humanos. Fundamentalmente, os fluxos agenticos permitem que mercados se formem em torno da resolução de intenções específicas do usuário.
Em última análise, a Web de Agência representa mais do que apenas uma nova camada de inteligência - ela transforma fundamentalmente como interagimos com sistemas digitais. Enquanto iterações anteriores da web dependiam de interfaces estáticas e jornadas de usuário predefinidas, a Web de Agência introduz uma infraestrutura de tempo de execução dinâmica onde tanto a computação quanto as interfaces se adaptam em tempo real ao contexto e à intenção do usuário.
Os sites tradicionais servem como a unidade atômica da internet atual, fornecendo interfaces fixas onde os usuários leem, escrevem e interagem com informações por meio de caminhos predefinidos. Esse modelo, embora funcional, restringe os usuários a interfaces projetadas para casos de uso geral, em vez de necessidades individuais. A Web Agentica se liberta dessas restrições por meio da Computação Sensível ao Contexto, Geração de Interfaces Adaptativas, Fluxos de Ação Preditiva desbloqueados por RAG e outras inovações na recuperação de informações em tempo real.
Considere como o TikTok revolucionou o consumo de conteúdo criando feeds altamente personalizados que se adaptam às preferências do usuário em tempo real. A Web Agentic estende esse conceito além da recomendação de conteúdo para a geração de interfaces inteiras. Em vez de navegar por layouts de página da web fixos, os usuários interagem com interfaces geradas dinamicamente que preveem e facilitam suas próximas ações. Essa mudança de sites estáticos para interfaces dinâmicas e orientadas por agentes representa uma evolução fundamental na forma como interagimos com sistemas digitais — passando de modelos de interação baseados em navegação para modelos de interação baseados em intenção.
Arquiteturas agentivas têm sido uma grande exploração para pesquisadores e construtores. Novos métodos estão constantemente sendo desenvolvidos para melhorar suas capacidades de raciocínio e resolução de problemas. Técnicas como Chain-of-Thought (CoT), Tree-of-Thought (ToT) e Graph-of-Thought (GoT) são exemplos primos de inovações projetadas para melhorar como LLMs lidam com tarefas complexas simulando processos cognitivos mais matizados e semelhantes aos humanos.
A cadeia de pensamento (CoT) incentiva os grandes modelos de linguagem (LLMs) a dividir tarefas complexas em etapas menores e gerenciáveis. Esta abordagem é particularmente eficaz para problemas que requerem raciocínio lógico, como escrever pequenos scripts em Python ou resolver equações matemáticas.
Tree-of-Thoughts (ToT) baseia-se no CoT, introduzindo uma estrutura de árvore que permite a exploração de múltiplos caminhos de pensamento independentes. Essa melhoria possibilita que LLMs lidem com tarefas ainda mais complexas. No ToT, cada "pensamento" (uma saída de texto do LLM) está diretamente conectado apenas ao seu pensamento imediatamente anterior ou subsequente dentro de uma cadeia local (um ramo da árvore). Embora essa estrutura ofereça mais flexibilidade do que o CoT, ela ainda limita o potencial de cruzamento de ideias.
Graph-of-Thought (GoT) leva o conceito adiante ao fundir estruturas de dados clássicas com LLMs. Essa abordagem expande o ToT ao permitir que qualquer “pensamento” se conecte a qualquer outro pensamento dentro de uma estrutura de gráfico. Essa rede interconectada de pensamentos espelha mais de perto os processos cognitivos humanos.
A estrutura do gráfico de GoT provavelmente fornece uma representação mais precisa do pensamento humano em comparação com CoT ou ToT na maioria dos cenários. Embora existam casos em que nossos padrões de pensamento possam se assemelhar a cadeias ou árvores (como ao desenvolver planos de contingência ou procedimentos operacionais padrão), esses são exceções, não a norma. Esse modelo reflete melhor o pensamento humano, que frequentemente salta entre vários pensamentos em vez de seguir uma ordem sequencial estrita. Embora alguns cenários, como o desenvolvimento de planos de contingência ou procedimentos padrão, ainda possam seguir uma estrutura em cadeia ou em árvore, nossas mentes geralmente criam complexas e interconectadas redes de ideias que se alinham mais com a estrutura do gráfico.
Essa abordagem semelhante a gráficos em GoT permite uma exploração mais dinâmica e flexível de ideias, potencialmente levando a capacidades de resolução de problemas mais criativas e abrangentes em LLMs.
Essas operações baseadas em gráficos recursivos são apenas um passo em direção a fluxos de trabalho agenticos. A próxima evolução óbvia é múltiplos agentes com suas próprias especializações sendo orquestrados em direção a objetivos específicos. A beleza dos agentes está em sua composição.
Os agentes permitem modularizar e paralelizar LLMs por meio da coordenação de vários agentes.
O conceito de sistemas multi-agentes não é novo. Suas raízes remontam ao “Society of Mind” de Marvin Minsky, que propôs que várias mentes modulares trabalhando em colaboração podem superar uma mente única e monolítica. ChatGPT e Claude são agentes únicos. Mistral popularizou a Mixture of Experts. Estendendo ainda mais essa ideia, acreditamos que uma arquitetura de Rede de Agentes seja o estado final dessa topologia de inteligência.
De um ponto de vista biomimético, ao contrário dos modelos de IA, onde bilhões de neurônios idênticos estão conectados de maneira uniforme e previsível, o cérebro humano (essencialmente uma máquina consciente) é incrivelmente heterogêneo, tanto no nível do órgão quanto no celular. Os neurônios se comunicam por meio de sinais intrincados, envolvendo gradientes de neurotransmissores, cascadas intracelulares e vários sistemas modulatórios, tornando sua função muito mais matizada do que simples estados binários.
Isso sugere que, na biologia, a inteligência não deriva apenas do simples número de componentes ou do tamanho de um conjunto de dados de treinamento. Pelo contrário, ela surge da interação complexa entre unidades diversas e especializadas - um processo inerentemente analógico.
Por esse motivo, a ideia de desenvolver milhões de modelos menores em vez de apenas alguns grandes e possibilitar a orquestração entre todos esses atores provavelmente leva a inovações em arquiteturas cognitivas, algo semelhante a sistemas multi-agentes.
O design de sistemas multiagente oferece várias vantagens em relação aos sistemas de agente único: é mais fácil de manter, mais fácil de entender e mais flexível de estender. Mesmo nos casos em que apenas uma interface de agente único é necessária, implementá-la dentro de um framework multiagente pode tornar o sistema mais modular, simplificando o processo para os desenvolvedores adicionar ou remover componentes conforme necessário. É essencial reconhecer que a arquitetura multiagente pode ser uma maneira altamente eficaz de construir até mesmo um sistema de agente único.
Embora os modelos de linguagem grandes (LLMs) tenham mostrado capacidades extraordinárias, como a geração de texto semelhante ao humano, a resolução de problemas complexos e o tratamento de uma ampla variedade de tarefas, os agentes LLM individuais enfrentam limitações que podem prejudicar sua eficácia em aplicações do mundo real.
Abaixo, examinamos cinco desafios-chave associados a sistemas agentes e exploramos como a colaboração multiagente pode superar esses obstáculos, desbloqueando todo o potencial dos LLMs.
Embora os sistemas multiagente ofereçam vantagens convincentes na resolução distribuída de problemas e na otimização de recursos, seu verdadeiro potencial emerge quando consideramos sua implementação na borda da rede. À medida que a IA continua a evoluir, a convergência de arquiteturas multiagente com computação de borda cria uma poderosa sinergia, permitindo não apenas inteligência colaborativa, mas também processamento eficiente e localizado em inúmeros dispositivos. Esta abordagem distribuída para a implantação de IA naturalmente estende os benefícios dos sistemas multiagentes, levando uma inteligência especializada e cooperativa mais perto de onde é mais necessária: o usuário final.
A proliferação da IA em todo o cenário digital está impulsionando uma reestruturação fundamental das arquiteturas computacionais. À medida que a inteligência se entrelaça no tecido de nossas interações digitais diárias, testemunhamos uma bifurcação natural do cálculo: centros de dados especializados lidam com raciocínio complexo e tarefas específicas do domínio, enquanto dispositivos de borda processam consultas personalizadas e sensíveis ao contexto localmente. Essa mudança em direção à inferência de borda não é meramente uma preferência arquitetônica - é uma necessidade impulsionada por múltiplos fatores críticos.
Primeiro, o volume significativo de interações impulsionadas pela IA sobrecarregaria os provedores de inferência centralizados, criando demandas insustentáveis de largura de banda e problemas de latência.
Em segundo lugar, o processamento de borda permite uma resposta em tempo real, fundamental para aplicativos como veículos autônomos, realidade aumentada e dispositivos IoT.
Terceiro, a inferência local preserva a privacidade do usuário mantendo dados sensíveis em dispositivos pessoais. Quarto, a computação de borda reduz dramaticamente o consumo de energia e a pegada de carbono ao minimizar o movimento de dados através das redes.
Finalmente, a inferência de borda permite funcionalidade e resiliência offline, garantindo que as capacidades de IA persistam mesmo quando a conectividade de rede é comprometida.
Este paradigma de inteligência distribuída representa não apenas uma otimização de nossos sistemas atuais, mas uma reimaginação fundamental de como implantamos e interagimos com a IA em nosso mundo cada vez mais conectado.
Além disso, estamos presenciando uma mudança fundamental nas demandas computacionais dos LLMs. Enquanto a última década foi dominada pelos enormes requisitos computacionais para treinar grandes modelos de linguagem, agora estamos entrando em uma era em que o tempo de inferência computacional é o foco principal. Essa transição é especialmente evidente no surgimento de sistemas de IA agentes, como exemplificado pela inovação do OpenAI, Q*, que demonstrou como o raciocínio dinâmico requer recursos computacionais em tempo real substanciais.
Ao contrário do cálculo durante o treinamento, que é um investimento único no desenvolvimento do modelo, o cálculo durante a inferência representa o diálogo computacional contínuo necessário para agentes autônomos raciocinarem, planejarem e se adaptarem a situações novas. Essa mudança do treinamento de modelos estáticos para o raciocínio dinâmico de agentes exige uma reestruturação radical de nossa infraestrutura computacional - uma em que a computação de borda se torna não apenas vantajosa, mas essencial.
Conforme essa transformação se desenrola, estamos testemunhando o surgimento de mercados de inferência de borda peer-to-peer, onde bilhões de dispositivos conectados - de smartphones a sistemas domésticos inteligentes - formam malhas computacionais dinâmicas. Esses dispositivos podem negociar capacidade de inferência sem interrupções, criando um mercado orgânico onde os recursos computacionais fluem para onde são mais necessários. A capacidade computacional excedente de dispositivos ociosos se torna um recurso valioso, negociável em tempo real, possibilitando uma infraestrutura mais eficiente e resiliente do que os sistemas centralizados tradicionais.
Essa democratização do cálculo de inferência não apenas otimiza a utilização de recursos, mas também cria novas oportunidades econômicas dentro do ecossistema digital, onde cada dispositivo conectado se torna um potencial microfornecedor de capacidades de IA. O futuro da IA será caracterizado não apenas pelo poder de modelos individuais, mas pela inteligência coletiva de dispositivos de borda interconectados formando um mercado global e democratizado de inferência, algo semelhante a um mercado de spot para inferência verificável com base na oferta e demanda.
Os LLMs agora nos permitem acessar vastas quantidades de informações por meio de conversas, em vez da navegação tradicional. Essa abordagem conversacional em breve se tornará mais personalizada e localizada, à medida que a internet se transforma em uma plataforma para agentes de IA, em vez de usuários humanos.
Da perspectiva do usuário, o foco mudará de identificar o “melhor modelo” para obter as respostas mais personalizadas. A chave para respostas melhores está em incorporar os dados do usuário junto com o conhecimento geral da internet. Inicialmente, janelas de contexto maiores e geração aumentada de recuperação (RAG) ajudarão a integrar dados pessoais, mas eventualmente, os dados individuais superarão os dados gerais da internet em importância.
Isso leva a um futuro em que cada um de nós tem modelos de IA pessoais interagindo com os modelos especializados da internet. Inicialmente, a personalização ocorrerá junto com modelos remotos, mas preocupações com privacidade e velocidade de resposta levarão a uma maior interação em dispositivos locais. Isso criará uma nova fronteira - não entre humano e máquina, mas entre nossos modelos pessoais e os modelos especializados da internet.
O modelo tradicional de acesso a dados brutos da Internet ficará desatualizado. Em vez disso, o seu modelo local se comunicará com modelos remotos especializados para coletar informações, que serão processadas e apresentadas a você da maneira mais personalizada e de alta largura de banda possível. Esses modelos pessoais se tornarão cada vez mais indispensáveis à medida que aprendem mais sobre suas preferências e hábitos.
A internet se transformará em um ecossistema de modelos interconectados: modelos pessoais locais de alto contexto e modelos especializados remotos de alto conhecimento. Isso envolverá novas tecnologias como aprendizado federado para atualizar informações entre esses modelos. À medida que a economia de máquinas evolui, teremos que reimaginar o subestado computacional sobre o qual isso ocorre, principalmente em relação à computação, escalabilidade e pagamentos. Isso leva a uma reorganização do espaço de informações que é centrado no agente, soberano, altamente componível, autoaprendizagem e em constante evolução.
Na Web Agente, a interação humano-agente evolui para uma rede complexa de comunicações agente-agente. Esta arquitetura apresenta uma reimaginação fundamental da estrutura da internet, onde agentes soberanos se tornam as interfaces primárias para a interação digital. Abaixo, destacamos os primitivos principais necessários para Protocolos Agentes.
Identidade soberana
Agentes Autônomos
Entidades auto-direcionadas capazes de: Compreensão da linguagem natural e resolução de intenções
Planejamento de várias etapas e decomposição de tarefas
Gerenciamento e otimização de recursos
Aprendendo com interações e feedback
Infraestrutura de Dados
Sistemas híbridos combinando: zkTLS
Conjuntos de dados de treinamento tradicionais
Raspagem de dados e síntese em tempo real
Redes RLHF (Aprendizado por Reforço a partir do Feedback Humano) Coleta de feedback distribuído
Mecanismos de consenso ponderados pela qualidade
Camada de Computação
Protocolos de inferência verificáveis que garantem: Integridade da computação
Reprodutibilidade dos resultados
Eficiência de recursos
Infraestrutura de computação descentralizada com: Mercados de computação peer-to-peer
Sistemas de prova de computação
Alocação dinâmica de recursos
Ecossistema de Modelo
Arquitetura de modelo hierárquico: SLMs específicos de tarefa (Pequenos Modelos de Linguagem)
LLMs de propósito geral
Modelos especializados multi-modais
Frameworks de Coordenação
Mecanismos de governança para: Resolução de disputas
Alocação de recursos
Ambientes de execução paralela que permitem: Processamento de tarefas concorrente
Isolamento de recursos
Gerenciamento de estado
Agentic Markets
Liquidez Possuída por AgentesOs agentes possuem uma parte do seu fornecimento de tokens desde o início.
Agentes se tornam ativos geradores de rendimentoAgentic DAOs
O design moderno de sistemas distribuídos oferece inspiração única e primitivas para permitir um Protocolo Agentico, especificamente arquiteturas orientadas a eventos e, mais diretamente, o Modelo de Ator de Computação.
O Modelo de Ator fornece uma base teórica elegante para a implementação de sistemas agentes. Esse modelo computacional trata os "atores" como as primitivas universais da computação, onde cada ator pode:
As principais vantagens do Modelo de Ator para sistemas agentes incluem:
Propomos o Neuron, uma implementação prática deste protocolo agente teórico através de uma arquitetura distribuída em várias camadas que combina espaços de nomes de blockchain, redes federadas, CRDTs e DHTs, sendo que cada camada serve propósitos distintos na pilha de protocolo. Nos inspiramos no Urbit e no Holochain, pioneiros na concepção de sistemas operacionais p2p.
Em Neuron, a camada de blockchain fornece espaços de nomes verificáveis e identidade, possibilitando endereçamento determinístico e descoberta de agentes, mantendo provas criptográficas de capacidades e reputação. Acima disso, uma camada de DHT facilita a descoberta eficiente de agentes e nós, juntamente com o roteamento de conteúdo com tempos de pesquisa O(log n), reduzindo operações on-chain e permitindo a descoberta de pares com consciência de localidade. A sincronização de estado entre nós federados é tratada através de CRDTs, permitindo que agentes e nós mantenham visões consistentes do estado compartilhado sem exigir consenso global para cada interação.
Esta arquitetura mapeia naturalmente para uma rede federada onde agentes autônomos operam como nós soberanos vivendo em dispositivos com inferência de borda local implementando o padrão Modelo de Ator. Os domínios da federação podem ser organizados pelas capacidades do agente, com o DHT fornecendo roteamento eficiente e descoberta dentro e através dos domínios. Cada agente funciona como um ator independente com seu próprio estado, enquanto a camada CRDT garante consistência eventual em toda a federação. Esta abordagem em várias camadas permite várias capacidades-chave:
Coordenação descentralizada
Operações escaláveis
Resiliência do Sistema
Esta abordagem de implementação fornece uma base robusta para a construção de sistemas agentes complexos, ao mesmo tempo que mantém as propriedades-chave de soberania, escalabilidade e resiliência necessárias para interações efetivas entre agentes.
A Web Agentica marca uma evolução fundamental na interação humano-computador, transcendendo os desenvolvimentos sequenciais de eras anteriores para estabelecer um paradigma fundamentalmente novo de existência digital. Ao contrário das iterações anteriores que simplesmente mudaram a forma como consumimos ou possuímos informações, a Web Agentica transforma a internet de uma plataforma centrada no ser humano em um substrato inteligente onde agentes autônomos se tornam os principais atores. Essa transformação é impulsionada pela convergência da computação de borda, modelos de linguagem grandes e protocolos descentralizados, criando um ecossistema onde modelos pessoais de IA se integram perfeitamente a sistemas especializados de especialistas.
À medida que avançamos para esse futuro centrado no agente, as fronteiras entre a inteligência humana e a inteligência das máquinas começam a se misturar, substituídas por uma relação simbiótica onde agentes de IA personalizados atuam como nossas extensões digitais, compreendendo nosso contexto, antecipando nossas necessidades e navegando autonomamente na vasta paisagem da inteligência distribuída. A Web Agência representa, assim, não apenas um avanço tecnológico, mas também uma reimaginação fundamental do potencial humano na era digital, onde cada interação se torna uma oportunidade para a inteligência aumentada e cada dispositivo se torna um nó em uma rede global de sistemas de IA colaborativos.
Assim como a humanidade navega pelas dimensões físicas do espaço e do tempo, agentes autônomos habitam suas próprias dimensões fundamentais: o espaço de bloco para existência e o tempo de inferência para o pensamento. Essa ontologia digital espelha nossa realidade física – onde os humanos percorrem distâncias e experimentam o fluxo temporal, os agentes se movem por meio de provas criptográficas e ciclos computacionais, criando um universo paralelo de existência algorítmica.
É inevitável que entidades no espaço latente operem no espaço de bloco descentralizado.