A inteligência artificial e a tecnologia blockchain representam duas forças transformadoras que estão a remodelar o nosso mundo. A IA amplifica as capacidades cognitivas humanas através de aprendizagem automática e redes neurais, enquanto a tecnologia blockchain introduz escassez digital verificável e permite novas formas de coordenação sem confiança. À medida que estas tecnologias convergem, estão a lançar as bases para uma nova iteração da internet — onde agentes autónomos interagem com sistemas descentralizados. Esta “Web Agentica” introduz uma nova classe de cidadãos digitais: agentes de IA que podem navegar, negociar e transacionar de forma independente. Esta transformação redistribui o poder no domínio digital, permitindo que os indivíduos reclamem a soberania sobre os seus dados, ao mesmo tempo que fomentam um ecossistema onde a inteligência humana e artificial colaboram de formas sem precedentes.
Para entender para onde estamos indo, primeiro vamos traçar a evolução da web através de suas principais iterações, cada uma marcada por capacidades distintas e paradigmas arquiteturais:
Enquanto as duas primeiras gerações da web se concentraram na propagação de informações, as duas últimas permitem aprimoramento de informações. A Web 3.0 introduziu a propriedade de dados por meio de tokens, e agora a Web 4.0 impregna a inteligência por meio de Grandes Modelos de Linguagem (LLMs).
LLMs representam um salto quântico na inteligência artificial, funcionando como sistemas dinâmicos de correspondência de padrões que transformam vasto conhecimento em compreensão contextual através de computação probabilística. No entanto, o seu verdadeiro potencial emerge quando estruturados como agentes, evoluindo de meros processadores de informação para entidades orientadas para objetivos que podem perceber, raciocinar e agir. Esta transformação cria uma inteligência emergente capaz de colaboração significativa e sustentada através tanto da linguagem como da ação.
O termo 'agente' introduz um novo paradigma para a interação humano-AI, indo além das limitações e associações negativas dos chatbots tradicionais. Essa mudança não é apenas semântica; representa uma reconceptualização fundamental de como os sistemas de IA podem operar autonomamente, mantendo uma colaboração significativa com os humanos. Fundamentalmente, fluxos de trabalho agentes permitem que mercados se formem em torno da resolução de intenções específicas do usuário.
Em última análise, a Agentic Web representa mais do que apenas uma nova camada de inteligência - ela transforma fundamentalmente como interagimos com sistemas digitais. Enquanto iterações anteriores da web dependiam de interfaces estáticas e jornadas de usuários predefinidas, a Agentic Web introduz uma infraestrutura de tempo de execução dinâmica onde tanto a computação quanto as interfaces se adaptam em tempo real ao contexto e à intenção do usuário.
Os sites tradicionais servem como a unidade atômica da internet atual, fornecendo interfaces fixas onde os usuários leem, escrevem e interagem com informações por meio de caminhos predeterminados. Esse modelo, embora funcional, limita os usuários a interfaces projetadas para casos de uso geral, em vez de necessidades individuais. A Web Agentic se liberta dessas restrições por meio da Computação Sensível ao Contexto, Geração de Interface Adaptativa, Fluxos de Ação Preditivos desbloqueados por meio de RAG e outras inovações na recuperação de informações em tempo real.
Considere como o TikTok revolucionou o consumo de conteúdo, criando feeds altamente personalizados que se adaptam às preferências do utilizador em tempo real. A Agentic Web estende este conceito para além da recomendação de conteúdo, até à geração de interfaces inteiras. Em vez de navegar através de layouts fixos de páginas da web, os utilizadores interagem com interfaces geradas dinamicamente que preveem e facilitam as suas próximas ações. Esta mudança de websites estáticos para interfaces dinâmicas e orientadas por agentes representa uma evolução fundamental na forma como interagimos com sistemas digitais — passando de modelos de interação baseados em navegação para modelos de interação baseados em intenção.
As arquiteturas de agentes têm sido uma grande exploração para pesquisadores e construtores. Novos métodos estão constantemente sendo desenvolvidos para aumentar suas capacidades de raciocínio e resolução de problemas. Técnicas como Chain-of-Thought (CoT), Tree-of-Thought (ToT) e Graph-of-Thought (GoT) são exemplos primários de inovações projetadas para melhorar como LLMs lidam com tarefas complexas ao simular processos cognitivos mais sutis e semelhantes aos humanos.
A promoção Chain-of-Thought (CoT) incentiva modelos de linguagem grandes (LLMs) a dividir tarefas complexas em etapas menores e gerenciáveis. Essa abordagem é particularmente eficaz para problemas que exigem raciocínio lógico, como escrever pequenos scripts em Python ou resolver equações matemáticas.
Tree-of-Thoughts (ToT) baseia-se em CoT, introduzindo uma estrutura em árvore que permite a exploração de múltiplos caminhos de pensamento independentes. Este aprimoramento permite que LLMs lidem com tarefas ainda mais complexas. Em ToT, cada 'pensamento' (uma saída de texto do LLM) está diretamente conectado apenas ao seu pensamento imediatamente anterior ou subsequente dentro de uma cadeia local (um ramo da árvore). Embora essa estrutura ofereça mais flexibilidade do que CoT, ela ainda limita o potencial de cruzamento de ideias.
Graph-of-Thought (GoT) leva o conceito ainda mais longe ao fundir estruturas de dados clássicas com LLMs. Esta abordagem expande o ToT ao permitir que qualquer “pensamento” se ligue a qualquer outro pensamento dentro de uma estrutura de grafo. Esta rede interligada de pensamentos reflete mais de perto os processos cognitivos humanos.
A estrutura do gráfico do GoT provavelmente fornece uma representação mais precisa do pensamento humano em comparação com CoT ou ToT na maioria dos cenários. Embora haja casos em que nossos padrões de pensamento possam se assemelhar a cadeias ou árvores (como ao desenvolver planos de contingência ou procedimentos operacionais padrão), esses são exceções em vez de serem a norma. Este modelo espelha melhor o pensamento humano, que frequentemente salta entre vários pensamentos em vez de seguir uma ordem sequencial rígida. Embora em alguns cenários, como ao desenvolver planos de contingência ou procedimentos padrão, ainda possam seguir uma estrutura em cadeia ou em árvore, nossas mentes geralmente criam teias de ideias complexas e interconectadas que se alinham mais com a estrutura do gráfico.
Esta abordagem gráfica em GoT permite uma exploração mais dinâmica e flexível de ideias, potencialmente levando a capacidades de resolução de problemas mais criativas e abrangentes em LLMs.
Essas operações baseadas em gráficos recursivos são apenas um passo em direção aos fluxos de trabalho agentes. A próxima evolução óbvia são múltiplos agentes com sua própria especialização, sendo orquestrados em direção a metas específicas. A beleza dos agentes está em sua composição.
Os agentes permitem modularizar e paralelizar LLMs através da coordenação de vários agentes.
O conceito de sistemas multiagentes não é novo. Suas raízes remontam a "Society of Mind" de Marvin Minsky, que propôs que várias mentes modulares trabalhando em colaboração podem superar uma mente monolítica única. ChatGPT e Claude são agentes individuais. Mistral popularizou a Mistura de Especialistas. Estendendo ainda mais essa ideia, acreditamos que uma arquitetura de Rede de Agentes seja o estado final dessa topologia de inteligência.
De um ponto de vista biomimético, ao contrário dos modelos de IA, onde bilhões de neurônios idênticos estão conectados de maneira uniforme e previsível, o cérebro humano (essencialmente uma máquina consciente) é incrivelmente heterogêneo - tanto no nível do órgão quanto celular. Os neurônios comunicam-se através de sinais intrincados, envolvendo gradientes de neurotransmissores, cascadas intracelulares e vários sistemas modulatórios, tornando sua função muito mais matizada do que simples estados binários.
Isso sugere que, na biologia, a inteligência não deriva apenas do número de componentes ou do tamanho de um conjunto de dados de treinamento. Em vez disso, ela surge da interação complexa entre unidades diversas e especializadas - um processo inerentemente analógico.
Por esse motivo, a ideia de desenvolver milhões de modelos menores em vez de apenas alguns grandes e permitir a orquestração entre todos esses atores, provavelmente leva a inovações em arquiteturas cognitivas, algo semelhante a sistemas multiagentes.
O design do sistema multiagente oferece várias vantagens em relação aos sistemas de agente único: é mais fácil de manter, mais fácil de entender e mais flexível para estender. Mesmo nos casos em que apenas uma interface de agente único é necessária, implementá-la dentro de um framework multiagente pode tornar o sistema mais modular, simplificando o processo para os desenvolvedores adicionar ou remover componentes conforme necessário. É essencial reconhecer que a arquitetura multiagente pode ser uma forma altamente eficaz de construir até mesmo um sistema de agente único.
Embora os grandes modelos de linguagem (LLMs) tenham mostrado capacidades extraordinárias - como gerar texto semelhante ao humano, resolver problemas complexos e lidar com uma ampla gama de tarefas - os agentes individuais de LLM enfrentam limitações que podem prejudicar sua eficácia em aplicações do mundo real.
Abaixo, examinamos cinco desafios-chave associados aos sistemas agentes e exploramos como a colaboração multiagente pode superar esses obstáculos, desbloqueando todo o potencial de LLMs.
Embora os sistemas multiagentes ofereçam vantagens convincentes na resolução de problemas distribuídos e na otimização de recursos, seu verdadeiro potencial surge quando consideramos sua implementação na borda da rede. À medida que a IA continua a evoluir, a convergência de arquiteturas multiagentes com computação na borda cria uma sinergia poderosa, permitindo não apenas inteligência colaborativa, mas também processamento eficiente e localizado em inúmeros dispositivos. Essa abordagem distribuída para a implantação de IA estende naturalmente os benefícios dos sistemas multiagentes, levando inteligência cooperativa especializada mais perto de onde é mais necessária: o usuário final.
A proliferação da IA em todo o cenário digital está a impulsionar uma reestruturação fundamental das arquiteturas computacionais. À medida que a inteligência se vai entranhando no tecido das nossas interações digitais diárias, estamos a assistir a uma bifurcação natural do cálculo: centros de dados especializados lidam com raciocínios complexos e tarefas específicas de domínio, enquanto dispositivos de borda processam consultas personalizadas e sensíveis ao contexto localmente. Esta mudança em direção à inferência de borda não é apenas uma preferência arquitetónica - é uma necessidade impulsionada por múltiplos fatores críticos.
Em primeiro lugar, o volume impressionante de interações impulsionadas por IA sobrecarregaria os provedores de inferência centralizados, criando demandas insustentáveis de largura de banda e problemas de latência.
Em segundo lugar, o processamento de borda permite a capacidade de resposta em tempo real, fundamental para aplicações como veículos autônomos, realidade aumentada e dispositivos IoT.
Terceiro, a inferência local preserva a privacidade do utilizador ao manter os dados sensíveis em dispositivos pessoais. Quarto, a computação de borda reduz drasticamente o consumo de energia e a pegada de carbono, minimizando a movimentação de dados entre redes.
Finalmente, a inferência de borda permite funcionalidade offline e resiliência, garantindo que as capacidades de IA persistam mesmo quando a conectividade de rede está comprometida.
Este paradigma de inteligência distribuída representa não apenas uma otimização dos nossos sistemas atuais, mas uma reimaginação fundamental de como implantamos e interagimos com a IA no nosso mundo cada vez mais conectado.
Além disso, estamos testemunhando uma mudança fundamental nas demandas computacionais dos LLMs. Enquanto a última década foi dominada pelos enormes requisitos computacionais do treinamento de modelos de linguagem grandes, agora estamos entrando em uma era em que o tempo de computação de inferência assume o centro do palco. Essa transição é particularmente evidente no surgimento de sistemas de IA agentes, como exemplificado pelo avanço do Q * da OpenAI, que demonstrou como o raciocínio dinâmico exige recursos computacionais substanciais em tempo real.
Ao contrário do cálculo durante o treinamento, que é um investimento único no desenvolvimento do modelo, o cálculo durante a inferência representa o diálogo computacional contínuo necessário para que agentes autônomos raciocinem, planejem e se adaptem a situações novas. Essa mudança do treinamento de modelos estáticos para o raciocínio dinâmico de agentes exige uma reformulação radical de nossa infraestrutura computacional, na qual a computação em borda se torna não apenas vantajosa, mas essencial.
À medida que esta transformação se desenrola, estamos a testemunhar o surgimento de mercados de inferência de borda peer-to-peer, onde bilhões de dispositivos conectados — de smartphones a sistemas de casa inteligente — formam malhas computacionais dinâmicas. Estes dispositivos podem negociar capacidade de inferência de forma contínua, criando um mercado orgânico onde os recursos computacionais fluem para onde são mais necessários. A capacidade computacional excedente de dispositivos inativos torna-se um recurso valioso, negociável em tempo real, permitindo uma infraestrutura mais eficiente e resiliente do que os sistemas centralizados tradicionais.
Esta democratização da computação de inferência não só optimiza a utilização de recursos, mas também cria novas oportunidades económicas dentro do ecossistema digital, onde cada dispositivo ligado se torna um potencial micro-fornecedor de capacidades de IA. O futuro da IA será assim caracterizado não só pelo poder de modelos individuais, mas pela inteligência colectiva de dispositivos interligados que formam um mercado global de inferência democratizado, algo semelhante a um mercado spot para inferência verificável baseada na oferta e na procura.
As LLMs permitem-nos agora aceder a grandes quantidades de informação através de conversas, em vez da navegação tradicional. Esta abordagem de conversação tornar-se-á em breve mais personalizada e localizada, à medida que a Internet se transforma numa plataforma para agentes de IA em vez de utilizadores humanos.
Da perspectiva do utilizador, o foco irá mudar de identificar o "melhor modelo" para obter as respostas mais personalizadas. A chave para melhores respostas está em incorporar os dados próprios do utilizador juntamente com o conhecimento geral da internet. Inicialmente, janelas de contexto maiores e geração aumentada por recuperação (RAG) ajudarão a integrar os dados pessoais, mas eventualmente, os dados individuais ultrapassarão os dados gerais da internet em importância.
Isso leva a um futuro em que cada um de nós tem modelos pessoais de IA interagindo com os modelos especializados da internet em geral. Inicialmente, a personalização ocorrerá ao lado de modelos remotos, mas preocupações com privacidade e velocidade de resposta levarão a mais interações em dispositivos locais. Isso criará um novo limite - não entre humano e máquina, mas entre nossos modelos pessoais e os modelos especializados da internet.
O modelo tradicional de acesso a dados brutos da Internet se tornará obsoleto. Em vez disso, seu modelo local se comunicará com modelos especializados remotos para coletar informações, que serão processadas e apresentadas a você da maneira mais personalizada e de alta largura de banda possível. Esses modelos pessoais se tornarão cada vez mais indispensáveis à medida que aprendem mais sobre suas preferências e hábitos.
A internet irá transformar-se num ecossistema de modelos interligados: modelos pessoais locais de alto contexto e modelos especializados remotos de alto conhecimento. Isto envolverá novas tecnologias como a aprendizagem federada para atualizar informações entre estes modelos. À medida que a economia das máquinas evolui, teremos de reimaginar o subestado computacional sobre o qual isto ocorre, principalmente em relação ao cálculo, escalabilidade e pagamentos. Isto leva a uma reorganização do espaço de informação que é centrado no agente, soberano, altamente componível, autoaprendizagem e em evolução.
Na Web Agentic, a interação humano-agente evolui para uma rede complexa de comunicações de agente para agente. Esta arquitetura apresenta uma reimaginação fundamental da estrutura da internet, onde agentes soberanos se tornam as interfaces primárias para interação digital. Abaixo, destacamos primitivas essenciais necessárias para Protocolos Agentes.
Identidade soberana
Agentes Autónomos
Entidades autônomas capazes de: Compreensão de linguagem natural e resolução de intenções
Planeamento de várias etapas e decomposição de tarefas
Gestão e otimização de recursos
Aprender com interações e feedback
Infraestrutura de Dados
Sistemas híbridos que combinam: zkTLS
Conjuntos de dados de treino tradicionais
Web scraping em tempo real e síntese de dados
Redes RLHF (Aprendizagem de Reforço a partir de Feedback Humano) Recolha distribuída de feedback
Mecanismos de consenso ponderados pela qualidade
Camada de Computação
Protocolos de inferência verificáveis garantindo: Integridade de computação
Reprodutibilidade dos resultados
Eficiência de recursos
Infraestrutura de computação descentralizada com mercado de computação peer-to-peer
Sistemas de prova de computação
Alocação dinâmica de recursos
Ecossistema Modelo
Arquitetura de modelo hierárquico: SLMs específicos de tarefas (Small Language Models)
LLMs de uso geral
Modelos multimodais especializados
Frameworks de Coordenação
Mecanismos de governança para: Resolução de disputas
Alocação de recursos
Ambientes de execução paralela que permitem: Processamento de tarefas concorrentes
Isolamento de recursos
Gestão de estado
Agentic Markets
Liquidez de propriedade do agenteOs agentes possuem uma parte de seu fornecimento de token na gênese
Agentes tornam-se ativos de rendimentoAgentic DAOs
O design moderno de sistemas distribuídos oferece inspiração única e primitivas para permitir Protocolos Agentes, especificamente arquiteturas orientadas a eventos e, mais diretamente, o Modelo de Ator de Computação.
O Modelo de Ator fornece uma base teórica elegante para a implementação de sistemas agentes. Este modelo computacional trata os "atores" como as primitivas universais da computação, onde cada ator pode:
Principais vantagens do Modelo de Ator para sistemas agentes incluem:
Propomos Neuron, uma implementação prática deste protocolo agente teórico através de uma arquitetura distribuída em várias camadas que combina namespaces de blockchain, redes federadas, CRDTs e DHTs, sendo que cada camada serve propósitos distintos na pilha de protocolos. Nós nos inspiramos em Urbit e Holochain, pioneiros em design de sistemas operacionais p2p.
Em Neuron, a camada de blockchain fornece espaços de nomes verificáveis e identidade, permitindo a abordagem determinística e a descoberta de agentes, mantendo provas criptográficas de capacidades e reputação. Acima disso, uma camada DHT facilita a descoberta eficiente de agentes e nós, juntamente com o encaminhamento de conteúdo com tempos de pesquisa O(log n), reduzindo operações on-chain enquanto permite a descoberta de pares consciente da localidade. A sincronização de estado entre nós federados é tratada através de CRDTs, permitindo que agentes e nós mantenham visualizações consistentes do estado compartilhado sem exigir consenso global para cada interação.
Esta arquitetura mapeia naturalmente para uma rede federada onde agentes autônomos atuam como nós soberanos vivendo em dispositivos com inferência local de borda implementando o padrão do Modelo de Ator. Os domínios de federação podem ser organizados por capacidades de agente, com o DHT fornecendo roteamento e descoberta eficientes dentro e entre domínios. Cada agente funciona como um ator independente com seu próprio estado, enquanto a camada CRDT garante consistência eventual em toda a federação. Essa abordagem em várias camadas permite várias capacidades-chave:
Coordenação descentralizada
Operações escaláveis
Resiliência do sistema
Esta abordagem de implementação fornece uma base robusta para a construção de sistemas agenticos complexos, mantendo as propriedades-chave de soberania, escalabilidade e resiliência necessárias para interações eficazes entre agentes.
A Web Agentic marca uma evolução fundamental na interação humano-computador, transcendendo os desenvolvimentos sequenciais das eras anteriores para estabelecer um novo paradigma fundamental de existência digital. Ao contrário das iterações anteriores que simplesmente mudaram a forma como consumimos ou possuímos informações, a Web Agentic transforma a internet de uma plataforma centrada no ser humano em um substrato inteligente onde agentes autônomos se tornam os principais atores. Essa transformação é impulsionada pela convergência da computação de borda, modelos de linguagem grandes e protocolos descentralizados, criando um ecossistema em que modelos de IA pessoais se integram perfeitamente a sistemas especializados.
À medida que avançamos em direção a esse futuro centrado no agente, as fronteiras entre a inteligência humana e a inteligência artificial começam a se confundir, substituídas por uma relação simbiótica onde agentes de IA personalizados atuam como nossas extensões digitais, entendendo nosso contexto, antecipando nossas necessidades e navegando autonomamente pela vasta paisagem da inteligência distribuída. A Web Agentic, portanto, representa não apenas um avanço tecnológico, mas uma reimaginação fundamental do potencial humano na era digital, onde cada interação se torna uma oportunidade para a inteligência aumentada e cada dispositivo se torna um nó em uma rede global de sistemas colaborativos de IA.
Assim como a humanidade navega nas dimensões físicas do espaço e do tempo, agentes autônomos habitam suas próprias dimensões fundamentais: espaço de bloco para existência e tempo de inferência para pensamento. Essa ontologia digital espelha nossa realidade física, onde os humanos percorrem distâncias e experimentam fluxo temporal, agentes se movem através de provas criptográficas e ciclos computacionais, criando um universo paralelo de existência algorítmica.
É inevitável que entidades no espaço latente operem no blockspace descentralizado.
A inteligência artificial e a tecnologia blockchain representam duas forças transformadoras que estão a remodelar o nosso mundo. A IA amplifica as capacidades cognitivas humanas através de aprendizagem automática e redes neurais, enquanto a tecnologia blockchain introduz escassez digital verificável e permite novas formas de coordenação sem confiança. À medida que estas tecnologias convergem, estão a lançar as bases para uma nova iteração da internet — onde agentes autónomos interagem com sistemas descentralizados. Esta “Web Agentica” introduz uma nova classe de cidadãos digitais: agentes de IA que podem navegar, negociar e transacionar de forma independente. Esta transformação redistribui o poder no domínio digital, permitindo que os indivíduos reclamem a soberania sobre os seus dados, ao mesmo tempo que fomentam um ecossistema onde a inteligência humana e artificial colaboram de formas sem precedentes.
Para entender para onde estamos indo, primeiro vamos traçar a evolução da web através de suas principais iterações, cada uma marcada por capacidades distintas e paradigmas arquiteturais:
Enquanto as duas primeiras gerações da web se concentraram na propagação de informações, as duas últimas permitem aprimoramento de informações. A Web 3.0 introduziu a propriedade de dados por meio de tokens, e agora a Web 4.0 impregna a inteligência por meio de Grandes Modelos de Linguagem (LLMs).
LLMs representam um salto quântico na inteligência artificial, funcionando como sistemas dinâmicos de correspondência de padrões que transformam vasto conhecimento em compreensão contextual através de computação probabilística. No entanto, o seu verdadeiro potencial emerge quando estruturados como agentes, evoluindo de meros processadores de informação para entidades orientadas para objetivos que podem perceber, raciocinar e agir. Esta transformação cria uma inteligência emergente capaz de colaboração significativa e sustentada através tanto da linguagem como da ação.
O termo 'agente' introduz um novo paradigma para a interação humano-AI, indo além das limitações e associações negativas dos chatbots tradicionais. Essa mudança não é apenas semântica; representa uma reconceptualização fundamental de como os sistemas de IA podem operar autonomamente, mantendo uma colaboração significativa com os humanos. Fundamentalmente, fluxos de trabalho agentes permitem que mercados se formem em torno da resolução de intenções específicas do usuário.
Em última análise, a Agentic Web representa mais do que apenas uma nova camada de inteligência - ela transforma fundamentalmente como interagimos com sistemas digitais. Enquanto iterações anteriores da web dependiam de interfaces estáticas e jornadas de usuários predefinidas, a Agentic Web introduz uma infraestrutura de tempo de execução dinâmica onde tanto a computação quanto as interfaces se adaptam em tempo real ao contexto e à intenção do usuário.
Os sites tradicionais servem como a unidade atômica da internet atual, fornecendo interfaces fixas onde os usuários leem, escrevem e interagem com informações por meio de caminhos predeterminados. Esse modelo, embora funcional, limita os usuários a interfaces projetadas para casos de uso geral, em vez de necessidades individuais. A Web Agentic se liberta dessas restrições por meio da Computação Sensível ao Contexto, Geração de Interface Adaptativa, Fluxos de Ação Preditivos desbloqueados por meio de RAG e outras inovações na recuperação de informações em tempo real.
Considere como o TikTok revolucionou o consumo de conteúdo, criando feeds altamente personalizados que se adaptam às preferências do utilizador em tempo real. A Agentic Web estende este conceito para além da recomendação de conteúdo, até à geração de interfaces inteiras. Em vez de navegar através de layouts fixos de páginas da web, os utilizadores interagem com interfaces geradas dinamicamente que preveem e facilitam as suas próximas ações. Esta mudança de websites estáticos para interfaces dinâmicas e orientadas por agentes representa uma evolução fundamental na forma como interagimos com sistemas digitais — passando de modelos de interação baseados em navegação para modelos de interação baseados em intenção.
As arquiteturas de agentes têm sido uma grande exploração para pesquisadores e construtores. Novos métodos estão constantemente sendo desenvolvidos para aumentar suas capacidades de raciocínio e resolução de problemas. Técnicas como Chain-of-Thought (CoT), Tree-of-Thought (ToT) e Graph-of-Thought (GoT) são exemplos primários de inovações projetadas para melhorar como LLMs lidam com tarefas complexas ao simular processos cognitivos mais sutis e semelhantes aos humanos.
A promoção Chain-of-Thought (CoT) incentiva modelos de linguagem grandes (LLMs) a dividir tarefas complexas em etapas menores e gerenciáveis. Essa abordagem é particularmente eficaz para problemas que exigem raciocínio lógico, como escrever pequenos scripts em Python ou resolver equações matemáticas.
Tree-of-Thoughts (ToT) baseia-se em CoT, introduzindo uma estrutura em árvore que permite a exploração de múltiplos caminhos de pensamento independentes. Este aprimoramento permite que LLMs lidem com tarefas ainda mais complexas. Em ToT, cada 'pensamento' (uma saída de texto do LLM) está diretamente conectado apenas ao seu pensamento imediatamente anterior ou subsequente dentro de uma cadeia local (um ramo da árvore). Embora essa estrutura ofereça mais flexibilidade do que CoT, ela ainda limita o potencial de cruzamento de ideias.
Graph-of-Thought (GoT) leva o conceito ainda mais longe ao fundir estruturas de dados clássicas com LLMs. Esta abordagem expande o ToT ao permitir que qualquer “pensamento” se ligue a qualquer outro pensamento dentro de uma estrutura de grafo. Esta rede interligada de pensamentos reflete mais de perto os processos cognitivos humanos.
A estrutura do gráfico do GoT provavelmente fornece uma representação mais precisa do pensamento humano em comparação com CoT ou ToT na maioria dos cenários. Embora haja casos em que nossos padrões de pensamento possam se assemelhar a cadeias ou árvores (como ao desenvolver planos de contingência ou procedimentos operacionais padrão), esses são exceções em vez de serem a norma. Este modelo espelha melhor o pensamento humano, que frequentemente salta entre vários pensamentos em vez de seguir uma ordem sequencial rígida. Embora em alguns cenários, como ao desenvolver planos de contingência ou procedimentos padrão, ainda possam seguir uma estrutura em cadeia ou em árvore, nossas mentes geralmente criam teias de ideias complexas e interconectadas que se alinham mais com a estrutura do gráfico.
Esta abordagem gráfica em GoT permite uma exploração mais dinâmica e flexível de ideias, potencialmente levando a capacidades de resolução de problemas mais criativas e abrangentes em LLMs.
Essas operações baseadas em gráficos recursivos são apenas um passo em direção aos fluxos de trabalho agentes. A próxima evolução óbvia são múltiplos agentes com sua própria especialização, sendo orquestrados em direção a metas específicas. A beleza dos agentes está em sua composição.
Os agentes permitem modularizar e paralelizar LLMs através da coordenação de vários agentes.
O conceito de sistemas multiagentes não é novo. Suas raízes remontam a "Society of Mind" de Marvin Minsky, que propôs que várias mentes modulares trabalhando em colaboração podem superar uma mente monolítica única. ChatGPT e Claude são agentes individuais. Mistral popularizou a Mistura de Especialistas. Estendendo ainda mais essa ideia, acreditamos que uma arquitetura de Rede de Agentes seja o estado final dessa topologia de inteligência.
De um ponto de vista biomimético, ao contrário dos modelos de IA, onde bilhões de neurônios idênticos estão conectados de maneira uniforme e previsível, o cérebro humano (essencialmente uma máquina consciente) é incrivelmente heterogêneo - tanto no nível do órgão quanto celular. Os neurônios comunicam-se através de sinais intrincados, envolvendo gradientes de neurotransmissores, cascadas intracelulares e vários sistemas modulatórios, tornando sua função muito mais matizada do que simples estados binários.
Isso sugere que, na biologia, a inteligência não deriva apenas do número de componentes ou do tamanho de um conjunto de dados de treinamento. Em vez disso, ela surge da interação complexa entre unidades diversas e especializadas - um processo inerentemente analógico.
Por esse motivo, a ideia de desenvolver milhões de modelos menores em vez de apenas alguns grandes e permitir a orquestração entre todos esses atores, provavelmente leva a inovações em arquiteturas cognitivas, algo semelhante a sistemas multiagentes.
O design do sistema multiagente oferece várias vantagens em relação aos sistemas de agente único: é mais fácil de manter, mais fácil de entender e mais flexível para estender. Mesmo nos casos em que apenas uma interface de agente único é necessária, implementá-la dentro de um framework multiagente pode tornar o sistema mais modular, simplificando o processo para os desenvolvedores adicionar ou remover componentes conforme necessário. É essencial reconhecer que a arquitetura multiagente pode ser uma forma altamente eficaz de construir até mesmo um sistema de agente único.
Embora os grandes modelos de linguagem (LLMs) tenham mostrado capacidades extraordinárias - como gerar texto semelhante ao humano, resolver problemas complexos e lidar com uma ampla gama de tarefas - os agentes individuais de LLM enfrentam limitações que podem prejudicar sua eficácia em aplicações do mundo real.
Abaixo, examinamos cinco desafios-chave associados aos sistemas agentes e exploramos como a colaboração multiagente pode superar esses obstáculos, desbloqueando todo o potencial de LLMs.
Embora os sistemas multiagentes ofereçam vantagens convincentes na resolução de problemas distribuídos e na otimização de recursos, seu verdadeiro potencial surge quando consideramos sua implementação na borda da rede. À medida que a IA continua a evoluir, a convergência de arquiteturas multiagentes com computação na borda cria uma sinergia poderosa, permitindo não apenas inteligência colaborativa, mas também processamento eficiente e localizado em inúmeros dispositivos. Essa abordagem distribuída para a implantação de IA estende naturalmente os benefícios dos sistemas multiagentes, levando inteligência cooperativa especializada mais perto de onde é mais necessária: o usuário final.
A proliferação da IA em todo o cenário digital está a impulsionar uma reestruturação fundamental das arquiteturas computacionais. À medida que a inteligência se vai entranhando no tecido das nossas interações digitais diárias, estamos a assistir a uma bifurcação natural do cálculo: centros de dados especializados lidam com raciocínios complexos e tarefas específicas de domínio, enquanto dispositivos de borda processam consultas personalizadas e sensíveis ao contexto localmente. Esta mudança em direção à inferência de borda não é apenas uma preferência arquitetónica - é uma necessidade impulsionada por múltiplos fatores críticos.
Em primeiro lugar, o volume impressionante de interações impulsionadas por IA sobrecarregaria os provedores de inferência centralizados, criando demandas insustentáveis de largura de banda e problemas de latência.
Em segundo lugar, o processamento de borda permite a capacidade de resposta em tempo real, fundamental para aplicações como veículos autônomos, realidade aumentada e dispositivos IoT.
Terceiro, a inferência local preserva a privacidade do utilizador ao manter os dados sensíveis em dispositivos pessoais. Quarto, a computação de borda reduz drasticamente o consumo de energia e a pegada de carbono, minimizando a movimentação de dados entre redes.
Finalmente, a inferência de borda permite funcionalidade offline e resiliência, garantindo que as capacidades de IA persistam mesmo quando a conectividade de rede está comprometida.
Este paradigma de inteligência distribuída representa não apenas uma otimização dos nossos sistemas atuais, mas uma reimaginação fundamental de como implantamos e interagimos com a IA no nosso mundo cada vez mais conectado.
Além disso, estamos testemunhando uma mudança fundamental nas demandas computacionais dos LLMs. Enquanto a última década foi dominada pelos enormes requisitos computacionais do treinamento de modelos de linguagem grandes, agora estamos entrando em uma era em que o tempo de computação de inferência assume o centro do palco. Essa transição é particularmente evidente no surgimento de sistemas de IA agentes, como exemplificado pelo avanço do Q * da OpenAI, que demonstrou como o raciocínio dinâmico exige recursos computacionais substanciais em tempo real.
Ao contrário do cálculo durante o treinamento, que é um investimento único no desenvolvimento do modelo, o cálculo durante a inferência representa o diálogo computacional contínuo necessário para que agentes autônomos raciocinem, planejem e se adaptem a situações novas. Essa mudança do treinamento de modelos estáticos para o raciocínio dinâmico de agentes exige uma reformulação radical de nossa infraestrutura computacional, na qual a computação em borda se torna não apenas vantajosa, mas essencial.
À medida que esta transformação se desenrola, estamos a testemunhar o surgimento de mercados de inferência de borda peer-to-peer, onde bilhões de dispositivos conectados — de smartphones a sistemas de casa inteligente — formam malhas computacionais dinâmicas. Estes dispositivos podem negociar capacidade de inferência de forma contínua, criando um mercado orgânico onde os recursos computacionais fluem para onde são mais necessários. A capacidade computacional excedente de dispositivos inativos torna-se um recurso valioso, negociável em tempo real, permitindo uma infraestrutura mais eficiente e resiliente do que os sistemas centralizados tradicionais.
Esta democratização da computação de inferência não só optimiza a utilização de recursos, mas também cria novas oportunidades económicas dentro do ecossistema digital, onde cada dispositivo ligado se torna um potencial micro-fornecedor de capacidades de IA. O futuro da IA será assim caracterizado não só pelo poder de modelos individuais, mas pela inteligência colectiva de dispositivos interligados que formam um mercado global de inferência democratizado, algo semelhante a um mercado spot para inferência verificável baseada na oferta e na procura.
As LLMs permitem-nos agora aceder a grandes quantidades de informação através de conversas, em vez da navegação tradicional. Esta abordagem de conversação tornar-se-á em breve mais personalizada e localizada, à medida que a Internet se transforma numa plataforma para agentes de IA em vez de utilizadores humanos.
Da perspectiva do utilizador, o foco irá mudar de identificar o "melhor modelo" para obter as respostas mais personalizadas. A chave para melhores respostas está em incorporar os dados próprios do utilizador juntamente com o conhecimento geral da internet. Inicialmente, janelas de contexto maiores e geração aumentada por recuperação (RAG) ajudarão a integrar os dados pessoais, mas eventualmente, os dados individuais ultrapassarão os dados gerais da internet em importância.
Isso leva a um futuro em que cada um de nós tem modelos pessoais de IA interagindo com os modelos especializados da internet em geral. Inicialmente, a personalização ocorrerá ao lado de modelos remotos, mas preocupações com privacidade e velocidade de resposta levarão a mais interações em dispositivos locais. Isso criará um novo limite - não entre humano e máquina, mas entre nossos modelos pessoais e os modelos especializados da internet.
O modelo tradicional de acesso a dados brutos da Internet se tornará obsoleto. Em vez disso, seu modelo local se comunicará com modelos especializados remotos para coletar informações, que serão processadas e apresentadas a você da maneira mais personalizada e de alta largura de banda possível. Esses modelos pessoais se tornarão cada vez mais indispensáveis à medida que aprendem mais sobre suas preferências e hábitos.
A internet irá transformar-se num ecossistema de modelos interligados: modelos pessoais locais de alto contexto e modelos especializados remotos de alto conhecimento. Isto envolverá novas tecnologias como a aprendizagem federada para atualizar informações entre estes modelos. À medida que a economia das máquinas evolui, teremos de reimaginar o subestado computacional sobre o qual isto ocorre, principalmente em relação ao cálculo, escalabilidade e pagamentos. Isto leva a uma reorganização do espaço de informação que é centrado no agente, soberano, altamente componível, autoaprendizagem e em evolução.
Na Web Agentic, a interação humano-agente evolui para uma rede complexa de comunicações de agente para agente. Esta arquitetura apresenta uma reimaginação fundamental da estrutura da internet, onde agentes soberanos se tornam as interfaces primárias para interação digital. Abaixo, destacamos primitivas essenciais necessárias para Protocolos Agentes.
Identidade soberana
Agentes Autónomos
Entidades autônomas capazes de: Compreensão de linguagem natural e resolução de intenções
Planeamento de várias etapas e decomposição de tarefas
Gestão e otimização de recursos
Aprender com interações e feedback
Infraestrutura de Dados
Sistemas híbridos que combinam: zkTLS
Conjuntos de dados de treino tradicionais
Web scraping em tempo real e síntese de dados
Redes RLHF (Aprendizagem de Reforço a partir de Feedback Humano) Recolha distribuída de feedback
Mecanismos de consenso ponderados pela qualidade
Camada de Computação
Protocolos de inferência verificáveis garantindo: Integridade de computação
Reprodutibilidade dos resultados
Eficiência de recursos
Infraestrutura de computação descentralizada com mercado de computação peer-to-peer
Sistemas de prova de computação
Alocação dinâmica de recursos
Ecossistema Modelo
Arquitetura de modelo hierárquico: SLMs específicos de tarefas (Small Language Models)
LLMs de uso geral
Modelos multimodais especializados
Frameworks de Coordenação
Mecanismos de governança para: Resolução de disputas
Alocação de recursos
Ambientes de execução paralela que permitem: Processamento de tarefas concorrentes
Isolamento de recursos
Gestão de estado
Agentic Markets
Liquidez de propriedade do agenteOs agentes possuem uma parte de seu fornecimento de token na gênese
Agentes tornam-se ativos de rendimentoAgentic DAOs
O design moderno de sistemas distribuídos oferece inspiração única e primitivas para permitir Protocolos Agentes, especificamente arquiteturas orientadas a eventos e, mais diretamente, o Modelo de Ator de Computação.
O Modelo de Ator fornece uma base teórica elegante para a implementação de sistemas agentes. Este modelo computacional trata os "atores" como as primitivas universais da computação, onde cada ator pode:
Principais vantagens do Modelo de Ator para sistemas agentes incluem:
Propomos Neuron, uma implementação prática deste protocolo agente teórico através de uma arquitetura distribuída em várias camadas que combina namespaces de blockchain, redes federadas, CRDTs e DHTs, sendo que cada camada serve propósitos distintos na pilha de protocolos. Nós nos inspiramos em Urbit e Holochain, pioneiros em design de sistemas operacionais p2p.
Em Neuron, a camada de blockchain fornece espaços de nomes verificáveis e identidade, permitindo a abordagem determinística e a descoberta de agentes, mantendo provas criptográficas de capacidades e reputação. Acima disso, uma camada DHT facilita a descoberta eficiente de agentes e nós, juntamente com o encaminhamento de conteúdo com tempos de pesquisa O(log n), reduzindo operações on-chain enquanto permite a descoberta de pares consciente da localidade. A sincronização de estado entre nós federados é tratada através de CRDTs, permitindo que agentes e nós mantenham visualizações consistentes do estado compartilhado sem exigir consenso global para cada interação.
Esta arquitetura mapeia naturalmente para uma rede federada onde agentes autônomos atuam como nós soberanos vivendo em dispositivos com inferência local de borda implementando o padrão do Modelo de Ator. Os domínios de federação podem ser organizados por capacidades de agente, com o DHT fornecendo roteamento e descoberta eficientes dentro e entre domínios. Cada agente funciona como um ator independente com seu próprio estado, enquanto a camada CRDT garante consistência eventual em toda a federação. Essa abordagem em várias camadas permite várias capacidades-chave:
Coordenação descentralizada
Operações escaláveis
Resiliência do sistema
Esta abordagem de implementação fornece uma base robusta para a construção de sistemas agenticos complexos, mantendo as propriedades-chave de soberania, escalabilidade e resiliência necessárias para interações eficazes entre agentes.
A Web Agentic marca uma evolução fundamental na interação humano-computador, transcendendo os desenvolvimentos sequenciais das eras anteriores para estabelecer um novo paradigma fundamental de existência digital. Ao contrário das iterações anteriores que simplesmente mudaram a forma como consumimos ou possuímos informações, a Web Agentic transforma a internet de uma plataforma centrada no ser humano em um substrato inteligente onde agentes autônomos se tornam os principais atores. Essa transformação é impulsionada pela convergência da computação de borda, modelos de linguagem grandes e protocolos descentralizados, criando um ecossistema em que modelos de IA pessoais se integram perfeitamente a sistemas especializados.
À medida que avançamos em direção a esse futuro centrado no agente, as fronteiras entre a inteligência humana e a inteligência artificial começam a se confundir, substituídas por uma relação simbiótica onde agentes de IA personalizados atuam como nossas extensões digitais, entendendo nosso contexto, antecipando nossas necessidades e navegando autonomamente pela vasta paisagem da inteligência distribuída. A Web Agentic, portanto, representa não apenas um avanço tecnológico, mas uma reimaginação fundamental do potencial humano na era digital, onde cada interação se torna uma oportunidade para a inteligência aumentada e cada dispositivo se torna um nó em uma rede global de sistemas colaborativos de IA.
Assim como a humanidade navega nas dimensões físicas do espaço e do tempo, agentes autônomos habitam suas próprias dimensões fundamentais: espaço de bloco para existência e tempo de inferência para pensamento. Essa ontologia digital espelha nossa realidade física, onde os humanos percorrem distâncias e experimentam fluxo temporal, agentes se movem através de provas criptográficas e ciclos computacionais, criando um universo paralelo de existência algorítmica.
É inevitável que entidades no espaço latente operem no blockspace descentralizado.