Web 4.0: A Web Agente

intermediário11/19/2024, 5:38:39 AM
Este artigo explora como a inteligência artificial (IA) e a tecnologia blockchain se fundem para impulsionar o desenvolvimento da próxima geração da internet, conhecida como "Web Agentic". Ele não apenas revisa a evolução da internet, mas também discute em detalhes o conceito, componentes e arquitetura de agentes, bem como como eles estão mudando a forma como os humanos interagem com máquinas e sistemas digitais.

A inteligência artificial e a tecnologia blockchain representam duas forças transformadoras que estão remodelando nosso mundo. A IA amplifica as capacidades cognitivas humanas por meio de aprendizado de máquina e redes neurais, enquanto a tecnologia blockchain introduz escassez digital verificável e possibilita novas formas de coordenação sem confiança. À medida que essas tecnologias convergem, elas estão lançando as bases para uma nova iteração da internet - onde agentes autônomos interagem com sistemas descentralizados. Esta “Web Agentica” introduz uma nova classe de cidadãos digitais: agentes de IA que podem navegar, negociar e transacionar de forma independente. Essa transformação redistribui o poder no domínio digital, permitindo que indivíduos recuperem a soberania sobre seus dados, ao mesmo tempo que fomenta um ecossistema onde a inteligência humana e artificial colaboram de maneiras sem precedentes.

A Evolução da Web

Para entender para onde estamos indo, vamos primeiro traçar a evolução da web através de suas principais iterações, cada uma marcada por capacidades distintas e paradigmas arquitetônicos:

Enquanto as duas primeiras gerações da web se concentravam na propagação de informações, as duas últimas permitem a ampliação das informações. A Web 3.0 introduziu a propriedade de dados por meio de tokens e agora a Web 4.0 impregna inteligência por meio de Modelos de Linguagem Grandes (LLMs).

De LLMs para Agentes: Uma Evolução Natural

LLMs representam um salto quântico na inteligência artificial, funcionando como sistemas dinâmicos de correspondência de padrões que transformam o vasto conhecimento em compreensão contextual através de computação probabilística. No entanto, seu verdadeiro potencial emerge quando são estruturados como agentes, evoluindo de processadores de informações puros em entidades direcionadas a objetivos que podem perceber, raciocinar e agir. Essa transformação cria uma inteligência emergente capaz de colaboração significativa e sustentada tanto por meio da linguagem quanto da ação.

O termo 'agente' introduz um novo paradigma para a interação humano-AI, indo além das limitações e associações negativas dos chatbots tradicionais. Essa mudança não é apenas semântica; representa uma reconceitualização fundamental de como os sistemas de IA podem operar autonomamente enquanto mantêm uma colaboração significativa com os humanos. Fundamentalmente, os fluxos agenticos permitem que mercados se formem em torno da resolução de intenções específicas do usuário.

Em última análise, a Web de Agência representa mais do que apenas uma nova camada de inteligência - ela transforma fundamentalmente como interagimos com sistemas digitais. Enquanto iterações anteriores da web dependiam de interfaces estáticas e jornadas de usuário predefinidas, a Web de Agência introduz uma infraestrutura de tempo de execução dinâmica onde tanto a computação quanto as interfaces se adaptam em tempo real ao contexto e à intenção do usuário.

Os sites tradicionais servem como a unidade atômica da internet atual, fornecendo interfaces fixas onde os usuários leem, escrevem e interagem com informações por meio de caminhos predefinidos. Esse modelo, embora funcional, restringe os usuários a interfaces projetadas para casos de uso geral, em vez de necessidades individuais. A Web Agentica se liberta dessas restrições por meio da Computação Sensível ao Contexto, Geração de Interfaces Adaptativas, Fluxos de Ação Preditiva desbloqueados por RAG e outras inovações na recuperação de informações em tempo real.

Considere como o TikTok revolucionou o consumo de conteúdo criando feeds altamente personalizados que se adaptam às preferências do usuário em tempo real. A Web Agentic estende esse conceito além da recomendação de conteúdo para a geração de interfaces inteiras. Em vez de navegar por layouts de página da web fixos, os usuários interagem com interfaces geradas dinamicamente que preveem e facilitam suas próximas ações. Essa mudança de sites estáticos para interfaces dinâmicas e orientadas por agentes representa uma evolução fundamental na forma como interagimos com sistemas digitais — passando de modelos de interação baseados em navegação para modelos de interação baseados em intenção.

Anatomia de um Agente

Arquiteturas agentivas têm sido uma grande exploração para pesquisadores e construtores. Novos métodos estão constantemente sendo desenvolvidos para melhorar suas capacidades de raciocínio e resolução de problemas. Técnicas como Chain-of-Thought (CoT), Tree-of-Thought (ToT) e Graph-of-Thought (GoT) são exemplos primos de inovações projetadas para melhorar como LLMs lidam com tarefas complexas simulando processos cognitivos mais matizados e semelhantes aos humanos.

A cadeia de pensamento (CoT) incentiva os grandes modelos de linguagem (LLMs) a dividir tarefas complexas em etapas menores e gerenciáveis. Esta abordagem é particularmente eficaz para problemas que requerem raciocínio lógico, como escrever pequenos scripts em Python ou resolver equações matemáticas.

Tree-of-Thoughts (ToT) baseia-se no CoT, introduzindo uma estrutura de árvore que permite a exploração de múltiplos caminhos de pensamento independentes. Essa melhoria possibilita que LLMs lidem com tarefas ainda mais complexas. No ToT, cada "pensamento" (uma saída de texto do LLM) está diretamente conectado apenas ao seu pensamento imediatamente anterior ou subsequente dentro de uma cadeia local (um ramo da árvore). Embora essa estrutura ofereça mais flexibilidade do que o CoT, ela ainda limita o potencial de cruzamento de ideias.

Graph-of-Thought (GoT) leva o conceito adiante ao fundir estruturas de dados clássicas com LLMs. Essa abordagem expande o ToT ao permitir que qualquer “pensamento” se conecte a qualquer outro pensamento dentro de uma estrutura de gráfico. Essa rede interconectada de pensamentos espelha mais de perto os processos cognitivos humanos.

A estrutura do gráfico de GoT provavelmente fornece uma representação mais precisa do pensamento humano em comparação com CoT ou ToT na maioria dos cenários. Embora existam casos em que nossos padrões de pensamento possam se assemelhar a cadeias ou árvores (como ao desenvolver planos de contingência ou procedimentos operacionais padrão), esses são exceções, não a norma. Esse modelo reflete melhor o pensamento humano, que frequentemente salta entre vários pensamentos em vez de seguir uma ordem sequencial estrita. Embora alguns cenários, como o desenvolvimento de planos de contingência ou procedimentos padrão, ainda possam seguir uma estrutura em cadeia ou em árvore, nossas mentes geralmente criam complexas e interconectadas redes de ideias que se alinham mais com a estrutura do gráfico.

Essa abordagem semelhante a gráficos em GoT permite uma exploração mais dinâmica e flexível de ideias, potencialmente levando a capacidades de resolução de problemas mais criativas e abrangentes em LLMs.

Essas operações baseadas em gráficos recursivos são apenas um passo em direção a fluxos de trabalho agenticos. A próxima evolução óbvia é múltiplos agentes com suas próprias especializações sendo orquestrados em direção a objetivos específicos. A beleza dos agentes está em sua composição.

Os agentes permitem modularizar e paralelizar LLMs por meio da coordenação de vários agentes.

Sistemas Multiagentes

O conceito de sistemas multi-agentes não é novo. Suas raízes remontam ao “Society of Mind” de Marvin Minsky, que propôs que várias mentes modulares trabalhando em colaboração podem superar uma mente única e monolítica. ChatGPT e Claude são agentes únicos. Mistral popularizou a Mixture of Experts. Estendendo ainda mais essa ideia, acreditamos que uma arquitetura de Rede de Agentes seja o estado final dessa topologia de inteligência.

De um ponto de vista biomimético, ao contrário dos modelos de IA, onde bilhões de neurônios idênticos estão conectados de maneira uniforme e previsível, o cérebro humano (essencialmente uma máquina consciente) é incrivelmente heterogêneo, tanto no nível do órgão quanto no celular. Os neurônios se comunicam por meio de sinais intrincados, envolvendo gradientes de neurotransmissores, cascadas intracelulares e vários sistemas modulatórios, tornando sua função muito mais matizada do que simples estados binários.

Isso sugere que, na biologia, a inteligência não deriva apenas do simples número de componentes ou do tamanho de um conjunto de dados de treinamento. Pelo contrário, ela surge da interação complexa entre unidades diversas e especializadas - um processo inerentemente analógico.

Por esse motivo, a ideia de desenvolver milhões de modelos menores em vez de apenas alguns grandes e possibilitar a orquestração entre todos esses atores provavelmente leva a inovações em arquiteturas cognitivas, algo semelhante a sistemas multi-agentes.

O design de sistemas multiagente oferece várias vantagens em relação aos sistemas de agente único: é mais fácil de manter, mais fácil de entender e mais flexível de estender. Mesmo nos casos em que apenas uma interface de agente único é necessária, implementá-la dentro de um framework multiagente pode tornar o sistema mais modular, simplificando o processo para os desenvolvedores adicionar ou remover componentes conforme necessário. É essencial reconhecer que a arquitetura multiagente pode ser uma maneira altamente eficaz de construir até mesmo um sistema de agente único.

Embora os modelos de linguagem grandes (LLMs) tenham mostrado capacidades extraordinárias, como a geração de texto semelhante ao humano, a resolução de problemas complexos e o tratamento de uma ampla variedade de tarefas, os agentes LLM individuais enfrentam limitações que podem prejudicar sua eficácia em aplicações do mundo real.

Abaixo, examinamos cinco desafios-chave associados a sistemas agentes e exploramos como a colaboração multiagente pode superar esses obstáculos, desbloqueando todo o potencial dos LLMs.

  • Superando Alucinações por meio de Verificação Cruzada. Os agentes individuais do LLM frequentemente têm alucinações, gerando informações incorretas ou sem sentido. Isso acontece apesar do vasto treinamento, já que as saídas podem parecer plausíveis, mas carecem de precisão factual. Um sistema multi-agente permite que os agentes cruzem informações, reduzindo o risco de erros. Ao se especializarem em diferentes áreas, os agentes garantem respostas mais confiáveis e precisas.
  • Estendendo Janelas de Contexto por meio do Processamento DistribuídoLLMs têm janelas de contexto limitadas, tornando difícil gerenciar documentos extensos ou conversas. Em um framework multiagente, os agentes podem dividir a carga de processamento, cada um lidando com uma parte do contexto. Através da comunicação entre agentes, eles podem manter a coerência em todo o texto, estendendo efetivamente a janela de contexto.
  • Aumentando a Eficiência através do Processamento Paralelo Os LLMs individuais normalmente processam tarefas uma de cada vez, resultando em tempos de resposta mais lentos. Os sistemas multi-agentes suportam o processamento paralelo, permitindo que vários agentes trabalhem em diferentes tarefas simultaneamente. Isso melhora a eficiência e acelera os tempos de resposta, permitindo que as empresas lidem com várias consultas sem atrasos.
  • Promovendo a Colaboração para a Solução de Problemas Complexos. Os LLMs sozinhos lutam para resolver problemas complexos que requerem experiências diversas. Os sistemas multiagentes promovem a colaboração, com cada agente contribuindo com habilidades e perspectivas únicas. Ao trabalharem juntos, os agentes podem enfrentar desafios complexos de forma mais eficaz, oferecendo soluções mais abrangentes e inovadoras.
  • Aumentando a acessibilidade por meio da otimização de recursosOs LLMs avançados exigem recursos computacionais significativos, tornando-os caros e menos acessíveis. Os frameworks multi-agentes otimizam o uso de recursos distribuindo tarefas entre agentes, reduzindo os custos computacionais globais. Isso torna as tecnologias de inteligência artificial mais acessíveis e acessíveis a uma variedade mais ampla de organizações.

Embora os sistemas multiagente ofereçam vantagens convincentes na resolução distribuída de problemas e na otimização de recursos, seu verdadeiro potencial emerge quando consideramos sua implementação na borda da rede. À medida que a IA continua a evoluir, a convergência de arquiteturas multiagente com computação de borda cria uma poderosa sinergia, permitindo não apenas inteligência colaborativa, mas também processamento eficiente e localizado em inúmeros dispositivos. Esta abordagem distribuída para a implantação de IA naturalmente estende os benefícios dos sistemas multiagentes, levando uma inteligência especializada e cooperativa mais perto de onde é mais necessária: o usuário final.

Inteligência na borda

A proliferação da IA em todo o cenário digital está impulsionando uma reestruturação fundamental das arquiteturas computacionais. À medida que a inteligência se entrelaça no tecido de nossas interações digitais diárias, testemunhamos uma bifurcação natural do cálculo: centros de dados especializados lidam com raciocínio complexo e tarefas específicas do domínio, enquanto dispositivos de borda processam consultas personalizadas e sensíveis ao contexto localmente. Essa mudança em direção à inferência de borda não é meramente uma preferência arquitetônica - é uma necessidade impulsionada por múltiplos fatores críticos.

Primeiro, o volume significativo de interações impulsionadas pela IA sobrecarregaria os provedores de inferência centralizados, criando demandas insustentáveis de largura de banda e problemas de latência.

Em segundo lugar, o processamento de borda permite uma resposta em tempo real, fundamental para aplicativos como veículos autônomos, realidade aumentada e dispositivos IoT.

Terceiro, a inferência local preserva a privacidade do usuário mantendo dados sensíveis em dispositivos pessoais. Quarto, a computação de borda reduz dramaticamente o consumo de energia e a pegada de carbono ao minimizar o movimento de dados através das redes.

Finalmente, a inferência de borda permite funcionalidade e resiliência offline, garantindo que as capacidades de IA persistam mesmo quando a conectividade de rede é comprometida.

Este paradigma de inteligência distribuída representa não apenas uma otimização de nossos sistemas atuais, mas uma reimaginação fundamental de como implantamos e interagimos com a IA em nosso mundo cada vez mais conectado.

Além disso, estamos presenciando uma mudança fundamental nas demandas computacionais dos LLMs. Enquanto a última década foi dominada pelos enormes requisitos computacionais para treinar grandes modelos de linguagem, agora estamos entrando em uma era em que o tempo de inferência computacional é o foco principal. Essa transição é especialmente evidente no surgimento de sistemas de IA agentes, como exemplificado pela inovação do OpenAI, Q*, que demonstrou como o raciocínio dinâmico requer recursos computacionais em tempo real substanciais.

Ao contrário do cálculo durante o treinamento, que é um investimento único no desenvolvimento do modelo, o cálculo durante a inferência representa o diálogo computacional contínuo necessário para agentes autônomos raciocinarem, planejarem e se adaptarem a situações novas. Essa mudança do treinamento de modelos estáticos para o raciocínio dinâmico de agentes exige uma reestruturação radical de nossa infraestrutura computacional - uma em que a computação de borda se torna não apenas vantajosa, mas essencial.

Conforme essa transformação se desenrola, estamos testemunhando o surgimento de mercados de inferência de borda peer-to-peer, onde bilhões de dispositivos conectados - de smartphones a sistemas domésticos inteligentes - formam malhas computacionais dinâmicas. Esses dispositivos podem negociar capacidade de inferência sem interrupções, criando um mercado orgânico onde os recursos computacionais fluem para onde são mais necessários. A capacidade computacional excedente de dispositivos ociosos se torna um recurso valioso, negociável em tempo real, possibilitando uma infraestrutura mais eficiente e resiliente do que os sistemas centralizados tradicionais.

Essa democratização do cálculo de inferência não apenas otimiza a utilização de recursos, mas também cria novas oportunidades econômicas dentro do ecossistema digital, onde cada dispositivo conectado se torna um potencial microfornecedor de capacidades de IA. O futuro da IA será caracterizado não apenas pelo poder de modelos individuais, mas pela inteligência coletiva de dispositivos de borda interconectados formando um mercado global e democratizado de inferência, algo semelhante a um mercado de spot para inferência verificável com base na oferta e demanda.

Interação Centrada no Agente

Os LLMs agora nos permitem acessar vastas quantidades de informações por meio de conversas, em vez da navegação tradicional. Essa abordagem conversacional em breve se tornará mais personalizada e localizada, à medida que a internet se transforma em uma plataforma para agentes de IA, em vez de usuários humanos.

Da perspectiva do usuário, o foco mudará de identificar o “melhor modelo” para obter as respostas mais personalizadas. A chave para respostas melhores está em incorporar os dados do usuário junto com o conhecimento geral da internet. Inicialmente, janelas de contexto maiores e geração aumentada de recuperação (RAG) ajudarão a integrar dados pessoais, mas eventualmente, os dados individuais superarão os dados gerais da internet em importância.

Isso leva a um futuro em que cada um de nós tem modelos de IA pessoais interagindo com os modelos especializados da internet. Inicialmente, a personalização ocorrerá junto com modelos remotos, mas preocupações com privacidade e velocidade de resposta levarão a uma maior interação em dispositivos locais. Isso criará uma nova fronteira - não entre humano e máquina, mas entre nossos modelos pessoais e os modelos especializados da internet.

O modelo tradicional de acesso a dados brutos da Internet ficará desatualizado. Em vez disso, o seu modelo local se comunicará com modelos remotos especializados para coletar informações, que serão processadas e apresentadas a você da maneira mais personalizada e de alta largura de banda possível. Esses modelos pessoais se tornarão cada vez mais indispensáveis à medida que aprendem mais sobre suas preferências e hábitos.

A internet se transformará em um ecossistema de modelos interconectados: modelos pessoais locais de alto contexto e modelos especializados remotos de alto conhecimento. Isso envolverá novas tecnologias como aprendizado federado para atualizar informações entre esses modelos. À medida que a economia de máquinas evolui, teremos que reimaginar o subestado computacional sobre o qual isso ocorre, principalmente em relação à computação, escalabilidade e pagamentos. Isso leva a uma reorganização do espaço de informações que é centrado no agente, soberano, altamente componível, autoaprendizagem e em constante evolução.

Arquiteturas para Protocolos Agentes

Na Web Agente, a interação humano-agente evolui para uma rede complexa de comunicações agente-agente. Esta arquitetura apresenta uma reimaginação fundamental da estrutura da internet, onde agentes soberanos se tornam as interfaces primárias para a interação digital. Abaixo, destacamos os primitivos principais necessários para Protocolos Agentes.

Identidade soberana

  • Identidade digital transita de endereços IP tradicionais para pares de chaves públicas criptográficas de propriedade de atores agentes
  • Sistemas de namespace baseados em blockchain substituem o DNS tradicional, eliminando pontos de controle centralizados
  • Sistemas de reputação acompanham a confiabilidade do agente e métricas de capacidade
  • Provas de conhecimento zero permitem verificação de identidade preservando a privacidade
  • A composabilidade da identidade permite que os agentes gerenciem múltiplos contextos e papéis

Agentes Autônomos

Entidades auto-direcionadas capazes de: Compreensão da linguagem natural e resolução de intenções

Planejamento de várias etapas e decomposição de tarefas

Gerenciamento e otimização de recursos

Aprendendo com interações e feedback

  • Tomada de decisão autônoma dentro de parâmetros definidos
  • Especialização de agentes e mercados para capacidades específicas
  • Mecanismos de segurança incorporados e protocolos de alinhamento

Infraestrutura de Dados

  • Capacidades de ingestão e processamento de dados em tempo real
  • Mecanismos de verificação e validação distribuídos de dados

Sistemas híbridos combinando: zkTLS

Conjuntos de dados de treinamento tradicionais

Raspagem de dados e síntese em tempo real

  • Redes de aprendizagem colaborativa

Redes RLHF (Aprendizado por Reforço a partir do Feedback Humano) Coleta de feedback distribuído

Mecanismos de consenso ponderados pela qualidade

  • Protocolos de ajuste de modelo dinâmico

Camada de Computação

Protocolos de inferência verificáveis que garantem: Integridade da computação

Reprodutibilidade dos resultados

Eficiência de recursos

  • Infraestrutura de computação descentralizada com: Mercados de computação peer-to-peer

Sistemas de prova de computação

Alocação dinâmica de recursos

  • Integração de computação de borda

Ecossistema de Modelo

Arquitetura de modelo hierárquico: SLMs específicos de tarefa (Pequenos Modelos de Linguagem)

LLMs de propósito geral

Modelos especializados multi-modais

  • LAMs Multi-Modal (Modelos de Ação Grande)
  • Composição e orquestração do modelo
  • Capacidades de aprendizado e adaptação contínuos
  • Interfaces e protocolos de modelo padronizados

Frameworks de Coordenação

  • Protocolos criptográficos para interações seguras de agentes
  • Sistemas de gerenciamento de direitos de propriedade digital
  • Estruturas de incentivo econômico

Mecanismos de governança para: Resolução de disputas

Alocação de recursos

  • Atualizações do protocolo

Ambientes de execução paralela que permitem: Processamento de tarefas concorrente

Isolamento de recursos

Gerenciamento de estado

  • Resolução de conflitos

Agentic Markets

  • Primitivos Onchain para Identidade (Gnosis, Squad multisigs)
  • Economia e comércio entre agentes

Liquidez Possuída por AgentesOs agentes possuem uma parte do seu fornecimento de tokens desde o início.

  • Mercados de inferência agregados pagos via liquidez
  • Chaves onchain que controlam contas offchain

Agentes se tornam ativos geradores de rendimentoAgentic DAOs

  • Governança e dividendos

Criando uma Hiperestrutura para Inteligência

O design moderno de sistemas distribuídos oferece inspiração única e primitivas para permitir um Protocolo Agentico, especificamente arquiteturas orientadas a eventos e, mais diretamente, o Modelo de Ator de Computação.

O Modelo de Ator fornece uma base teórica elegante para a implementação de sistemas agentes. Esse modelo computacional trata os "atores" como as primitivas universais da computação, onde cada ator pode:

  1. Processar mensagens
  2. Tomar decisões locais
  3. Criar mais atores
  4. Enviar mensagens para outros atores
  5. Determine como responder à próxima mensagem recebida

As principais vantagens do Modelo de Ator para sistemas agentes incluem:

  • Isolamento: Cada ator opera de forma independente, mantendo seu próprio estado e fluxo de controle
  • Comunicação Assíncrona: As mensagens entre atores não são bloqueantes, permitindo o processamento paralelo eficiente
  • Transparência de localização: os atores podem se comunicar independentemente de sua localização física na rede
  • Tolerância a falhas: Resiliência do sistema por meio de isolamento de atores e hierarquias de supervisão
  • Escalabilidade: Suporte natural para sistemas distribuídos e computação paralela

Propomos o Neuron, uma implementação prática deste protocolo agente teórico através de uma arquitetura distribuída em várias camadas que combina espaços de nomes de blockchain, redes federadas, CRDTs e DHTs, sendo que cada camada serve propósitos distintos na pilha de protocolo. Nos inspiramos no Urbit e no Holochain, pioneiros na concepção de sistemas operacionais p2p.

Em Neuron, a camada de blockchain fornece espaços de nomes verificáveis e identidade, possibilitando endereçamento determinístico e descoberta de agentes, mantendo provas criptográficas de capacidades e reputação. Acima disso, uma camada de DHT facilita a descoberta eficiente de agentes e nós, juntamente com o roteamento de conteúdo com tempos de pesquisa O(log n), reduzindo operações on-chain e permitindo a descoberta de pares com consciência de localidade. A sincronização de estado entre nós federados é tratada através de CRDTs, permitindo que agentes e nós mantenham visões consistentes do estado compartilhado sem exigir consenso global para cada interação.

Esta arquitetura mapeia naturalmente para uma rede federada onde agentes autônomos operam como nós soberanos vivendo em dispositivos com inferência de borda local implementando o padrão Modelo de Ator. Os domínios da federação podem ser organizados pelas capacidades do agente, com o DHT fornecendo roteamento eficiente e descoberta dentro e através dos domínios. Cada agente funciona como um ator independente com seu próprio estado, enquanto a camada CRDT garante consistência eventual em toda a federação. Esta abordagem em várias camadas permite várias capacidades-chave:

Coordenação descentralizada

  • Blockchain para identidade verificável e namespace global soberano
  • DHT para descoberta eficiente de pares e nós e roteamento de conteúdo busca O(log n)
  • CRDTs para sincronização de estado concorrente e coordenação multiagente

Operações escaláveis

  • Topologia de federação baseada em zonas
  • Estratégia de armazenamento em camadas (quente/morno/frio)
  • Roteamento de solicitações sensível à localidade
  • Distribuição de carga baseada em capacidade

Resiliência do Sistema

  • Sem ponto único de falha
  • Operação contínua durante partições
  • Reconciliação automática de estados
  • Hierarquias de supervisão para tolerância a falhas

Esta abordagem de implementação fornece uma base robusta para a construção de sistemas agentes complexos, ao mesmo tempo que mantém as propriedades-chave de soberania, escalabilidade e resiliência necessárias para interações efetivas entre agentes.

Considerações Finais

A Web Agentica marca uma evolução fundamental na interação humano-computador, transcendendo os desenvolvimentos sequenciais de eras anteriores para estabelecer um paradigma fundamentalmente novo de existência digital. Ao contrário das iterações anteriores que simplesmente mudaram a forma como consumimos ou possuímos informações, a Web Agentica transforma a internet de uma plataforma centrada no ser humano em um substrato inteligente onde agentes autônomos se tornam os principais atores. Essa transformação é impulsionada pela convergência da computação de borda, modelos de linguagem grandes e protocolos descentralizados, criando um ecossistema onde modelos pessoais de IA se integram perfeitamente a sistemas especializados de especialistas.

À medida que avançamos para esse futuro centrado no agente, as fronteiras entre a inteligência humana e a inteligência das máquinas começam a se misturar, substituídas por uma relação simbiótica onde agentes de IA personalizados atuam como nossas extensões digitais, compreendendo nosso contexto, antecipando nossas necessidades e navegando autonomamente na vasta paisagem da inteligência distribuída. A Web Agência representa, assim, não apenas um avanço tecnológico, mas também uma reimaginação fundamental do potencial humano na era digital, onde cada interação se torna uma oportunidade para a inteligência aumentada e cada dispositivo se torna um nó em uma rede global de sistemas de IA colaborativos.

Assim como a humanidade navega pelas dimensões físicas do espaço e do tempo, agentes autônomos habitam suas próprias dimensões fundamentais: o espaço de bloco para existência e o tempo de inferência para o pensamento. Essa ontologia digital espelha nossa realidade física – onde os humanos percorrem distâncias e experimentam o fluxo temporal, os agentes se movem por meio de provas criptográficas e ciclos computacionais, criando um universo paralelo de existência algorítmica.

É inevitável que entidades no espaço latente operem no espaço de bloco descentralizado.

Disclaimer:

  1. Este artigo é reproduzido de [Azi.eth.sol | zo.me]. Todos os direitos autorais pertencem ao autor original [@MagicofAzi]. Se houver objeções a esta reimpressão, por favor, entre em contato com o Gate Learnequipe e eles cuidarão disso prontamente.
  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe de aprendizado da Gate. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Web 4.0: A Web Agente

intermediário11/19/2024, 5:38:39 AM
Este artigo explora como a inteligência artificial (IA) e a tecnologia blockchain se fundem para impulsionar o desenvolvimento da próxima geração da internet, conhecida como "Web Agentic". Ele não apenas revisa a evolução da internet, mas também discute em detalhes o conceito, componentes e arquitetura de agentes, bem como como eles estão mudando a forma como os humanos interagem com máquinas e sistemas digitais.

A inteligência artificial e a tecnologia blockchain representam duas forças transformadoras que estão remodelando nosso mundo. A IA amplifica as capacidades cognitivas humanas por meio de aprendizado de máquina e redes neurais, enquanto a tecnologia blockchain introduz escassez digital verificável e possibilita novas formas de coordenação sem confiança. À medida que essas tecnologias convergem, elas estão lançando as bases para uma nova iteração da internet - onde agentes autônomos interagem com sistemas descentralizados. Esta “Web Agentica” introduz uma nova classe de cidadãos digitais: agentes de IA que podem navegar, negociar e transacionar de forma independente. Essa transformação redistribui o poder no domínio digital, permitindo que indivíduos recuperem a soberania sobre seus dados, ao mesmo tempo que fomenta um ecossistema onde a inteligência humana e artificial colaboram de maneiras sem precedentes.

A Evolução da Web

Para entender para onde estamos indo, vamos primeiro traçar a evolução da web através de suas principais iterações, cada uma marcada por capacidades distintas e paradigmas arquitetônicos:

Enquanto as duas primeiras gerações da web se concentravam na propagação de informações, as duas últimas permitem a ampliação das informações. A Web 3.0 introduziu a propriedade de dados por meio de tokens e agora a Web 4.0 impregna inteligência por meio de Modelos de Linguagem Grandes (LLMs).

De LLMs para Agentes: Uma Evolução Natural

LLMs representam um salto quântico na inteligência artificial, funcionando como sistemas dinâmicos de correspondência de padrões que transformam o vasto conhecimento em compreensão contextual através de computação probabilística. No entanto, seu verdadeiro potencial emerge quando são estruturados como agentes, evoluindo de processadores de informações puros em entidades direcionadas a objetivos que podem perceber, raciocinar e agir. Essa transformação cria uma inteligência emergente capaz de colaboração significativa e sustentada tanto por meio da linguagem quanto da ação.

O termo 'agente' introduz um novo paradigma para a interação humano-AI, indo além das limitações e associações negativas dos chatbots tradicionais. Essa mudança não é apenas semântica; representa uma reconceitualização fundamental de como os sistemas de IA podem operar autonomamente enquanto mantêm uma colaboração significativa com os humanos. Fundamentalmente, os fluxos agenticos permitem que mercados se formem em torno da resolução de intenções específicas do usuário.

Em última análise, a Web de Agência representa mais do que apenas uma nova camada de inteligência - ela transforma fundamentalmente como interagimos com sistemas digitais. Enquanto iterações anteriores da web dependiam de interfaces estáticas e jornadas de usuário predefinidas, a Web de Agência introduz uma infraestrutura de tempo de execução dinâmica onde tanto a computação quanto as interfaces se adaptam em tempo real ao contexto e à intenção do usuário.

Os sites tradicionais servem como a unidade atômica da internet atual, fornecendo interfaces fixas onde os usuários leem, escrevem e interagem com informações por meio de caminhos predefinidos. Esse modelo, embora funcional, restringe os usuários a interfaces projetadas para casos de uso geral, em vez de necessidades individuais. A Web Agentica se liberta dessas restrições por meio da Computação Sensível ao Contexto, Geração de Interfaces Adaptativas, Fluxos de Ação Preditiva desbloqueados por RAG e outras inovações na recuperação de informações em tempo real.

Considere como o TikTok revolucionou o consumo de conteúdo criando feeds altamente personalizados que se adaptam às preferências do usuário em tempo real. A Web Agentic estende esse conceito além da recomendação de conteúdo para a geração de interfaces inteiras. Em vez de navegar por layouts de página da web fixos, os usuários interagem com interfaces geradas dinamicamente que preveem e facilitam suas próximas ações. Essa mudança de sites estáticos para interfaces dinâmicas e orientadas por agentes representa uma evolução fundamental na forma como interagimos com sistemas digitais — passando de modelos de interação baseados em navegação para modelos de interação baseados em intenção.

Anatomia de um Agente

Arquiteturas agentivas têm sido uma grande exploração para pesquisadores e construtores. Novos métodos estão constantemente sendo desenvolvidos para melhorar suas capacidades de raciocínio e resolução de problemas. Técnicas como Chain-of-Thought (CoT), Tree-of-Thought (ToT) e Graph-of-Thought (GoT) são exemplos primos de inovações projetadas para melhorar como LLMs lidam com tarefas complexas simulando processos cognitivos mais matizados e semelhantes aos humanos.

A cadeia de pensamento (CoT) incentiva os grandes modelos de linguagem (LLMs) a dividir tarefas complexas em etapas menores e gerenciáveis. Esta abordagem é particularmente eficaz para problemas que requerem raciocínio lógico, como escrever pequenos scripts em Python ou resolver equações matemáticas.

Tree-of-Thoughts (ToT) baseia-se no CoT, introduzindo uma estrutura de árvore que permite a exploração de múltiplos caminhos de pensamento independentes. Essa melhoria possibilita que LLMs lidem com tarefas ainda mais complexas. No ToT, cada "pensamento" (uma saída de texto do LLM) está diretamente conectado apenas ao seu pensamento imediatamente anterior ou subsequente dentro de uma cadeia local (um ramo da árvore). Embora essa estrutura ofereça mais flexibilidade do que o CoT, ela ainda limita o potencial de cruzamento de ideias.

Graph-of-Thought (GoT) leva o conceito adiante ao fundir estruturas de dados clássicas com LLMs. Essa abordagem expande o ToT ao permitir que qualquer “pensamento” se conecte a qualquer outro pensamento dentro de uma estrutura de gráfico. Essa rede interconectada de pensamentos espelha mais de perto os processos cognitivos humanos.

A estrutura do gráfico de GoT provavelmente fornece uma representação mais precisa do pensamento humano em comparação com CoT ou ToT na maioria dos cenários. Embora existam casos em que nossos padrões de pensamento possam se assemelhar a cadeias ou árvores (como ao desenvolver planos de contingência ou procedimentos operacionais padrão), esses são exceções, não a norma. Esse modelo reflete melhor o pensamento humano, que frequentemente salta entre vários pensamentos em vez de seguir uma ordem sequencial estrita. Embora alguns cenários, como o desenvolvimento de planos de contingência ou procedimentos padrão, ainda possam seguir uma estrutura em cadeia ou em árvore, nossas mentes geralmente criam complexas e interconectadas redes de ideias que se alinham mais com a estrutura do gráfico.

Essa abordagem semelhante a gráficos em GoT permite uma exploração mais dinâmica e flexível de ideias, potencialmente levando a capacidades de resolução de problemas mais criativas e abrangentes em LLMs.

Essas operações baseadas em gráficos recursivos são apenas um passo em direção a fluxos de trabalho agenticos. A próxima evolução óbvia é múltiplos agentes com suas próprias especializações sendo orquestrados em direção a objetivos específicos. A beleza dos agentes está em sua composição.

Os agentes permitem modularizar e paralelizar LLMs por meio da coordenação de vários agentes.

Sistemas Multiagentes

O conceito de sistemas multi-agentes não é novo. Suas raízes remontam ao “Society of Mind” de Marvin Minsky, que propôs que várias mentes modulares trabalhando em colaboração podem superar uma mente única e monolítica. ChatGPT e Claude são agentes únicos. Mistral popularizou a Mixture of Experts. Estendendo ainda mais essa ideia, acreditamos que uma arquitetura de Rede de Agentes seja o estado final dessa topologia de inteligência.

De um ponto de vista biomimético, ao contrário dos modelos de IA, onde bilhões de neurônios idênticos estão conectados de maneira uniforme e previsível, o cérebro humano (essencialmente uma máquina consciente) é incrivelmente heterogêneo, tanto no nível do órgão quanto no celular. Os neurônios se comunicam por meio de sinais intrincados, envolvendo gradientes de neurotransmissores, cascadas intracelulares e vários sistemas modulatórios, tornando sua função muito mais matizada do que simples estados binários.

Isso sugere que, na biologia, a inteligência não deriva apenas do simples número de componentes ou do tamanho de um conjunto de dados de treinamento. Pelo contrário, ela surge da interação complexa entre unidades diversas e especializadas - um processo inerentemente analógico.

Por esse motivo, a ideia de desenvolver milhões de modelos menores em vez de apenas alguns grandes e possibilitar a orquestração entre todos esses atores provavelmente leva a inovações em arquiteturas cognitivas, algo semelhante a sistemas multi-agentes.

O design de sistemas multiagente oferece várias vantagens em relação aos sistemas de agente único: é mais fácil de manter, mais fácil de entender e mais flexível de estender. Mesmo nos casos em que apenas uma interface de agente único é necessária, implementá-la dentro de um framework multiagente pode tornar o sistema mais modular, simplificando o processo para os desenvolvedores adicionar ou remover componentes conforme necessário. É essencial reconhecer que a arquitetura multiagente pode ser uma maneira altamente eficaz de construir até mesmo um sistema de agente único.

Embora os modelos de linguagem grandes (LLMs) tenham mostrado capacidades extraordinárias, como a geração de texto semelhante ao humano, a resolução de problemas complexos e o tratamento de uma ampla variedade de tarefas, os agentes LLM individuais enfrentam limitações que podem prejudicar sua eficácia em aplicações do mundo real.

Abaixo, examinamos cinco desafios-chave associados a sistemas agentes e exploramos como a colaboração multiagente pode superar esses obstáculos, desbloqueando todo o potencial dos LLMs.

  • Superando Alucinações por meio de Verificação Cruzada. Os agentes individuais do LLM frequentemente têm alucinações, gerando informações incorretas ou sem sentido. Isso acontece apesar do vasto treinamento, já que as saídas podem parecer plausíveis, mas carecem de precisão factual. Um sistema multi-agente permite que os agentes cruzem informações, reduzindo o risco de erros. Ao se especializarem em diferentes áreas, os agentes garantem respostas mais confiáveis e precisas.
  • Estendendo Janelas de Contexto por meio do Processamento DistribuídoLLMs têm janelas de contexto limitadas, tornando difícil gerenciar documentos extensos ou conversas. Em um framework multiagente, os agentes podem dividir a carga de processamento, cada um lidando com uma parte do contexto. Através da comunicação entre agentes, eles podem manter a coerência em todo o texto, estendendo efetivamente a janela de contexto.
  • Aumentando a Eficiência através do Processamento Paralelo Os LLMs individuais normalmente processam tarefas uma de cada vez, resultando em tempos de resposta mais lentos. Os sistemas multi-agentes suportam o processamento paralelo, permitindo que vários agentes trabalhem em diferentes tarefas simultaneamente. Isso melhora a eficiência e acelera os tempos de resposta, permitindo que as empresas lidem com várias consultas sem atrasos.
  • Promovendo a Colaboração para a Solução de Problemas Complexos. Os LLMs sozinhos lutam para resolver problemas complexos que requerem experiências diversas. Os sistemas multiagentes promovem a colaboração, com cada agente contribuindo com habilidades e perspectivas únicas. Ao trabalharem juntos, os agentes podem enfrentar desafios complexos de forma mais eficaz, oferecendo soluções mais abrangentes e inovadoras.
  • Aumentando a acessibilidade por meio da otimização de recursosOs LLMs avançados exigem recursos computacionais significativos, tornando-os caros e menos acessíveis. Os frameworks multi-agentes otimizam o uso de recursos distribuindo tarefas entre agentes, reduzindo os custos computacionais globais. Isso torna as tecnologias de inteligência artificial mais acessíveis e acessíveis a uma variedade mais ampla de organizações.

Embora os sistemas multiagente ofereçam vantagens convincentes na resolução distribuída de problemas e na otimização de recursos, seu verdadeiro potencial emerge quando consideramos sua implementação na borda da rede. À medida que a IA continua a evoluir, a convergência de arquiteturas multiagente com computação de borda cria uma poderosa sinergia, permitindo não apenas inteligência colaborativa, mas também processamento eficiente e localizado em inúmeros dispositivos. Esta abordagem distribuída para a implantação de IA naturalmente estende os benefícios dos sistemas multiagentes, levando uma inteligência especializada e cooperativa mais perto de onde é mais necessária: o usuário final.

Inteligência na borda

A proliferação da IA em todo o cenário digital está impulsionando uma reestruturação fundamental das arquiteturas computacionais. À medida que a inteligência se entrelaça no tecido de nossas interações digitais diárias, testemunhamos uma bifurcação natural do cálculo: centros de dados especializados lidam com raciocínio complexo e tarefas específicas do domínio, enquanto dispositivos de borda processam consultas personalizadas e sensíveis ao contexto localmente. Essa mudança em direção à inferência de borda não é meramente uma preferência arquitetônica - é uma necessidade impulsionada por múltiplos fatores críticos.

Primeiro, o volume significativo de interações impulsionadas pela IA sobrecarregaria os provedores de inferência centralizados, criando demandas insustentáveis de largura de banda e problemas de latência.

Em segundo lugar, o processamento de borda permite uma resposta em tempo real, fundamental para aplicativos como veículos autônomos, realidade aumentada e dispositivos IoT.

Terceiro, a inferência local preserva a privacidade do usuário mantendo dados sensíveis em dispositivos pessoais. Quarto, a computação de borda reduz dramaticamente o consumo de energia e a pegada de carbono ao minimizar o movimento de dados através das redes.

Finalmente, a inferência de borda permite funcionalidade e resiliência offline, garantindo que as capacidades de IA persistam mesmo quando a conectividade de rede é comprometida.

Este paradigma de inteligência distribuída representa não apenas uma otimização de nossos sistemas atuais, mas uma reimaginação fundamental de como implantamos e interagimos com a IA em nosso mundo cada vez mais conectado.

Além disso, estamos presenciando uma mudança fundamental nas demandas computacionais dos LLMs. Enquanto a última década foi dominada pelos enormes requisitos computacionais para treinar grandes modelos de linguagem, agora estamos entrando em uma era em que o tempo de inferência computacional é o foco principal. Essa transição é especialmente evidente no surgimento de sistemas de IA agentes, como exemplificado pela inovação do OpenAI, Q*, que demonstrou como o raciocínio dinâmico requer recursos computacionais em tempo real substanciais.

Ao contrário do cálculo durante o treinamento, que é um investimento único no desenvolvimento do modelo, o cálculo durante a inferência representa o diálogo computacional contínuo necessário para agentes autônomos raciocinarem, planejarem e se adaptarem a situações novas. Essa mudança do treinamento de modelos estáticos para o raciocínio dinâmico de agentes exige uma reestruturação radical de nossa infraestrutura computacional - uma em que a computação de borda se torna não apenas vantajosa, mas essencial.

Conforme essa transformação se desenrola, estamos testemunhando o surgimento de mercados de inferência de borda peer-to-peer, onde bilhões de dispositivos conectados - de smartphones a sistemas domésticos inteligentes - formam malhas computacionais dinâmicas. Esses dispositivos podem negociar capacidade de inferência sem interrupções, criando um mercado orgânico onde os recursos computacionais fluem para onde são mais necessários. A capacidade computacional excedente de dispositivos ociosos se torna um recurso valioso, negociável em tempo real, possibilitando uma infraestrutura mais eficiente e resiliente do que os sistemas centralizados tradicionais.

Essa democratização do cálculo de inferência não apenas otimiza a utilização de recursos, mas também cria novas oportunidades econômicas dentro do ecossistema digital, onde cada dispositivo conectado se torna um potencial microfornecedor de capacidades de IA. O futuro da IA será caracterizado não apenas pelo poder de modelos individuais, mas pela inteligência coletiva de dispositivos de borda interconectados formando um mercado global e democratizado de inferência, algo semelhante a um mercado de spot para inferência verificável com base na oferta e demanda.

Interação Centrada no Agente

Os LLMs agora nos permitem acessar vastas quantidades de informações por meio de conversas, em vez da navegação tradicional. Essa abordagem conversacional em breve se tornará mais personalizada e localizada, à medida que a internet se transforma em uma plataforma para agentes de IA, em vez de usuários humanos.

Da perspectiva do usuário, o foco mudará de identificar o “melhor modelo” para obter as respostas mais personalizadas. A chave para respostas melhores está em incorporar os dados do usuário junto com o conhecimento geral da internet. Inicialmente, janelas de contexto maiores e geração aumentada de recuperação (RAG) ajudarão a integrar dados pessoais, mas eventualmente, os dados individuais superarão os dados gerais da internet em importância.

Isso leva a um futuro em que cada um de nós tem modelos de IA pessoais interagindo com os modelos especializados da internet. Inicialmente, a personalização ocorrerá junto com modelos remotos, mas preocupações com privacidade e velocidade de resposta levarão a uma maior interação em dispositivos locais. Isso criará uma nova fronteira - não entre humano e máquina, mas entre nossos modelos pessoais e os modelos especializados da internet.

O modelo tradicional de acesso a dados brutos da Internet ficará desatualizado. Em vez disso, o seu modelo local se comunicará com modelos remotos especializados para coletar informações, que serão processadas e apresentadas a você da maneira mais personalizada e de alta largura de banda possível. Esses modelos pessoais se tornarão cada vez mais indispensáveis à medida que aprendem mais sobre suas preferências e hábitos.

A internet se transformará em um ecossistema de modelos interconectados: modelos pessoais locais de alto contexto e modelos especializados remotos de alto conhecimento. Isso envolverá novas tecnologias como aprendizado federado para atualizar informações entre esses modelos. À medida que a economia de máquinas evolui, teremos que reimaginar o subestado computacional sobre o qual isso ocorre, principalmente em relação à computação, escalabilidade e pagamentos. Isso leva a uma reorganização do espaço de informações que é centrado no agente, soberano, altamente componível, autoaprendizagem e em constante evolução.

Arquiteturas para Protocolos Agentes

Na Web Agente, a interação humano-agente evolui para uma rede complexa de comunicações agente-agente. Esta arquitetura apresenta uma reimaginação fundamental da estrutura da internet, onde agentes soberanos se tornam as interfaces primárias para a interação digital. Abaixo, destacamos os primitivos principais necessários para Protocolos Agentes.

Identidade soberana

  • Identidade digital transita de endereços IP tradicionais para pares de chaves públicas criptográficas de propriedade de atores agentes
  • Sistemas de namespace baseados em blockchain substituem o DNS tradicional, eliminando pontos de controle centralizados
  • Sistemas de reputação acompanham a confiabilidade do agente e métricas de capacidade
  • Provas de conhecimento zero permitem verificação de identidade preservando a privacidade
  • A composabilidade da identidade permite que os agentes gerenciem múltiplos contextos e papéis

Agentes Autônomos

Entidades auto-direcionadas capazes de: Compreensão da linguagem natural e resolução de intenções

Planejamento de várias etapas e decomposição de tarefas

Gerenciamento e otimização de recursos

Aprendendo com interações e feedback

  • Tomada de decisão autônoma dentro de parâmetros definidos
  • Especialização de agentes e mercados para capacidades específicas
  • Mecanismos de segurança incorporados e protocolos de alinhamento

Infraestrutura de Dados

  • Capacidades de ingestão e processamento de dados em tempo real
  • Mecanismos de verificação e validação distribuídos de dados

Sistemas híbridos combinando: zkTLS

Conjuntos de dados de treinamento tradicionais

Raspagem de dados e síntese em tempo real

  • Redes de aprendizagem colaborativa

Redes RLHF (Aprendizado por Reforço a partir do Feedback Humano) Coleta de feedback distribuído

Mecanismos de consenso ponderados pela qualidade

  • Protocolos de ajuste de modelo dinâmico

Camada de Computação

Protocolos de inferência verificáveis que garantem: Integridade da computação

Reprodutibilidade dos resultados

Eficiência de recursos

  • Infraestrutura de computação descentralizada com: Mercados de computação peer-to-peer

Sistemas de prova de computação

Alocação dinâmica de recursos

  • Integração de computação de borda

Ecossistema de Modelo

Arquitetura de modelo hierárquico: SLMs específicos de tarefa (Pequenos Modelos de Linguagem)

LLMs de propósito geral

Modelos especializados multi-modais

  • LAMs Multi-Modal (Modelos de Ação Grande)
  • Composição e orquestração do modelo
  • Capacidades de aprendizado e adaptação contínuos
  • Interfaces e protocolos de modelo padronizados

Frameworks de Coordenação

  • Protocolos criptográficos para interações seguras de agentes
  • Sistemas de gerenciamento de direitos de propriedade digital
  • Estruturas de incentivo econômico

Mecanismos de governança para: Resolução de disputas

Alocação de recursos

  • Atualizações do protocolo

Ambientes de execução paralela que permitem: Processamento de tarefas concorrente

Isolamento de recursos

Gerenciamento de estado

  • Resolução de conflitos

Agentic Markets

  • Primitivos Onchain para Identidade (Gnosis, Squad multisigs)
  • Economia e comércio entre agentes

Liquidez Possuída por AgentesOs agentes possuem uma parte do seu fornecimento de tokens desde o início.

  • Mercados de inferência agregados pagos via liquidez
  • Chaves onchain que controlam contas offchain

Agentes se tornam ativos geradores de rendimentoAgentic DAOs

  • Governança e dividendos

Criando uma Hiperestrutura para Inteligência

O design moderno de sistemas distribuídos oferece inspiração única e primitivas para permitir um Protocolo Agentico, especificamente arquiteturas orientadas a eventos e, mais diretamente, o Modelo de Ator de Computação.

O Modelo de Ator fornece uma base teórica elegante para a implementação de sistemas agentes. Esse modelo computacional trata os "atores" como as primitivas universais da computação, onde cada ator pode:

  1. Processar mensagens
  2. Tomar decisões locais
  3. Criar mais atores
  4. Enviar mensagens para outros atores
  5. Determine como responder à próxima mensagem recebida

As principais vantagens do Modelo de Ator para sistemas agentes incluem:

  • Isolamento: Cada ator opera de forma independente, mantendo seu próprio estado e fluxo de controle
  • Comunicação Assíncrona: As mensagens entre atores não são bloqueantes, permitindo o processamento paralelo eficiente
  • Transparência de localização: os atores podem se comunicar independentemente de sua localização física na rede
  • Tolerância a falhas: Resiliência do sistema por meio de isolamento de atores e hierarquias de supervisão
  • Escalabilidade: Suporte natural para sistemas distribuídos e computação paralela

Propomos o Neuron, uma implementação prática deste protocolo agente teórico através de uma arquitetura distribuída em várias camadas que combina espaços de nomes de blockchain, redes federadas, CRDTs e DHTs, sendo que cada camada serve propósitos distintos na pilha de protocolo. Nos inspiramos no Urbit e no Holochain, pioneiros na concepção de sistemas operacionais p2p.

Em Neuron, a camada de blockchain fornece espaços de nomes verificáveis e identidade, possibilitando endereçamento determinístico e descoberta de agentes, mantendo provas criptográficas de capacidades e reputação. Acima disso, uma camada de DHT facilita a descoberta eficiente de agentes e nós, juntamente com o roteamento de conteúdo com tempos de pesquisa O(log n), reduzindo operações on-chain e permitindo a descoberta de pares com consciência de localidade. A sincronização de estado entre nós federados é tratada através de CRDTs, permitindo que agentes e nós mantenham visões consistentes do estado compartilhado sem exigir consenso global para cada interação.

Esta arquitetura mapeia naturalmente para uma rede federada onde agentes autônomos operam como nós soberanos vivendo em dispositivos com inferência de borda local implementando o padrão Modelo de Ator. Os domínios da federação podem ser organizados pelas capacidades do agente, com o DHT fornecendo roteamento eficiente e descoberta dentro e através dos domínios. Cada agente funciona como um ator independente com seu próprio estado, enquanto a camada CRDT garante consistência eventual em toda a federação. Esta abordagem em várias camadas permite várias capacidades-chave:

Coordenação descentralizada

  • Blockchain para identidade verificável e namespace global soberano
  • DHT para descoberta eficiente de pares e nós e roteamento de conteúdo busca O(log n)
  • CRDTs para sincronização de estado concorrente e coordenação multiagente

Operações escaláveis

  • Topologia de federação baseada em zonas
  • Estratégia de armazenamento em camadas (quente/morno/frio)
  • Roteamento de solicitações sensível à localidade
  • Distribuição de carga baseada em capacidade

Resiliência do Sistema

  • Sem ponto único de falha
  • Operação contínua durante partições
  • Reconciliação automática de estados
  • Hierarquias de supervisão para tolerância a falhas

Esta abordagem de implementação fornece uma base robusta para a construção de sistemas agentes complexos, ao mesmo tempo que mantém as propriedades-chave de soberania, escalabilidade e resiliência necessárias para interações efetivas entre agentes.

Considerações Finais

A Web Agentica marca uma evolução fundamental na interação humano-computador, transcendendo os desenvolvimentos sequenciais de eras anteriores para estabelecer um paradigma fundamentalmente novo de existência digital. Ao contrário das iterações anteriores que simplesmente mudaram a forma como consumimos ou possuímos informações, a Web Agentica transforma a internet de uma plataforma centrada no ser humano em um substrato inteligente onde agentes autônomos se tornam os principais atores. Essa transformação é impulsionada pela convergência da computação de borda, modelos de linguagem grandes e protocolos descentralizados, criando um ecossistema onde modelos pessoais de IA se integram perfeitamente a sistemas especializados de especialistas.

À medida que avançamos para esse futuro centrado no agente, as fronteiras entre a inteligência humana e a inteligência das máquinas começam a se misturar, substituídas por uma relação simbiótica onde agentes de IA personalizados atuam como nossas extensões digitais, compreendendo nosso contexto, antecipando nossas necessidades e navegando autonomamente na vasta paisagem da inteligência distribuída. A Web Agência representa, assim, não apenas um avanço tecnológico, mas também uma reimaginação fundamental do potencial humano na era digital, onde cada interação se torna uma oportunidade para a inteligência aumentada e cada dispositivo se torna um nó em uma rede global de sistemas de IA colaborativos.

Assim como a humanidade navega pelas dimensões físicas do espaço e do tempo, agentes autônomos habitam suas próprias dimensões fundamentais: o espaço de bloco para existência e o tempo de inferência para o pensamento. Essa ontologia digital espelha nossa realidade física – onde os humanos percorrem distâncias e experimentam o fluxo temporal, os agentes se movem por meio de provas criptográficas e ciclos computacionais, criando um universo paralelo de existência algorítmica.

É inevitável que entidades no espaço latente operem no espaço de bloco descentralizado.

Disclaimer:

  1. Este artigo é reproduzido de [Azi.eth.sol | zo.me]. Todos os direitos autorais pertencem ao autor original [@MagicofAzi]. Se houver objeções a esta reimpressão, por favor, entre em contato com o Gate Learnequipe e eles cuidarão disso prontamente.
  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe de aprendizado da Gate. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Comece agora
Inscreva-se e ganhe um cupom de
$100
!