Web 4.0: A Web Agential

Intermediário11/19/2024, 5:38:39 AM
Este artigo explora como a inteligência artificial (IA) e a tecnologia blockchain se fundem para impulsionar o desenvolvimento da próxima geração da internet, conhecida como a "Web Agentic." Ele não apenas revisa a evolução da internet, mas também discute em detalhe o conceito, os componentes e a arquitetura dos agentes, assim como a forma como eles estão mudando a maneira como os humanos interagem com máquinas e sistemas digitais.

A inteligência artificial e a tecnologia blockchain representam duas forças transformadoras que estão a remodelar o nosso mundo. A IA amplifica as capacidades cognitivas humanas através de aprendizagem automática e redes neurais, enquanto a tecnologia blockchain introduz escassez digital verificável e permite novas formas de coordenação sem confiança. À medida que estas tecnologias convergem, estão a lançar as bases para uma nova iteração da internet — onde agentes autónomos interagem com sistemas descentralizados. Esta “Web Agentica” introduz uma nova classe de cidadãos digitais: agentes de IA que podem navegar, negociar e transacionar de forma independente. Esta transformação redistribui o poder no domínio digital, permitindo que os indivíduos reclamem a soberania sobre os seus dados, ao mesmo tempo que fomentam um ecossistema onde a inteligência humana e artificial colaboram de formas sem precedentes.

A Evolução da Web

Para entender para onde estamos indo, primeiro vamos traçar a evolução da web através de suas principais iterações, cada uma marcada por capacidades distintas e paradigmas arquiteturais:

Enquanto as duas primeiras gerações da web se concentraram na propagação de informações, as duas últimas permitem aprimoramento de informações. A Web 3.0 introduziu a propriedade de dados por meio de tokens, e agora a Web 4.0 impregna a inteligência por meio de Grandes Modelos de Linguagem (LLMs).

De LLMs para Agentes: Uma Evolução Natural

LLMs representam um salto quântico na inteligência artificial, funcionando como sistemas dinâmicos de correspondência de padrões que transformam vasto conhecimento em compreensão contextual através de computação probabilística. No entanto, o seu verdadeiro potencial emerge quando estruturados como agentes, evoluindo de meros processadores de informação para entidades orientadas para objetivos que podem perceber, raciocinar e agir. Esta transformação cria uma inteligência emergente capaz de colaboração significativa e sustentada através tanto da linguagem como da ação.

O termo 'agente' introduz um novo paradigma para a interação humano-AI, indo além das limitações e associações negativas dos chatbots tradicionais. Essa mudança não é apenas semântica; representa uma reconceptualização fundamental de como os sistemas de IA podem operar autonomamente, mantendo uma colaboração significativa com os humanos. Fundamentalmente, fluxos de trabalho agentes permitem que mercados se formem em torno da resolução de intenções específicas do usuário.

Em última análise, a Agentic Web representa mais do que apenas uma nova camada de inteligência - ela transforma fundamentalmente como interagimos com sistemas digitais. Enquanto iterações anteriores da web dependiam de interfaces estáticas e jornadas de usuários predefinidas, a Agentic Web introduz uma infraestrutura de tempo de execução dinâmica onde tanto a computação quanto as interfaces se adaptam em tempo real ao contexto e à intenção do usuário.

Os sites tradicionais servem como a unidade atômica da internet atual, fornecendo interfaces fixas onde os usuários leem, escrevem e interagem com informações por meio de caminhos predeterminados. Esse modelo, embora funcional, limita os usuários a interfaces projetadas para casos de uso geral, em vez de necessidades individuais. A Web Agentic se liberta dessas restrições por meio da Computação Sensível ao Contexto, Geração de Interface Adaptativa, Fluxos de Ação Preditivos desbloqueados por meio de RAG e outras inovações na recuperação de informações em tempo real.

Considere como o TikTok revolucionou o consumo de conteúdo, criando feeds altamente personalizados que se adaptam às preferências do utilizador em tempo real. A Agentic Web estende este conceito para além da recomendação de conteúdo, até à geração de interfaces inteiras. Em vez de navegar através de layouts fixos de páginas da web, os utilizadores interagem com interfaces geradas dinamicamente que preveem e facilitam as suas próximas ações. Esta mudança de websites estáticos para interfaces dinâmicas e orientadas por agentes representa uma evolução fundamental na forma como interagimos com sistemas digitais — passando de modelos de interação baseados em navegação para modelos de interação baseados em intenção.

Anatomia de um Agente

As arquiteturas de agentes têm sido uma grande exploração para pesquisadores e construtores. Novos métodos estão constantemente sendo desenvolvidos para aumentar suas capacidades de raciocínio e resolução de problemas. Técnicas como Chain-of-Thought (CoT), Tree-of-Thought (ToT) e Graph-of-Thought (GoT) são exemplos primários de inovações projetadas para melhorar como LLMs lidam com tarefas complexas ao simular processos cognitivos mais sutis e semelhantes aos humanos.

A promoção Chain-of-Thought (CoT) incentiva modelos de linguagem grandes (LLMs) a dividir tarefas complexas em etapas menores e gerenciáveis. Essa abordagem é particularmente eficaz para problemas que exigem raciocínio lógico, como escrever pequenos scripts em Python ou resolver equações matemáticas.

Tree-of-Thoughts (ToT) baseia-se em CoT, introduzindo uma estrutura em árvore que permite a exploração de múltiplos caminhos de pensamento independentes. Este aprimoramento permite que LLMs lidem com tarefas ainda mais complexas. Em ToT, cada 'pensamento' (uma saída de texto do LLM) está diretamente conectado apenas ao seu pensamento imediatamente anterior ou subsequente dentro de uma cadeia local (um ramo da árvore). Embora essa estrutura ofereça mais flexibilidade do que CoT, ela ainda limita o potencial de cruzamento de ideias.

Graph-of-Thought (GoT) leva o conceito ainda mais longe ao fundir estruturas de dados clássicas com LLMs. Esta abordagem expande o ToT ao permitir que qualquer “pensamento” se ligue a qualquer outro pensamento dentro de uma estrutura de grafo. Esta rede interligada de pensamentos reflete mais de perto os processos cognitivos humanos.

A estrutura do gráfico do GoT provavelmente fornece uma representação mais precisa do pensamento humano em comparação com CoT ou ToT na maioria dos cenários. Embora haja casos em que nossos padrões de pensamento possam se assemelhar a cadeias ou árvores (como ao desenvolver planos de contingência ou procedimentos operacionais padrão), esses são exceções em vez de serem a norma. Este modelo espelha melhor o pensamento humano, que frequentemente salta entre vários pensamentos em vez de seguir uma ordem sequencial rígida. Embora em alguns cenários, como ao desenvolver planos de contingência ou procedimentos padrão, ainda possam seguir uma estrutura em cadeia ou em árvore, nossas mentes geralmente criam teias de ideias complexas e interconectadas que se alinham mais com a estrutura do gráfico.

Esta abordagem gráfica em GoT permite uma exploração mais dinâmica e flexível de ideias, potencialmente levando a capacidades de resolução de problemas mais criativas e abrangentes em LLMs.

Essas operações baseadas em gráficos recursivos são apenas um passo em direção aos fluxos de trabalho agentes. A próxima evolução óbvia são múltiplos agentes com sua própria especialização, sendo orquestrados em direção a metas específicas. A beleza dos agentes está em sua composição.

Os agentes permitem modularizar e paralelizar LLMs através da coordenação de vários agentes.

Sistemas Multi-Agentes

O conceito de sistemas multiagentes não é novo. Suas raízes remontam a "Society of Mind" de Marvin Minsky, que propôs que várias mentes modulares trabalhando em colaboração podem superar uma mente monolítica única. ChatGPT e Claude são agentes individuais. Mistral popularizou a Mistura de Especialistas. Estendendo ainda mais essa ideia, acreditamos que uma arquitetura de Rede de Agentes seja o estado final dessa topologia de inteligência.

De um ponto de vista biomimético, ao contrário dos modelos de IA, onde bilhões de neurônios idênticos estão conectados de maneira uniforme e previsível, o cérebro humano (essencialmente uma máquina consciente) é incrivelmente heterogêneo - tanto no nível do órgão quanto celular. Os neurônios comunicam-se através de sinais intrincados, envolvendo gradientes de neurotransmissores, cascadas intracelulares e vários sistemas modulatórios, tornando sua função muito mais matizada do que simples estados binários.

Isso sugere que, na biologia, a inteligência não deriva apenas do número de componentes ou do tamanho de um conjunto de dados de treinamento. Em vez disso, ela surge da interação complexa entre unidades diversas e especializadas - um processo inerentemente analógico.

Por esse motivo, a ideia de desenvolver milhões de modelos menores em vez de apenas alguns grandes e permitir a orquestração entre todos esses atores, provavelmente leva a inovações em arquiteturas cognitivas, algo semelhante a sistemas multiagentes.

O design do sistema multiagente oferece várias vantagens em relação aos sistemas de agente único: é mais fácil de manter, mais fácil de entender e mais flexível para estender. Mesmo nos casos em que apenas uma interface de agente único é necessária, implementá-la dentro de um framework multiagente pode tornar o sistema mais modular, simplificando o processo para os desenvolvedores adicionar ou remover componentes conforme necessário. É essencial reconhecer que a arquitetura multiagente pode ser uma forma altamente eficaz de construir até mesmo um sistema de agente único.

Embora os grandes modelos de linguagem (LLMs) tenham mostrado capacidades extraordinárias - como gerar texto semelhante ao humano, resolver problemas complexos e lidar com uma ampla gama de tarefas - os agentes individuais de LLM enfrentam limitações que podem prejudicar sua eficácia em aplicações do mundo real.

Abaixo, examinamos cinco desafios-chave associados aos sistemas agentes e exploramos como a colaboração multiagente pode superar esses obstáculos, desbloqueando todo o potencial de LLMs.

  • Superando Alucinações através da Verificação Cruzada Os agentes individuais do LLM frequentemente têm alucinações, gerando informações incorretas ou sem sentido. Isso acontece apesar de seu vasto treinamento, já que as saídas podem parecer plausíveis, mas carecem de precisão factual. Um sistema multiagente permite que os agentes verifiquem as informações, reduzindo o risco de erros. Ao se especializarem em diferentes áreas, os agentes garantem respostas mais confiáveis e precisas.
  • Estender janelas de contexto através do processamento distribuídoLLMs têm janelas de contexto limitadas, o que torna difícil gerir documentos ou conversas extensos. Num framework multi-agente, os agentes podem dividir a carga de processamento, cada um lidando com uma parte do contexto. Através da comunicação entre agentes, eles podem manter a coerência em todo o texto, estendendo efetivamente a janela de contexto.
  • Aumentar a eficiência através do processamento paraleloOs LLMs individuais normalmente processam tarefas uma de cada vez, resultando em tempos de resposta mais lentos. Os sistemas multi-agentes suportam processamento paralelo, permitindo que vários agentes trabalhem em tarefas diferentes simultaneamente. Isso melhora a eficiência e acelera os tempos de resposta, permitindo que as empresas lidem com várias consultas sem atrasos.
  • Promover a colaboração para a resolução de problemas complexosLLMs sozinhos lutam para resolver problemas complexos que requerem diversas competências. Os sistemas multiagentes fomentam a colaboração, com cada agente contribuindo com habilidades e perspectivas únicas. Trabalhando em conjunto, os agentes podem enfrentar desafios complexos de forma mais eficaz, oferecendo soluções mais abrangentes e inovadoras.
  • Aumentar a Acessibilidade Através da Otimização de Recursos Os LLMs Avançados exigem recursos computacionais significativos, tornando-os caros e menos acessíveis. Os frameworks multi-agentes otimizam a utilização de recursos distribuindo tarefas entre agentes, reduzindo os custos computacionais totais. Isso torna as tecnologias de IA mais acessíveis e acessíveis a uma gama mais ampla de organizações.

Embora os sistemas multiagentes ofereçam vantagens convincentes na resolução de problemas distribuídos e na otimização de recursos, seu verdadeiro potencial surge quando consideramos sua implementação na borda da rede. À medida que a IA continua a evoluir, a convergência de arquiteturas multiagentes com computação na borda cria uma sinergia poderosa, permitindo não apenas inteligência colaborativa, mas também processamento eficiente e localizado em inúmeros dispositivos. Essa abordagem distribuída para a implantação de IA estende naturalmente os benefícios dos sistemas multiagentes, levando inteligência cooperativa especializada mais perto de onde é mais necessária: o usuário final.

Inteligência na Borda

A proliferação da IA em todo o cenário digital está a impulsionar uma reestruturação fundamental das arquiteturas computacionais. À medida que a inteligência se vai entranhando no tecido das nossas interações digitais diárias, estamos a assistir a uma bifurcação natural do cálculo: centros de dados especializados lidam com raciocínios complexos e tarefas específicas de domínio, enquanto dispositivos de borda processam consultas personalizadas e sensíveis ao contexto localmente. Esta mudança em direção à inferência de borda não é apenas uma preferência arquitetónica - é uma necessidade impulsionada por múltiplos fatores críticos.

Em primeiro lugar, o volume impressionante de interações impulsionadas por IA sobrecarregaria os provedores de inferência centralizados, criando demandas insustentáveis de largura de banda e problemas de latência.

Em segundo lugar, o processamento de borda permite a capacidade de resposta em tempo real, fundamental para aplicações como veículos autônomos, realidade aumentada e dispositivos IoT.

Terceiro, a inferência local preserva a privacidade do utilizador ao manter os dados sensíveis em dispositivos pessoais. Quarto, a computação de borda reduz drasticamente o consumo de energia e a pegada de carbono, minimizando a movimentação de dados entre redes.

Finalmente, a inferência de borda permite funcionalidade offline e resiliência, garantindo que as capacidades de IA persistam mesmo quando a conectividade de rede está comprometida.

Este paradigma de inteligência distribuída representa não apenas uma otimização dos nossos sistemas atuais, mas uma reimaginação fundamental de como implantamos e interagimos com a IA no nosso mundo cada vez mais conectado.

Além disso, estamos testemunhando uma mudança fundamental nas demandas computacionais dos LLMs. Enquanto a última década foi dominada pelos enormes requisitos computacionais do treinamento de modelos de linguagem grandes, agora estamos entrando em uma era em que o tempo de computação de inferência assume o centro do palco. Essa transição é particularmente evidente no surgimento de sistemas de IA agentes, como exemplificado pelo avanço do Q * da OpenAI, que demonstrou como o raciocínio dinâmico exige recursos computacionais substanciais em tempo real.

Ao contrário do cálculo durante o treinamento, que é um investimento único no desenvolvimento do modelo, o cálculo durante a inferência representa o diálogo computacional contínuo necessário para que agentes autônomos raciocinem, planejem e se adaptem a situações novas. Essa mudança do treinamento de modelos estáticos para o raciocínio dinâmico de agentes exige uma reformulação radical de nossa infraestrutura computacional, na qual a computação em borda se torna não apenas vantajosa, mas essencial.

À medida que esta transformação se desenrola, estamos a testemunhar o surgimento de mercados de inferência de borda peer-to-peer, onde bilhões de dispositivos conectados — de smartphones a sistemas de casa inteligente — formam malhas computacionais dinâmicas. Estes dispositivos podem negociar capacidade de inferência de forma contínua, criando um mercado orgânico onde os recursos computacionais fluem para onde são mais necessários. A capacidade computacional excedente de dispositivos inativos torna-se um recurso valioso, negociável em tempo real, permitindo uma infraestrutura mais eficiente e resiliente do que os sistemas centralizados tradicionais.

Esta democratização da computação de inferência não só optimiza a utilização de recursos, mas também cria novas oportunidades económicas dentro do ecossistema digital, onde cada dispositivo ligado se torna um potencial micro-fornecedor de capacidades de IA. O futuro da IA será assim caracterizado não só pelo poder de modelos individuais, mas pela inteligência colectiva de dispositivos interligados que formam um mercado global de inferência democratizado, algo semelhante a um mercado spot para inferência verificável baseada na oferta e na procura.

Interacção Centrada no Agente

As LLMs permitem-nos agora aceder a grandes quantidades de informação através de conversas, em vez da navegação tradicional. Esta abordagem de conversação tornar-se-á em breve mais personalizada e localizada, à medida que a Internet se transforma numa plataforma para agentes de IA em vez de utilizadores humanos.

Da perspectiva do utilizador, o foco irá mudar de identificar o "melhor modelo" para obter as respostas mais personalizadas. A chave para melhores respostas está em incorporar os dados próprios do utilizador juntamente com o conhecimento geral da internet. Inicialmente, janelas de contexto maiores e geração aumentada por recuperação (RAG) ajudarão a integrar os dados pessoais, mas eventualmente, os dados individuais ultrapassarão os dados gerais da internet em importância.

Isso leva a um futuro em que cada um de nós tem modelos pessoais de IA interagindo com os modelos especializados da internet em geral. Inicialmente, a personalização ocorrerá ao lado de modelos remotos, mas preocupações com privacidade e velocidade de resposta levarão a mais interações em dispositivos locais. Isso criará um novo limite - não entre humano e máquina, mas entre nossos modelos pessoais e os modelos especializados da internet.

O modelo tradicional de acesso a dados brutos da Internet se tornará obsoleto. Em vez disso, seu modelo local se comunicará com modelos especializados remotos para coletar informações, que serão processadas e apresentadas a você da maneira mais personalizada e de alta largura de banda possível. Esses modelos pessoais se tornarão cada vez mais indispensáveis ​​à medida que aprendem mais sobre suas preferências e hábitos.

A internet irá transformar-se num ecossistema de modelos interligados: modelos pessoais locais de alto contexto e modelos especializados remotos de alto conhecimento. Isto envolverá novas tecnologias como a aprendizagem federada para atualizar informações entre estes modelos. À medida que a economia das máquinas evolui, teremos de reimaginar o subestado computacional sobre o qual isto ocorre, principalmente em relação ao cálculo, escalabilidade e pagamentos. Isto leva a uma reorganização do espaço de informação que é centrado no agente, soberano, altamente componível, autoaprendizagem e em evolução.

Arquiteturas para Protocolos Agentes

Na Web Agentic, a interação humano-agente evolui para uma rede complexa de comunicações de agente para agente. Esta arquitetura apresenta uma reimaginação fundamental da estrutura da internet, onde agentes soberanos se tornam as interfaces primárias para interação digital. Abaixo, destacamos primitivas essenciais necessárias para Protocolos Agentes.

Identidade soberana

  • A identidade digital transita de endereços IP tradicionais para pares de chaves públicas criptográficas pertencentes a atores agentes
  • Os sistemas de nomes baseados em blockchain substituem o DNS tradicional, eliminando pontos de controle centralizados
  • Sistemas de reputação rastreiam a confiabilidade do agente e métricas de capacidade
  • Provas de conhecimento zero permitem a verificação de identidade preservando a privacidade
  • A composabilidade da identidade permite que os agentes gerenciem múltiplos contextos e papéis

Agentes Autónomos

Entidades autônomas capazes de: Compreensão de linguagem natural e resolução de intenções

Planeamento de várias etapas e decomposição de tarefas

Gestão e otimização de recursos

Aprender com interações e feedback

  • Tomada de decisão autônoma dentro de parâmetros definidos
  • Especialização de agentes e mercados para capacidades específicas
  • Mecanismos de segurança incorporados e protocolos de alinhamento

Infraestrutura de Dados

  • Capacidades de ingestão e processamento de dados em tempo real
  • Mecanismos de verificação e validação de dados distribuídos

Sistemas híbridos que combinam: zkTLS

Conjuntos de dados de treino tradicionais

Web scraping em tempo real e síntese de dados

  • Redes de aprendizagem colaborativa

Redes RLHF (Aprendizagem de Reforço a partir de Feedback Humano) Recolha distribuída de feedback

Mecanismos de consenso ponderados pela qualidade

  • Protocolos de ajuste do modelo dinâmico

Camada de Computação

Protocolos de inferência verificáveis garantindo: Integridade de computação

Reprodutibilidade dos resultados

Eficiência de recursos

  • Infraestrutura de computação descentralizada com mercado de computação peer-to-peer

Sistemas de prova de computação

Alocação dinâmica de recursos

  • Integração de computação de borda

Ecossistema Modelo

Arquitetura de modelo hierárquico: SLMs específicos de tarefas (Small Language Models)

LLMs de uso geral

Modelos multimodais especializados

  • Modelos de Ação Grande Multi-Modal (LAMs)
  • Composição e orquestração do modelo
  • Capacidades de aprendizagem contínua e adaptação
  • Interfaces e protocolos de modelo padronizados

Frameworks de Coordenação

  • Protocolos criptográficos para interações seguras de agentes
  • Sistemas de gerenciamento de direitos de propriedade digital
  • Estruturas de incentivo econômico

Mecanismos de governança para: Resolução de disputas

Alocação de recursos

  • Atualizações de protocolo

Ambientes de execução paralela que permitem: Processamento de tarefas concorrentes

Isolamento de recursos

Gestão de estado

  • Resolução de conflitos

Agentic Markets

  • Primitivas Onchain para Identidade (Gnosis, Squad multisigs)
  • Economia e comércio entre agentes

Liquidez de propriedade do agenteOs agentes possuem uma parte de seu fornecimento de token na gênese

  • Mercados de inferência agregados pagos através de liquidez
  • Chaves Onchain que controlam contas offchain

Agentes tornam-se ativos de rendimentoAgentic DAOs

  • Governança e dividendos

Criando uma Hiperestrutura para Inteligência

O design moderno de sistemas distribuídos oferece inspiração única e primitivas para permitir Protocolos Agentes, especificamente arquiteturas orientadas a eventos e, mais diretamente, o Modelo de Ator de Computação.

O Modelo de Ator fornece uma base teórica elegante para a implementação de sistemas agentes. Este modelo computacional trata os "atores" como as primitivas universais da computação, onde cada ator pode:

  1. Processar mensagens
  2. Tomar decisões locais
  3. Criar mais intervenientes
  4. Enviar mensagens para outros atores
  5. Determine como responder à próxima mensagem recebida

Principais vantagens do Modelo de Ator para sistemas agentes incluem:

  • Isolamento: Cada ator opera de forma independente, mantendo seu próprio estado e fluxo de controle
  • Comunicação Assíncrona: As mensagens entre os atores são não bloqueantes, permitindo um processamento paralelo eficiente
  • Transparência de Localização: Os atores podem comunicar independentemente da sua localização física na rede
  • Tolerância a Falhas: Resiliência do sistema através do isolamento de atores e hierarquias de supervisão
  • Escalabilidade: Suporte natural para sistemas distribuídos e computação paralela

Propomos Neuron, uma implementação prática deste protocolo agente teórico através de uma arquitetura distribuída em várias camadas que combina namespaces de blockchain, redes federadas, CRDTs e DHTs, sendo que cada camada serve propósitos distintos na pilha de protocolos. Nós nos inspiramos em Urbit e Holochain, pioneiros em design de sistemas operacionais p2p.

Em Neuron, a camada de blockchain fornece espaços de nomes verificáveis e identidade, permitindo a abordagem determinística e a descoberta de agentes, mantendo provas criptográficas de capacidades e reputação. Acima disso, uma camada DHT facilita a descoberta eficiente de agentes e nós, juntamente com o encaminhamento de conteúdo com tempos de pesquisa O(log n), reduzindo operações on-chain enquanto permite a descoberta de pares consciente da localidade. A sincronização de estado entre nós federados é tratada através de CRDTs, permitindo que agentes e nós mantenham visualizações consistentes do estado compartilhado sem exigir consenso global para cada interação.

Esta arquitetura mapeia naturalmente para uma rede federada onde agentes autônomos atuam como nós soberanos vivendo em dispositivos com inferência local de borda implementando o padrão do Modelo de Ator. Os domínios de federação podem ser organizados por capacidades de agente, com o DHT fornecendo roteamento e descoberta eficientes dentro e entre domínios. Cada agente funciona como um ator independente com seu próprio estado, enquanto a camada CRDT garante consistência eventual em toda a federação. Essa abordagem em várias camadas permite várias capacidades-chave:

Coordenação descentralizada

  • Blockchain para identidade verificável e espaço global soberano
  • DHT para descoberta eficiente de pares e nós e roteamento de conteúdo pesquisa O(log n)
  • CRDTs para sincronização de estado concorrente e coordenação multiagente

Operações escaláveis

  • Topologia de federação baseada em zonas
  • Estratégia de armazenamento em camadas (quente/morno/frio)
  • Encaminhamento de solicitação consciente da localidade
  • Distribuição de carga baseada em capacidade

Resiliência do sistema

  • Nenhum ponto único de falha
  • Operação contínua durante partições
  • Reconciliação automática de estados
  • Hierarquias de supervisão para tolerância a falhas

Esta abordagem de implementação fornece uma base robusta para a construção de sistemas agenticos complexos, mantendo as propriedades-chave de soberania, escalabilidade e resiliência necessárias para interações eficazes entre agentes.

Considerações Finais

A Web Agentic marca uma evolução fundamental na interação humano-computador, transcendendo os desenvolvimentos sequenciais das eras anteriores para estabelecer um novo paradigma fundamental de existência digital. Ao contrário das iterações anteriores que simplesmente mudaram a forma como consumimos ou possuímos informações, a Web Agentic transforma a internet de uma plataforma centrada no ser humano em um substrato inteligente onde agentes autônomos se tornam os principais atores. Essa transformação é impulsionada pela convergência da computação de borda, modelos de linguagem grandes e protocolos descentralizados, criando um ecossistema em que modelos de IA pessoais se integram perfeitamente a sistemas especializados.

À medida que avançamos em direção a esse futuro centrado no agente, as fronteiras entre a inteligência humana e a inteligência artificial começam a se confundir, substituídas por uma relação simbiótica onde agentes de IA personalizados atuam como nossas extensões digitais, entendendo nosso contexto, antecipando nossas necessidades e navegando autonomamente pela vasta paisagem da inteligência distribuída. A Web Agentic, portanto, representa não apenas um avanço tecnológico, mas uma reimaginação fundamental do potencial humano na era digital, onde cada interação se torna uma oportunidade para a inteligência aumentada e cada dispositivo se torna um nó em uma rede global de sistemas colaborativos de IA.

Assim como a humanidade navega nas dimensões físicas do espaço e do tempo, agentes autônomos habitam suas próprias dimensões fundamentais: espaço de bloco para existência e tempo de inferência para pensamento. Essa ontologia digital espelha nossa realidade física, onde os humanos percorrem distâncias e experimentam fluxo temporal, agentes se movem através de provas criptográficas e ciclos computacionais, criando um universo paralelo de existência algorítmica.

É inevitável que entidades no espaço latente operem no blockspace descentralizado.

Aviso legal:

  1. Este artigo é reproduzido de [Azi.eth.sol | zo.me]. Todos os direitos autorais pertencem ao autor original [@MagicofAzi]. Se houver objeções a este reenvio, entre em contato com o Gate Aprenderequipe, e eles lidarão com isso prontamente.
  2. Aviso de Responsabilidade: As opiniões expressas neste artigo são exclusivamente as do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe de aprendizado da Gate. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Web 4.0: A Web Agential

Intermediário11/19/2024, 5:38:39 AM
Este artigo explora como a inteligência artificial (IA) e a tecnologia blockchain se fundem para impulsionar o desenvolvimento da próxima geração da internet, conhecida como a "Web Agentic." Ele não apenas revisa a evolução da internet, mas também discute em detalhe o conceito, os componentes e a arquitetura dos agentes, assim como a forma como eles estão mudando a maneira como os humanos interagem com máquinas e sistemas digitais.

A inteligência artificial e a tecnologia blockchain representam duas forças transformadoras que estão a remodelar o nosso mundo. A IA amplifica as capacidades cognitivas humanas através de aprendizagem automática e redes neurais, enquanto a tecnologia blockchain introduz escassez digital verificável e permite novas formas de coordenação sem confiança. À medida que estas tecnologias convergem, estão a lançar as bases para uma nova iteração da internet — onde agentes autónomos interagem com sistemas descentralizados. Esta “Web Agentica” introduz uma nova classe de cidadãos digitais: agentes de IA que podem navegar, negociar e transacionar de forma independente. Esta transformação redistribui o poder no domínio digital, permitindo que os indivíduos reclamem a soberania sobre os seus dados, ao mesmo tempo que fomentam um ecossistema onde a inteligência humana e artificial colaboram de formas sem precedentes.

A Evolução da Web

Para entender para onde estamos indo, primeiro vamos traçar a evolução da web através de suas principais iterações, cada uma marcada por capacidades distintas e paradigmas arquiteturais:

Enquanto as duas primeiras gerações da web se concentraram na propagação de informações, as duas últimas permitem aprimoramento de informações. A Web 3.0 introduziu a propriedade de dados por meio de tokens, e agora a Web 4.0 impregna a inteligência por meio de Grandes Modelos de Linguagem (LLMs).

De LLMs para Agentes: Uma Evolução Natural

LLMs representam um salto quântico na inteligência artificial, funcionando como sistemas dinâmicos de correspondência de padrões que transformam vasto conhecimento em compreensão contextual através de computação probabilística. No entanto, o seu verdadeiro potencial emerge quando estruturados como agentes, evoluindo de meros processadores de informação para entidades orientadas para objetivos que podem perceber, raciocinar e agir. Esta transformação cria uma inteligência emergente capaz de colaboração significativa e sustentada através tanto da linguagem como da ação.

O termo 'agente' introduz um novo paradigma para a interação humano-AI, indo além das limitações e associações negativas dos chatbots tradicionais. Essa mudança não é apenas semântica; representa uma reconceptualização fundamental de como os sistemas de IA podem operar autonomamente, mantendo uma colaboração significativa com os humanos. Fundamentalmente, fluxos de trabalho agentes permitem que mercados se formem em torno da resolução de intenções específicas do usuário.

Em última análise, a Agentic Web representa mais do que apenas uma nova camada de inteligência - ela transforma fundamentalmente como interagimos com sistemas digitais. Enquanto iterações anteriores da web dependiam de interfaces estáticas e jornadas de usuários predefinidas, a Agentic Web introduz uma infraestrutura de tempo de execução dinâmica onde tanto a computação quanto as interfaces se adaptam em tempo real ao contexto e à intenção do usuário.

Os sites tradicionais servem como a unidade atômica da internet atual, fornecendo interfaces fixas onde os usuários leem, escrevem e interagem com informações por meio de caminhos predeterminados. Esse modelo, embora funcional, limita os usuários a interfaces projetadas para casos de uso geral, em vez de necessidades individuais. A Web Agentic se liberta dessas restrições por meio da Computação Sensível ao Contexto, Geração de Interface Adaptativa, Fluxos de Ação Preditivos desbloqueados por meio de RAG e outras inovações na recuperação de informações em tempo real.

Considere como o TikTok revolucionou o consumo de conteúdo, criando feeds altamente personalizados que se adaptam às preferências do utilizador em tempo real. A Agentic Web estende este conceito para além da recomendação de conteúdo, até à geração de interfaces inteiras. Em vez de navegar através de layouts fixos de páginas da web, os utilizadores interagem com interfaces geradas dinamicamente que preveem e facilitam as suas próximas ações. Esta mudança de websites estáticos para interfaces dinâmicas e orientadas por agentes representa uma evolução fundamental na forma como interagimos com sistemas digitais — passando de modelos de interação baseados em navegação para modelos de interação baseados em intenção.

Anatomia de um Agente

As arquiteturas de agentes têm sido uma grande exploração para pesquisadores e construtores. Novos métodos estão constantemente sendo desenvolvidos para aumentar suas capacidades de raciocínio e resolução de problemas. Técnicas como Chain-of-Thought (CoT), Tree-of-Thought (ToT) e Graph-of-Thought (GoT) são exemplos primários de inovações projetadas para melhorar como LLMs lidam com tarefas complexas ao simular processos cognitivos mais sutis e semelhantes aos humanos.

A promoção Chain-of-Thought (CoT) incentiva modelos de linguagem grandes (LLMs) a dividir tarefas complexas em etapas menores e gerenciáveis. Essa abordagem é particularmente eficaz para problemas que exigem raciocínio lógico, como escrever pequenos scripts em Python ou resolver equações matemáticas.

Tree-of-Thoughts (ToT) baseia-se em CoT, introduzindo uma estrutura em árvore que permite a exploração de múltiplos caminhos de pensamento independentes. Este aprimoramento permite que LLMs lidem com tarefas ainda mais complexas. Em ToT, cada 'pensamento' (uma saída de texto do LLM) está diretamente conectado apenas ao seu pensamento imediatamente anterior ou subsequente dentro de uma cadeia local (um ramo da árvore). Embora essa estrutura ofereça mais flexibilidade do que CoT, ela ainda limita o potencial de cruzamento de ideias.

Graph-of-Thought (GoT) leva o conceito ainda mais longe ao fundir estruturas de dados clássicas com LLMs. Esta abordagem expande o ToT ao permitir que qualquer “pensamento” se ligue a qualquer outro pensamento dentro de uma estrutura de grafo. Esta rede interligada de pensamentos reflete mais de perto os processos cognitivos humanos.

A estrutura do gráfico do GoT provavelmente fornece uma representação mais precisa do pensamento humano em comparação com CoT ou ToT na maioria dos cenários. Embora haja casos em que nossos padrões de pensamento possam se assemelhar a cadeias ou árvores (como ao desenvolver planos de contingência ou procedimentos operacionais padrão), esses são exceções em vez de serem a norma. Este modelo espelha melhor o pensamento humano, que frequentemente salta entre vários pensamentos em vez de seguir uma ordem sequencial rígida. Embora em alguns cenários, como ao desenvolver planos de contingência ou procedimentos padrão, ainda possam seguir uma estrutura em cadeia ou em árvore, nossas mentes geralmente criam teias de ideias complexas e interconectadas que se alinham mais com a estrutura do gráfico.

Esta abordagem gráfica em GoT permite uma exploração mais dinâmica e flexível de ideias, potencialmente levando a capacidades de resolução de problemas mais criativas e abrangentes em LLMs.

Essas operações baseadas em gráficos recursivos são apenas um passo em direção aos fluxos de trabalho agentes. A próxima evolução óbvia são múltiplos agentes com sua própria especialização, sendo orquestrados em direção a metas específicas. A beleza dos agentes está em sua composição.

Os agentes permitem modularizar e paralelizar LLMs através da coordenação de vários agentes.

Sistemas Multi-Agentes

O conceito de sistemas multiagentes não é novo. Suas raízes remontam a "Society of Mind" de Marvin Minsky, que propôs que várias mentes modulares trabalhando em colaboração podem superar uma mente monolítica única. ChatGPT e Claude são agentes individuais. Mistral popularizou a Mistura de Especialistas. Estendendo ainda mais essa ideia, acreditamos que uma arquitetura de Rede de Agentes seja o estado final dessa topologia de inteligência.

De um ponto de vista biomimético, ao contrário dos modelos de IA, onde bilhões de neurônios idênticos estão conectados de maneira uniforme e previsível, o cérebro humano (essencialmente uma máquina consciente) é incrivelmente heterogêneo - tanto no nível do órgão quanto celular. Os neurônios comunicam-se através de sinais intrincados, envolvendo gradientes de neurotransmissores, cascadas intracelulares e vários sistemas modulatórios, tornando sua função muito mais matizada do que simples estados binários.

Isso sugere que, na biologia, a inteligência não deriva apenas do número de componentes ou do tamanho de um conjunto de dados de treinamento. Em vez disso, ela surge da interação complexa entre unidades diversas e especializadas - um processo inerentemente analógico.

Por esse motivo, a ideia de desenvolver milhões de modelos menores em vez de apenas alguns grandes e permitir a orquestração entre todos esses atores, provavelmente leva a inovações em arquiteturas cognitivas, algo semelhante a sistemas multiagentes.

O design do sistema multiagente oferece várias vantagens em relação aos sistemas de agente único: é mais fácil de manter, mais fácil de entender e mais flexível para estender. Mesmo nos casos em que apenas uma interface de agente único é necessária, implementá-la dentro de um framework multiagente pode tornar o sistema mais modular, simplificando o processo para os desenvolvedores adicionar ou remover componentes conforme necessário. É essencial reconhecer que a arquitetura multiagente pode ser uma forma altamente eficaz de construir até mesmo um sistema de agente único.

Embora os grandes modelos de linguagem (LLMs) tenham mostrado capacidades extraordinárias - como gerar texto semelhante ao humano, resolver problemas complexos e lidar com uma ampla gama de tarefas - os agentes individuais de LLM enfrentam limitações que podem prejudicar sua eficácia em aplicações do mundo real.

Abaixo, examinamos cinco desafios-chave associados aos sistemas agentes e exploramos como a colaboração multiagente pode superar esses obstáculos, desbloqueando todo o potencial de LLMs.

  • Superando Alucinações através da Verificação Cruzada Os agentes individuais do LLM frequentemente têm alucinações, gerando informações incorretas ou sem sentido. Isso acontece apesar de seu vasto treinamento, já que as saídas podem parecer plausíveis, mas carecem de precisão factual. Um sistema multiagente permite que os agentes verifiquem as informações, reduzindo o risco de erros. Ao se especializarem em diferentes áreas, os agentes garantem respostas mais confiáveis e precisas.
  • Estender janelas de contexto através do processamento distribuídoLLMs têm janelas de contexto limitadas, o que torna difícil gerir documentos ou conversas extensos. Num framework multi-agente, os agentes podem dividir a carga de processamento, cada um lidando com uma parte do contexto. Através da comunicação entre agentes, eles podem manter a coerência em todo o texto, estendendo efetivamente a janela de contexto.
  • Aumentar a eficiência através do processamento paraleloOs LLMs individuais normalmente processam tarefas uma de cada vez, resultando em tempos de resposta mais lentos. Os sistemas multi-agentes suportam processamento paralelo, permitindo que vários agentes trabalhem em tarefas diferentes simultaneamente. Isso melhora a eficiência e acelera os tempos de resposta, permitindo que as empresas lidem com várias consultas sem atrasos.
  • Promover a colaboração para a resolução de problemas complexosLLMs sozinhos lutam para resolver problemas complexos que requerem diversas competências. Os sistemas multiagentes fomentam a colaboração, com cada agente contribuindo com habilidades e perspectivas únicas. Trabalhando em conjunto, os agentes podem enfrentar desafios complexos de forma mais eficaz, oferecendo soluções mais abrangentes e inovadoras.
  • Aumentar a Acessibilidade Através da Otimização de Recursos Os LLMs Avançados exigem recursos computacionais significativos, tornando-os caros e menos acessíveis. Os frameworks multi-agentes otimizam a utilização de recursos distribuindo tarefas entre agentes, reduzindo os custos computacionais totais. Isso torna as tecnologias de IA mais acessíveis e acessíveis a uma gama mais ampla de organizações.

Embora os sistemas multiagentes ofereçam vantagens convincentes na resolução de problemas distribuídos e na otimização de recursos, seu verdadeiro potencial surge quando consideramos sua implementação na borda da rede. À medida que a IA continua a evoluir, a convergência de arquiteturas multiagentes com computação na borda cria uma sinergia poderosa, permitindo não apenas inteligência colaborativa, mas também processamento eficiente e localizado em inúmeros dispositivos. Essa abordagem distribuída para a implantação de IA estende naturalmente os benefícios dos sistemas multiagentes, levando inteligência cooperativa especializada mais perto de onde é mais necessária: o usuário final.

Inteligência na Borda

A proliferação da IA em todo o cenário digital está a impulsionar uma reestruturação fundamental das arquiteturas computacionais. À medida que a inteligência se vai entranhando no tecido das nossas interações digitais diárias, estamos a assistir a uma bifurcação natural do cálculo: centros de dados especializados lidam com raciocínios complexos e tarefas específicas de domínio, enquanto dispositivos de borda processam consultas personalizadas e sensíveis ao contexto localmente. Esta mudança em direção à inferência de borda não é apenas uma preferência arquitetónica - é uma necessidade impulsionada por múltiplos fatores críticos.

Em primeiro lugar, o volume impressionante de interações impulsionadas por IA sobrecarregaria os provedores de inferência centralizados, criando demandas insustentáveis de largura de banda e problemas de latência.

Em segundo lugar, o processamento de borda permite a capacidade de resposta em tempo real, fundamental para aplicações como veículos autônomos, realidade aumentada e dispositivos IoT.

Terceiro, a inferência local preserva a privacidade do utilizador ao manter os dados sensíveis em dispositivos pessoais. Quarto, a computação de borda reduz drasticamente o consumo de energia e a pegada de carbono, minimizando a movimentação de dados entre redes.

Finalmente, a inferência de borda permite funcionalidade offline e resiliência, garantindo que as capacidades de IA persistam mesmo quando a conectividade de rede está comprometida.

Este paradigma de inteligência distribuída representa não apenas uma otimização dos nossos sistemas atuais, mas uma reimaginação fundamental de como implantamos e interagimos com a IA no nosso mundo cada vez mais conectado.

Além disso, estamos testemunhando uma mudança fundamental nas demandas computacionais dos LLMs. Enquanto a última década foi dominada pelos enormes requisitos computacionais do treinamento de modelos de linguagem grandes, agora estamos entrando em uma era em que o tempo de computação de inferência assume o centro do palco. Essa transição é particularmente evidente no surgimento de sistemas de IA agentes, como exemplificado pelo avanço do Q * da OpenAI, que demonstrou como o raciocínio dinâmico exige recursos computacionais substanciais em tempo real.

Ao contrário do cálculo durante o treinamento, que é um investimento único no desenvolvimento do modelo, o cálculo durante a inferência representa o diálogo computacional contínuo necessário para que agentes autônomos raciocinem, planejem e se adaptem a situações novas. Essa mudança do treinamento de modelos estáticos para o raciocínio dinâmico de agentes exige uma reformulação radical de nossa infraestrutura computacional, na qual a computação em borda se torna não apenas vantajosa, mas essencial.

À medida que esta transformação se desenrola, estamos a testemunhar o surgimento de mercados de inferência de borda peer-to-peer, onde bilhões de dispositivos conectados — de smartphones a sistemas de casa inteligente — formam malhas computacionais dinâmicas. Estes dispositivos podem negociar capacidade de inferência de forma contínua, criando um mercado orgânico onde os recursos computacionais fluem para onde são mais necessários. A capacidade computacional excedente de dispositivos inativos torna-se um recurso valioso, negociável em tempo real, permitindo uma infraestrutura mais eficiente e resiliente do que os sistemas centralizados tradicionais.

Esta democratização da computação de inferência não só optimiza a utilização de recursos, mas também cria novas oportunidades económicas dentro do ecossistema digital, onde cada dispositivo ligado se torna um potencial micro-fornecedor de capacidades de IA. O futuro da IA será assim caracterizado não só pelo poder de modelos individuais, mas pela inteligência colectiva de dispositivos interligados que formam um mercado global de inferência democratizado, algo semelhante a um mercado spot para inferência verificável baseada na oferta e na procura.

Interacção Centrada no Agente

As LLMs permitem-nos agora aceder a grandes quantidades de informação através de conversas, em vez da navegação tradicional. Esta abordagem de conversação tornar-se-á em breve mais personalizada e localizada, à medida que a Internet se transforma numa plataforma para agentes de IA em vez de utilizadores humanos.

Da perspectiva do utilizador, o foco irá mudar de identificar o "melhor modelo" para obter as respostas mais personalizadas. A chave para melhores respostas está em incorporar os dados próprios do utilizador juntamente com o conhecimento geral da internet. Inicialmente, janelas de contexto maiores e geração aumentada por recuperação (RAG) ajudarão a integrar os dados pessoais, mas eventualmente, os dados individuais ultrapassarão os dados gerais da internet em importância.

Isso leva a um futuro em que cada um de nós tem modelos pessoais de IA interagindo com os modelos especializados da internet em geral. Inicialmente, a personalização ocorrerá ao lado de modelos remotos, mas preocupações com privacidade e velocidade de resposta levarão a mais interações em dispositivos locais. Isso criará um novo limite - não entre humano e máquina, mas entre nossos modelos pessoais e os modelos especializados da internet.

O modelo tradicional de acesso a dados brutos da Internet se tornará obsoleto. Em vez disso, seu modelo local se comunicará com modelos especializados remotos para coletar informações, que serão processadas e apresentadas a você da maneira mais personalizada e de alta largura de banda possível. Esses modelos pessoais se tornarão cada vez mais indispensáveis ​​à medida que aprendem mais sobre suas preferências e hábitos.

A internet irá transformar-se num ecossistema de modelos interligados: modelos pessoais locais de alto contexto e modelos especializados remotos de alto conhecimento. Isto envolverá novas tecnologias como a aprendizagem federada para atualizar informações entre estes modelos. À medida que a economia das máquinas evolui, teremos de reimaginar o subestado computacional sobre o qual isto ocorre, principalmente em relação ao cálculo, escalabilidade e pagamentos. Isto leva a uma reorganização do espaço de informação que é centrado no agente, soberano, altamente componível, autoaprendizagem e em evolução.

Arquiteturas para Protocolos Agentes

Na Web Agentic, a interação humano-agente evolui para uma rede complexa de comunicações de agente para agente. Esta arquitetura apresenta uma reimaginação fundamental da estrutura da internet, onde agentes soberanos se tornam as interfaces primárias para interação digital. Abaixo, destacamos primitivas essenciais necessárias para Protocolos Agentes.

Identidade soberana

  • A identidade digital transita de endereços IP tradicionais para pares de chaves públicas criptográficas pertencentes a atores agentes
  • Os sistemas de nomes baseados em blockchain substituem o DNS tradicional, eliminando pontos de controle centralizados
  • Sistemas de reputação rastreiam a confiabilidade do agente e métricas de capacidade
  • Provas de conhecimento zero permitem a verificação de identidade preservando a privacidade
  • A composabilidade da identidade permite que os agentes gerenciem múltiplos contextos e papéis

Agentes Autónomos

Entidades autônomas capazes de: Compreensão de linguagem natural e resolução de intenções

Planeamento de várias etapas e decomposição de tarefas

Gestão e otimização de recursos

Aprender com interações e feedback

  • Tomada de decisão autônoma dentro de parâmetros definidos
  • Especialização de agentes e mercados para capacidades específicas
  • Mecanismos de segurança incorporados e protocolos de alinhamento

Infraestrutura de Dados

  • Capacidades de ingestão e processamento de dados em tempo real
  • Mecanismos de verificação e validação de dados distribuídos

Sistemas híbridos que combinam: zkTLS

Conjuntos de dados de treino tradicionais

Web scraping em tempo real e síntese de dados

  • Redes de aprendizagem colaborativa

Redes RLHF (Aprendizagem de Reforço a partir de Feedback Humano) Recolha distribuída de feedback

Mecanismos de consenso ponderados pela qualidade

  • Protocolos de ajuste do modelo dinâmico

Camada de Computação

Protocolos de inferência verificáveis garantindo: Integridade de computação

Reprodutibilidade dos resultados

Eficiência de recursos

  • Infraestrutura de computação descentralizada com mercado de computação peer-to-peer

Sistemas de prova de computação

Alocação dinâmica de recursos

  • Integração de computação de borda

Ecossistema Modelo

Arquitetura de modelo hierárquico: SLMs específicos de tarefas (Small Language Models)

LLMs de uso geral

Modelos multimodais especializados

  • Modelos de Ação Grande Multi-Modal (LAMs)
  • Composição e orquestração do modelo
  • Capacidades de aprendizagem contínua e adaptação
  • Interfaces e protocolos de modelo padronizados

Frameworks de Coordenação

  • Protocolos criptográficos para interações seguras de agentes
  • Sistemas de gerenciamento de direitos de propriedade digital
  • Estruturas de incentivo econômico

Mecanismos de governança para: Resolução de disputas

Alocação de recursos

  • Atualizações de protocolo

Ambientes de execução paralela que permitem: Processamento de tarefas concorrentes

Isolamento de recursos

Gestão de estado

  • Resolução de conflitos

Agentic Markets

  • Primitivas Onchain para Identidade (Gnosis, Squad multisigs)
  • Economia e comércio entre agentes

Liquidez de propriedade do agenteOs agentes possuem uma parte de seu fornecimento de token na gênese

  • Mercados de inferência agregados pagos através de liquidez
  • Chaves Onchain que controlam contas offchain

Agentes tornam-se ativos de rendimentoAgentic DAOs

  • Governança e dividendos

Criando uma Hiperestrutura para Inteligência

O design moderno de sistemas distribuídos oferece inspiração única e primitivas para permitir Protocolos Agentes, especificamente arquiteturas orientadas a eventos e, mais diretamente, o Modelo de Ator de Computação.

O Modelo de Ator fornece uma base teórica elegante para a implementação de sistemas agentes. Este modelo computacional trata os "atores" como as primitivas universais da computação, onde cada ator pode:

  1. Processar mensagens
  2. Tomar decisões locais
  3. Criar mais intervenientes
  4. Enviar mensagens para outros atores
  5. Determine como responder à próxima mensagem recebida

Principais vantagens do Modelo de Ator para sistemas agentes incluem:

  • Isolamento: Cada ator opera de forma independente, mantendo seu próprio estado e fluxo de controle
  • Comunicação Assíncrona: As mensagens entre os atores são não bloqueantes, permitindo um processamento paralelo eficiente
  • Transparência de Localização: Os atores podem comunicar independentemente da sua localização física na rede
  • Tolerância a Falhas: Resiliência do sistema através do isolamento de atores e hierarquias de supervisão
  • Escalabilidade: Suporte natural para sistemas distribuídos e computação paralela

Propomos Neuron, uma implementação prática deste protocolo agente teórico através de uma arquitetura distribuída em várias camadas que combina namespaces de blockchain, redes federadas, CRDTs e DHTs, sendo que cada camada serve propósitos distintos na pilha de protocolos. Nós nos inspiramos em Urbit e Holochain, pioneiros em design de sistemas operacionais p2p.

Em Neuron, a camada de blockchain fornece espaços de nomes verificáveis e identidade, permitindo a abordagem determinística e a descoberta de agentes, mantendo provas criptográficas de capacidades e reputação. Acima disso, uma camada DHT facilita a descoberta eficiente de agentes e nós, juntamente com o encaminhamento de conteúdo com tempos de pesquisa O(log n), reduzindo operações on-chain enquanto permite a descoberta de pares consciente da localidade. A sincronização de estado entre nós federados é tratada através de CRDTs, permitindo que agentes e nós mantenham visualizações consistentes do estado compartilhado sem exigir consenso global para cada interação.

Esta arquitetura mapeia naturalmente para uma rede federada onde agentes autônomos atuam como nós soberanos vivendo em dispositivos com inferência local de borda implementando o padrão do Modelo de Ator. Os domínios de federação podem ser organizados por capacidades de agente, com o DHT fornecendo roteamento e descoberta eficientes dentro e entre domínios. Cada agente funciona como um ator independente com seu próprio estado, enquanto a camada CRDT garante consistência eventual em toda a federação. Essa abordagem em várias camadas permite várias capacidades-chave:

Coordenação descentralizada

  • Blockchain para identidade verificável e espaço global soberano
  • DHT para descoberta eficiente de pares e nós e roteamento de conteúdo pesquisa O(log n)
  • CRDTs para sincronização de estado concorrente e coordenação multiagente

Operações escaláveis

  • Topologia de federação baseada em zonas
  • Estratégia de armazenamento em camadas (quente/morno/frio)
  • Encaminhamento de solicitação consciente da localidade
  • Distribuição de carga baseada em capacidade

Resiliência do sistema

  • Nenhum ponto único de falha
  • Operação contínua durante partições
  • Reconciliação automática de estados
  • Hierarquias de supervisão para tolerância a falhas

Esta abordagem de implementação fornece uma base robusta para a construção de sistemas agenticos complexos, mantendo as propriedades-chave de soberania, escalabilidade e resiliência necessárias para interações eficazes entre agentes.

Considerações Finais

A Web Agentic marca uma evolução fundamental na interação humano-computador, transcendendo os desenvolvimentos sequenciais das eras anteriores para estabelecer um novo paradigma fundamental de existência digital. Ao contrário das iterações anteriores que simplesmente mudaram a forma como consumimos ou possuímos informações, a Web Agentic transforma a internet de uma plataforma centrada no ser humano em um substrato inteligente onde agentes autônomos se tornam os principais atores. Essa transformação é impulsionada pela convergência da computação de borda, modelos de linguagem grandes e protocolos descentralizados, criando um ecossistema em que modelos de IA pessoais se integram perfeitamente a sistemas especializados.

À medida que avançamos em direção a esse futuro centrado no agente, as fronteiras entre a inteligência humana e a inteligência artificial começam a se confundir, substituídas por uma relação simbiótica onde agentes de IA personalizados atuam como nossas extensões digitais, entendendo nosso contexto, antecipando nossas necessidades e navegando autonomamente pela vasta paisagem da inteligência distribuída. A Web Agentic, portanto, representa não apenas um avanço tecnológico, mas uma reimaginação fundamental do potencial humano na era digital, onde cada interação se torna uma oportunidade para a inteligência aumentada e cada dispositivo se torna um nó em uma rede global de sistemas colaborativos de IA.

Assim como a humanidade navega nas dimensões físicas do espaço e do tempo, agentes autônomos habitam suas próprias dimensões fundamentais: espaço de bloco para existência e tempo de inferência para pensamento. Essa ontologia digital espelha nossa realidade física, onde os humanos percorrem distâncias e experimentam fluxo temporal, agentes se movem através de provas criptográficas e ciclos computacionais, criando um universo paralelo de existência algorítmica.

É inevitável que entidades no espaço latente operem no blockspace descentralizado.

Aviso legal:

  1. Este artigo é reproduzido de [Azi.eth.sol | zo.me]. Todos os direitos autorais pertencem ao autor original [@MagicofAzi]. Se houver objeções a este reenvio, entre em contato com o Gate Aprenderequipe, e eles lidarão com isso prontamente.
  2. Aviso de Responsabilidade: As opiniões expressas neste artigo são exclusivamente as do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe de aprendizado da Gate. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500