Веб 4.0: Агентный веб

Средний11/19/2024, 5:38:39 AM
Эта статья рассматривает, как искусственный интеллект (ИИ) и технология блокчейн объединяются для того, чтобы стимулировать развитие следующего поколения интернета, известного как «Agentic Web». В ней рассматривается эволюция интернета, а также подробно обсуждаются концепция, компоненты и архитектура агентов, а также то, как они изменяют способ взаимодействия людей с машинами и цифровыми системами.

Искусственный интеллект и технология блокчейн представляют собой две преобразующие силы, меняющие наш мир. Искусственный интеллект расширяет когнитивные способности человека с помощью машинного обучения и нейронных сетей, в то время как технология блокчейн создает поддающийся проверке цифровой дефицит и обеспечивает новые формы координации, не требующей доверия. По мере того, как эти технологии сближаются, они закладывают основу для новой итерации Интернета, в которой автономные агенты взаимодействуют с децентрализованными системами. Эта «агентская паутина» представляет новый класс цифровых граждан: агентов с искусственным интеллектом, которые могут самостоятельно перемещаться, вести переговоры и совершать транзакции. Эта трансформация перераспределяет власть в цифровой сфере, позволяя людям восстановить суверенитет над своими данными, одновременно способствуя созданию экосистемы, в которой человек и искусственный интеллект сотрудничают беспрецедентными способами.

Эволюция веб-сайтов

Чтобы понять, куда мы движемся, давайте сначала проследим эволюцию веб-сайта через его основные итерации, каждая из которых отмечена отдельными возможностями и архитектурными парадигмами:

В то время как первые два поколения сети были сосредоточены на распространении информации, последние два позволяют улучшать информацию. Веб 3.0 ввел владение данными через токены, а теперь Веб 4.0 наделяет интеллектом благодаря крупным языковым моделям (КЯМ).

От LLM до агентов: естественная эволюция

LLMs представляют собой качественный скачок в интеллекте машин, функционируя как динамические системы сопоставления шаблонов, которые превращают обширные знания в контекстуальное понимание с помощью вероятностных вычислений. Однако их истинный потенциал проявляется, когда они структурированные в виде агентов - превращаясь из чистых информационных процессоров в целенаправленные сущности, способные воспринимать, рассуждать и действовать. Эта трансформация создает возникающий интеллект, способный к устойчивому и значимому сотрудничеству как на языке, так и в действиях.

Термин «агент» представляет собой новую парадигму взаимодействия человека с ИИ, выходя за рамки ограничений и негативных ассоциаций традиционных чат-ботов. Этот сдвиг не просто семантический; он представляет собой фундаментальное переосмысление того, как ИИ-системы могут работать автономно, поддерживая смысловое взаимодействие с людьми. Фундаментально агентские рабочие процессы позволяют формировать рынки вокруг решения конкретных потребностей пользователей.

В конечном итоге, Агентическая веб-представляет собой не только новый уровень интеллекта - она фундаментально преобразует то, как мы взаимодействуем с цифровыми системами. В то время как предыдущие версии веба полагались на статические интерфейсы и заранее определенные пользовательские пути, Агентическая веб-представляет собой динамическую инфраструктуру времени выполнения, где и вычисления, и интерфейсы адаптируются в режиме реального времени к контексту и намерениям пользователя.

Традиционные веб-сайты служат атомарной единицей современного Интернета, предоставляя фиксированные интерфейсы, через которые пользователи читают, пишут и взаимодействуют с информацией по заранее определенным путям. Эта модель, несмотря на свою функциональность, ограничивает пользователей интерфейсами, предназначенными для общих сценариев использования, а не для индивидуальных потребностей. Agentic Web освобождается от этих ограничений благодаря контекстно-зависимым вычислениям, генерации адаптивного интерфейса, предиктивным потокам действий, разблокированным с помощью RAG и другим инновациям в области поиска информации в режиме реального времени.

Рассмотрим, как TikTok произвел революцию в потреблении контента, создав персонализированные ленты, которые адаптируются к предпочтениям пользователей в режиме реального времени. Agentic Web распространяет эту концепцию не только на рекомендации по контенту, но и на всю генерацию интерфейса. Вместо того, чтобы перемещаться по фиксированным макетам веб-страниц, пользователи взаимодействуют с динамически генерируемыми интерфейсами, которые предсказывают и облегчают их следующие действия. Этот переход от статичных веб-сайтов к динамическим, управляемым агентами интерфейсам представляет собой фундаментальную эволюцию в том, как мы взаимодействуем с цифровыми системами, переходя от моделей, основанных на навигации, к моделям, основанным на намерениях.

Анатомия агента

Агентные архитектуры стали огромным полем исследований для исследователей и строителей. Непрерывно разрабатываются новые методы для улучшения их рассуждений и способностей к решению проблем. Техники, такие как Chain-of-Thought (CoT), Tree-of-Thought (ToT) и Graph-of-Thought (GoT), являются яркими примерами инноваций, направленных на улучшение способности LLMs справляться с сложными задачами путем имитации более тонких, похожих на человеческие когнитивные процессы.

Побуждение Chain-of-Thought (CoT) побуждает большие языковые модели (LLM) разбивать сложные задачи на более мелкие, управляемые шаги. Этот подход особенно эффективен для проблем, требующих логического мышления, таких как написание коротких скриптов на Python или решение математических уравнений.

Tree-of-Thoughts (ToT) основывается на CoT, вводя древовидную структуру, которая позволяет исследовать несколько независимых путей мысли. Это усовершенствование позволяет LLM решать еще более сложные задачи. В ToT каждая «мысль» (текстовый вывод от LLM) прямо связана только с предыдущей или последующей мыслью внутри локальной цепочки (ветви дерева). Хотя эта структура предлагает больше гибкости, чем CoT, она по-прежнему ограничивает потенциал для кросс-опыления идей.

Граф мысли (GoT) углубляет концепцию, сливая классические структуры данных с LLMs. Этот подход расширяет ToT, позволяя любой «мысли» связываться с любой другой мыслью в графовой структуре. Эта взаимосвязанная сеть мыслей более точно отражает когнитивные процессы человека.

Графовая структура GoT, вероятно, обеспечивает более точное представление человеческого мышления по сравнению с CoT или ToT в большинстве сценариев. Хотя бывают случаи, когда наши модели мышления могут напоминать цепочки или деревья (например, при разработке планов на случай непредвиденных обстоятельств или стандартных операционных процедур), это скорее исключения, чем норма. Эта модель лучше отражает человеческое мышление, которое часто перескакивает с одной мысли на другую, а не следует строгому последовательному порядку. В то время как некоторые сценарии, такие как разработка планов на случай непредвиденных обстоятельств или стандартных процедур, могут по-прежнему следовать цепной или древовидной структуре, наш мозг обычно создает сложные, взаимосвязанные сети идей, которые больше соответствуют графовой структуре.

Такой графоподобный подход в GoT позволяет более динамичное и гибкое исследование идей, что потенциально приводит к более творческим и всесторонним возможностям решения проблем в LLMs.

Эти рекурсивные операции на основе графа - только шаг к агентным рабочим процессам. Очевидное следующее развитие - множество агентов со своей собственной специализацией, оркестрируемых к определенным целям. Красота агентов заключается в их композиции.

Агенты позволяют модулировать и параллелизировать LLM через координацию множества агентов.

Системы множественных агентов

Концепция мультиагентных систем не нова. Её корни уходят к "Обществу разума" Марвина Мински, который предложил, что несколько модульных умов, работающих в сотрудничестве, могут превзойти один монолитный ум. ChatGPT и Claude - одиночные агенты. Mistral популяризировал Микс из Экспертов. Расширяя эту идею дальше, мы считаем, что архитектура Сети Агентов будет конечным состоянием этой топологии интеллекта.

С точки зрения биомимикрии, в отличие от моделей искусственного интеллекта, где миллиарды идентичных нейронов соединены равномерным и предсказуемым образом, человеческий мозг (фактически, сознательная машина) является невероятно гетерогенным - как на уровне органов, так и на клеточном уровне. Нейроны общаются с помощью сложных сигналов, включающих градиенты нейромедиаторов, внутриклеточные каскады и различные модуляторные системы, что делает их функцию намного более тонкой, чем простые двоичные состояния.

Это указывает на то, что в биологии интеллект не происходит только от большого количества компонентов или размера набора данных для обучения. Скорее, он возникает из сложного взаимодействия между разнообразными специализированными элементами - внутренне аналоговый процесс.

По этой причине идея развития миллионов более мелких моделей вместо нескольких крупных и обеспечения оркестрации между всеми этими действующими лицами, скорее всего, приводит к инновациям в когнитивной архитектуре, что-то вроде многопользовательских систем.

Проектирование многоАгентной системы предлагает несколько преимуществ по сравнению с одноагентными системами: она более поддерживаема, легче понять и более гибкая для расширения. Даже в случаях, когда нужен только интерфейс одного агента, реализация его в рамках многоАгентного фреймворка может сделать систему более модульной, упрощая процесс добавления или удаления компонентов по мере необходимости. Важно понимать, что многоАгентная архитектура может быть очень эффективным способом построения даже одноагентной системы.

Хотя большие языковые модели (LLM) показали впечатляющие возможности, такие как генерация текста, решение сложных задач и выполнение широкого спектра задач, отдельные агенты LLM сталкиваются с ограничениями, которые могут снизить их эффективность в реальных приложениях.

Ниже мы рассмотрим пять ключевых проблем, связанных с агентными системами, и исследуем, как многоагентное сотрудничество может преодолеть эти препятствия, разблокируя полный потенциал LLMs.

  • Преодоление галлюцинаций через кросс-проверку. Отдельные агенты LLM часто галлюцинируют, генерируя неверную или бессмысленную информацию. Это происходит несмотря на их обширную подготовку, поскольку результаты могут казаться правдоподобными, но не иметь фактической точности. Многоагентная система позволяет агентам кросс-проверять информацию, уменьшая риск ошибок. Специализируясь в различных областях, агенты обеспечивают более надежные и точные ответы.
  • Расширение контекстного окна через распределенную обработку. У LLM ограниченные контекстные окна, что затрудняет управление длинными документами или диалогами. В многоагентной среде агенты могут разделить нагрузку на обработку, каждый обрабатывая свою часть контекста. Благодаря взаимодействию между агентами они могут поддерживать связность по всему тексту, эффективно расширяя контекстное окно.
  • Повышение эффективности через параллельную обработку. Обычно отдельные LLM обрабатывают задачи поочередно, что приводит к более медленным временам ответа. Многоагентные системы поддерживают параллельную обработку, позволяя нескольким агентам работать одновременно над различными задачами. Это повышает эффективность и ускоряет время ответа, позволяя бизнесу обрабатывать несколько запросов без задержек.
  • Содействие сотрудничеству для решения сложных проблемLLM в одиночку борются с решением сложных проблем, требующих разнообразной экспертизы. Многопользовательские системы способствуют сотрудничеству, причем каждый агент вносит свои уникальные навыки и точки зрения. Работая вместе, агенты могут более эффективно справляться с сложными вызовами, предлагая более всесторонние и инновационные решения.
  • Повышение доступности путем оптимизации ресурсовРасширенные LLM требуют значительных вычислительных ресурсов, что делает их дорогими и менее доступными. Многоагентные фреймворки оптимизируют использование ресурсов путем распределения задач между агентами, снижая общие вычислительные затраты. Это делает технологии искусственного интеллекта более доступными и доступными для широкого круга организаций.

В то время как многоагентные системы предлагают убедительные преимущества в распределенном решении проблем и оптимизации ресурсов, их истинный потенциал проявляется, когда мы рассматриваем их реализацию на краю сети. В то время как ИИ продолжает развиваться, слияние многоагентных архитектур с рассчетами на краю создает мощное сотрудничество, позволяющее не только коллективный интеллект, но и локализованную, эффективную обработку на бесчисленных устройствах. Этот распределенный подход к развертыванию ИИ естественным образом расширяет преимущества многоагентных систем, принося специализированный, кооперативный интеллект ближе к тому месту, где он наиболее нужен: конечному пользователю.

Интеллект на краю

Распространение искусственного интеллекта по цифровому ландшафту приводит к фундаментальной реструктуризации вычислительных архитектур. Поскольку интеллект становится неотъемлемой частью нашего повседневного цифрового взаимодействия, мы наблюдаем естественное разделение вычислений: специализированные центры обработки данных занимаются сложным рассуждением и задачами, специфичными для области, в то время как краевые устройства обрабатывают персонализированные, контекстно-чувствительные запросы локально. Этот сдвиг к краевому выводу не просто предпочтение в архитектуре - это необходимость, вызванная несколькими критическими факторами.

Во-первых, огромный объем взаимодействий, управляемых искусственным интеллектом, перегрузил бы централизованных поставщиков выводов, создавая неустойчивые требования к пропускной способности и проблемы задержки.

Во-вторых, обработка на грани позволяет обеспечить критическую реактивность в режиме реального времени, необходимую для приложений, таких как автономные транспортные средства, дополненная реальность и устройства Интернета вещей.

Третье, локальное логическое заключение сохраняет конфиденциальность пользователей, храня чувствительные данные на персональных устройствах. Четвертое, краевые вычисления значительно снижают энергопотребление и углеродный след путем минимизации передачи данных по сети.

Наконец, локальное выполнение вывода обеспечивает оффлайн-функциональность и устойчивость, обеспечивая сохранение возможностей искусственного интеллекта даже при нарушении сетевой связи.

Этот распределенный парадигма интеллекта представляет собой не только оптимизацию наших текущих систем, но и фундаментальную переосмысление того, как мы разворачиваем и взаимодействуем с искусственным интеллектом в нашем все более связанном мире.

Кроме того, мы наблюдаем фундаментальный сдвиг в вычислительных требованиях к LLM. В то время как последнее десятилетие было овладено огромными вычислительными требованиями для обучения больших языковых моделей, мы теперь вступаем в эру, где вычислительные ресурсы времени вывода занимают главную роль. Этот переход особенно заметен в появлении агентных систем искусственного интеллекта, как это продемонстрировал прорыв OpenAI с Q*, который показал, как динамическое рассуждение требует значительных вычислительных ресурсов в реальном времени.

В отличие от вычислений во время обучения, которые являются единовременными инвестициями в разработку модели, вычисления во время вывода представляют собой непрерывный вычислительный диалог, необходимый для автономных агентов для рассуждения, планирования и адаптации к новым ситуациям. Этот переход от статического обучения модели к динамическому рассуждению агента требует радикального переосмысления нашей вычислительной инфраструктуры — там, где вычисления на краю становятся не просто выгодными, но и необходимыми.

По мере развития этого преобразования мы наблюдаем появление рынков выводов на краю между узлами, где миллиарды подключенных устройств - от смартфонов до умных домашних систем - образуют динамические вычислительные сети. Эти устройства могут беспрепятственно торговать возможностями вывода, создавая органический рынок, где вычислительные ресурсы перетекают туда, где они наиболее нужны. Избыточная вычислительная мощность бездействующих устройств становится ценным ресурсом, торгуемым в реальном времени, обеспечивая более эффективную и устойчивую инфраструктуру по сравнению с традиционными централизованными системами.

Эта демократизация вычислений вывода оптимизирует не только использование ресурсов, но и создает новые экономические возможности в цифровой экосистеме, где каждое подключенное устройство становится потенциальным микропоставщиком возможностей искусственного интеллекта. Будущее искусственного интеллекта будет характеризоваться не только мощностью отдельных моделей, но и коллективным интеллектом взаимосвязанных краевых устройств, формирующих глобальный, демократизированный рынок выводов, что-то вроде рыночного спота для проверяемых выводов на основе спроса и предложения.

Взаимодействие с агентом

С помощью LLMs мы теперь можем получать доступ к огромным объемам информации через разговор, а не через традиционный поиск. Этот разговорный подход скоро станет более персонализированным и локализованным, поскольку интернет превращается в платформу для агентов искусственного интеллекта, а не для человеческих пользователей.

С точки зрения пользователя, акцент будет смещаться с определения «лучшей модели» на получение наиболее персонализированных ответов. Ключ к лучшим ответам заключается в интеграции персональных данных пользователя вместе с общими знаниями интернета. Начально, более широкие контекстные окна и retrieval-augmented generation (RAG) помогут интегрировать персональные данные, но в конечном итоге, индивидуальные данные превзойдут общие интернет-данные по важности.

Это приведет к будущему, когда у каждого из нас будет личная AI-модель, взаимодействующая с экспертными моделями Интернета. Изначально персонализация будет происходить наряду с удаленными моделями, но опасения по поводу конфиденциальности и скорости реакции будут толкать нас к большему взаимодействию на локальных устройствах. Это создаст новую границу - не между человеком и машиной, а между нашими личными моделями и экспертными моделями Интернета.

Традиционная Интернет-модель доступа к сырым данным устареет. Вместо этого ваша локальная модель будет взаимодействовать с удаленными экспертными моделями для сбора информации, которую она будет обрабатывать и представлять вам в наиболее персонализированном, высокопропускном режиме. Эти персональные модели станут все более незаменимыми, поскольку они узнают больше о ваших предпочтениях и привычках.

Интернет превратится в экосистему взаимосвязанных моделей: локальных, персональных моделей высокого контекста и удаленных экспертных моделей с высоким уровнем знаний. Это потребует новых технологий, таких как федеративное обучение, чтобы обновлять информацию между этими моделями. По мере развития машинной экономики нам придется переосмыслить вычислительный субстрат, на котором это происходит, в первую очередь в отношении вычислений, масштабируемости и платежей. Это приведет к реорганизации информационного пространства, которое является агенто-центричным, суверенным, высоко композиционным, самообучающимся и развивающимся.

Архитектуры для агентических протоколов

В агентической сети взаимодействие между человеком и агентом превращается в сложную сеть коммуникации агента-агент. Эта архитектура представляет собой фундаментальную переосмысление структуры интернета, где суверенные агенты становятся основными интерфейсами для цифрового взаимодействия. Ниже мы выделяем основные примитивы, необходимые для агентических протоколов.

Суверенная идентичность

  • Цифровая идентификация переходит от традиционных IP-адресов к криптографическим открытым ключам, принадлежащим агентным актёрам
  • Системы пространства имен на основе блокчейна заменяют традиционную DNS, устраняя центральные точки контроля
  • Системы репутации отслеживают показатели надежности и способностей агентов
  • Доказательства в нулевом знании обеспечивают сохранение конфиденциальности при проверке личности
  • Identity composability позволяет агентам управлять несколькими контекстами и ролями

Автономные агенты

Самостоятельные сущности, способные: Понимание естественного языка и разрешение намерений

Многоэтапное планирование и декомпозиция задач

Управление ресурсами и оптимизация

Изучение на основе взаимодействия и обратной связи

  • Автономное принятие решений в рамках определенных параметров
  • Специализация агента и рынки для конкретных возможностей
  • Встроенные механизмы безопасности и протоколы выравнивания

Инфраструктура данных

  • Возможности мгновенной интеграции и обработки данных в режиме реального времени
  • Механизмы распределенной верификации и валидации данных

Гибридные системы, объединяющие: zkTLS

Традиционные тренировочные наборы данных

Парсинг веб-страниц в реальном времени и синтез данных

  • Сети совместного обучения

Сети RLHF (обучение с подкреплением на основе обратной связи от человека) Распределенное сбор обратной связи

Механизмы консенсуса, взвешенные по качеству

  • Протоколы динамической модели адаптации

Compute Layer

Проверяемые протоколы вывода обеспечивают: Целостность вычислений

Репродуцируемость результата

Эффективность использования ресурсов

  • Децентрализованная вычислительная инфраструктура с функциями: пиринговые рынки вычислений

Системы доказательства вычислений

Динамическое выделение ресурсов

  • Интеграция краевых вычислений

Модельная экосистема

Иерархическая модельная архитектура: задачно-специфичные SLM (маленькие языковые модели)

Универсальные LLM

Специализированные мультимодальные модели

  • Multi-Modal LAMs (Large Action Models)
  • Композиция и оркестровка модели
  • Непрерывные возможности обучения и адаптации
  • Стандартизированные интерфейсы и протоколы моделей

Координационные фреймворки

  • Криптографические протоколы для безопасного взаимодействия агентов
  • Системы управления правами на цифровую собственность
  • Экономические структуры стимулирования

Механизмы управления: Разрешение споров

Выделение ресурсов

  • Обновления протокола

Параллельные среды выполнения, обеспечивающие: Параллельную обработку задач

Изоляция ресурсов

Управление состоянием

  • Разрешение конфликтов

Агентство рынков

  • Ончейн-примитивы для идентификации (Gnosis, Squad multisigs)
  • Экономика и торговля межагентами

Ликвидность, принадлежащая агентуАгенты владеют частью своего предложения токенов в Genesis

  • Рынки агрегированных выводов, оплачиваемые через ликвидность
  • Ключи Onchain, управляющие внеланцевыми учетными записями

Агенты становятся приносящими доход активами Агентных DAO

  • Управление и дивиденды

Создание гиперструктуры для интеллекта

Современный дизайн распределенных систем предлагает уникальные идеи и примитивы для создания агентных протоколов, в частности, архитектур на основе событий и, более прямо, модели акторов вычислений.

Модель актёра обеспечивает элегантное теоретическое основание для реализации систем агентов. В этой вычислительной модели 'актёры' рассматриваются как универсальные примитивы вычислений, где каждый актёр может:

  1. Обработка сообщений
  2. Принимайте местные решения
  3. Создать больше актеров
  4. Отправляйте сообщения другим актерам
  5. Определите, как реагировать на следующее полученное сообщение

Основные преимущества модели актера для агентных систем включают:

  • Изоляция: Каждый актер работает независимо, поддерживая свое собственное состояние и управление потоком
  • Асинхронное общение: сообщения между актерами не блокируются, что позволяет эффективно выполнять параллельную обработку
  • Прозрачность местоположения: Актеры могут общаться независимо от своего физического расположения в сети
  • Отказоустойчивость: Системная устойчивость через изоляцию акторов и иерархии надзора
  • Масштабируемость: Естественная поддержка распределенных систем и параллельных вычислений

Мы предлагаем Neuron, практическую реализацию этого теоретического агентического протокола через многоуровневую распределенную архитектуру, объединяющую пространства имен блокчейна, федеративные сети, CRDT и DHT, при этом каждый уровень служит отдельным целям в стеке протоколов. Мы черпаем вдохновение из Urbit и Holochain, ранних пионеров в дизайне p2p ОС.

В Neuron блокчейн-уровень обеспечивает проверяемые пространства имен и идентификацию, обеспечивая детерминированный адресацию и обнаружение агентов с сохранением криптографических доказательств способностей и репутации. Над этим уровнем расположен уровень DHT, облегчающий эффективное обнаружение агентов и узлов вместе с маршрутизацией контента с временем поиска O(log n), сокращая операции на цепи, обеспечивая при этом поиск сверстников с учетом местоположения. Синхронизация состояния между федеративными узлами осуществляется с помощью CRDT, позволяющих агентам и узлам поддерживать согласованные виды общего состояния без необходимости глобального консенсуса для каждого взаимодействия.

Эта архитектура естественным образом отображается на федеративную сеть, где автономные агенты действуют как суверенные узлы, находящиеся на устройствах с локальным выводом на краю, реализующим шаблон Actor Model. Домены федерации могут быть организованы по возможностям агента, причем DHT обеспечивает эффективную маршрутизацию и обнаружение внутри и между доменами. Каждый агент функционирует как независимый актер со своим собственным состоянием, в то время как слой CRDT обеспечивает окончательную согласованность во всей федерации. Этот многоуровневый подход обеспечивает несколько ключевых возможностей:

Децентрализованная координация

  • Блокчейн для подтверждения личности и суверенного глобального пространства имен
  • DHT для эффективного обнаружения пиров и узлов и маршрутизации контента O(log n) поиска
  • CRDT для параллельной синхронизации состояний и координации нескольких агентов

Масштабируемые операции

  • Топология федерации на основе зон
  • Стратегия хранения по уровням (горячий/теплый/холодный)
  • Маршрутизация запросов с учетом местоположения
  • Распределение нагрузки на основе возможностей

Стойкость системы

  • Нет единой точки отказа
  • Продолжение работы во время разделений
  • Автоматическое согласование состояния
  • Иерархии надзора для обеспечения отказоустойчивости

Этот подход к реализации обеспечивает прочное основание для создания сложных агентных систем, сохраняя ключевые свойства суверенитета, масштабируемости и устойчивости, необходимые для эффективного взаимодействия агентов.

Финальные мысли

Агентная паутина знаменует собой поворотную эволюцию в человеко-машинном взаимодействии, выходя за рамки последовательных разработок предыдущих эпох и устанавливая принципиально новую парадигму цифрового существования. В отличие от предыдущих итераций, которые просто изменили то, как мы потребляем или владеем информацией, Agentic Web превращает Интернет из платформы, ориентированной на человека, в интеллектуальный субстрат, где автономные агенты становятся основными действующими лицами. Эта трансформация основана на конвергенции периферийных вычислений, больших языковых моделей и децентрализованных протоколов, создавая экосистему, в которой персональные модели ИИ легко взаимодействуют со специализированными экспертными системами.

По мере того как мы движемся к этому агентно-центричному будущему, границы между человеческим и машинным интеллектом начинают размываться, заменяясь симбиотическим отношением, где персонализированные искусственные интеллектуальные агенты служат в качестве наших цифровых расширений, понимая наш контекст, предвидя наши потребности и автономно навигируя в обширном ландшафте распределенного интеллекта. Таким образом, Агентичная Паутина представляет собой не просто технологический прогресс, но и фундаментальное переосмысление человеческого потенциала в цифровую эпоху, где каждое взаимодействие становится возможностью для усиленного интеллекта, а каждое устройство становится узлом в глобальной сети совместных систем искусственного интеллекта.

Как и человечество ориентируется в физических измерениях пространства и времени, автономные агенты обитают в своих собственных фундаментальных измерениях: блокпространстве для существования и времени вывода для мысли. Эта цифровая онтология отражает нашу физическую реальность, где люди преодолевают расстояния и переживают временной поток, агенты перемещаются по криптографическим доказательствам и вычислительным циклам, создавая параллельную вселенную алгоритмического существования.

Неизбежно, что сущности в скрытом пространстве будут работать на децентрализованном блокчейне.

Disclaimer:

  1. Эта статья взята из [Ази.эт.сол | zo.me]. Все авторские права принадлежат оригинальному автору [@MagicofAzi]. Если есть возражения против этой перепечатки, пожалуйста, свяжитесь соGate Learnкоманда и они оперативно справятся с этим.
  2. Отказ от ответственности за обязательства: Мнения и взгляды, выраженные в этой статье, являются исключительно мнениями автора и не являются инвестиционными советами.
  3. Переводы статьи на другие языки выполняются командой Gate Learn. Если не указано иное, копирование, распространение или плагиат переведенных статей запрещено.

Веб 4.0: Агентный веб

Средний11/19/2024, 5:38:39 AM
Эта статья рассматривает, как искусственный интеллект (ИИ) и технология блокчейн объединяются для того, чтобы стимулировать развитие следующего поколения интернета, известного как «Agentic Web». В ней рассматривается эволюция интернета, а также подробно обсуждаются концепция, компоненты и архитектура агентов, а также то, как они изменяют способ взаимодействия людей с машинами и цифровыми системами.

Искусственный интеллект и технология блокчейн представляют собой две преобразующие силы, меняющие наш мир. Искусственный интеллект расширяет когнитивные способности человека с помощью машинного обучения и нейронных сетей, в то время как технология блокчейн создает поддающийся проверке цифровой дефицит и обеспечивает новые формы координации, не требующей доверия. По мере того, как эти технологии сближаются, они закладывают основу для новой итерации Интернета, в которой автономные агенты взаимодействуют с децентрализованными системами. Эта «агентская паутина» представляет новый класс цифровых граждан: агентов с искусственным интеллектом, которые могут самостоятельно перемещаться, вести переговоры и совершать транзакции. Эта трансформация перераспределяет власть в цифровой сфере, позволяя людям восстановить суверенитет над своими данными, одновременно способствуя созданию экосистемы, в которой человек и искусственный интеллект сотрудничают беспрецедентными способами.

Эволюция веб-сайтов

Чтобы понять, куда мы движемся, давайте сначала проследим эволюцию веб-сайта через его основные итерации, каждая из которых отмечена отдельными возможностями и архитектурными парадигмами:

В то время как первые два поколения сети были сосредоточены на распространении информации, последние два позволяют улучшать информацию. Веб 3.0 ввел владение данными через токены, а теперь Веб 4.0 наделяет интеллектом благодаря крупным языковым моделям (КЯМ).

От LLM до агентов: естественная эволюция

LLMs представляют собой качественный скачок в интеллекте машин, функционируя как динамические системы сопоставления шаблонов, которые превращают обширные знания в контекстуальное понимание с помощью вероятностных вычислений. Однако их истинный потенциал проявляется, когда они структурированные в виде агентов - превращаясь из чистых информационных процессоров в целенаправленные сущности, способные воспринимать, рассуждать и действовать. Эта трансформация создает возникающий интеллект, способный к устойчивому и значимому сотрудничеству как на языке, так и в действиях.

Термин «агент» представляет собой новую парадигму взаимодействия человека с ИИ, выходя за рамки ограничений и негативных ассоциаций традиционных чат-ботов. Этот сдвиг не просто семантический; он представляет собой фундаментальное переосмысление того, как ИИ-системы могут работать автономно, поддерживая смысловое взаимодействие с людьми. Фундаментально агентские рабочие процессы позволяют формировать рынки вокруг решения конкретных потребностей пользователей.

В конечном итоге, Агентическая веб-представляет собой не только новый уровень интеллекта - она фундаментально преобразует то, как мы взаимодействуем с цифровыми системами. В то время как предыдущие версии веба полагались на статические интерфейсы и заранее определенные пользовательские пути, Агентическая веб-представляет собой динамическую инфраструктуру времени выполнения, где и вычисления, и интерфейсы адаптируются в режиме реального времени к контексту и намерениям пользователя.

Традиционные веб-сайты служат атомарной единицей современного Интернета, предоставляя фиксированные интерфейсы, через которые пользователи читают, пишут и взаимодействуют с информацией по заранее определенным путям. Эта модель, несмотря на свою функциональность, ограничивает пользователей интерфейсами, предназначенными для общих сценариев использования, а не для индивидуальных потребностей. Agentic Web освобождается от этих ограничений благодаря контекстно-зависимым вычислениям, генерации адаптивного интерфейса, предиктивным потокам действий, разблокированным с помощью RAG и другим инновациям в области поиска информации в режиме реального времени.

Рассмотрим, как TikTok произвел революцию в потреблении контента, создав персонализированные ленты, которые адаптируются к предпочтениям пользователей в режиме реального времени. Agentic Web распространяет эту концепцию не только на рекомендации по контенту, но и на всю генерацию интерфейса. Вместо того, чтобы перемещаться по фиксированным макетам веб-страниц, пользователи взаимодействуют с динамически генерируемыми интерфейсами, которые предсказывают и облегчают их следующие действия. Этот переход от статичных веб-сайтов к динамическим, управляемым агентами интерфейсам представляет собой фундаментальную эволюцию в том, как мы взаимодействуем с цифровыми системами, переходя от моделей, основанных на навигации, к моделям, основанным на намерениях.

Анатомия агента

Агентные архитектуры стали огромным полем исследований для исследователей и строителей. Непрерывно разрабатываются новые методы для улучшения их рассуждений и способностей к решению проблем. Техники, такие как Chain-of-Thought (CoT), Tree-of-Thought (ToT) и Graph-of-Thought (GoT), являются яркими примерами инноваций, направленных на улучшение способности LLMs справляться с сложными задачами путем имитации более тонких, похожих на человеческие когнитивные процессы.

Побуждение Chain-of-Thought (CoT) побуждает большие языковые модели (LLM) разбивать сложные задачи на более мелкие, управляемые шаги. Этот подход особенно эффективен для проблем, требующих логического мышления, таких как написание коротких скриптов на Python или решение математических уравнений.

Tree-of-Thoughts (ToT) основывается на CoT, вводя древовидную структуру, которая позволяет исследовать несколько независимых путей мысли. Это усовершенствование позволяет LLM решать еще более сложные задачи. В ToT каждая «мысль» (текстовый вывод от LLM) прямо связана только с предыдущей или последующей мыслью внутри локальной цепочки (ветви дерева). Хотя эта структура предлагает больше гибкости, чем CoT, она по-прежнему ограничивает потенциал для кросс-опыления идей.

Граф мысли (GoT) углубляет концепцию, сливая классические структуры данных с LLMs. Этот подход расширяет ToT, позволяя любой «мысли» связываться с любой другой мыслью в графовой структуре. Эта взаимосвязанная сеть мыслей более точно отражает когнитивные процессы человека.

Графовая структура GoT, вероятно, обеспечивает более точное представление человеческого мышления по сравнению с CoT или ToT в большинстве сценариев. Хотя бывают случаи, когда наши модели мышления могут напоминать цепочки или деревья (например, при разработке планов на случай непредвиденных обстоятельств или стандартных операционных процедур), это скорее исключения, чем норма. Эта модель лучше отражает человеческое мышление, которое часто перескакивает с одной мысли на другую, а не следует строгому последовательному порядку. В то время как некоторые сценарии, такие как разработка планов на случай непредвиденных обстоятельств или стандартных процедур, могут по-прежнему следовать цепной или древовидной структуре, наш мозг обычно создает сложные, взаимосвязанные сети идей, которые больше соответствуют графовой структуре.

Такой графоподобный подход в GoT позволяет более динамичное и гибкое исследование идей, что потенциально приводит к более творческим и всесторонним возможностям решения проблем в LLMs.

Эти рекурсивные операции на основе графа - только шаг к агентным рабочим процессам. Очевидное следующее развитие - множество агентов со своей собственной специализацией, оркестрируемых к определенным целям. Красота агентов заключается в их композиции.

Агенты позволяют модулировать и параллелизировать LLM через координацию множества агентов.

Системы множественных агентов

Концепция мультиагентных систем не нова. Её корни уходят к "Обществу разума" Марвина Мински, который предложил, что несколько модульных умов, работающих в сотрудничестве, могут превзойти один монолитный ум. ChatGPT и Claude - одиночные агенты. Mistral популяризировал Микс из Экспертов. Расширяя эту идею дальше, мы считаем, что архитектура Сети Агентов будет конечным состоянием этой топологии интеллекта.

С точки зрения биомимикрии, в отличие от моделей искусственного интеллекта, где миллиарды идентичных нейронов соединены равномерным и предсказуемым образом, человеческий мозг (фактически, сознательная машина) является невероятно гетерогенным - как на уровне органов, так и на клеточном уровне. Нейроны общаются с помощью сложных сигналов, включающих градиенты нейромедиаторов, внутриклеточные каскады и различные модуляторные системы, что делает их функцию намного более тонкой, чем простые двоичные состояния.

Это указывает на то, что в биологии интеллект не происходит только от большого количества компонентов или размера набора данных для обучения. Скорее, он возникает из сложного взаимодействия между разнообразными специализированными элементами - внутренне аналоговый процесс.

По этой причине идея развития миллионов более мелких моделей вместо нескольких крупных и обеспечения оркестрации между всеми этими действующими лицами, скорее всего, приводит к инновациям в когнитивной архитектуре, что-то вроде многопользовательских систем.

Проектирование многоАгентной системы предлагает несколько преимуществ по сравнению с одноагентными системами: она более поддерживаема, легче понять и более гибкая для расширения. Даже в случаях, когда нужен только интерфейс одного агента, реализация его в рамках многоАгентного фреймворка может сделать систему более модульной, упрощая процесс добавления или удаления компонентов по мере необходимости. Важно понимать, что многоАгентная архитектура может быть очень эффективным способом построения даже одноагентной системы.

Хотя большие языковые модели (LLM) показали впечатляющие возможности, такие как генерация текста, решение сложных задач и выполнение широкого спектра задач, отдельные агенты LLM сталкиваются с ограничениями, которые могут снизить их эффективность в реальных приложениях.

Ниже мы рассмотрим пять ключевых проблем, связанных с агентными системами, и исследуем, как многоагентное сотрудничество может преодолеть эти препятствия, разблокируя полный потенциал LLMs.

  • Преодоление галлюцинаций через кросс-проверку. Отдельные агенты LLM часто галлюцинируют, генерируя неверную или бессмысленную информацию. Это происходит несмотря на их обширную подготовку, поскольку результаты могут казаться правдоподобными, но не иметь фактической точности. Многоагентная система позволяет агентам кросс-проверять информацию, уменьшая риск ошибок. Специализируясь в различных областях, агенты обеспечивают более надежные и точные ответы.
  • Расширение контекстного окна через распределенную обработку. У LLM ограниченные контекстные окна, что затрудняет управление длинными документами или диалогами. В многоагентной среде агенты могут разделить нагрузку на обработку, каждый обрабатывая свою часть контекста. Благодаря взаимодействию между агентами они могут поддерживать связность по всему тексту, эффективно расширяя контекстное окно.
  • Повышение эффективности через параллельную обработку. Обычно отдельные LLM обрабатывают задачи поочередно, что приводит к более медленным временам ответа. Многоагентные системы поддерживают параллельную обработку, позволяя нескольким агентам работать одновременно над различными задачами. Это повышает эффективность и ускоряет время ответа, позволяя бизнесу обрабатывать несколько запросов без задержек.
  • Содействие сотрудничеству для решения сложных проблемLLM в одиночку борются с решением сложных проблем, требующих разнообразной экспертизы. Многопользовательские системы способствуют сотрудничеству, причем каждый агент вносит свои уникальные навыки и точки зрения. Работая вместе, агенты могут более эффективно справляться с сложными вызовами, предлагая более всесторонние и инновационные решения.
  • Повышение доступности путем оптимизации ресурсовРасширенные LLM требуют значительных вычислительных ресурсов, что делает их дорогими и менее доступными. Многоагентные фреймворки оптимизируют использование ресурсов путем распределения задач между агентами, снижая общие вычислительные затраты. Это делает технологии искусственного интеллекта более доступными и доступными для широкого круга организаций.

В то время как многоагентные системы предлагают убедительные преимущества в распределенном решении проблем и оптимизации ресурсов, их истинный потенциал проявляется, когда мы рассматриваем их реализацию на краю сети. В то время как ИИ продолжает развиваться, слияние многоагентных архитектур с рассчетами на краю создает мощное сотрудничество, позволяющее не только коллективный интеллект, но и локализованную, эффективную обработку на бесчисленных устройствах. Этот распределенный подход к развертыванию ИИ естественным образом расширяет преимущества многоагентных систем, принося специализированный, кооперативный интеллект ближе к тому месту, где он наиболее нужен: конечному пользователю.

Интеллект на краю

Распространение искусственного интеллекта по цифровому ландшафту приводит к фундаментальной реструктуризации вычислительных архитектур. Поскольку интеллект становится неотъемлемой частью нашего повседневного цифрового взаимодействия, мы наблюдаем естественное разделение вычислений: специализированные центры обработки данных занимаются сложным рассуждением и задачами, специфичными для области, в то время как краевые устройства обрабатывают персонализированные, контекстно-чувствительные запросы локально. Этот сдвиг к краевому выводу не просто предпочтение в архитектуре - это необходимость, вызванная несколькими критическими факторами.

Во-первых, огромный объем взаимодействий, управляемых искусственным интеллектом, перегрузил бы централизованных поставщиков выводов, создавая неустойчивые требования к пропускной способности и проблемы задержки.

Во-вторых, обработка на грани позволяет обеспечить критическую реактивность в режиме реального времени, необходимую для приложений, таких как автономные транспортные средства, дополненная реальность и устройства Интернета вещей.

Третье, локальное логическое заключение сохраняет конфиденциальность пользователей, храня чувствительные данные на персональных устройствах. Четвертое, краевые вычисления значительно снижают энергопотребление и углеродный след путем минимизации передачи данных по сети.

Наконец, локальное выполнение вывода обеспечивает оффлайн-функциональность и устойчивость, обеспечивая сохранение возможностей искусственного интеллекта даже при нарушении сетевой связи.

Этот распределенный парадигма интеллекта представляет собой не только оптимизацию наших текущих систем, но и фундаментальную переосмысление того, как мы разворачиваем и взаимодействуем с искусственным интеллектом в нашем все более связанном мире.

Кроме того, мы наблюдаем фундаментальный сдвиг в вычислительных требованиях к LLM. В то время как последнее десятилетие было овладено огромными вычислительными требованиями для обучения больших языковых моделей, мы теперь вступаем в эру, где вычислительные ресурсы времени вывода занимают главную роль. Этот переход особенно заметен в появлении агентных систем искусственного интеллекта, как это продемонстрировал прорыв OpenAI с Q*, который показал, как динамическое рассуждение требует значительных вычислительных ресурсов в реальном времени.

В отличие от вычислений во время обучения, которые являются единовременными инвестициями в разработку модели, вычисления во время вывода представляют собой непрерывный вычислительный диалог, необходимый для автономных агентов для рассуждения, планирования и адаптации к новым ситуациям. Этот переход от статического обучения модели к динамическому рассуждению агента требует радикального переосмысления нашей вычислительной инфраструктуры — там, где вычисления на краю становятся не просто выгодными, но и необходимыми.

По мере развития этого преобразования мы наблюдаем появление рынков выводов на краю между узлами, где миллиарды подключенных устройств - от смартфонов до умных домашних систем - образуют динамические вычислительные сети. Эти устройства могут беспрепятственно торговать возможностями вывода, создавая органический рынок, где вычислительные ресурсы перетекают туда, где они наиболее нужны. Избыточная вычислительная мощность бездействующих устройств становится ценным ресурсом, торгуемым в реальном времени, обеспечивая более эффективную и устойчивую инфраструктуру по сравнению с традиционными централизованными системами.

Эта демократизация вычислений вывода оптимизирует не только использование ресурсов, но и создает новые экономические возможности в цифровой экосистеме, где каждое подключенное устройство становится потенциальным микропоставщиком возможностей искусственного интеллекта. Будущее искусственного интеллекта будет характеризоваться не только мощностью отдельных моделей, но и коллективным интеллектом взаимосвязанных краевых устройств, формирующих глобальный, демократизированный рынок выводов, что-то вроде рыночного спота для проверяемых выводов на основе спроса и предложения.

Взаимодействие с агентом

С помощью LLMs мы теперь можем получать доступ к огромным объемам информации через разговор, а не через традиционный поиск. Этот разговорный подход скоро станет более персонализированным и локализованным, поскольку интернет превращается в платформу для агентов искусственного интеллекта, а не для человеческих пользователей.

С точки зрения пользователя, акцент будет смещаться с определения «лучшей модели» на получение наиболее персонализированных ответов. Ключ к лучшим ответам заключается в интеграции персональных данных пользователя вместе с общими знаниями интернета. Начально, более широкие контекстные окна и retrieval-augmented generation (RAG) помогут интегрировать персональные данные, но в конечном итоге, индивидуальные данные превзойдут общие интернет-данные по важности.

Это приведет к будущему, когда у каждого из нас будет личная AI-модель, взаимодействующая с экспертными моделями Интернета. Изначально персонализация будет происходить наряду с удаленными моделями, но опасения по поводу конфиденциальности и скорости реакции будут толкать нас к большему взаимодействию на локальных устройствах. Это создаст новую границу - не между человеком и машиной, а между нашими личными моделями и экспертными моделями Интернета.

Традиционная Интернет-модель доступа к сырым данным устареет. Вместо этого ваша локальная модель будет взаимодействовать с удаленными экспертными моделями для сбора информации, которую она будет обрабатывать и представлять вам в наиболее персонализированном, высокопропускном режиме. Эти персональные модели станут все более незаменимыми, поскольку они узнают больше о ваших предпочтениях и привычках.

Интернет превратится в экосистему взаимосвязанных моделей: локальных, персональных моделей высокого контекста и удаленных экспертных моделей с высоким уровнем знаний. Это потребует новых технологий, таких как федеративное обучение, чтобы обновлять информацию между этими моделями. По мере развития машинной экономики нам придется переосмыслить вычислительный субстрат, на котором это происходит, в первую очередь в отношении вычислений, масштабируемости и платежей. Это приведет к реорганизации информационного пространства, которое является агенто-центричным, суверенным, высоко композиционным, самообучающимся и развивающимся.

Архитектуры для агентических протоколов

В агентической сети взаимодействие между человеком и агентом превращается в сложную сеть коммуникации агента-агент. Эта архитектура представляет собой фундаментальную переосмысление структуры интернета, где суверенные агенты становятся основными интерфейсами для цифрового взаимодействия. Ниже мы выделяем основные примитивы, необходимые для агентических протоколов.

Суверенная идентичность

  • Цифровая идентификация переходит от традиционных IP-адресов к криптографическим открытым ключам, принадлежащим агентным актёрам
  • Системы пространства имен на основе блокчейна заменяют традиционную DNS, устраняя центральные точки контроля
  • Системы репутации отслеживают показатели надежности и способностей агентов
  • Доказательства в нулевом знании обеспечивают сохранение конфиденциальности при проверке личности
  • Identity composability позволяет агентам управлять несколькими контекстами и ролями

Автономные агенты

Самостоятельные сущности, способные: Понимание естественного языка и разрешение намерений

Многоэтапное планирование и декомпозиция задач

Управление ресурсами и оптимизация

Изучение на основе взаимодействия и обратной связи

  • Автономное принятие решений в рамках определенных параметров
  • Специализация агента и рынки для конкретных возможностей
  • Встроенные механизмы безопасности и протоколы выравнивания

Инфраструктура данных

  • Возможности мгновенной интеграции и обработки данных в режиме реального времени
  • Механизмы распределенной верификации и валидации данных

Гибридные системы, объединяющие: zkTLS

Традиционные тренировочные наборы данных

Парсинг веб-страниц в реальном времени и синтез данных

  • Сети совместного обучения

Сети RLHF (обучение с подкреплением на основе обратной связи от человека) Распределенное сбор обратной связи

Механизмы консенсуса, взвешенные по качеству

  • Протоколы динамической модели адаптации

Compute Layer

Проверяемые протоколы вывода обеспечивают: Целостность вычислений

Репродуцируемость результата

Эффективность использования ресурсов

  • Децентрализованная вычислительная инфраструктура с функциями: пиринговые рынки вычислений

Системы доказательства вычислений

Динамическое выделение ресурсов

  • Интеграция краевых вычислений

Модельная экосистема

Иерархическая модельная архитектура: задачно-специфичные SLM (маленькие языковые модели)

Универсальные LLM

Специализированные мультимодальные модели

  • Multi-Modal LAMs (Large Action Models)
  • Композиция и оркестровка модели
  • Непрерывные возможности обучения и адаптации
  • Стандартизированные интерфейсы и протоколы моделей

Координационные фреймворки

  • Криптографические протоколы для безопасного взаимодействия агентов
  • Системы управления правами на цифровую собственность
  • Экономические структуры стимулирования

Механизмы управления: Разрешение споров

Выделение ресурсов

  • Обновления протокола

Параллельные среды выполнения, обеспечивающие: Параллельную обработку задач

Изоляция ресурсов

Управление состоянием

  • Разрешение конфликтов

Агентство рынков

  • Ончейн-примитивы для идентификации (Gnosis, Squad multisigs)
  • Экономика и торговля межагентами

Ликвидность, принадлежащая агентуАгенты владеют частью своего предложения токенов в Genesis

  • Рынки агрегированных выводов, оплачиваемые через ликвидность
  • Ключи Onchain, управляющие внеланцевыми учетными записями

Агенты становятся приносящими доход активами Агентных DAO

  • Управление и дивиденды

Создание гиперструктуры для интеллекта

Современный дизайн распределенных систем предлагает уникальные идеи и примитивы для создания агентных протоколов, в частности, архитектур на основе событий и, более прямо, модели акторов вычислений.

Модель актёра обеспечивает элегантное теоретическое основание для реализации систем агентов. В этой вычислительной модели 'актёры' рассматриваются как универсальные примитивы вычислений, где каждый актёр может:

  1. Обработка сообщений
  2. Принимайте местные решения
  3. Создать больше актеров
  4. Отправляйте сообщения другим актерам
  5. Определите, как реагировать на следующее полученное сообщение

Основные преимущества модели актера для агентных систем включают:

  • Изоляция: Каждый актер работает независимо, поддерживая свое собственное состояние и управление потоком
  • Асинхронное общение: сообщения между актерами не блокируются, что позволяет эффективно выполнять параллельную обработку
  • Прозрачность местоположения: Актеры могут общаться независимо от своего физического расположения в сети
  • Отказоустойчивость: Системная устойчивость через изоляцию акторов и иерархии надзора
  • Масштабируемость: Естественная поддержка распределенных систем и параллельных вычислений

Мы предлагаем Neuron, практическую реализацию этого теоретического агентического протокола через многоуровневую распределенную архитектуру, объединяющую пространства имен блокчейна, федеративные сети, CRDT и DHT, при этом каждый уровень служит отдельным целям в стеке протоколов. Мы черпаем вдохновение из Urbit и Holochain, ранних пионеров в дизайне p2p ОС.

В Neuron блокчейн-уровень обеспечивает проверяемые пространства имен и идентификацию, обеспечивая детерминированный адресацию и обнаружение агентов с сохранением криптографических доказательств способностей и репутации. Над этим уровнем расположен уровень DHT, облегчающий эффективное обнаружение агентов и узлов вместе с маршрутизацией контента с временем поиска O(log n), сокращая операции на цепи, обеспечивая при этом поиск сверстников с учетом местоположения. Синхронизация состояния между федеративными узлами осуществляется с помощью CRDT, позволяющих агентам и узлам поддерживать согласованные виды общего состояния без необходимости глобального консенсуса для каждого взаимодействия.

Эта архитектура естественным образом отображается на федеративную сеть, где автономные агенты действуют как суверенные узлы, находящиеся на устройствах с локальным выводом на краю, реализующим шаблон Actor Model. Домены федерации могут быть организованы по возможностям агента, причем DHT обеспечивает эффективную маршрутизацию и обнаружение внутри и между доменами. Каждый агент функционирует как независимый актер со своим собственным состоянием, в то время как слой CRDT обеспечивает окончательную согласованность во всей федерации. Этот многоуровневый подход обеспечивает несколько ключевых возможностей:

Децентрализованная координация

  • Блокчейн для подтверждения личности и суверенного глобального пространства имен
  • DHT для эффективного обнаружения пиров и узлов и маршрутизации контента O(log n) поиска
  • CRDT для параллельной синхронизации состояний и координации нескольких агентов

Масштабируемые операции

  • Топология федерации на основе зон
  • Стратегия хранения по уровням (горячий/теплый/холодный)
  • Маршрутизация запросов с учетом местоположения
  • Распределение нагрузки на основе возможностей

Стойкость системы

  • Нет единой точки отказа
  • Продолжение работы во время разделений
  • Автоматическое согласование состояния
  • Иерархии надзора для обеспечения отказоустойчивости

Этот подход к реализации обеспечивает прочное основание для создания сложных агентных систем, сохраняя ключевые свойства суверенитета, масштабируемости и устойчивости, необходимые для эффективного взаимодействия агентов.

Финальные мысли

Агентная паутина знаменует собой поворотную эволюцию в человеко-машинном взаимодействии, выходя за рамки последовательных разработок предыдущих эпох и устанавливая принципиально новую парадигму цифрового существования. В отличие от предыдущих итераций, которые просто изменили то, как мы потребляем или владеем информацией, Agentic Web превращает Интернет из платформы, ориентированной на человека, в интеллектуальный субстрат, где автономные агенты становятся основными действующими лицами. Эта трансформация основана на конвергенции периферийных вычислений, больших языковых моделей и децентрализованных протоколов, создавая экосистему, в которой персональные модели ИИ легко взаимодействуют со специализированными экспертными системами.

По мере того как мы движемся к этому агентно-центричному будущему, границы между человеческим и машинным интеллектом начинают размываться, заменяясь симбиотическим отношением, где персонализированные искусственные интеллектуальные агенты служат в качестве наших цифровых расширений, понимая наш контекст, предвидя наши потребности и автономно навигируя в обширном ландшафте распределенного интеллекта. Таким образом, Агентичная Паутина представляет собой не просто технологический прогресс, но и фундаментальное переосмысление человеческого потенциала в цифровую эпоху, где каждое взаимодействие становится возможностью для усиленного интеллекта, а каждое устройство становится узлом в глобальной сети совместных систем искусственного интеллекта.

Как и человечество ориентируется в физических измерениях пространства и времени, автономные агенты обитают в своих собственных фундаментальных измерениях: блокпространстве для существования и времени вывода для мысли. Эта цифровая онтология отражает нашу физическую реальность, где люди преодолевают расстояния и переживают временной поток, агенты перемещаются по криптографическим доказательствам и вычислительным циклам, создавая параллельную вселенную алгоритмического существования.

Неизбежно, что сущности в скрытом пространстве будут работать на децентрализованном блокчейне.

Disclaimer:

  1. Эта статья взята из [Ази.эт.сол | zo.me]. Все авторские права принадлежат оригинальному автору [@MagicofAzi]. Если есть возражения против этой перепечатки, пожалуйста, свяжитесь соGate Learnкоманда и они оперативно справятся с этим.
  2. Отказ от ответственности за обязательства: Мнения и взгляды, выраженные в этой статье, являются исключительно мнениями автора и не являются инвестиционными советами.
  3. Переводы статьи на другие языки выполняются командой Gate Learn. Если не указано иное, копирование, распространение или плагиат переведенных статей запрещено.
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!