Искусственный интеллект и технология блокчейн представляют собой две преобразующие силы, меняющие наш мир. Искусственный интеллект расширяет когнитивные способности человека с помощью машинного обучения и нейронных сетей, в то время как технология блокчейн создает поддающийся проверке цифровой дефицит и обеспечивает новые формы координации, не требующей доверия. По мере того, как эти технологии сближаются, они закладывают основу для новой итерации Интернета, в которой автономные агенты взаимодействуют с децентрализованными системами. Эта «агентская паутина» представляет новый класс цифровых граждан: агентов с искусственным интеллектом, которые могут самостоятельно перемещаться, вести переговоры и совершать транзакции. Эта трансформация перераспределяет власть в цифровой сфере, позволяя людям восстановить суверенитет над своими данными, одновременно способствуя созданию экосистемы, в которой человек и искусственный интеллект сотрудничают беспрецедентными способами.
Чтобы понять, куда мы движемся, давайте сначала проследим эволюцию веб-сайта через его основные итерации, каждая из которых отмечена отдельными возможностями и архитектурными парадигмами:
В то время как первые два поколения сети были сосредоточены на распространении информации, последние два позволяют улучшать информацию. Веб 3.0 ввел владение данными через токены, а теперь Веб 4.0 наделяет интеллектом благодаря крупным языковым моделям (КЯМ).
LLMs представляют собой качественный скачок в интеллекте машин, функционируя как динамические системы сопоставления шаблонов, которые превращают обширные знания в контекстуальное понимание с помощью вероятностных вычислений. Однако их истинный потенциал проявляется, когда они структурированные в виде агентов - превращаясь из чистых информационных процессоров в целенаправленные сущности, способные воспринимать, рассуждать и действовать. Эта трансформация создает возникающий интеллект, способный к устойчивому и значимому сотрудничеству как на языке, так и в действиях.
Термин «агент» представляет собой новую парадигму взаимодействия человека с ИИ, выходя за рамки ограничений и негативных ассоциаций традиционных чат-ботов. Этот сдвиг не просто семантический; он представляет собой фундаментальное переосмысление того, как ИИ-системы могут работать автономно, поддерживая смысловое взаимодействие с людьми. Фундаментально агентские рабочие процессы позволяют формировать рынки вокруг решения конкретных потребностей пользователей.
В конечном итоге, Агентическая веб-представляет собой не только новый уровень интеллекта - она фундаментально преобразует то, как мы взаимодействуем с цифровыми системами. В то время как предыдущие версии веба полагались на статические интерфейсы и заранее определенные пользовательские пути, Агентическая веб-представляет собой динамическую инфраструктуру времени выполнения, где и вычисления, и интерфейсы адаптируются в режиме реального времени к контексту и намерениям пользователя.
Традиционные веб-сайты служат атомарной единицей современного Интернета, предоставляя фиксированные интерфейсы, через которые пользователи читают, пишут и взаимодействуют с информацией по заранее определенным путям. Эта модель, несмотря на свою функциональность, ограничивает пользователей интерфейсами, предназначенными для общих сценариев использования, а не для индивидуальных потребностей. Agentic Web освобождается от этих ограничений благодаря контекстно-зависимым вычислениям, генерации адаптивного интерфейса, предиктивным потокам действий, разблокированным с помощью RAG и другим инновациям в области поиска информации в режиме реального времени.
Рассмотрим, как TikTok произвел революцию в потреблении контента, создав персонализированные ленты, которые адаптируются к предпочтениям пользователей в режиме реального времени. Agentic Web распространяет эту концепцию не только на рекомендации по контенту, но и на всю генерацию интерфейса. Вместо того, чтобы перемещаться по фиксированным макетам веб-страниц, пользователи взаимодействуют с динамически генерируемыми интерфейсами, которые предсказывают и облегчают их следующие действия. Этот переход от статичных веб-сайтов к динамическим, управляемым агентами интерфейсам представляет собой фундаментальную эволюцию в том, как мы взаимодействуем с цифровыми системами, переходя от моделей, основанных на навигации, к моделям, основанным на намерениях.
Агентные архитектуры стали огромным полем исследований для исследователей и строителей. Непрерывно разрабатываются новые методы для улучшения их рассуждений и способностей к решению проблем. Техники, такие как Chain-of-Thought (CoT), Tree-of-Thought (ToT) и Graph-of-Thought (GoT), являются яркими примерами инноваций, направленных на улучшение способности LLMs справляться с сложными задачами путем имитации более тонких, похожих на человеческие когнитивные процессы.
Побуждение Chain-of-Thought (CoT) побуждает большие языковые модели (LLM) разбивать сложные задачи на более мелкие, управляемые шаги. Этот подход особенно эффективен для проблем, требующих логического мышления, таких как написание коротких скриптов на Python или решение математических уравнений.
Tree-of-Thoughts (ToT) основывается на CoT, вводя древовидную структуру, которая позволяет исследовать несколько независимых путей мысли. Это усовершенствование позволяет LLM решать еще более сложные задачи. В ToT каждая «мысль» (текстовый вывод от LLM) прямо связана только с предыдущей или последующей мыслью внутри локальной цепочки (ветви дерева). Хотя эта структура предлагает больше гибкости, чем CoT, она по-прежнему ограничивает потенциал для кросс-опыления идей.
Граф мысли (GoT) углубляет концепцию, сливая классические структуры данных с LLMs. Этот подход расширяет ToT, позволяя любой «мысли» связываться с любой другой мыслью в графовой структуре. Эта взаимосвязанная сеть мыслей более точно отражает когнитивные процессы человека.
Графовая структура GoT, вероятно, обеспечивает более точное представление человеческого мышления по сравнению с CoT или ToT в большинстве сценариев. Хотя бывают случаи, когда наши модели мышления могут напоминать цепочки или деревья (например, при разработке планов на случай непредвиденных обстоятельств или стандартных операционных процедур), это скорее исключения, чем норма. Эта модель лучше отражает человеческое мышление, которое часто перескакивает с одной мысли на другую, а не следует строгому последовательному порядку. В то время как некоторые сценарии, такие как разработка планов на случай непредвиденных обстоятельств или стандартных процедур, могут по-прежнему следовать цепной или древовидной структуре, наш мозг обычно создает сложные, взаимосвязанные сети идей, которые больше соответствуют графовой структуре.
Такой графоподобный подход в GoT позволяет более динамичное и гибкое исследование идей, что потенциально приводит к более творческим и всесторонним возможностям решения проблем в LLMs.
Эти рекурсивные операции на основе графа - только шаг к агентным рабочим процессам. Очевидное следующее развитие - множество агентов со своей собственной специализацией, оркестрируемых к определенным целям. Красота агентов заключается в их композиции.
Агенты позволяют модулировать и параллелизировать LLM через координацию множества агентов.
Концепция мультиагентных систем не нова. Её корни уходят к "Обществу разума" Марвина Мински, который предложил, что несколько модульных умов, работающих в сотрудничестве, могут превзойти один монолитный ум. ChatGPT и Claude - одиночные агенты. Mistral популяризировал Микс из Экспертов. Расширяя эту идею дальше, мы считаем, что архитектура Сети Агентов будет конечным состоянием этой топологии интеллекта.
С точки зрения биомимикрии, в отличие от моделей искусственного интеллекта, где миллиарды идентичных нейронов соединены равномерным и предсказуемым образом, человеческий мозг (фактически, сознательная машина) является невероятно гетерогенным - как на уровне органов, так и на клеточном уровне. Нейроны общаются с помощью сложных сигналов, включающих градиенты нейромедиаторов, внутриклеточные каскады и различные модуляторные системы, что делает их функцию намного более тонкой, чем простые двоичные состояния.
Это указывает на то, что в биологии интеллект не происходит только от большого количества компонентов или размера набора данных для обучения. Скорее, он возникает из сложного взаимодействия между разнообразными специализированными элементами - внутренне аналоговый процесс.
По этой причине идея развития миллионов более мелких моделей вместо нескольких крупных и обеспечения оркестрации между всеми этими действующими лицами, скорее всего, приводит к инновациям в когнитивной архитектуре, что-то вроде многопользовательских систем.
Проектирование многоАгентной системы предлагает несколько преимуществ по сравнению с одноагентными системами: она более поддерживаема, легче понять и более гибкая для расширения. Даже в случаях, когда нужен только интерфейс одного агента, реализация его в рамках многоАгентного фреймворка может сделать систему более модульной, упрощая процесс добавления или удаления компонентов по мере необходимости. Важно понимать, что многоАгентная архитектура может быть очень эффективным способом построения даже одноагентной системы.
Хотя большие языковые модели (LLM) показали впечатляющие возможности, такие как генерация текста, решение сложных задач и выполнение широкого спектра задач, отдельные агенты LLM сталкиваются с ограничениями, которые могут снизить их эффективность в реальных приложениях.
Ниже мы рассмотрим пять ключевых проблем, связанных с агентными системами, и исследуем, как многоагентное сотрудничество может преодолеть эти препятствия, разблокируя полный потенциал LLMs.
В то время как многоагентные системы предлагают убедительные преимущества в распределенном решении проблем и оптимизации ресурсов, их истинный потенциал проявляется, когда мы рассматриваем их реализацию на краю сети. В то время как ИИ продолжает развиваться, слияние многоагентных архитектур с рассчетами на краю создает мощное сотрудничество, позволяющее не только коллективный интеллект, но и локализованную, эффективную обработку на бесчисленных устройствах. Этот распределенный подход к развертыванию ИИ естественным образом расширяет преимущества многоагентных систем, принося специализированный, кооперативный интеллект ближе к тому месту, где он наиболее нужен: конечному пользователю.
Распространение искусственного интеллекта по цифровому ландшафту приводит к фундаментальной реструктуризации вычислительных архитектур. Поскольку интеллект становится неотъемлемой частью нашего повседневного цифрового взаимодействия, мы наблюдаем естественное разделение вычислений: специализированные центры обработки данных занимаются сложным рассуждением и задачами, специфичными для области, в то время как краевые устройства обрабатывают персонализированные, контекстно-чувствительные запросы локально. Этот сдвиг к краевому выводу не просто предпочтение в архитектуре - это необходимость, вызванная несколькими критическими факторами.
Во-первых, огромный объем взаимодействий, управляемых искусственным интеллектом, перегрузил бы централизованных поставщиков выводов, создавая неустойчивые требования к пропускной способности и проблемы задержки.
Во-вторых, обработка на грани позволяет обеспечить критическую реактивность в режиме реального времени, необходимую для приложений, таких как автономные транспортные средства, дополненная реальность и устройства Интернета вещей.
Третье, локальное логическое заключение сохраняет конфиденциальность пользователей, храня чувствительные данные на персональных устройствах. Четвертое, краевые вычисления значительно снижают энергопотребление и углеродный след путем минимизации передачи данных по сети.
Наконец, локальное выполнение вывода обеспечивает оффлайн-функциональность и устойчивость, обеспечивая сохранение возможностей искусственного интеллекта даже при нарушении сетевой связи.
Этот распределенный парадигма интеллекта представляет собой не только оптимизацию наших текущих систем, но и фундаментальную переосмысление того, как мы разворачиваем и взаимодействуем с искусственным интеллектом в нашем все более связанном мире.
Кроме того, мы наблюдаем фундаментальный сдвиг в вычислительных требованиях к LLM. В то время как последнее десятилетие было овладено огромными вычислительными требованиями для обучения больших языковых моделей, мы теперь вступаем в эру, где вычислительные ресурсы времени вывода занимают главную роль. Этот переход особенно заметен в появлении агентных систем искусственного интеллекта, как это продемонстрировал прорыв OpenAI с Q*, который показал, как динамическое рассуждение требует значительных вычислительных ресурсов в реальном времени.
В отличие от вычислений во время обучения, которые являются единовременными инвестициями в разработку модели, вычисления во время вывода представляют собой непрерывный вычислительный диалог, необходимый для автономных агентов для рассуждения, планирования и адаптации к новым ситуациям. Этот переход от статического обучения модели к динамическому рассуждению агента требует радикального переосмысления нашей вычислительной инфраструктуры — там, где вычисления на краю становятся не просто выгодными, но и необходимыми.
По мере развития этого преобразования мы наблюдаем появление рынков выводов на краю между узлами, где миллиарды подключенных устройств - от смартфонов до умных домашних систем - образуют динамические вычислительные сети. Эти устройства могут беспрепятственно торговать возможностями вывода, создавая органический рынок, где вычислительные ресурсы перетекают туда, где они наиболее нужны. Избыточная вычислительная мощность бездействующих устройств становится ценным ресурсом, торгуемым в реальном времени, обеспечивая более эффективную и устойчивую инфраструктуру по сравнению с традиционными централизованными системами.
Эта демократизация вычислений вывода оптимизирует не только использование ресурсов, но и создает новые экономические возможности в цифровой экосистеме, где каждое подключенное устройство становится потенциальным микропоставщиком возможностей искусственного интеллекта. Будущее искусственного интеллекта будет характеризоваться не только мощностью отдельных моделей, но и коллективным интеллектом взаимосвязанных краевых устройств, формирующих глобальный, демократизированный рынок выводов, что-то вроде рыночного спота для проверяемых выводов на основе спроса и предложения.
С помощью LLMs мы теперь можем получать доступ к огромным объемам информации через разговор, а не через традиционный поиск. Этот разговорный подход скоро станет более персонализированным и локализованным, поскольку интернет превращается в платформу для агентов искусственного интеллекта, а не для человеческих пользователей.
С точки зрения пользователя, акцент будет смещаться с определения «лучшей модели» на получение наиболее персонализированных ответов. Ключ к лучшим ответам заключается в интеграции персональных данных пользователя вместе с общими знаниями интернета. Начально, более широкие контекстные окна и retrieval-augmented generation (RAG) помогут интегрировать персональные данные, но в конечном итоге, индивидуальные данные превзойдут общие интернет-данные по важности.
Это приведет к будущему, когда у каждого из нас будет личная AI-модель, взаимодействующая с экспертными моделями Интернета. Изначально персонализация будет происходить наряду с удаленными моделями, но опасения по поводу конфиденциальности и скорости реакции будут толкать нас к большему взаимодействию на локальных устройствах. Это создаст новую границу - не между человеком и машиной, а между нашими личными моделями и экспертными моделями Интернета.
Традиционная Интернет-модель доступа к сырым данным устареет. Вместо этого ваша локальная модель будет взаимодействовать с удаленными экспертными моделями для сбора информации, которую она будет обрабатывать и представлять вам в наиболее персонализированном, высокопропускном режиме. Эти персональные модели станут все более незаменимыми, поскольку они узнают больше о ваших предпочтениях и привычках.
Интернет превратится в экосистему взаимосвязанных моделей: локальных, персональных моделей высокого контекста и удаленных экспертных моделей с высоким уровнем знаний. Это потребует новых технологий, таких как федеративное обучение, чтобы обновлять информацию между этими моделями. По мере развития машинной экономики нам придется переосмыслить вычислительный субстрат, на котором это происходит, в первую очередь в отношении вычислений, масштабируемости и платежей. Это приведет к реорганизации информационного пространства, которое является агенто-центричным, суверенным, высоко композиционным, самообучающимся и развивающимся.
В агентической сети взаимодействие между человеком и агентом превращается в сложную сеть коммуникации агента-агент. Эта архитектура представляет собой фундаментальную переосмысление структуры интернета, где суверенные агенты становятся основными интерфейсами для цифрового взаимодействия. Ниже мы выделяем основные примитивы, необходимые для агентических протоколов.
Суверенная идентичность
Автономные агенты
Самостоятельные сущности, способные: Понимание естественного языка и разрешение намерений
Многоэтапное планирование и декомпозиция задач
Управление ресурсами и оптимизация
Изучение на основе взаимодействия и обратной связи
Инфраструктура данных
Гибридные системы, объединяющие: zkTLS
Традиционные тренировочные наборы данных
Парсинг веб-страниц в реальном времени и синтез данных
Сети RLHF (обучение с подкреплением на основе обратной связи от человека) Распределенное сбор обратной связи
Механизмы консенсуса, взвешенные по качеству
Compute Layer
Проверяемые протоколы вывода обеспечивают: Целостность вычислений
Репродуцируемость результата
Эффективность использования ресурсов
Децентрализованная вычислительная инфраструктура с функциями: пиринговые рынки вычислений
Системы доказательства вычислений
Динамическое выделение ресурсов
Модельная экосистема
Иерархическая модельная архитектура: задачно-специфичные SLM (маленькие языковые модели)
Универсальные LLM
Специализированные мультимодальные модели
Координационные фреймворки
Механизмы управления: Разрешение споров
Выделение ресурсов
Параллельные среды выполнения, обеспечивающие: Параллельную обработку задач
Изоляция ресурсов
Управление состоянием
Агентство рынков
Ликвидность, принадлежащая агентуАгенты владеют частью своего предложения токенов в Genesis
Агенты становятся приносящими доход активами Агентных DAO
Современный дизайн распределенных систем предлагает уникальные идеи и примитивы для создания агентных протоколов, в частности, архитектур на основе событий и, более прямо, модели акторов вычислений.
Модель актёра обеспечивает элегантное теоретическое основание для реализации систем агентов. В этой вычислительной модели 'актёры' рассматриваются как универсальные примитивы вычислений, где каждый актёр может:
Основные преимущества модели актера для агентных систем включают:
Мы предлагаем Neuron, практическую реализацию этого теоретического агентического протокола через многоуровневую распределенную архитектуру, объединяющую пространства имен блокчейна, федеративные сети, CRDT и DHT, при этом каждый уровень служит отдельным целям в стеке протоколов. Мы черпаем вдохновение из Urbit и Holochain, ранних пионеров в дизайне p2p ОС.
В Neuron блокчейн-уровень обеспечивает проверяемые пространства имен и идентификацию, обеспечивая детерминированный адресацию и обнаружение агентов с сохранением криптографических доказательств способностей и репутации. Над этим уровнем расположен уровень DHT, облегчающий эффективное обнаружение агентов и узлов вместе с маршрутизацией контента с временем поиска O(log n), сокращая операции на цепи, обеспечивая при этом поиск сверстников с учетом местоположения. Синхронизация состояния между федеративными узлами осуществляется с помощью CRDT, позволяющих агентам и узлам поддерживать согласованные виды общего состояния без необходимости глобального консенсуса для каждого взаимодействия.
Эта архитектура естественным образом отображается на федеративную сеть, где автономные агенты действуют как суверенные узлы, находящиеся на устройствах с локальным выводом на краю, реализующим шаблон Actor Model. Домены федерации могут быть организованы по возможностям агента, причем DHT обеспечивает эффективную маршрутизацию и обнаружение внутри и между доменами. Каждый агент функционирует как независимый актер со своим собственным состоянием, в то время как слой CRDT обеспечивает окончательную согласованность во всей федерации. Этот многоуровневый подход обеспечивает несколько ключевых возможностей:
Децентрализованная координация
Масштабируемые операции
Стойкость системы
Этот подход к реализации обеспечивает прочное основание для создания сложных агентных систем, сохраняя ключевые свойства суверенитета, масштабируемости и устойчивости, необходимые для эффективного взаимодействия агентов.
Агентная паутина знаменует собой поворотную эволюцию в человеко-машинном взаимодействии, выходя за рамки последовательных разработок предыдущих эпох и устанавливая принципиально новую парадигму цифрового существования. В отличие от предыдущих итераций, которые просто изменили то, как мы потребляем или владеем информацией, Agentic Web превращает Интернет из платформы, ориентированной на человека, в интеллектуальный субстрат, где автономные агенты становятся основными действующими лицами. Эта трансформация основана на конвергенции периферийных вычислений, больших языковых моделей и децентрализованных протоколов, создавая экосистему, в которой персональные модели ИИ легко взаимодействуют со специализированными экспертными системами.
По мере того как мы движемся к этому агентно-центричному будущему, границы между человеческим и машинным интеллектом начинают размываться, заменяясь симбиотическим отношением, где персонализированные искусственные интеллектуальные агенты служат в качестве наших цифровых расширений, понимая наш контекст, предвидя наши потребности и автономно навигируя в обширном ландшафте распределенного интеллекта. Таким образом, Агентичная Паутина представляет собой не просто технологический прогресс, но и фундаментальное переосмысление человеческого потенциала в цифровую эпоху, где каждое взаимодействие становится возможностью для усиленного интеллекта, а каждое устройство становится узлом в глобальной сети совместных систем искусственного интеллекта.
Как и человечество ориентируется в физических измерениях пространства и времени, автономные агенты обитают в своих собственных фундаментальных измерениях: блокпространстве для существования и времени вывода для мысли. Эта цифровая онтология отражает нашу физическую реальность, где люди преодолевают расстояния и переживают временной поток, агенты перемещаются по криптографическим доказательствам и вычислительным циклам, создавая параллельную вселенную алгоритмического существования.
Неизбежно, что сущности в скрытом пространстве будут работать на децентрализованном блокчейне.
Искусственный интеллект и технология блокчейн представляют собой две преобразующие силы, меняющие наш мир. Искусственный интеллект расширяет когнитивные способности человека с помощью машинного обучения и нейронных сетей, в то время как технология блокчейн создает поддающийся проверке цифровой дефицит и обеспечивает новые формы координации, не требующей доверия. По мере того, как эти технологии сближаются, они закладывают основу для новой итерации Интернета, в которой автономные агенты взаимодействуют с децентрализованными системами. Эта «агентская паутина» представляет новый класс цифровых граждан: агентов с искусственным интеллектом, которые могут самостоятельно перемещаться, вести переговоры и совершать транзакции. Эта трансформация перераспределяет власть в цифровой сфере, позволяя людям восстановить суверенитет над своими данными, одновременно способствуя созданию экосистемы, в которой человек и искусственный интеллект сотрудничают беспрецедентными способами.
Чтобы понять, куда мы движемся, давайте сначала проследим эволюцию веб-сайта через его основные итерации, каждая из которых отмечена отдельными возможностями и архитектурными парадигмами:
В то время как первые два поколения сети были сосредоточены на распространении информации, последние два позволяют улучшать информацию. Веб 3.0 ввел владение данными через токены, а теперь Веб 4.0 наделяет интеллектом благодаря крупным языковым моделям (КЯМ).
LLMs представляют собой качественный скачок в интеллекте машин, функционируя как динамические системы сопоставления шаблонов, которые превращают обширные знания в контекстуальное понимание с помощью вероятностных вычислений. Однако их истинный потенциал проявляется, когда они структурированные в виде агентов - превращаясь из чистых информационных процессоров в целенаправленные сущности, способные воспринимать, рассуждать и действовать. Эта трансформация создает возникающий интеллект, способный к устойчивому и значимому сотрудничеству как на языке, так и в действиях.
Термин «агент» представляет собой новую парадигму взаимодействия человека с ИИ, выходя за рамки ограничений и негативных ассоциаций традиционных чат-ботов. Этот сдвиг не просто семантический; он представляет собой фундаментальное переосмысление того, как ИИ-системы могут работать автономно, поддерживая смысловое взаимодействие с людьми. Фундаментально агентские рабочие процессы позволяют формировать рынки вокруг решения конкретных потребностей пользователей.
В конечном итоге, Агентическая веб-представляет собой не только новый уровень интеллекта - она фундаментально преобразует то, как мы взаимодействуем с цифровыми системами. В то время как предыдущие версии веба полагались на статические интерфейсы и заранее определенные пользовательские пути, Агентическая веб-представляет собой динамическую инфраструктуру времени выполнения, где и вычисления, и интерфейсы адаптируются в режиме реального времени к контексту и намерениям пользователя.
Традиционные веб-сайты служат атомарной единицей современного Интернета, предоставляя фиксированные интерфейсы, через которые пользователи читают, пишут и взаимодействуют с информацией по заранее определенным путям. Эта модель, несмотря на свою функциональность, ограничивает пользователей интерфейсами, предназначенными для общих сценариев использования, а не для индивидуальных потребностей. Agentic Web освобождается от этих ограничений благодаря контекстно-зависимым вычислениям, генерации адаптивного интерфейса, предиктивным потокам действий, разблокированным с помощью RAG и другим инновациям в области поиска информации в режиме реального времени.
Рассмотрим, как TikTok произвел революцию в потреблении контента, создав персонализированные ленты, которые адаптируются к предпочтениям пользователей в режиме реального времени. Agentic Web распространяет эту концепцию не только на рекомендации по контенту, но и на всю генерацию интерфейса. Вместо того, чтобы перемещаться по фиксированным макетам веб-страниц, пользователи взаимодействуют с динамически генерируемыми интерфейсами, которые предсказывают и облегчают их следующие действия. Этот переход от статичных веб-сайтов к динамическим, управляемым агентами интерфейсам представляет собой фундаментальную эволюцию в том, как мы взаимодействуем с цифровыми системами, переходя от моделей, основанных на навигации, к моделям, основанным на намерениях.
Агентные архитектуры стали огромным полем исследований для исследователей и строителей. Непрерывно разрабатываются новые методы для улучшения их рассуждений и способностей к решению проблем. Техники, такие как Chain-of-Thought (CoT), Tree-of-Thought (ToT) и Graph-of-Thought (GoT), являются яркими примерами инноваций, направленных на улучшение способности LLMs справляться с сложными задачами путем имитации более тонких, похожих на человеческие когнитивные процессы.
Побуждение Chain-of-Thought (CoT) побуждает большие языковые модели (LLM) разбивать сложные задачи на более мелкие, управляемые шаги. Этот подход особенно эффективен для проблем, требующих логического мышления, таких как написание коротких скриптов на Python или решение математических уравнений.
Tree-of-Thoughts (ToT) основывается на CoT, вводя древовидную структуру, которая позволяет исследовать несколько независимых путей мысли. Это усовершенствование позволяет LLM решать еще более сложные задачи. В ToT каждая «мысль» (текстовый вывод от LLM) прямо связана только с предыдущей или последующей мыслью внутри локальной цепочки (ветви дерева). Хотя эта структура предлагает больше гибкости, чем CoT, она по-прежнему ограничивает потенциал для кросс-опыления идей.
Граф мысли (GoT) углубляет концепцию, сливая классические структуры данных с LLMs. Этот подход расширяет ToT, позволяя любой «мысли» связываться с любой другой мыслью в графовой структуре. Эта взаимосвязанная сеть мыслей более точно отражает когнитивные процессы человека.
Графовая структура GoT, вероятно, обеспечивает более точное представление человеческого мышления по сравнению с CoT или ToT в большинстве сценариев. Хотя бывают случаи, когда наши модели мышления могут напоминать цепочки или деревья (например, при разработке планов на случай непредвиденных обстоятельств или стандартных операционных процедур), это скорее исключения, чем норма. Эта модель лучше отражает человеческое мышление, которое часто перескакивает с одной мысли на другую, а не следует строгому последовательному порядку. В то время как некоторые сценарии, такие как разработка планов на случай непредвиденных обстоятельств или стандартных процедур, могут по-прежнему следовать цепной или древовидной структуре, наш мозг обычно создает сложные, взаимосвязанные сети идей, которые больше соответствуют графовой структуре.
Такой графоподобный подход в GoT позволяет более динамичное и гибкое исследование идей, что потенциально приводит к более творческим и всесторонним возможностям решения проблем в LLMs.
Эти рекурсивные операции на основе графа - только шаг к агентным рабочим процессам. Очевидное следующее развитие - множество агентов со своей собственной специализацией, оркестрируемых к определенным целям. Красота агентов заключается в их композиции.
Агенты позволяют модулировать и параллелизировать LLM через координацию множества агентов.
Концепция мультиагентных систем не нова. Её корни уходят к "Обществу разума" Марвина Мински, который предложил, что несколько модульных умов, работающих в сотрудничестве, могут превзойти один монолитный ум. ChatGPT и Claude - одиночные агенты. Mistral популяризировал Микс из Экспертов. Расширяя эту идею дальше, мы считаем, что архитектура Сети Агентов будет конечным состоянием этой топологии интеллекта.
С точки зрения биомимикрии, в отличие от моделей искусственного интеллекта, где миллиарды идентичных нейронов соединены равномерным и предсказуемым образом, человеческий мозг (фактически, сознательная машина) является невероятно гетерогенным - как на уровне органов, так и на клеточном уровне. Нейроны общаются с помощью сложных сигналов, включающих градиенты нейромедиаторов, внутриклеточные каскады и различные модуляторные системы, что делает их функцию намного более тонкой, чем простые двоичные состояния.
Это указывает на то, что в биологии интеллект не происходит только от большого количества компонентов или размера набора данных для обучения. Скорее, он возникает из сложного взаимодействия между разнообразными специализированными элементами - внутренне аналоговый процесс.
По этой причине идея развития миллионов более мелких моделей вместо нескольких крупных и обеспечения оркестрации между всеми этими действующими лицами, скорее всего, приводит к инновациям в когнитивной архитектуре, что-то вроде многопользовательских систем.
Проектирование многоАгентной системы предлагает несколько преимуществ по сравнению с одноагентными системами: она более поддерживаема, легче понять и более гибкая для расширения. Даже в случаях, когда нужен только интерфейс одного агента, реализация его в рамках многоАгентного фреймворка может сделать систему более модульной, упрощая процесс добавления или удаления компонентов по мере необходимости. Важно понимать, что многоАгентная архитектура может быть очень эффективным способом построения даже одноагентной системы.
Хотя большие языковые модели (LLM) показали впечатляющие возможности, такие как генерация текста, решение сложных задач и выполнение широкого спектра задач, отдельные агенты LLM сталкиваются с ограничениями, которые могут снизить их эффективность в реальных приложениях.
Ниже мы рассмотрим пять ключевых проблем, связанных с агентными системами, и исследуем, как многоагентное сотрудничество может преодолеть эти препятствия, разблокируя полный потенциал LLMs.
В то время как многоагентные системы предлагают убедительные преимущества в распределенном решении проблем и оптимизации ресурсов, их истинный потенциал проявляется, когда мы рассматриваем их реализацию на краю сети. В то время как ИИ продолжает развиваться, слияние многоагентных архитектур с рассчетами на краю создает мощное сотрудничество, позволяющее не только коллективный интеллект, но и локализованную, эффективную обработку на бесчисленных устройствах. Этот распределенный подход к развертыванию ИИ естественным образом расширяет преимущества многоагентных систем, принося специализированный, кооперативный интеллект ближе к тому месту, где он наиболее нужен: конечному пользователю.
Распространение искусственного интеллекта по цифровому ландшафту приводит к фундаментальной реструктуризации вычислительных архитектур. Поскольку интеллект становится неотъемлемой частью нашего повседневного цифрового взаимодействия, мы наблюдаем естественное разделение вычислений: специализированные центры обработки данных занимаются сложным рассуждением и задачами, специфичными для области, в то время как краевые устройства обрабатывают персонализированные, контекстно-чувствительные запросы локально. Этот сдвиг к краевому выводу не просто предпочтение в архитектуре - это необходимость, вызванная несколькими критическими факторами.
Во-первых, огромный объем взаимодействий, управляемых искусственным интеллектом, перегрузил бы централизованных поставщиков выводов, создавая неустойчивые требования к пропускной способности и проблемы задержки.
Во-вторых, обработка на грани позволяет обеспечить критическую реактивность в режиме реального времени, необходимую для приложений, таких как автономные транспортные средства, дополненная реальность и устройства Интернета вещей.
Третье, локальное логическое заключение сохраняет конфиденциальность пользователей, храня чувствительные данные на персональных устройствах. Четвертое, краевые вычисления значительно снижают энергопотребление и углеродный след путем минимизации передачи данных по сети.
Наконец, локальное выполнение вывода обеспечивает оффлайн-функциональность и устойчивость, обеспечивая сохранение возможностей искусственного интеллекта даже при нарушении сетевой связи.
Этот распределенный парадигма интеллекта представляет собой не только оптимизацию наших текущих систем, но и фундаментальную переосмысление того, как мы разворачиваем и взаимодействуем с искусственным интеллектом в нашем все более связанном мире.
Кроме того, мы наблюдаем фундаментальный сдвиг в вычислительных требованиях к LLM. В то время как последнее десятилетие было овладено огромными вычислительными требованиями для обучения больших языковых моделей, мы теперь вступаем в эру, где вычислительные ресурсы времени вывода занимают главную роль. Этот переход особенно заметен в появлении агентных систем искусственного интеллекта, как это продемонстрировал прорыв OpenAI с Q*, который показал, как динамическое рассуждение требует значительных вычислительных ресурсов в реальном времени.
В отличие от вычислений во время обучения, которые являются единовременными инвестициями в разработку модели, вычисления во время вывода представляют собой непрерывный вычислительный диалог, необходимый для автономных агентов для рассуждения, планирования и адаптации к новым ситуациям. Этот переход от статического обучения модели к динамическому рассуждению агента требует радикального переосмысления нашей вычислительной инфраструктуры — там, где вычисления на краю становятся не просто выгодными, но и необходимыми.
По мере развития этого преобразования мы наблюдаем появление рынков выводов на краю между узлами, где миллиарды подключенных устройств - от смартфонов до умных домашних систем - образуют динамические вычислительные сети. Эти устройства могут беспрепятственно торговать возможностями вывода, создавая органический рынок, где вычислительные ресурсы перетекают туда, где они наиболее нужны. Избыточная вычислительная мощность бездействующих устройств становится ценным ресурсом, торгуемым в реальном времени, обеспечивая более эффективную и устойчивую инфраструктуру по сравнению с традиционными централизованными системами.
Эта демократизация вычислений вывода оптимизирует не только использование ресурсов, но и создает новые экономические возможности в цифровой экосистеме, где каждое подключенное устройство становится потенциальным микропоставщиком возможностей искусственного интеллекта. Будущее искусственного интеллекта будет характеризоваться не только мощностью отдельных моделей, но и коллективным интеллектом взаимосвязанных краевых устройств, формирующих глобальный, демократизированный рынок выводов, что-то вроде рыночного спота для проверяемых выводов на основе спроса и предложения.
С помощью LLMs мы теперь можем получать доступ к огромным объемам информации через разговор, а не через традиционный поиск. Этот разговорный подход скоро станет более персонализированным и локализованным, поскольку интернет превращается в платформу для агентов искусственного интеллекта, а не для человеческих пользователей.
С точки зрения пользователя, акцент будет смещаться с определения «лучшей модели» на получение наиболее персонализированных ответов. Ключ к лучшим ответам заключается в интеграции персональных данных пользователя вместе с общими знаниями интернета. Начально, более широкие контекстные окна и retrieval-augmented generation (RAG) помогут интегрировать персональные данные, но в конечном итоге, индивидуальные данные превзойдут общие интернет-данные по важности.
Это приведет к будущему, когда у каждого из нас будет личная AI-модель, взаимодействующая с экспертными моделями Интернета. Изначально персонализация будет происходить наряду с удаленными моделями, но опасения по поводу конфиденциальности и скорости реакции будут толкать нас к большему взаимодействию на локальных устройствах. Это создаст новую границу - не между человеком и машиной, а между нашими личными моделями и экспертными моделями Интернета.
Традиционная Интернет-модель доступа к сырым данным устареет. Вместо этого ваша локальная модель будет взаимодействовать с удаленными экспертными моделями для сбора информации, которую она будет обрабатывать и представлять вам в наиболее персонализированном, высокопропускном режиме. Эти персональные модели станут все более незаменимыми, поскольку они узнают больше о ваших предпочтениях и привычках.
Интернет превратится в экосистему взаимосвязанных моделей: локальных, персональных моделей высокого контекста и удаленных экспертных моделей с высоким уровнем знаний. Это потребует новых технологий, таких как федеративное обучение, чтобы обновлять информацию между этими моделями. По мере развития машинной экономики нам придется переосмыслить вычислительный субстрат, на котором это происходит, в первую очередь в отношении вычислений, масштабируемости и платежей. Это приведет к реорганизации информационного пространства, которое является агенто-центричным, суверенным, высоко композиционным, самообучающимся и развивающимся.
В агентической сети взаимодействие между человеком и агентом превращается в сложную сеть коммуникации агента-агент. Эта архитектура представляет собой фундаментальную переосмысление структуры интернета, где суверенные агенты становятся основными интерфейсами для цифрового взаимодействия. Ниже мы выделяем основные примитивы, необходимые для агентических протоколов.
Суверенная идентичность
Автономные агенты
Самостоятельные сущности, способные: Понимание естественного языка и разрешение намерений
Многоэтапное планирование и декомпозиция задач
Управление ресурсами и оптимизация
Изучение на основе взаимодействия и обратной связи
Инфраструктура данных
Гибридные системы, объединяющие: zkTLS
Традиционные тренировочные наборы данных
Парсинг веб-страниц в реальном времени и синтез данных
Сети RLHF (обучение с подкреплением на основе обратной связи от человека) Распределенное сбор обратной связи
Механизмы консенсуса, взвешенные по качеству
Compute Layer
Проверяемые протоколы вывода обеспечивают: Целостность вычислений
Репродуцируемость результата
Эффективность использования ресурсов
Децентрализованная вычислительная инфраструктура с функциями: пиринговые рынки вычислений
Системы доказательства вычислений
Динамическое выделение ресурсов
Модельная экосистема
Иерархическая модельная архитектура: задачно-специфичные SLM (маленькие языковые модели)
Универсальные LLM
Специализированные мультимодальные модели
Координационные фреймворки
Механизмы управления: Разрешение споров
Выделение ресурсов
Параллельные среды выполнения, обеспечивающие: Параллельную обработку задач
Изоляция ресурсов
Управление состоянием
Агентство рынков
Ликвидность, принадлежащая агентуАгенты владеют частью своего предложения токенов в Genesis
Агенты становятся приносящими доход активами Агентных DAO
Современный дизайн распределенных систем предлагает уникальные идеи и примитивы для создания агентных протоколов, в частности, архитектур на основе событий и, более прямо, модели акторов вычислений.
Модель актёра обеспечивает элегантное теоретическое основание для реализации систем агентов. В этой вычислительной модели 'актёры' рассматриваются как универсальные примитивы вычислений, где каждый актёр может:
Основные преимущества модели актера для агентных систем включают:
Мы предлагаем Neuron, практическую реализацию этого теоретического агентического протокола через многоуровневую распределенную архитектуру, объединяющую пространства имен блокчейна, федеративные сети, CRDT и DHT, при этом каждый уровень служит отдельным целям в стеке протоколов. Мы черпаем вдохновение из Urbit и Holochain, ранних пионеров в дизайне p2p ОС.
В Neuron блокчейн-уровень обеспечивает проверяемые пространства имен и идентификацию, обеспечивая детерминированный адресацию и обнаружение агентов с сохранением криптографических доказательств способностей и репутации. Над этим уровнем расположен уровень DHT, облегчающий эффективное обнаружение агентов и узлов вместе с маршрутизацией контента с временем поиска O(log n), сокращая операции на цепи, обеспечивая при этом поиск сверстников с учетом местоположения. Синхронизация состояния между федеративными узлами осуществляется с помощью CRDT, позволяющих агентам и узлам поддерживать согласованные виды общего состояния без необходимости глобального консенсуса для каждого взаимодействия.
Эта архитектура естественным образом отображается на федеративную сеть, где автономные агенты действуют как суверенные узлы, находящиеся на устройствах с локальным выводом на краю, реализующим шаблон Actor Model. Домены федерации могут быть организованы по возможностям агента, причем DHT обеспечивает эффективную маршрутизацию и обнаружение внутри и между доменами. Каждый агент функционирует как независимый актер со своим собственным состоянием, в то время как слой CRDT обеспечивает окончательную согласованность во всей федерации. Этот многоуровневый подход обеспечивает несколько ключевых возможностей:
Децентрализованная координация
Масштабируемые операции
Стойкость системы
Этот подход к реализации обеспечивает прочное основание для создания сложных агентных систем, сохраняя ключевые свойства суверенитета, масштабируемости и устойчивости, необходимые для эффективного взаимодействия агентов.
Агентная паутина знаменует собой поворотную эволюцию в человеко-машинном взаимодействии, выходя за рамки последовательных разработок предыдущих эпох и устанавливая принципиально новую парадигму цифрового существования. В отличие от предыдущих итераций, которые просто изменили то, как мы потребляем или владеем информацией, Agentic Web превращает Интернет из платформы, ориентированной на человека, в интеллектуальный субстрат, где автономные агенты становятся основными действующими лицами. Эта трансформация основана на конвергенции периферийных вычислений, больших языковых моделей и децентрализованных протоколов, создавая экосистему, в которой персональные модели ИИ легко взаимодействуют со специализированными экспертными системами.
По мере того как мы движемся к этому агентно-центричному будущему, границы между человеческим и машинным интеллектом начинают размываться, заменяясь симбиотическим отношением, где персонализированные искусственные интеллектуальные агенты служат в качестве наших цифровых расширений, понимая наш контекст, предвидя наши потребности и автономно навигируя в обширном ландшафте распределенного интеллекта. Таким образом, Агентичная Паутина представляет собой не просто технологический прогресс, но и фундаментальное переосмысление человеческого потенциала в цифровую эпоху, где каждое взаимодействие становится возможностью для усиленного интеллекта, а каждое устройство становится узлом в глобальной сети совместных систем искусственного интеллекта.
Как и человечество ориентируется в физических измерениях пространства и времени, автономные агенты обитают в своих собственных фундаментальных измерениях: блокпространстве для существования и времени вывода для мысли. Эта цифровая онтология отражает нашу физическую реальность, где люди преодолевают расстояния и переживают временной поток, агенты перемещаются по криптографическим доказательствам и вычислительным циклам, создавая параллельную вселенную алгоритмического существования.
Неизбежно, что сущности в скрытом пространстве будут работать на децентрализованном блокчейне.