Створення справжніх агентів штучного інтелекту та автономна криптовалютна економіка

СереднійJun 03, 2024
HyperAGI — це керований спільнотою децентралізований проєкт штучного інтелекту, спрямований на створення справжніх агентів штучного інтелекту та сприяння автономній криптовалютній економіці. Він досягає цього шляхом інтеграції рішень Bitcoin рівня 2, інноваційного механізму консенсусу Proof of Useful Work (PoUW) та великих мовних моделей (LLM). Проєкт присвячений реалізації безумовного базового доходу агента (UBAI) та просуванню децентралізованого та справедливого цифрового суспільства за допомогою технології штучного інтелекту.
Створення справжніх агентів штучного інтелекту та автономна криптовалютна економіка

Представляємо команду HyperAGI та досвід проекту

HyperAGI — це перший децентралізований проєкт штучного інтелекту, керований спільнотою за допомогою AI Rune HYPER· АГІ· АГЕНТ. Команда HyperAGI вже багато років глибоко займається сферою штучного інтелекту, накопичивши значний досвід у програмах генеративного штучного інтелекту Web3. Три роки тому команда HyperAGI використовувала генеративний штучний інтелект для створення 2D-зображень і 3D-моделей, побудувавши відкритий світ під назвою MOSSAI на блокчейні, що складається з тисяч островів, згенерованих штучним інтелектом. Вони також запропонували стандарт для невзаємозамінних криптографічних активів, створених штучним інтелектом, NFG. Однак на той момент децентралізовані рішення для навчання та генерації моделей ШІ ще не були розроблені. Одних ресурсів графічного процесора платформи було недостатньо для підтримки великої кількості користувачів, що запобігало вибуховому зростанню. З появою великих мовних моделей (LLM), що викликають інтерес громадськості до штучного інтелекту, HyperAGI запустила свою децентралізовану платформу додатків штучного інтелекту, розпочавши тестування Ethereum і Bitcoin L2 у 1 кварталі 2024 року.

HyperAGI фокусується на децентралізованих додатках штучного інтелекту, спрямованих на розвиток автономної криптовалютної економіки. Його кінцевою метою є встановлення безумовного базового доходу агента (UBAI). Він успадковує надійну безпеку та децентралізацію Bitcoin, посилену інноваційним механізмом консенсусу Proof of Useful Work (PoUW). Вузли графічного процесора споживчого класу можуть приєднуватися до мережі без дозволу, видобуваючи локальні токени $HYPT, виконуючи завдання PoUW, такі як висновок ШІ та 3D-рендеринг.

Користувачі можуть розробляти агенти AGI Proof of Personhood (PoP), керовані LLM, використовуючи різні інструменти. Ці агенти можуть бути налаштовані як чат-боти або 3D/XR сутності у метавсесвіті. Розробники штучного інтелекту можуть миттєво використовувати або розгортати мікросервіси LLM AI, полегшуючи створення програмованих автономних ончейн-агентів. Ці програмовані агенти можуть випускати або володіти криптовалютними активами, постійно працювати або торгувати, сприяючи динамічній, автономній криптоекономіці, яка підтримує реалізацію UBAI. Користувачі, які володіють HYPER· АГІ· Токени рун AGENT мають право створити агента PoP у ланцюжку Bitcoin Layer 1 і незабаром можуть претендувати на базові переваги для своїх агентів.

Що таке AI Agent? Чим засіб HyperAGI відрізняється від інших?

Концепція агента штучного інтелекту не є новою в академічних колах, але нинішній ажіотаж на ринку зробив цей термін все більш заплутаним. Агенти HyperAGI відносяться до втілених агентів, керованих LLM, які можуть навчатися в середовищах віртуальної 3D-симуляції та взаємодіяти з користувачами, а не лише з чат-ботами, керованими LLM. Агенти HyperAGI можуть існувати як у віртуальних цифрових світах, так і в реальному фізичному світі. В даний час агенти HyperAGI інтегруються з фізичними роботами, такими як роботизовані собаки, дрони та людиноподібні роботи. У майбутньому ці агенти зможуть завантажувати розширене навчання з віртуального 3D-світу на фізичних роботів для кращого виконання завдань.

Крім того, агенти HyperAGI повністю належать користувачам і мають соціально-економічне значення. Агенти PoP, які представляють користувачів, можуть отримувати UBAI для коригування базового доходу агента. Агенти HyperAGI поділяються на агентів PoP (Proof of Personhood), що представляють окремих користувачів, і звичайних функціональних агентів. В агентській економіці HyperAGI агенти PoP можуть отримувати базовий дохід у вигляді токенів, стимулюючи користувачів брати участь у навчанні та взаємодії своїх PoP-агентів. Це допомагає акумулювати дані, які доводять індивідуальність людини, а UBAI уособлює рівність та демократію ШІ.

AGI – це хайп чи скоро стане реальністю? Які відмінності та характеристики шляху досліджень і розробок HyperAGI порівняно з іншими проектами штучного інтелекту?

Хоча визначення штучного загального інтелекту (AGI) ще не уніфіковано, протягом десятиліть він вважався святим Граалем наукових кіл і промисловості штучного інтелекту. У той час як великі мовні моделі (LLM), засновані на трансформаторах, стають ядром різних агентів штучного інтелекту та AGI, HyperAGI не повністю поділяє цю точку зору. LLM дійсно забезпечують новий і зручний видобуток інформації, а також можливості планування і міркувань на основі природної мови. Однак по суті це глибокі нейронні мережі, керовані даними. Багато років тому, під час буму великих даних, ми розуміли, що такі системи за своєю суттю страждають від GIGO (Garbage in, garbage out). LLM не вистачає деяких важливих характеристик просунутого інтелекту, таких як втілення, що ускладнює цим штучним інтелектом або агентам розуміння світових моделей людей-користувачів або формулювання планів і дій для вирішення реальних проблем. Крім того, LLM не демонструють вищої когнітивної діяльності, такої як самосвідомість, рефлексія чи самоаналіз.

Наш засновник, Лендон Ван, має великий і багаторічний досвід досліджень у галузі штучного інтелекту. У 2004 році він запропонував Aspect-Oriented AI (AOAI), інновацію, що поєднує нейронні обчислення з аспектно-орієнтованим програмуванням (AOP). Аспект відноситься до інкапсуляції безлічі зв'язків або обмежень між об'єктами. Наприклад, нейрон - це інкапсуляція відносин або обмежень з безліччю інших клітин. Зокрема, нейрон взаємодіє з сенсорними або руховими клітинами через волокна та синапси, що відходять від тіла нейрона, що робить кожен нейрон аспектом, що містить такі зв'язки та логіку. Кожен агент штучного інтелекту можна розглядати як такий, що вирішує певний аспект проблеми, і технічно його можна змоделювати як аспект.

У програмній реалізації штучних нейронних мереж нейрони або шари, як правило, моделюються як об'єкти, що зрозуміло і підтримується в об'єктно-орієнтованих мовах програмування. Однак це ускладнює коригування топології нейронної мережі, а послідовності активації нейронів відносно жорсткі. Незважаючи на те, що це демонструє велику силу у виконанні простих високоінтенсивних обчислень, таких як навчання та висновування LLM, воно погано працює за гнучкістю та адаптивністю. З іншого боку, в AOAI нейрони або шари моделюються як аспекти, а не як об'єкти. Ця архітектура нейронних мереж має сильну адаптивність і гнучкість, що робить можливою самоеволюцію нейронних мереж.

HyperAGI поєднує ефективні LLM з AOAI, що розвивається, утворюючи шлях, який інтегрує ефективність традиційних штучних нейронних мереж з характеристиками самоеволюції нейронних мереж AO. Це, на сьогоднішній день, розглядається як можливий підхід до досягнення AGI.

Яке бачення HyperAGI

Бачення HyperAGI полягає в тому, щоб досягти безумовного базового доходу агента (UBAI), побудувати майбутнє, де технології справедливо служитимуть усім, розірвати коло експлуатації та створити справді децентралізоване та справедливе цифрове суспільство. На відміну від інших блокчейн-проектів, які лише стверджують, що вони віддані UBI, UBAI від HyperAGI має чіткий шлях реалізації через агентську економіку, а не є недосяжним ідеалом.

Впровадження Сатоші Накамото біткойна було монументальною інновацією для людства, але це просто децентралізована цифрова валюта без практичної користі. Значний прогрес і розвиток штучного інтелекту дозволили створювати цінність за допомогою децентралізованої моделі. У цій моделі люди виграють від штучного інтелекту, що працює на машинах, а не від цінності інших. Зароджується справжній криптографічний світ, заснований на коді, де всі машини створюються на благо і благополуччя людства.

У такому криптографічному світі між агентами ШІ все ще може існувати ієрархія, але експлуатація людиною виключається, оскільки самі агенти можуть володіти певною формою автономії. Кінцева мета та значення штучного інтелекту полягають у тому, щоб служити людству, як це закодовано в блокчейні.

Взаємозв'язок між Bitcoin L2 та AI, і навіщо створювати штучний інтелект на Bitcoin L2

  1. Bitcoin L2 як спосіб оплати для агентів штучного інтелекту

    В даний час біткойн є засобом, який уособлює «максимальний нейтралітет», що робить його дуже придатним для агентів штучного інтелекту, які беруть участь у ціннісних транзакціях. Біткойн усуває неефективність і «тертя», властиві фіатним валютам. Як «цифрове» середовище, Bitcoin забезпечує природну основу для штучного інтелекту для обміну цінностями. Bitcoin L2 розширює програмовані можливості Bitcoin, відповідаючи вимогам до швидкості, необхідним для обміну цінностями AI, тим самим позиціонуючи Bitcoin як рідну валюту для ШІ.

  2. Децентралізоване управління штучним інтелектом на Bitcoin L2

    Поточна тенденція централізації штучного інтелекту привернула увагу до децентралізованого узгодження та управління штучним інтелектом. Більш потужні смарт-контракти Bitcoin L2 можуть служити правилами, які регулюють поведінку агентів ШІ та моделі протоколів, досягаючи децентралізованої моделі узгодження та управління ШІ. Крім того, характеристика максимального нейтралітету Bitcoin полегшує досягнення консенсусу щодо узгодження та управління штучним інтелектом.

  3. Випуск активів штучного інтелекту на Bitcoin L2

    На додаток до випуску агентів ШІ як активів на Bitcoin L1, висока продуктивність Bitcoin L2 може задовольнити потреби агентів ШІ, що випускають активи ШІ, що стане основою агентської економіки.

  4. Агенти штучного інтелекту як додаток-вбивця для Bitcoin та Bitcoin L2

    Через проблеми з продуктивністю Біткойн не мав практичного застосування, окрім як засіб заощадження з моменту свого створення. Біткоїн, що входить до L2, отримує потужнішу програмованість. Агенти штучного інтелекту, як правило, використовуються для вирішення реальних проблем, тому агенти штучного інтелекту на основі біткойнів можуть бути по-справжньому застосовані. Масштаб і частота використання ШІ-агентів можуть стати вбивчим додатком для Bitcoin і L2. У той час як людська економіка може не надавати пріоритет біткойну як способу оплати, економіка роботів може. Велика кількість ШІ-агентів, що працюють 24/7, можуть невпинно використовувати біткойн для здійснення та отримання мікроплатежів. Попит на біткойн може значно зрости способами, які наразі неможливо уявити.

  5. Обчислення штучного інтелекту для підвищення безпеки Bitcoin L2

    Обчислення штучного інтелекту можуть доповнити Proof of Work (PoW) Bitcoin і навіть замінити PoW на Proof of Useful Work (PoUW), революційно забезпечуючи безпеку, вливаючи енергію, яка зараз використовується для майнінгу біткойнів, в агенти штучного інтелекту. Штучний інтелект може використовувати L2, щоб перетворити Bitcoin на інтелектуальний зелений блокчейн, на відміну від механізму PoS Ethereum. Запропонований нами консенсус Hypergraph, заснований на PoUW обчислень 3D/AI, буде представлений пізніше.

Що робить HyperAGI унікальним порівняно з іншими децентралізованими проектами штучного інтелекту?

HyperAGI виділяється у сфері штучного інтелекту Web3 своїм чітким баченням, рішеннями та технологіями. Підхід HyperAGI включає консенсус обчислювальної потужності графічного процесора, втілення штучного інтелекту та активів, що робить його децентралізованим гібридним ШІ-фінансовим додатком. Нещодавно академічні кола запропонували п'ять характеристик, якими повинні володіти децентралізовані платформи штучного інтелекту, і ми коротко розглянули та порівняли існуючі децентралізовані проєкти штучного інтелекту відповідно до цих п'яти функцій. П'ять характеристик децентралізованих платформ штучного інтелекту:

  1. Можливість перевірки дистанційно керованих моделей штучного інтелекту
    • Децентралізована перевірюваність включає такі технології, як доступність даних і докази з нульовим розголошенням (ZK).
  2. Зручність використання загальнодоступних моделей штучного інтелекту
    • Зручність використання залежить від того, чи є вузли API моделі штучного інтелекту (в основному LLM) одноранговими і чи повністю децентралізована мережа.
  3. Стимулювання розробників та користувачів штучного інтелекту
    • Справедливі механізми генерації токенів мають вирішальне значення для стимулювання.
  4. Глобальне управління основними рішеннями в цифровому суспільстві
    • Управління штучним інтелектом має бути нейтральним і ґрунтуватися на консенсусі.
  5. Без прив'язки до постачальника
    • Платформа має бути повністю децентралізованою.

Порівняння існуючих децентралізованих проєктів штучного інтелекту за такими характеристиками:

  1. Можливість перевірки дистанційно керованих моделей штучного інтелекту
    • Гіза: Заснована на механізмі консенсусу ZKML, Giza відповідає вимогам перевірюваності, але в даний час страждає від проблем з продуктивністю, особливо з великими моделями.
    • Cortex AI: Децентралізований проект штучного інтелекту L1, розпочатий п'ять років тому, Cortex AI включає нові інструкції в EVM для підтримки обчислень нейронних мереж, але не може задовольнити потреби великих моделей LLM.
    • Ofelimos: Перша пропозиція PoUW у криптографічному співтоваристві, але не пов'язана з конкретними програмами чи проектами.
    • Project PAI: Згадується PoUW в офіційному документі, але не має продукту.
    • Qubic: пропонує PoUW з використанням декількох графічних процесорів для обчислень штучних нейронних мереж, але його практичне застосування залишається незрозумілим.
    • FLUX: використовує PoW ZelHash, а не PoUW.
    • Coinai: На етапі дослідження не вистачає суворого механізму консенсусу.
  2. До проєктів, які не відповідають критерію перевірюваності, належать:
    • Проекти лізингу обчислень GPU: Відсутність децентралізованих механізмів перевірки, таких як DeepBrain Chain, EMC, Atheir, IO.NET, CLORE. ШІ та інші.
    • DeepBrain Chain: фокусується на оренді графічних процесорів, запустила свою основну мережу у 2021 році.
    • EMC: Централізоване призначення завдань і винагороди, не вистачає децентралізованого консенсусу.
    • Їх та IO.NET: Механізмів консенсусу не спостерігається.
    • КЛОР. Штучний інтелект: використовує краудсорсинг, ончейн-оплату за випуски моделей штучного інтелекту та випуск NFT, але не має можливості перевірки. Серед подібних проектів – SingularityNET, Bittensor, AINN, Fetch.ai, Ocean Protocol та Algovera.ai.
  3. Зручність використання загальнодоступних моделей штучного інтелекту
    • Cortex AI та Qubic: Підтримки LLM не спостерігається.

Жоден із існуючих децентралізованих проєктів штучного інтелекту повністю не вирішує ці п'ять проблем. HyperAGI, однак, є повністю децентралізованим протоколом штучного інтелекту, заснованим на механізмі консенсусу Hypergraph PoUW і повністю децентралізованому стеку Bitcoin L2, з планами оновлення до L2 для Bitcoin AI в майбутньому.

Унікальні особливості HyperAGI:

  • Механізм консенсусу Hypergraph PoUW: забезпечує безпеку мережі найбільш ефективним способом, використовуючи всю обчислювальну потужність, надану майнерами для висновків LLM і хмарних сервісів рендерингу.
  • Повністю децентралізована платформа: заснована на стеку Bitcoin L2, який гарантує, що платформа вільна від прив'язки до постачальників і сприяє легкому консенсусу щодо управління штучним інтелектом.
  • Перевірюваність і зручність використання: Концепція PoUW гарантує, що обчислювальна потужність може бути використана для вирішення різних проблем, що передаються в децентралізовану мережу, вирішення питання перевірюваності дистанційно запущених моделей штучного інтелекту та робить загальнодоступні моделі штучного інтелекту придатними для використання.

HyperAGI не тільки відповідає необхідним характеристикам для децентралізованої платформи штучного інтелекту, але й розвиває цю галузь завдяки унікальній інтеграції обчислювальної потужності графічного процесора та активів штучного інтелекту в децентралізованій структурі.

Чому саме зараз?

1. Вибух LLM та їх застосування

ChatGPT від OpenAI досяг 100 мільйонів користувачів лише за три місяці, викликавши глобальний сплеск розробки, застосування та інвестицій у великі мовні моделі (LLM). Однак до цього моменту технології та навчання LLM були дуже централізовані. Ця централізація викликала значне занепокоєння серед академічних кіл, промисловості та громадськості щодо монополізації технології штучного інтелекту кількома ключовими постачальниками, порушення конфіденційності даних, зазіхань та прив'язки постачальників з боку компаній, що займаються хмарними обчисленнями. Ці проблеми в основному пов'язані з контролем Інтернету та шлюзів додатків централізованими платформами, які не підходять для великомасштабних додатків штучного інтелекту. Спільнота штучного інтелекту почала впроваджувати деякі локальні та децентралізовані проєкти штучного інтелекту. Наприклад, Ollama представляє локальне виконання, а Пелюстки – децентралізацію. Ollama використовує методи стиснення параметрів або зниженої точності, щоб дозволити малим і середнім LLM працювати на персональних комп'ютерах або навіть мобільних телефонах, таким чином захищаючи конфіденційність даних користувача та інші права. Однак цей підхід, очевидно, важко підтримувати виробничі середовища та мережеві програми. Пелюстки, з іншого боку, досягають повністю децентралізованого висновку LLM за допомогою технології Peer2Peer від Bittorrent. Тим не менш, Petals не має консенсусу та протоколів стимулюючого шару і все ще обмежений вузьким колом дослідників.

2. Інтелектуальні агенти, керовані LLM

За підтримки LLM інтелектуальні агенти можуть виконувати міркування вищого рівня та володіти певними можливостями планування. Використовуючи природну мову, кілька інтелектуальних агентів можуть формувати соціальну співпрацю, подібну до людської. Було запропоновано кілька фреймворків інтелектуальних агентів на основі LLM, таких як AutoGen від Microsoft, Langchain і CrewAI. В даний час велика кількість підприємців і розробників у сфері штучного інтелекту зосереджуються на напрямку інтелектуальних агентів на основі LLM та їх застосувань. Існує високий попит на стабільне, масштабоване висновування LLM, але це в основному досягається за рахунок оренди екземплярів логічного висновку GPU у компаній, що займаються хмарними обчисленнями. У березні 2024 року Nvidia випустила ai.nvidia.com, генеративну мікросервісну платформу зі штучним інтелектом, яка включає LLM, щоб задовольнити цей величезний попит, хоча вона ще офіційно не запущена. Інтелектуальні агенти, керовані LLM, процвітають, так само, як колись це було з розробкою веб-сайтів. Однак співпраця, як і раніше, в основному ведеться в традиційному режимі Web2, де розробникам інтелектуальних агентів потрібно орендувати графічні процесори або закуповувати API у постачальників LLM для підтримки роботи цих агентів. Це створює значні тертя, перешкоджаючи швидкому зростанню екосистеми інтелектуальних агентів і передачі цінності в економіці інтелектуальних агентів.

3. Середовища імітаційного моделювання втілених агентів

В даний час більшість агентів можуть отримувати доступ до певних API і керувати ними або взаємодіяти з ними за допомогою коду або скриптів, запису керуючих команд, згенерованих LLM, або зчитування зовнішніх станів. Загальні інтелектуальні агенти повинні не тільки розуміти і генерувати природну мову, а й розуміти людський світ. Після відповідної підготовки вони повинні мати можливість переходити на роботизовані системи (такі як дрони, пилососи, людиноподібні роботи тощо) для виконання конкретних завдань. Ці агенти називаються втіленими агентами. Навчання втілених агентів вимагає великої кількості реальних візуальних даних, які допоможуть їм краще зрозуміти конкретні середовища та реальний світ, скорочуючи час навчання та розробки роботів, підвищуючи ефективність навчання та знижуючи витрати. В даний час симуляційні середовища для тренування втіленого інтелекту побудовані і належать кільком компаніям, таким як Minecraft від Microsoft і Isaac Gym від Nvidia. Не існує децентралізованих середовищ для задоволення потреб у навчанні втіленого інтелекту. Останнім часом деякі ігрові рушії почали зосереджуватися на штучному інтелекті, як-от Unreal Engine від Epic, який просуває навчальні середовища зі штучним інтелектом, які відповідають OpenAI GYM.

4. Екосистема Bitcoin L2

Хоча сайдчейни Bitcoin існували роками, вони в основному використовувалися для платежів, а відсутність підтримки смарт-контрактів перешкоджала складним ончейн-додаткам. Поява EVM-сумісних Bitcoin L2s дозволяє Bitcoin підтримувати децентралізовані програми штучного інтелекту через L2. Децентралізований штучний інтелект вимагає повністю децентралізованої, домінантної в обчисленнях блокчейн-мережі, а не все більш централізованих блокчейн-мереж PoS. Впровадження нових протоколів для нативних біткойн-активів, таких як написи та порядкові числа, робить можливим створення екосистем та додатків на основі Bitcoin. Наприклад, монетний двір справедливого запуску HYPER•AGI•AGENT був завершений протягом години, і в майбутньому HyperAGI випустить більше активів штучного інтелекту та додатків, керованих спільнотою, на Bitcoin.

Технічна структура та рішення HyperAGI

1. Як реалізувати децентралізовану платформу інтелектуальних агентів AI на основі LLM?

Основною проблемою децентралізованого штучного інтелекту сьогодні є забезпечення віддаленого висновування для великих моделей штучного інтелекту, а також навчання та висновків втілених інтелектуальних агентів за допомогою високопродуктивних алгоритмів з низькими накладними витратами, які можна перевірити. Без можливості перевірки система повернеться до традиційної багатосторонньої ринкової моделі за участю постачальників, попиту та операторів платформи, а не досягне повністю децентралізованої платформи додатків штучного інтелекту.

Для обчислень штучного інтелекту, які можна перевірити, потрібен алгоритм консенсусу PoUW (Proof of Useful Work). Це служить основою для децентралізованих механізмів стимулювання. Зокрема, в рамках мережевих стимулів карбування токенів здійснюється вузлами, які виконують обчислювальні завдання та надсилають результати, які можна перевірити, замість того, щоб будь-яка централізована організація передавала токени вузлам.

Щоб досягти обчислень штучного інтелекту, які можна перевірити, нам спочатку потрібно визначити самі обчислення штучного інтелекту. Обчислення штучного інтелекту охоплюють багато рівнів, від низькорівневих машинних інструкцій та інструкцій CUDA до мов вищого рівня, таких як C++ та Python. Подібним чином, у навчанні втілених інтелектуальних агентів, 3D-обчислення також існують на різних рівнях, включаючи мови шейдерів, OpenGL, C++ та скрипти креслення.

Алгоритм консенсусу PoUW від HyperAGI реалізований за допомогою обчислювальних графів. Обчислювальний граф визначається як орієнтований граф, де вузли відповідають математичним операціям. Це спосіб вираження та оцінки математичних виразів, по суті, «мова», що описує рівняння, що містить вузли (змінні) та ребра (операції або прості функції).

Перевірена реалізація обчислень штучного інтелекту:

1.1 Використання обчислювальних графів для визначення перевірених обчислень

Будь-які обчислення (наприклад, 3D обчислення та обчислення штучного інтелекту) можуть бути визначені за допомогою обчислювальних графів. Різні рівні обчислень можна представити за допомогою підграфів. Цей підхід охоплює різні типи обчислень і виражає різні обчислювальні рівні за допомогою підграфів. В даний час він включає два рівні: обчислювальний граф верхнього рівня розгортається в ланцюжку для полегшення перевірки вузлами.

1.2 Децентралізоване завантаження та виконання LLM-моделей та 3D-сцен

LLM-моделі та рівні 3D-сцен завантажуються та запускаються повністю децентралізовано. Коли користувач звертається до моделі LLM для висновків або вводить 3D-сцену для рендерингу, інтелектуальний агент HyperAGI ініціює інший довірений вузол для запуску того самого гіперграфа (LLM або 3D-сцени).

1.3 Верифікація результатів обчислень

Якщо вузол верифікації виявляє, що результат, надісланий вузлом, не відповідає результату, надісланому довіреним вузлом, він виконує двійковий пошук за позаланцюговими результатами обчислень обчислювального графа другого рівня (підграфа), щоб знайти розбіжний обчислювальний вузол (оператор) у підграфі. Оператори підграфів попередньо розгортаються в смарт-контрактах. Передавши смарт-контракту параметри неузгодженого оператора та виконавши оператор, можна перевірити результати.

2. Як уникнути надмірних обчислювальних витрат?

Значною проблемою в перевірених обчисленнях штучного інтелекту є управління додатковими обчислювальними накладними витратами. У візантійських протоколах консенсусу 2/3 вузлів повинні погодитися, щоб сформувати консенсус. Для консенсусу висновків ШІ це означає, що всі вузли повинні будуть завершити однакові обчислення, що є неприйнятною тратою в обчисленнях ШІ. HyperAGI, однак, вимагає лише від 1 до (m) вузлів для виконання додаткових обчислень для валідації.

2.1 Супутні обчислення для логічного висновку LLM

Кожен висновок LLM не виконується незалежно. Інтелектуальний агент HyperAGI ініціює принаймні один довірений вузол для «супутніх обчислень». Оскільки висновування LLM виконується глибокими нейронними мережами, де результати обчислень кожного шару використовуються як вхідні дані для наступного шару, доки висновок не буде завершено, кілька користувачів можуть одночасно отримати доступ до однієї і тієї ж великої моделі LLM. Тому, щонайбільше, потрібно ініціювати додаткову кількість довірених вузлів, що дорівнює кількості LLM (m). Як мінімум, для «супутніх обчислень» потрібен лише один довірений вузол.

2.2 Обчислення рендерингу 3D-сцени

Рендеринг 3D-сцен відбувається за схожим принципом. Коли користувач виходить на сцену та активує гіперграф, інтелектуальний агент HyperAGI завантажує довірений вузол на основі гіперграфа для виконання відповідних обчислень гіперграфа. Якщо (m) користувачі заходять у різні 3D-сцени, потрібно ініціювати щонайбільше (m) довірених вузлів для «супутніх обчислень».

Таким чином, кількість вузлів, що беруть участь у додаткових обчисленнях, коливається від 1 до (n + m) (де (n) — кількість користувачів, що входять у 3D-сцени, а (m) — кількість LLM). Цей розподіл слідує розподілу Гауса, ефективно уникаючи втрати ресурсів, забезпечуючи при цьому ефективність перевірки мережі.

Як штучний інтелект інтегрується з Web3 для формування напівштучного інтелекту та напівфінансових додатків

Розробники штучного інтелекту можуть розгортати інтелектуальні агенти як смарт-контракти, при цьому контракти містять дані верхнього рівня hypergraph onchain. Користувачі або інші інтелектуальні агенти можуть викликати методи цих контрактів інтелектуальних агентів і сплачувати відповідні токени. Інтелектуальний агент, який надає послугу, повинен завершити відповідні обчислення та надати результати, які можна перевірити. Ця установка забезпечує децентралізовану бізнес-взаємодію між користувачами або іншими інтелектуальними агентами та інтелектуальним агентом.

Інтелектуальний агент не буде турбуватися про те, що не отримає токени після виконання завдання, а платнику не потрібно турбуватися про оплату токенів, не отримавши правильних результатів бізнес-обчислень. Можливості та вартість послуги інтелектуального агента визначаються ціною вторинного ринку та ринковою вартістю активів інтелектуального агента (включаючи NFT ERC-20, ERC-721 або ERC-1155).

За межами напівштучного інтелекту та напівфінансових додатків

Застосування HyperAGI не обмежується напів-AI та напівфінансовими додатками. Він спрямований на реалізацію UBAI (Universal Basic AI), побудову майбутнього, де технології служитимуть усім однаково, розриваючи цикли експлуатації та створюючи справді децентралізоване та справедливе цифрове суспільство.

заява:

  1. Ця стаття відтворена з [techflow deep tide], оригінальна назва «Інтерв'ю HyperAGI: створення справжнього агента штучного інтелекту та створення автономної криптовалютної економіки», авторські права належать оригінальному автору [П'яте], якщо у вас є будь-які заперечення проти перевидання, будь ласка, зв'яжіться з командою Gate Learn, команда розгляне це якомога швидше згідно з відповідними процедурами.

  2. Відмова від відповідальності: Погляди та думки, висловлені в цій статті, відображають лише особисті погляди автора та не є будь-якою інвестиційною порадою.

  3. Інші мовні версії статті перекладаються командою Gate Learn, не згадані в Gate.io, перекладена стаття не може бути відтворена, поширена або плагіатина.

Створення справжніх агентів штучного інтелекту та автономна криптовалютна економіка

СереднійJun 03, 2024
HyperAGI — це керований спільнотою децентралізований проєкт штучного інтелекту, спрямований на створення справжніх агентів штучного інтелекту та сприяння автономній криптовалютній економіці. Він досягає цього шляхом інтеграції рішень Bitcoin рівня 2, інноваційного механізму консенсусу Proof of Useful Work (PoUW) та великих мовних моделей (LLM). Проєкт присвячений реалізації безумовного базового доходу агента (UBAI) та просуванню децентралізованого та справедливого цифрового суспільства за допомогою технології штучного інтелекту.
Створення справжніх агентів штучного інтелекту та автономна криптовалютна економіка

Представляємо команду HyperAGI та досвід проекту

HyperAGI — це перший децентралізований проєкт штучного інтелекту, керований спільнотою за допомогою AI Rune HYPER· АГІ· АГЕНТ. Команда HyperAGI вже багато років глибоко займається сферою штучного інтелекту, накопичивши значний досвід у програмах генеративного штучного інтелекту Web3. Три роки тому команда HyperAGI використовувала генеративний штучний інтелект для створення 2D-зображень і 3D-моделей, побудувавши відкритий світ під назвою MOSSAI на блокчейні, що складається з тисяч островів, згенерованих штучним інтелектом. Вони також запропонували стандарт для невзаємозамінних криптографічних активів, створених штучним інтелектом, NFG. Однак на той момент децентралізовані рішення для навчання та генерації моделей ШІ ще не були розроблені. Одних ресурсів графічного процесора платформи було недостатньо для підтримки великої кількості користувачів, що запобігало вибуховому зростанню. З появою великих мовних моделей (LLM), що викликають інтерес громадськості до штучного інтелекту, HyperAGI запустила свою децентралізовану платформу додатків штучного інтелекту, розпочавши тестування Ethereum і Bitcoin L2 у 1 кварталі 2024 року.

HyperAGI фокусується на децентралізованих додатках штучного інтелекту, спрямованих на розвиток автономної криптовалютної економіки. Його кінцевою метою є встановлення безумовного базового доходу агента (UBAI). Він успадковує надійну безпеку та децентралізацію Bitcoin, посилену інноваційним механізмом консенсусу Proof of Useful Work (PoUW). Вузли графічного процесора споживчого класу можуть приєднуватися до мережі без дозволу, видобуваючи локальні токени $HYPT, виконуючи завдання PoUW, такі як висновок ШІ та 3D-рендеринг.

Користувачі можуть розробляти агенти AGI Proof of Personhood (PoP), керовані LLM, використовуючи різні інструменти. Ці агенти можуть бути налаштовані як чат-боти або 3D/XR сутності у метавсесвіті. Розробники штучного інтелекту можуть миттєво використовувати або розгортати мікросервіси LLM AI, полегшуючи створення програмованих автономних ончейн-агентів. Ці програмовані агенти можуть випускати або володіти криптовалютними активами, постійно працювати або торгувати, сприяючи динамічній, автономній криптоекономіці, яка підтримує реалізацію UBAI. Користувачі, які володіють HYPER· АГІ· Токени рун AGENT мають право створити агента PoP у ланцюжку Bitcoin Layer 1 і незабаром можуть претендувати на базові переваги для своїх агентів.

Що таке AI Agent? Чим засіб HyperAGI відрізняється від інших?

Концепція агента штучного інтелекту не є новою в академічних колах, але нинішній ажіотаж на ринку зробив цей термін все більш заплутаним. Агенти HyperAGI відносяться до втілених агентів, керованих LLM, які можуть навчатися в середовищах віртуальної 3D-симуляції та взаємодіяти з користувачами, а не лише з чат-ботами, керованими LLM. Агенти HyperAGI можуть існувати як у віртуальних цифрових світах, так і в реальному фізичному світі. В даний час агенти HyperAGI інтегруються з фізичними роботами, такими як роботизовані собаки, дрони та людиноподібні роботи. У майбутньому ці агенти зможуть завантажувати розширене навчання з віртуального 3D-світу на фізичних роботів для кращого виконання завдань.

Крім того, агенти HyperAGI повністю належать користувачам і мають соціально-економічне значення. Агенти PoP, які представляють користувачів, можуть отримувати UBAI для коригування базового доходу агента. Агенти HyperAGI поділяються на агентів PoP (Proof of Personhood), що представляють окремих користувачів, і звичайних функціональних агентів. В агентській економіці HyperAGI агенти PoP можуть отримувати базовий дохід у вигляді токенів, стимулюючи користувачів брати участь у навчанні та взаємодії своїх PoP-агентів. Це допомагає акумулювати дані, які доводять індивідуальність людини, а UBAI уособлює рівність та демократію ШІ.

AGI – це хайп чи скоро стане реальністю? Які відмінності та характеристики шляху досліджень і розробок HyperAGI порівняно з іншими проектами штучного інтелекту?

Хоча визначення штучного загального інтелекту (AGI) ще не уніфіковано, протягом десятиліть він вважався святим Граалем наукових кіл і промисловості штучного інтелекту. У той час як великі мовні моделі (LLM), засновані на трансформаторах, стають ядром різних агентів штучного інтелекту та AGI, HyperAGI не повністю поділяє цю точку зору. LLM дійсно забезпечують новий і зручний видобуток інформації, а також можливості планування і міркувань на основі природної мови. Однак по суті це глибокі нейронні мережі, керовані даними. Багато років тому, під час буму великих даних, ми розуміли, що такі системи за своєю суттю страждають від GIGO (Garbage in, garbage out). LLM не вистачає деяких важливих характеристик просунутого інтелекту, таких як втілення, що ускладнює цим штучним інтелектом або агентам розуміння світових моделей людей-користувачів або формулювання планів і дій для вирішення реальних проблем. Крім того, LLM не демонструють вищої когнітивної діяльності, такої як самосвідомість, рефлексія чи самоаналіз.

Наш засновник, Лендон Ван, має великий і багаторічний досвід досліджень у галузі штучного інтелекту. У 2004 році він запропонував Aspect-Oriented AI (AOAI), інновацію, що поєднує нейронні обчислення з аспектно-орієнтованим програмуванням (AOP). Аспект відноситься до інкапсуляції безлічі зв'язків або обмежень між об'єктами. Наприклад, нейрон - це інкапсуляція відносин або обмежень з безліччю інших клітин. Зокрема, нейрон взаємодіє з сенсорними або руховими клітинами через волокна та синапси, що відходять від тіла нейрона, що робить кожен нейрон аспектом, що містить такі зв'язки та логіку. Кожен агент штучного інтелекту можна розглядати як такий, що вирішує певний аспект проблеми, і технічно його можна змоделювати як аспект.

У програмній реалізації штучних нейронних мереж нейрони або шари, як правило, моделюються як об'єкти, що зрозуміло і підтримується в об'єктно-орієнтованих мовах програмування. Однак це ускладнює коригування топології нейронної мережі, а послідовності активації нейронів відносно жорсткі. Незважаючи на те, що це демонструє велику силу у виконанні простих високоінтенсивних обчислень, таких як навчання та висновування LLM, воно погано працює за гнучкістю та адаптивністю. З іншого боку, в AOAI нейрони або шари моделюються як аспекти, а не як об'єкти. Ця архітектура нейронних мереж має сильну адаптивність і гнучкість, що робить можливою самоеволюцію нейронних мереж.

HyperAGI поєднує ефективні LLM з AOAI, що розвивається, утворюючи шлях, який інтегрує ефективність традиційних штучних нейронних мереж з характеристиками самоеволюції нейронних мереж AO. Це, на сьогоднішній день, розглядається як можливий підхід до досягнення AGI.

Яке бачення HyperAGI

Бачення HyperAGI полягає в тому, щоб досягти безумовного базового доходу агента (UBAI), побудувати майбутнє, де технології справедливо служитимуть усім, розірвати коло експлуатації та створити справді децентралізоване та справедливе цифрове суспільство. На відміну від інших блокчейн-проектів, які лише стверджують, що вони віддані UBI, UBAI від HyperAGI має чіткий шлях реалізації через агентську економіку, а не є недосяжним ідеалом.

Впровадження Сатоші Накамото біткойна було монументальною інновацією для людства, але це просто децентралізована цифрова валюта без практичної користі. Значний прогрес і розвиток штучного інтелекту дозволили створювати цінність за допомогою децентралізованої моделі. У цій моделі люди виграють від штучного інтелекту, що працює на машинах, а не від цінності інших. Зароджується справжній криптографічний світ, заснований на коді, де всі машини створюються на благо і благополуччя людства.

У такому криптографічному світі між агентами ШІ все ще може існувати ієрархія, але експлуатація людиною виключається, оскільки самі агенти можуть володіти певною формою автономії. Кінцева мета та значення штучного інтелекту полягають у тому, щоб служити людству, як це закодовано в блокчейні.

Взаємозв'язок між Bitcoin L2 та AI, і навіщо створювати штучний інтелект на Bitcoin L2

  1. Bitcoin L2 як спосіб оплати для агентів штучного інтелекту

    В даний час біткойн є засобом, який уособлює «максимальний нейтралітет», що робить його дуже придатним для агентів штучного інтелекту, які беруть участь у ціннісних транзакціях. Біткойн усуває неефективність і «тертя», властиві фіатним валютам. Як «цифрове» середовище, Bitcoin забезпечує природну основу для штучного інтелекту для обміну цінностями. Bitcoin L2 розширює програмовані можливості Bitcoin, відповідаючи вимогам до швидкості, необхідним для обміну цінностями AI, тим самим позиціонуючи Bitcoin як рідну валюту для ШІ.

  2. Децентралізоване управління штучним інтелектом на Bitcoin L2

    Поточна тенденція централізації штучного інтелекту привернула увагу до децентралізованого узгодження та управління штучним інтелектом. Більш потужні смарт-контракти Bitcoin L2 можуть служити правилами, які регулюють поведінку агентів ШІ та моделі протоколів, досягаючи децентралізованої моделі узгодження та управління ШІ. Крім того, характеристика максимального нейтралітету Bitcoin полегшує досягнення консенсусу щодо узгодження та управління штучним інтелектом.

  3. Випуск активів штучного інтелекту на Bitcoin L2

    На додаток до випуску агентів ШІ як активів на Bitcoin L1, висока продуктивність Bitcoin L2 може задовольнити потреби агентів ШІ, що випускають активи ШІ, що стане основою агентської економіки.

  4. Агенти штучного інтелекту як додаток-вбивця для Bitcoin та Bitcoin L2

    Через проблеми з продуктивністю Біткойн не мав практичного застосування, окрім як засіб заощадження з моменту свого створення. Біткоїн, що входить до L2, отримує потужнішу програмованість. Агенти штучного інтелекту, як правило, використовуються для вирішення реальних проблем, тому агенти штучного інтелекту на основі біткойнів можуть бути по-справжньому застосовані. Масштаб і частота використання ШІ-агентів можуть стати вбивчим додатком для Bitcoin і L2. У той час як людська економіка може не надавати пріоритет біткойну як способу оплати, економіка роботів може. Велика кількість ШІ-агентів, що працюють 24/7, можуть невпинно використовувати біткойн для здійснення та отримання мікроплатежів. Попит на біткойн може значно зрости способами, які наразі неможливо уявити.

  5. Обчислення штучного інтелекту для підвищення безпеки Bitcoin L2

    Обчислення штучного інтелекту можуть доповнити Proof of Work (PoW) Bitcoin і навіть замінити PoW на Proof of Useful Work (PoUW), революційно забезпечуючи безпеку, вливаючи енергію, яка зараз використовується для майнінгу біткойнів, в агенти штучного інтелекту. Штучний інтелект може використовувати L2, щоб перетворити Bitcoin на інтелектуальний зелений блокчейн, на відміну від механізму PoS Ethereum. Запропонований нами консенсус Hypergraph, заснований на PoUW обчислень 3D/AI, буде представлений пізніше.

Що робить HyperAGI унікальним порівняно з іншими децентралізованими проектами штучного інтелекту?

HyperAGI виділяється у сфері штучного інтелекту Web3 своїм чітким баченням, рішеннями та технологіями. Підхід HyperAGI включає консенсус обчислювальної потужності графічного процесора, втілення штучного інтелекту та активів, що робить його децентралізованим гібридним ШІ-фінансовим додатком. Нещодавно академічні кола запропонували п'ять характеристик, якими повинні володіти децентралізовані платформи штучного інтелекту, і ми коротко розглянули та порівняли існуючі децентралізовані проєкти штучного інтелекту відповідно до цих п'яти функцій. П'ять характеристик децентралізованих платформ штучного інтелекту:

  1. Можливість перевірки дистанційно керованих моделей штучного інтелекту
    • Децентралізована перевірюваність включає такі технології, як доступність даних і докази з нульовим розголошенням (ZK).
  2. Зручність використання загальнодоступних моделей штучного інтелекту
    • Зручність використання залежить від того, чи є вузли API моделі штучного інтелекту (в основному LLM) одноранговими і чи повністю децентралізована мережа.
  3. Стимулювання розробників та користувачів штучного інтелекту
    • Справедливі механізми генерації токенів мають вирішальне значення для стимулювання.
  4. Глобальне управління основними рішеннями в цифровому суспільстві
    • Управління штучним інтелектом має бути нейтральним і ґрунтуватися на консенсусі.
  5. Без прив'язки до постачальника
    • Платформа має бути повністю децентралізованою.

Порівняння існуючих децентралізованих проєктів штучного інтелекту за такими характеристиками:

  1. Можливість перевірки дистанційно керованих моделей штучного інтелекту
    • Гіза: Заснована на механізмі консенсусу ZKML, Giza відповідає вимогам перевірюваності, але в даний час страждає від проблем з продуктивністю, особливо з великими моделями.
    • Cortex AI: Децентралізований проект штучного інтелекту L1, розпочатий п'ять років тому, Cortex AI включає нові інструкції в EVM для підтримки обчислень нейронних мереж, але не може задовольнити потреби великих моделей LLM.
    • Ofelimos: Перша пропозиція PoUW у криптографічному співтоваристві, але не пов'язана з конкретними програмами чи проектами.
    • Project PAI: Згадується PoUW в офіційному документі, але не має продукту.
    • Qubic: пропонує PoUW з використанням декількох графічних процесорів для обчислень штучних нейронних мереж, але його практичне застосування залишається незрозумілим.
    • FLUX: використовує PoW ZelHash, а не PoUW.
    • Coinai: На етапі дослідження не вистачає суворого механізму консенсусу.
  2. До проєктів, які не відповідають критерію перевірюваності, належать:
    • Проекти лізингу обчислень GPU: Відсутність децентралізованих механізмів перевірки, таких як DeepBrain Chain, EMC, Atheir, IO.NET, CLORE. ШІ та інші.
    • DeepBrain Chain: фокусується на оренді графічних процесорів, запустила свою основну мережу у 2021 році.
    • EMC: Централізоване призначення завдань і винагороди, не вистачає децентралізованого консенсусу.
    • Їх та IO.NET: Механізмів консенсусу не спостерігається.
    • КЛОР. Штучний інтелект: використовує краудсорсинг, ончейн-оплату за випуски моделей штучного інтелекту та випуск NFT, але не має можливості перевірки. Серед подібних проектів – SingularityNET, Bittensor, AINN, Fetch.ai, Ocean Protocol та Algovera.ai.
  3. Зручність використання загальнодоступних моделей штучного інтелекту
    • Cortex AI та Qubic: Підтримки LLM не спостерігається.

Жоден із існуючих децентралізованих проєктів штучного інтелекту повністю не вирішує ці п'ять проблем. HyperAGI, однак, є повністю децентралізованим протоколом штучного інтелекту, заснованим на механізмі консенсусу Hypergraph PoUW і повністю децентралізованому стеку Bitcoin L2, з планами оновлення до L2 для Bitcoin AI в майбутньому.

Унікальні особливості HyperAGI:

  • Механізм консенсусу Hypergraph PoUW: забезпечує безпеку мережі найбільш ефективним способом, використовуючи всю обчислювальну потужність, надану майнерами для висновків LLM і хмарних сервісів рендерингу.
  • Повністю децентралізована платформа: заснована на стеку Bitcoin L2, який гарантує, що платформа вільна від прив'язки до постачальників і сприяє легкому консенсусу щодо управління штучним інтелектом.
  • Перевірюваність і зручність використання: Концепція PoUW гарантує, що обчислювальна потужність може бути використана для вирішення різних проблем, що передаються в децентралізовану мережу, вирішення питання перевірюваності дистанційно запущених моделей штучного інтелекту та робить загальнодоступні моделі штучного інтелекту придатними для використання.

HyperAGI не тільки відповідає необхідним характеристикам для децентралізованої платформи штучного інтелекту, але й розвиває цю галузь завдяки унікальній інтеграції обчислювальної потужності графічного процесора та активів штучного інтелекту в децентралізованій структурі.

Чому саме зараз?

1. Вибух LLM та їх застосування

ChatGPT від OpenAI досяг 100 мільйонів користувачів лише за три місяці, викликавши глобальний сплеск розробки, застосування та інвестицій у великі мовні моделі (LLM). Однак до цього моменту технології та навчання LLM були дуже централізовані. Ця централізація викликала значне занепокоєння серед академічних кіл, промисловості та громадськості щодо монополізації технології штучного інтелекту кількома ключовими постачальниками, порушення конфіденційності даних, зазіхань та прив'язки постачальників з боку компаній, що займаються хмарними обчисленнями. Ці проблеми в основному пов'язані з контролем Інтернету та шлюзів додатків централізованими платформами, які не підходять для великомасштабних додатків штучного інтелекту. Спільнота штучного інтелекту почала впроваджувати деякі локальні та децентралізовані проєкти штучного інтелекту. Наприклад, Ollama представляє локальне виконання, а Пелюстки – децентралізацію. Ollama використовує методи стиснення параметрів або зниженої точності, щоб дозволити малим і середнім LLM працювати на персональних комп'ютерах або навіть мобільних телефонах, таким чином захищаючи конфіденційність даних користувача та інші права. Однак цей підхід, очевидно, важко підтримувати виробничі середовища та мережеві програми. Пелюстки, з іншого боку, досягають повністю децентралізованого висновку LLM за допомогою технології Peer2Peer від Bittorrent. Тим не менш, Petals не має консенсусу та протоколів стимулюючого шару і все ще обмежений вузьким колом дослідників.

2. Інтелектуальні агенти, керовані LLM

За підтримки LLM інтелектуальні агенти можуть виконувати міркування вищого рівня та володіти певними можливостями планування. Використовуючи природну мову, кілька інтелектуальних агентів можуть формувати соціальну співпрацю, подібну до людської. Було запропоновано кілька фреймворків інтелектуальних агентів на основі LLM, таких як AutoGen від Microsoft, Langchain і CrewAI. В даний час велика кількість підприємців і розробників у сфері штучного інтелекту зосереджуються на напрямку інтелектуальних агентів на основі LLM та їх застосувань. Існує високий попит на стабільне, масштабоване висновування LLM, але це в основному досягається за рахунок оренди екземплярів логічного висновку GPU у компаній, що займаються хмарними обчисленнями. У березні 2024 року Nvidia випустила ai.nvidia.com, генеративну мікросервісну платформу зі штучним інтелектом, яка включає LLM, щоб задовольнити цей величезний попит, хоча вона ще офіційно не запущена. Інтелектуальні агенти, керовані LLM, процвітають, так само, як колись це було з розробкою веб-сайтів. Однак співпраця, як і раніше, в основному ведеться в традиційному режимі Web2, де розробникам інтелектуальних агентів потрібно орендувати графічні процесори або закуповувати API у постачальників LLM для підтримки роботи цих агентів. Це створює значні тертя, перешкоджаючи швидкому зростанню екосистеми інтелектуальних агентів і передачі цінності в економіці інтелектуальних агентів.

3. Середовища імітаційного моделювання втілених агентів

В даний час більшість агентів можуть отримувати доступ до певних API і керувати ними або взаємодіяти з ними за допомогою коду або скриптів, запису керуючих команд, згенерованих LLM, або зчитування зовнішніх станів. Загальні інтелектуальні агенти повинні не тільки розуміти і генерувати природну мову, а й розуміти людський світ. Після відповідної підготовки вони повинні мати можливість переходити на роботизовані системи (такі як дрони, пилососи, людиноподібні роботи тощо) для виконання конкретних завдань. Ці агенти називаються втіленими агентами. Навчання втілених агентів вимагає великої кількості реальних візуальних даних, які допоможуть їм краще зрозуміти конкретні середовища та реальний світ, скорочуючи час навчання та розробки роботів, підвищуючи ефективність навчання та знижуючи витрати. В даний час симуляційні середовища для тренування втіленого інтелекту побудовані і належать кільком компаніям, таким як Minecraft від Microsoft і Isaac Gym від Nvidia. Не існує децентралізованих середовищ для задоволення потреб у навчанні втіленого інтелекту. Останнім часом деякі ігрові рушії почали зосереджуватися на штучному інтелекті, як-от Unreal Engine від Epic, який просуває навчальні середовища зі штучним інтелектом, які відповідають OpenAI GYM.

4. Екосистема Bitcoin L2

Хоча сайдчейни Bitcoin існували роками, вони в основному використовувалися для платежів, а відсутність підтримки смарт-контрактів перешкоджала складним ончейн-додаткам. Поява EVM-сумісних Bitcoin L2s дозволяє Bitcoin підтримувати децентралізовані програми штучного інтелекту через L2. Децентралізований штучний інтелект вимагає повністю децентралізованої, домінантної в обчисленнях блокчейн-мережі, а не все більш централізованих блокчейн-мереж PoS. Впровадження нових протоколів для нативних біткойн-активів, таких як написи та порядкові числа, робить можливим створення екосистем та додатків на основі Bitcoin. Наприклад, монетний двір справедливого запуску HYPER•AGI•AGENT був завершений протягом години, і в майбутньому HyperAGI випустить більше активів штучного інтелекту та додатків, керованих спільнотою, на Bitcoin.

Технічна структура та рішення HyperAGI

1. Як реалізувати децентралізовану платформу інтелектуальних агентів AI на основі LLM?

Основною проблемою децентралізованого штучного інтелекту сьогодні є забезпечення віддаленого висновування для великих моделей штучного інтелекту, а також навчання та висновків втілених інтелектуальних агентів за допомогою високопродуктивних алгоритмів з низькими накладними витратами, які можна перевірити. Без можливості перевірки система повернеться до традиційної багатосторонньої ринкової моделі за участю постачальників, попиту та операторів платформи, а не досягне повністю децентралізованої платформи додатків штучного інтелекту.

Для обчислень штучного інтелекту, які можна перевірити, потрібен алгоритм консенсусу PoUW (Proof of Useful Work). Це служить основою для децентралізованих механізмів стимулювання. Зокрема, в рамках мережевих стимулів карбування токенів здійснюється вузлами, які виконують обчислювальні завдання та надсилають результати, які можна перевірити, замість того, щоб будь-яка централізована організація передавала токени вузлам.

Щоб досягти обчислень штучного інтелекту, які можна перевірити, нам спочатку потрібно визначити самі обчислення штучного інтелекту. Обчислення штучного інтелекту охоплюють багато рівнів, від низькорівневих машинних інструкцій та інструкцій CUDA до мов вищого рівня, таких як C++ та Python. Подібним чином, у навчанні втілених інтелектуальних агентів, 3D-обчислення також існують на різних рівнях, включаючи мови шейдерів, OpenGL, C++ та скрипти креслення.

Алгоритм консенсусу PoUW від HyperAGI реалізований за допомогою обчислювальних графів. Обчислювальний граф визначається як орієнтований граф, де вузли відповідають математичним операціям. Це спосіб вираження та оцінки математичних виразів, по суті, «мова», що описує рівняння, що містить вузли (змінні) та ребра (операції або прості функції).

Перевірена реалізація обчислень штучного інтелекту:

1.1 Використання обчислювальних графів для визначення перевірених обчислень

Будь-які обчислення (наприклад, 3D обчислення та обчислення штучного інтелекту) можуть бути визначені за допомогою обчислювальних графів. Різні рівні обчислень можна представити за допомогою підграфів. Цей підхід охоплює різні типи обчислень і виражає різні обчислювальні рівні за допомогою підграфів. В даний час він включає два рівні: обчислювальний граф верхнього рівня розгортається в ланцюжку для полегшення перевірки вузлами.

1.2 Децентралізоване завантаження та виконання LLM-моделей та 3D-сцен

LLM-моделі та рівні 3D-сцен завантажуються та запускаються повністю децентралізовано. Коли користувач звертається до моделі LLM для висновків або вводить 3D-сцену для рендерингу, інтелектуальний агент HyperAGI ініціює інший довірений вузол для запуску того самого гіперграфа (LLM або 3D-сцени).

1.3 Верифікація результатів обчислень

Якщо вузол верифікації виявляє, що результат, надісланий вузлом, не відповідає результату, надісланому довіреним вузлом, він виконує двійковий пошук за позаланцюговими результатами обчислень обчислювального графа другого рівня (підграфа), щоб знайти розбіжний обчислювальний вузол (оператор) у підграфі. Оператори підграфів попередньо розгортаються в смарт-контрактах. Передавши смарт-контракту параметри неузгодженого оператора та виконавши оператор, можна перевірити результати.

2. Як уникнути надмірних обчислювальних витрат?

Значною проблемою в перевірених обчисленнях штучного інтелекту є управління додатковими обчислювальними накладними витратами. У візантійських протоколах консенсусу 2/3 вузлів повинні погодитися, щоб сформувати консенсус. Для консенсусу висновків ШІ це означає, що всі вузли повинні будуть завершити однакові обчислення, що є неприйнятною тратою в обчисленнях ШІ. HyperAGI, однак, вимагає лише від 1 до (m) вузлів для виконання додаткових обчислень для валідації.

2.1 Супутні обчислення для логічного висновку LLM

Кожен висновок LLM не виконується незалежно. Інтелектуальний агент HyperAGI ініціює принаймні один довірений вузол для «супутніх обчислень». Оскільки висновування LLM виконується глибокими нейронними мережами, де результати обчислень кожного шару використовуються як вхідні дані для наступного шару, доки висновок не буде завершено, кілька користувачів можуть одночасно отримати доступ до однієї і тієї ж великої моделі LLM. Тому, щонайбільше, потрібно ініціювати додаткову кількість довірених вузлів, що дорівнює кількості LLM (m). Як мінімум, для «супутніх обчислень» потрібен лише один довірений вузол.

2.2 Обчислення рендерингу 3D-сцени

Рендеринг 3D-сцен відбувається за схожим принципом. Коли користувач виходить на сцену та активує гіперграф, інтелектуальний агент HyperAGI завантажує довірений вузол на основі гіперграфа для виконання відповідних обчислень гіперграфа. Якщо (m) користувачі заходять у різні 3D-сцени, потрібно ініціювати щонайбільше (m) довірених вузлів для «супутніх обчислень».

Таким чином, кількість вузлів, що беруть участь у додаткових обчисленнях, коливається від 1 до (n + m) (де (n) — кількість користувачів, що входять у 3D-сцени, а (m) — кількість LLM). Цей розподіл слідує розподілу Гауса, ефективно уникаючи втрати ресурсів, забезпечуючи при цьому ефективність перевірки мережі.

Як штучний інтелект інтегрується з Web3 для формування напівштучного інтелекту та напівфінансових додатків

Розробники штучного інтелекту можуть розгортати інтелектуальні агенти як смарт-контракти, при цьому контракти містять дані верхнього рівня hypergraph onchain. Користувачі або інші інтелектуальні агенти можуть викликати методи цих контрактів інтелектуальних агентів і сплачувати відповідні токени. Інтелектуальний агент, який надає послугу, повинен завершити відповідні обчислення та надати результати, які можна перевірити. Ця установка забезпечує децентралізовану бізнес-взаємодію між користувачами або іншими інтелектуальними агентами та інтелектуальним агентом.

Інтелектуальний агент не буде турбуватися про те, що не отримає токени після виконання завдання, а платнику не потрібно турбуватися про оплату токенів, не отримавши правильних результатів бізнес-обчислень. Можливості та вартість послуги інтелектуального агента визначаються ціною вторинного ринку та ринковою вартістю активів інтелектуального агента (включаючи NFT ERC-20, ERC-721 або ERC-1155).

За межами напівштучного інтелекту та напівфінансових додатків

Застосування HyperAGI не обмежується напів-AI та напівфінансовими додатками. Він спрямований на реалізацію UBAI (Universal Basic AI), побудову майбутнього, де технології служитимуть усім однаково, розриваючи цикли експлуатації та створюючи справді децентралізоване та справедливе цифрове суспільство.

заява:

  1. Ця стаття відтворена з [techflow deep tide], оригінальна назва «Інтерв'ю HyperAGI: створення справжнього агента штучного інтелекту та створення автономної криптовалютної економіки», авторські права належать оригінальному автору [П'яте], якщо у вас є будь-які заперечення проти перевидання, будь ласка, зв'яжіться з командою Gate Learn, команда розгляне це якомога швидше згідно з відповідними процедурами.

  2. Відмова від відповідальності: Погляди та думки, висловлені в цій статті, відображають лише особисті погляди автора та не є будь-якою інвестиційною порадою.

  3. Інші мовні версії статті перекладаються командою Gate Learn, не згадані в Gate.io, перекладена стаття не може бути відтворена, поширена або плагіатина.

Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!