ai є однією з найгарячіших та найбільш перспективних категорій на криптовалютних ринках останнім часом.
💡децентралізоване навчання штучного інтелекту
💡gpu depins
💡ненормовані моделі штучного інтелекту
це прориви чи просто модні слова? 🤔
at hack vc, ми прориваємось через шум, щоб відокремити обіцянки від реальності.
цей пост розкладає топ ідеї Крипто х штучного інтелекту. давайте обговоримо реальні виклики та можливості.
ідеї з початковим обіцянням, але які зіткнулися з викликами в реальності.
спочатку давайте розпочнемо з “promise of web3 ai”—ідеї, які мають досить багато хайпу, але реальність може бути не такою блискучою.
проблема з тренуванням штучного інтелекту on-chain полягає в тому, що тренування вимагає швидкого обміну даними та координації між графічними процесорами, через необхідність зворотного поширення у нейронних мережах під час тренування. у nvidia є два інновації для цього (NVLink та InfiniBand). Ці технології ефективно забезпечують швидке зв'язок між графічними процесорами, але вони є тільки локальними технологіями, які застосовуються лише в межах кластерів графічних процесорів, розташованих у межах одного датацентру (швидкість 50+ гігабіт).
якщо ви вводите децентралізовану мережу в картину, раптово ви стаєте в кілька разів повільнішими через додану мережеву затримку та пропускну здатність. це неприйнятно для випадків використання навчання штучного інтелекту порівняно з продуктивністю, яку ви отримуєте від високошвидкісного зв'язку nvidia в межах датацентру.
зауважте, що тут були деякі інновації, які можуть надати деяку надію на майбутнє:
компонент даних навчання також складний. будь-який процес навчання штучного інтелекту включає роботу з великою кількістю даних. Зазвичай моделі тренуються на централізованих та безпечних системах зберігання даних з високою масштабованістю та продуктивністю. Це потребує передачі та обробки терабайтів даних, і це не є одноразовим циклом. Дані зазвичай є шумними та містять помилки, тому їх потрібно очищати та перетворювати в корисний формат перед навчанням моделі. Ця стадія включає повторювані завдання нормалізації, фільтрації та обробки відсутніх значень. Усе це становить серйозні виклики в децентралізованому середовищі.
Компонент даних навчання також є ітеративним, що не дуже підходить для Web3. OpenAI знадобилися тисячі ітерацій, щоб досягти своїх результатів. Найпростіший сценарій завдання для фахівця з Data Science в команді штучного інтелекту включає визначення цілей, підготовку даних, а також аналіз і структурування даних, щоб витягти важливу інформацію та зробити її придатною для моделювання. Потім розробляється модель машинного навчання для вирішення визначеної проблеми, а її продуктивність перевіряється за допомогою тестового набору даних. Цей процес є ітеративним: якщо поточна модель працює не так, як очікувалося, фахівець повертається до етапу збору даних або навчання моделі для покращення результатів. А тепер уявіть цей процес у децентралізованому середовищі, де найкращі у своєму класі існуючі фреймворки та інструменти не є легкодоступними у Web3.
інша проблема з навчанням моделей штучного інтелекту на ланцюжку полягає в тому, що це набагато менш цікавий ринок порівняно з виведенням. Наразі велика кількість обчислень gpu використовується для навчання моделей штучного інтелекту llm. Але в довгостроковій перспективі виведення стане (у великій мірі) більш поширеним випадком використання gpu. Подумайте”: скільки потрібно навчити ai llms, щоб світ був щасливим, порівняно з кількістю клієнтів, які будуть використовувати ці моделі?
одним із рішень, що просувається у всіх напрямках, є 0g.ai (підтримується hack vc), які надають як зберігання даних on-chain, так і інфраструктуру доступності даних. їхній вельми швидкий архітектурний розв'язок та можливість зберігати величезні обсяги даних on-chain дозволяють швидке, ітеративне навчання моделей штучного інтелекту будь-якого типу на цій основі.
одним із викликів у сфері крипто x штучного інтелекту є підтвердження точності висновків штучного інтелекту, оскільки ви не можете довіряти одній централізованій стороні для здійснення цього висновку через можливість недобросовісних вузлів. Цей виклик не існує в штучному інтелекті веб2, оскільки в ньому немає децентралізованої системи згоди.
одна запропонована ідея для вирішення цього полягає в зайвому обчисленні, де кілька вузлів повторюють ту саму операцію інференції штучного інтелекту, щоб ви могли працювати в довірчому режимі і не мати одного єдиного точка відмови.
проблема цього підходу полягає в тому, що ми живемо в світі, де є різке нестача високопотужних чіпів штучного інтелекту. Чекати на високопотужні чіпи nvidia триватиме кілька років, і це призводить до зростання цін. Якщо ви також потребуєте, щоб ваше інференційне штучний інтелект виконувалося кілька разів на кількох вузлах, ви тепер множите ці дорогі витрати. Це буде неприйнятно для багатьох проектів.
Були запропоновані ідеї, що Web3 повинен мати свої власні, унікальні випадки використання штучного інтелекту, які спеціфічні для клієнтів Web3. Це може бути (наприклад) протокол Web3, який використовує штучний інтелект для оцінки ризику пула DeFi, гаманець Web3, який пропонує нові протоколи для вас на основі історії вашого гаманця, або гра Web3, що використовує штучний інтелект для керування непов'язаними персонажами (NPC).
наразі це (на короткий термін) ринок, де використання все ще виявляється. деякі виклики включають в себе:
у довгостроковій перспективі ми досить позитивно ставимося до використання веб3-нативних штучних інтелектів, особливо коли агенти штучного інтелекту стають більш поширеними. ми уявляємо собі майбутнє, де будь-який користувач веб3 має множину агентів штучного інтелекту, які їм допомагають. ранній лідер цієї категорії для цього єTheoriq (підтримується hack vc), що дозволяє компоновані та автономні агенти штучного інтелекту на ланцюжку.
Існує низка децентралізованих обчислювальних мереж зі штучним інтелектом, які покладаються на графічні процесори споживчого класу, а не на центри обробки даних. Споживчі графічні процесори зручні для завдань висновків штучного інтелекту низького класу або для споживчих випадків використання, коли затримка, пропускна здатність і надійність є гнучкими. Але для серйозних випадків використання на підприємствах (а це більша частина ринку, що має значення), клієнти хочуть мати мережу з вищою надійністю порівняно з домашніми машинами людей, і часто потребують графічних процесорів вищого класу, якщо вони мають складніші завдання логічного висновку. Дата-центри більше підходять для більш цінних кейсів використання клієнтами.
Зверніть увагу, що ми вважаємо, що графічні процесори класу споживача корисні для демонстраційних цілей або для фізичних осіб та стартапів, які можуть терпіти меншу надійність. Але ці клієнти фундаментально менш цінні, тому ми вважаємо, що депіни, які обслуговують підприємства web2, будуть більш цінними в довгостроковій перспективі. Таким чином, відомі проекти з використання графічних процесорів класу споживача загалом еволюціонували з ранніх днів переважно з використанням апаратного забезпечення класу споживача в наявність a100/h100 та на рівні кластера.
реальність—практичне та реалістичне використання крипто x ai
тепер давайте обговоримо випадки використання, які надають «реальні переваги». це фактичні «виграші», де крипто x ai може додати значну вартість.
mckinseyоцінки що генеративний штучний інтелект може додати еквівалент від $2,6 трильйона до $4,4 трильйона щорічно за результатами 63 випадків використання, які вони проаналізували - на тлі цього валовий внутрішній продукт усього Об'єднаного Королівства у 2021 році становив $3,1 трильйона. Це збільшило б вплив всього штучного інтелекту на 15-40%. Ця оцінка приблизно подвоїлася б, якщо ми врахуємо вплив вбудовання генеративного штучного інтелекту в програмне забезпечення, яке в даний час використовується для інших завдань поза цими випадками використання.
якщо ви розрахуєте вищезазначену оцінку, це означає, що загальний ринок штучного інтелекту (поза генеративним штучним інтелектом) може бути вартим десятки трильйонів доларів по всьому світу. На порівняння, всі криптовалюти разом, включаючи біткоїн та кожну альт-монету, сьогодні варті лише близько 2,7 трильйонів доларів. Так що давайте бути реалістами: переважна більшість клієнтів, які потребують штучного інтелекту в найближчий час, будуть клієнтами web2, оскільки клієнти web3, які фактично потребують штучного інтелекту, будуть лише маленькою часткою цих 2,7 трильйонів (врахуйте, що btc становить половину цього ринку, і btc сам по собі не потребує / не використовує штучний інтелект).
Використання web3 ai тільки починається, і поки не зовсім зрозуміло, який буде розмір цього ринку. Але одне інтуїтивно відомо - це буде невелика частка ринку web2 в обозримому майбутньому. Ми вважаємо, що web3 ai все ще має світле майбутнє, але це просто означає, що найпотужнішим застосуванням web3 ai наразі є обслуговування клієнтів web2.
приклади клієнтів веб2, які теоретично можуть скористатися штучним інтелектом веб3
це відносно стабільна клієнтська персона, оскільки клієнти в основному великі й цінні. Ймовірно, вони скоро не збанкрутують і становлять дуже великих потенційних клієнтів для послуг штучного інтелекту. Послуги штучного інтелекту web3, які обслуговують клієнтів web2, скористаються цим стабільним клієнтським базисом.
але чому клієнт web2 хотів би використовувати стек web3? решта цього поста робить це виправдання.
gpu depins aggreGate.io недовикористовувана обчислювальна потужність gpu (найнадійніша з якої походить з даних центрів) та зробити її доступною для ai інференції (приклад цього єio.net, яка є портфельною компанією фондів, керованих hack vc). Простий спосіб подумати про це - «airbnb для гпу» (фактично, спільне споживання маловикористовуваних активів).
Причина, через яку ми в захваті від Depins GPU, полягає в тому, що, як зазначалося вище, існує дефіцит чіпів Nvidia, і наразі є даремно витрачені цикли графічного процесора, які можна використовувати для висновків штучного інтелекту. Ці власники апаратного забезпечення мають завищену вартість і не використовують своє обладнання повною мірою сьогодні, і тому можуть запропонувати ці дробові цикли графічного процесора за набагато нижчою ціною порівняно зі статус-кво, оскільки це фактично «знайдені гроші» для власників обладнання.
приклади включають:
зверніть увагу, що не всі обчислювальні пристрої gpu підходять для інференції ai. Однією з головних причин цього є те, що старіші gpu не мають необхідної кількості пам'яті gpu для llms, хоча тут були деякі цікаві нововведення, щоб допомогти.Ексабіти, наприклад, має технологію, яка завантажує активні нейрони в пам'ять gpu і неактивні нейрони в пам'ять cpu. вони передбачають, які нейрони потрібно активувати / деактивувати. це дозволяє нижчим карточкам gpu обробляти робочі навантаження із штучного інтелекту, навіть за обмежена пам'ять gpu. це ефективно робить нижчі карточки gpu більш корисними для виконання штучного інтелекту.
Зауважте також, що Web3 AI Depins з часом потрібно буде посилити свої пропозиції та пропонувати послуги корпоративного класу, такі як єдиний вхід, відповідність вимогам SOC 2, угоди про рівень обслуговування (SLAS) тощо. Це буде дзеркальним відображенням послуг за поточними хмарними пропозиціями, якими зараз користуються клієнти Web2.
Багато говорили про цензуру ШІ. Наприклад, Туреччина тимчасово заборонила OpenAI (але пізніше змінила свою позицію, коли OpenAI покращила свою згоду). Ми вважаємо, що цей вид цензури на рівні країни є фундаментально незначним, оскільки країни повинні будуть прийняти ШІ, щоб залишатися конкурентоспроможними.
ще цікавіше те, що openai самоцензурується. наприклад, openai не буде мати справу з nsfw вмістом. ані openai передбачатиме наступні президентські вибори. ми вважаємо, що існує цікавий і великий ринок для випадків використання штучного інтелекту, які openai не торкатиметься з політичних міркувань.
відкрите використання є великим рішенням для цього, оскільки репозиторій GitHub не залежить від акціонерів або ради. Приклад цього єVenice.ai, яка обіцяє зберігати вашу конфіденційність, а також працювати у безцензурний спосіб. Ключем, звичайно ж, є відкритий код, який це забезпечує. Те, що web3 ai може ефективно принести для підвищення рівня цього - це допомога цим відкритим програмним забезпеченням (oss) моделями на недорогому кластері графічних процесорів для здійснення цього висновку. І саме з цих причин ми вважаємо, що oss + web3 - це ідеальне поєднання для відкриття шляху для безцензурного штучного інтелекту.
багато великих підприємств мають занепокоєння щодо конфіденційності своїх внутрішніх даних підприємства. для цих клієнтів може бути надзвичайно важко довіряти централізованій третій стороні, такій як openai, з цими даними.
з web3, це може здатися (на поверхні) ще більш налякано для цих підприємств, оскільки їх внутрішні дані раптово з'являються в децентралізованій мережі. однак, існують деякі інновації в технологіях, спрямованих на підвищення приватності для штучного інтелекту:
Ці технології все ще розвиваються, а продуктивність постійно покращується завдяки майбутнім zero knowledge (zk) та fhe asics. Проте, довгострокова мета полягає в захисті корпоративних даних під час налаштування моделі. З появою цих протоколів, web3 може стати більш привабливим місцем для обчислень штучного інтелекту з підтримкою конфіденційності.
oss постійно підривав частку ринку пропріетарного програмного забезпечення протягом останніх кількох десятиліть. Ми дивимося на llm просто як на вишукану форму пропріетарного програмного забезпечення, яке готове до руйнування oss. Кілька помітних прикладів конкурентів включаютьЛама, РВКВ, та Mistral.ai. цей список безумовно буде зростати з часом (більш детальний список доступний за адресою Openrouter.ai). використовуючи web3 ai (розроблено моделями oss), можна скористатися цими новими інноваціями.
ми вважаємо, що з плином часу відкрита глобальна розробницька робоча сила, поєднана з крипто-стимулами, може забезпечити швидкий розвиток інновацій у моделях відкритого джерела, а також в агентах та фреймворках, побудованих на основі них. прикладом протоколу штучного інтелекту є Theoriq. theoriq використовує моделі oss для створення складової взаємопов'язаної мережі ai-агентів, які можуть бути зібрані для створення ai-рішень вищого рівня.
причина, по которой у нас здесь есть убеждение, заключается в прошлом: большинство «программного обеспечения разработчика» со временем медленно устарело из-за открытого программного обеспечения. Microsoft раньше была компанией, занимающейся проприетарным программным обеспечением, а теперь они являются первой компанией, вносящей вклад в GitHub, и есть причина для этого. Если посмотреть, как Databricks, PostgresSQL, MongoDB и другие нарушили проприетарные базы данных, то это пример всей отрасли, которая была перевернута открытым программным обеспечением, поэтому прецедент здесь довольно сильный.
однак є одна підводна скеля. Одна з хитрощів з oss llms полягає в тому, що openai почав укладати платні ліцензійні угоди на дані з організаціями, такими як reddit і new york times. якщо ця тенденція триватиме, oss llms можуть мати складнощі у конкуренції через фінансовий бар'єр, пов'язаний з придбанням даних. можливо, nvidia подвоїть зусилля у питанні конфіденційного обчислення як засобу безпечного обміну даними. час покаже, як це вирішиться.
одним з викликів у використанні web3 ai є перевірка. є гіпотетична можливість для валідаторів обманути результати, щоб заробити комісійні, тому перевірка висновків є важливим заходом. Зауважте, що цей обман фактично ще не трапився, оскільки ai inference знаходиться на початковому етапі, але це неминуче, якщо не будуть прийняті заходи для зменшення цього виду поведінки.
стандартним підходом web3 є декілька перевіряючих, які повторюють ту ж операцію та порівнюють результати. Очевидною проблемою є те, що, як зазначено, виведення штучного інтелекту є дорогим через поточний дефіцит високопродуктивних чіпів nvidia. Оскільки web3 може запропонувати інференцію за меншою вартістю за допомогою недостатньо використаних gpu depins, зайві обчислення серйозно підрізали б веб3 пропозицію вартості.
більш перспективним рішенням є виконання zk-доказу для обчислення off-chain ai-виведення. у цьому випадку стислий zk-доказ може бути перевірений, щоб визначити, що модель була правильно навчена, або що висновок був правильно виконаний (відомий як zkml). приклади включаютьМодульні лабораторіїіZKonduit. продуктивність цих рішень поки що є досить початковою, оскільки операції zk вимагають значних обчислень. однак ми очікуємо, що це, швидше за все, покращиться, коли в найближчому майбутньому будуть випущені апаратні засоби zk asics.
Ще більш перспективною є ідея дещо "оптимістичного" підходу до інференції штучного інтелекту на основі вибіркового вибіркового вибіру. У цій моделі ви перевіряли б лише крихітний відсоток результатів, що генеруються валідаторами, але встановлюєте високий економічний витрати на зниження, щоб, якщо їх спіймали, це створило міцний економічний дезінцентив для валідаторів обманювати. Таким чином, ви економите на зайвому обчисленні (наприклад, дивітьсяГіперболічний’sДоказ вибіркового зразка паперу).
Ще однією багатообіцяючою ідеєю є рішення для нанесення водяних знаків і відбитків пальців, наприклад, запропоноване Bagel мережа. це схоже на механізм Amazon Alexa для забезпечення якості моделей штучного інтелекту на пристроях для мільйонів їх пристроїв.
Наступна можливість, яку Web3 надає штучному інтелекту, — це демократизація витрат. Досі ми говорили про економію витрат на графічний процесор за допомогою депінів. Але Web3 також пропонує можливості заощадити на маржі прибутку централізованих сервісів штучного інтелекту Web2 (наприклад, OpenAI, дохід якого на момент написання цієї статті перевищує 1 мільярд доларів США на рік). Ця економія коштів пов'язана з тим, що використовуються моделі OSS, а не пропрієтарні моделі для додаткового рівня економії, оскільки творець моделі не намагається отримати прибуток.
багато моделей oss залишаться абсолютно безкоштовними, що дозволяє забезпечити найкращі економічні умови для клієнтів. але може бути деякі моделі oss, які також намагаються використовувати ці методи монетизації. Зверніть увагу, що лише 4% від загальної кількості моделей на hugging face навчені компаніями з бюджетами для допомоги у підтримці моделей (див. тут). залишилось 96% моделей навчаються спільнотою. Ця когорта – 96% hugging face – має фундаментальні реальні витрати (включаючи витрати на обчислення і витрати на дані). Тому ці моделі якось потрібно монетизувати.
Існує кілька пропозицій щодо досягнення монетизації моделей oss. Одним з найцікавіших є концепція «першої пропозиції моделі» (IMO), де ви токенізуєте саму модель, залишаєте частину токенів для команди і спрямовуєте деякі майбутні доходи від цієї моделі на токенхолдерів, хоча очевидно є деякі правові та регуляторні перешкоди.
Інші моделі OSS намагатимуться монетизувати використання. Зазначимо, що якщо це станеться, моделі OSS можуть почати все більше нагадувати свої аналоги з Web2, які генерують прибуток. Але, реально, ринок буде роздвоєний, а деякі моделі залишаться абсолютно вільними.
Одним з найбільших викликів штучного інтелекту є пошук правильних даних для навчання ваших моделей. Ми вже згадували раніше, що децентралізоване навчання штучного інтелекту має свої виклики. Але що на рахунок використання децентралізованої мережі для пошуку даних (які потім можуть бути використані для навчання в інших місцях, навіть в традиційних веб2 майданчиках)?
Саме такими є такі стартапи, як Трава роблять. Grass — це децентралізована мережа «скреперів даних», людей, які вносять незадіяні обчислювальні потужності своєї машини для пошуку даних для інформування про навчання моделей штучного інтелекту. Гіпотетично, у масштабі, це джерело даних може бути кращим за внутрішні зусилля будь-якої компанії щодо джерел даних завдяки величезній потужності великої мережі стимулюючих вузлів. Це включає в себе не просто пошук більшої кількості даних, але й частіше їх пошуки, щоб вони були більш релевантними та актуальними. Також практично неможливо зупинити децентралізовану армію скреперів даних, оскільки вони за своєю суттю фрагментовані і не знаходяться в межах однієї IP-адреси. У них також є мережа людей, які можуть очищати та нормалізувати дані, щоб вони були корисними після вилучення.
коли у вас є дані, вам також потрібне місце для зберігання їх на ланцюжку, а також llms, що генеруються з цими даними.0g.AIЦе ранній лідер у цій категорії. Це оптимізоване штучним інтелектом високопродуктивне веб-сховище web3, яке значно дешевше, ніж aws (ще одна економічна перемога для web3 ai), а також служить інфраструктурою доступності даних для рівнів 2s, штучного інтелекту та інших.
зверніть увагу, що роль даних у майбутньому веб3 ai може змінитися. сьогодні поточний статус кво для llms - це попереднє навчання моделі з даними та її подальше вдосконалення з часом за допомогою більше даних. однак ці моделі завжди трохи застарілі, оскільки дані в Інтернеті змінюються в реальному часі. тому відповіді від ллм-інференції трохи неточні.
майбутнє, куди світ може рухатися, - це нова парадигма – "реальний час" дані. Концепція полягає в тому, що коли llm запитується про питання виведення, цей llm може використовувати впорскування запиту у дані в llm, де ці дані збираються в реальному часі з Інтернету. Таким чином, llm використовує найактуальніші дані, які тільки можливі. Grass також досліджує це.
висновок
ми сподіваємось, що це послужить корисним аналізом для вас, коли ви думаєте про обіцянки проти реалій web3 ai. це лише початок розмови, і ландшафт швидко змінюється, тому будь ласка, не соромтеся долучитися та висловлювати свої погляди, оскільки ми б хотіли продовжувати вчитися й будувати разом.
визнання
особлива подяка альберту кастеллані, джасперу жангу, василісу ціокасу, бідхану рою, резо, вінсенту вейсеру, шашанку Ядаву, алі хусейну, нукрі башарулі, емаду мостаку, девіду мінаршу, томмі шонессі, майклу хайнріху, кекацу вонгу, марку вайнштейну, філіпу бонелло, джеффу аміко, еджазу ахамадіну, евану фенгу і Дж. В. Вангу за їх відгуки та внесок у цей пост.
інформація, наведена тут, призначена лише для загального ознайомлення та не має на меті надавати інвестиційну пораду і не повинна використовуватись при оцінці будь-якого інвестиційного рішення. На таку інформацію не можна покладатися для отримання бухгалтерських, юридичних, податкових, бізнесових, інвестиційних або інших відповідних порад. Вам слід звернутися до своїх власних консультантів, включаючи свого юриста, щодо отримання бухгалтерської, юридичної, податкової, бізнесової, інвестиційної або іншої відповідної поради, включаючи все, що обговорюється тут.
Ця публікація відображає поточні думки автора (авторів) і не зроблена від імені Hack VC або її афілійованих осіб, включаючи будь-які кошти, якими керує Hack VC, і не обов'язково відображає думки Hack VC, її афілійованих осіб, включаючи її генеральних партнерів, або будь-яких інших осіб, пов'язаних із Hack VC. Певна інформація, що міститься в цьому документі, була отримана з опублікованих джерел та/або підготовлена третіми особами та в деяких випадках не була оновлена до дати цієї Угоди. Хоча такі джерела вважаються надійними, ні Hack VC, ні його філії, включаючи його філії генерального партнера, ні будь-які інші особи, пов'язані з Hack VC, не роблять заяв щодо їх точності чи повноти, і на них не слід покладатися як на такі або бути основою для прийняття бухгалтерського, юридичного, податкового, ділового, інвестиційного чи іншого рішення. Інформація, наведена в цьому документі, не претендує на повноту і може бути змінена, і HACK VC не зобов'язаний оновлювати таку інформацію або робити будь-які повідомлення, якщо така інформація стає неточною.
минула виконавча діяльність не обов'язково є показником майбутніх результатів. Будь-які прогнози, висловлені тут, ґрунтуються на певних припущеннях та аналізах, проведених автором на підставі його досвіду та сприйняття історичних тенденцій, поточних умов та очікуваних майбутніх подій, а також інших факторів, які, на його думку, є належними в даних обставинах. Такі заяви не є гарантіями майбутніх результатів та піддаються певним ризикам, невизначеностям та припущенням, які складно передбачити.
Цю статтю відтворено з [Hack vc], оригінальний заголовок «ai x crypto - обіцянки та реальності», авторське право належить оригінальному автору [ед роман, керуючий партнер в hack vc], якщо у вас є які-небудь заперечення стосовно репринту, будь ласка, зв'яжіться з нами.Команда Gate Learn, команда обробить це якнайшвидше відповідно до відповідних процедур.
відмова від відповідальності: погляди та думки, висловлені в цій статті, відображають тільки особисті погляди автора і не становлять жодної інвестиційної поради.
інші мовні версії статті перекладені командою вивчення Gate.io, не згадано вGate.io, перекладена стаття не може бути відтворена, розповсюджена або плагіатована.
ai є однією з найгарячіших та найбільш перспективних категорій на криптовалютних ринках останнім часом.
💡децентралізоване навчання штучного інтелекту
💡gpu depins
💡ненормовані моделі штучного інтелекту
це прориви чи просто модні слова? 🤔
at hack vc, ми прориваємось через шум, щоб відокремити обіцянки від реальності.
цей пост розкладає топ ідеї Крипто х штучного інтелекту. давайте обговоримо реальні виклики та можливості.
ідеї з початковим обіцянням, але які зіткнулися з викликами в реальності.
спочатку давайте розпочнемо з “promise of web3 ai”—ідеї, які мають досить багато хайпу, але реальність може бути не такою блискучою.
проблема з тренуванням штучного інтелекту on-chain полягає в тому, що тренування вимагає швидкого обміну даними та координації між графічними процесорами, через необхідність зворотного поширення у нейронних мережах під час тренування. у nvidia є два інновації для цього (NVLink та InfiniBand). Ці технології ефективно забезпечують швидке зв'язок між графічними процесорами, але вони є тільки локальними технологіями, які застосовуються лише в межах кластерів графічних процесорів, розташованих у межах одного датацентру (швидкість 50+ гігабіт).
якщо ви вводите децентралізовану мережу в картину, раптово ви стаєте в кілька разів повільнішими через додану мережеву затримку та пропускну здатність. це неприйнятно для випадків використання навчання штучного інтелекту порівняно з продуктивністю, яку ви отримуєте від високошвидкісного зв'язку nvidia в межах датацентру.
зауважте, що тут були деякі інновації, які можуть надати деяку надію на майбутнє:
компонент даних навчання також складний. будь-який процес навчання штучного інтелекту включає роботу з великою кількістю даних. Зазвичай моделі тренуються на централізованих та безпечних системах зберігання даних з високою масштабованістю та продуктивністю. Це потребує передачі та обробки терабайтів даних, і це не є одноразовим циклом. Дані зазвичай є шумними та містять помилки, тому їх потрібно очищати та перетворювати в корисний формат перед навчанням моделі. Ця стадія включає повторювані завдання нормалізації, фільтрації та обробки відсутніх значень. Усе це становить серйозні виклики в децентралізованому середовищі.
Компонент даних навчання також є ітеративним, що не дуже підходить для Web3. OpenAI знадобилися тисячі ітерацій, щоб досягти своїх результатів. Найпростіший сценарій завдання для фахівця з Data Science в команді штучного інтелекту включає визначення цілей, підготовку даних, а також аналіз і структурування даних, щоб витягти важливу інформацію та зробити її придатною для моделювання. Потім розробляється модель машинного навчання для вирішення визначеної проблеми, а її продуктивність перевіряється за допомогою тестового набору даних. Цей процес є ітеративним: якщо поточна модель працює не так, як очікувалося, фахівець повертається до етапу збору даних або навчання моделі для покращення результатів. А тепер уявіть цей процес у децентралізованому середовищі, де найкращі у своєму класі існуючі фреймворки та інструменти не є легкодоступними у Web3.
інша проблема з навчанням моделей штучного інтелекту на ланцюжку полягає в тому, що це набагато менш цікавий ринок порівняно з виведенням. Наразі велика кількість обчислень gpu використовується для навчання моделей штучного інтелекту llm. Але в довгостроковій перспективі виведення стане (у великій мірі) більш поширеним випадком використання gpu. Подумайте”: скільки потрібно навчити ai llms, щоб світ був щасливим, порівняно з кількістю клієнтів, які будуть використовувати ці моделі?
одним із рішень, що просувається у всіх напрямках, є 0g.ai (підтримується hack vc), які надають як зберігання даних on-chain, так і інфраструктуру доступності даних. їхній вельми швидкий архітектурний розв'язок та можливість зберігати величезні обсяги даних on-chain дозволяють швидке, ітеративне навчання моделей штучного інтелекту будь-якого типу на цій основі.
одним із викликів у сфері крипто x штучного інтелекту є підтвердження точності висновків штучного інтелекту, оскільки ви не можете довіряти одній централізованій стороні для здійснення цього висновку через можливість недобросовісних вузлів. Цей виклик не існує в штучному інтелекті веб2, оскільки в ньому немає децентралізованої системи згоди.
одна запропонована ідея для вирішення цього полягає в зайвому обчисленні, де кілька вузлів повторюють ту саму операцію інференції штучного інтелекту, щоб ви могли працювати в довірчому режимі і не мати одного єдиного точка відмови.
проблема цього підходу полягає в тому, що ми живемо в світі, де є різке нестача високопотужних чіпів штучного інтелекту. Чекати на високопотужні чіпи nvidia триватиме кілька років, і це призводить до зростання цін. Якщо ви також потребуєте, щоб ваше інференційне штучний інтелект виконувалося кілька разів на кількох вузлах, ви тепер множите ці дорогі витрати. Це буде неприйнятно для багатьох проектів.
Були запропоновані ідеї, що Web3 повинен мати свої власні, унікальні випадки використання штучного інтелекту, які спеціфічні для клієнтів Web3. Це може бути (наприклад) протокол Web3, який використовує штучний інтелект для оцінки ризику пула DeFi, гаманець Web3, який пропонує нові протоколи для вас на основі історії вашого гаманця, або гра Web3, що використовує штучний інтелект для керування непов'язаними персонажами (NPC).
наразі це (на короткий термін) ринок, де використання все ще виявляється. деякі виклики включають в себе:
у довгостроковій перспективі ми досить позитивно ставимося до використання веб3-нативних штучних інтелектів, особливо коли агенти штучного інтелекту стають більш поширеними. ми уявляємо собі майбутнє, де будь-який користувач веб3 має множину агентів штучного інтелекту, які їм допомагають. ранній лідер цієї категорії для цього єTheoriq (підтримується hack vc), що дозволяє компоновані та автономні агенти штучного інтелекту на ланцюжку.
Існує низка децентралізованих обчислювальних мереж зі штучним інтелектом, які покладаються на графічні процесори споживчого класу, а не на центри обробки даних. Споживчі графічні процесори зручні для завдань висновків штучного інтелекту низького класу або для споживчих випадків використання, коли затримка, пропускна здатність і надійність є гнучкими. Але для серйозних випадків використання на підприємствах (а це більша частина ринку, що має значення), клієнти хочуть мати мережу з вищою надійністю порівняно з домашніми машинами людей, і часто потребують графічних процесорів вищого класу, якщо вони мають складніші завдання логічного висновку. Дата-центри більше підходять для більш цінних кейсів використання клієнтами.
Зверніть увагу, що ми вважаємо, що графічні процесори класу споживача корисні для демонстраційних цілей або для фізичних осіб та стартапів, які можуть терпіти меншу надійність. Але ці клієнти фундаментально менш цінні, тому ми вважаємо, що депіни, які обслуговують підприємства web2, будуть більш цінними в довгостроковій перспективі. Таким чином, відомі проекти з використання графічних процесорів класу споживача загалом еволюціонували з ранніх днів переважно з використанням апаратного забезпечення класу споживача в наявність a100/h100 та на рівні кластера.
реальність—практичне та реалістичне використання крипто x ai
тепер давайте обговоримо випадки використання, які надають «реальні переваги». це фактичні «виграші», де крипто x ai може додати значну вартість.
mckinseyоцінки що генеративний штучний інтелект може додати еквівалент від $2,6 трильйона до $4,4 трильйона щорічно за результатами 63 випадків використання, які вони проаналізували - на тлі цього валовий внутрішній продукт усього Об'єднаного Королівства у 2021 році становив $3,1 трильйона. Це збільшило б вплив всього штучного інтелекту на 15-40%. Ця оцінка приблизно подвоїлася б, якщо ми врахуємо вплив вбудовання генеративного штучного інтелекту в програмне забезпечення, яке в даний час використовується для інших завдань поза цими випадками використання.
якщо ви розрахуєте вищезазначену оцінку, це означає, що загальний ринок штучного інтелекту (поза генеративним штучним інтелектом) може бути вартим десятки трильйонів доларів по всьому світу. На порівняння, всі криптовалюти разом, включаючи біткоїн та кожну альт-монету, сьогодні варті лише близько 2,7 трильйонів доларів. Так що давайте бути реалістами: переважна більшість клієнтів, які потребують штучного інтелекту в найближчий час, будуть клієнтами web2, оскільки клієнти web3, які фактично потребують штучного інтелекту, будуть лише маленькою часткою цих 2,7 трильйонів (врахуйте, що btc становить половину цього ринку, і btc сам по собі не потребує / не використовує штучний інтелект).
Використання web3 ai тільки починається, і поки не зовсім зрозуміло, який буде розмір цього ринку. Але одне інтуїтивно відомо - це буде невелика частка ринку web2 в обозримому майбутньому. Ми вважаємо, що web3 ai все ще має світле майбутнє, але це просто означає, що найпотужнішим застосуванням web3 ai наразі є обслуговування клієнтів web2.
приклади клієнтів веб2, які теоретично можуть скористатися штучним інтелектом веб3
це відносно стабільна клієнтська персона, оскільки клієнти в основному великі й цінні. Ймовірно, вони скоро не збанкрутують і становлять дуже великих потенційних клієнтів для послуг штучного інтелекту. Послуги штучного інтелекту web3, які обслуговують клієнтів web2, скористаються цим стабільним клієнтським базисом.
але чому клієнт web2 хотів би використовувати стек web3? решта цього поста робить це виправдання.
gpu depins aggreGate.io недовикористовувана обчислювальна потужність gpu (найнадійніша з якої походить з даних центрів) та зробити її доступною для ai інференції (приклад цього єio.net, яка є портфельною компанією фондів, керованих hack vc). Простий спосіб подумати про це - «airbnb для гпу» (фактично, спільне споживання маловикористовуваних активів).
Причина, через яку ми в захваті від Depins GPU, полягає в тому, що, як зазначалося вище, існує дефіцит чіпів Nvidia, і наразі є даремно витрачені цикли графічного процесора, які можна використовувати для висновків штучного інтелекту. Ці власники апаратного забезпечення мають завищену вартість і не використовують своє обладнання повною мірою сьогодні, і тому можуть запропонувати ці дробові цикли графічного процесора за набагато нижчою ціною порівняно зі статус-кво, оскільки це фактично «знайдені гроші» для власників обладнання.
приклади включають:
зверніть увагу, що не всі обчислювальні пристрої gpu підходять для інференції ai. Однією з головних причин цього є те, що старіші gpu не мають необхідної кількості пам'яті gpu для llms, хоча тут були деякі цікаві нововведення, щоб допомогти.Ексабіти, наприклад, має технологію, яка завантажує активні нейрони в пам'ять gpu і неактивні нейрони в пам'ять cpu. вони передбачають, які нейрони потрібно активувати / деактивувати. це дозволяє нижчим карточкам gpu обробляти робочі навантаження із штучного інтелекту, навіть за обмежена пам'ять gpu. це ефективно робить нижчі карточки gpu більш корисними для виконання штучного інтелекту.
Зауважте також, що Web3 AI Depins з часом потрібно буде посилити свої пропозиції та пропонувати послуги корпоративного класу, такі як єдиний вхід, відповідність вимогам SOC 2, угоди про рівень обслуговування (SLAS) тощо. Це буде дзеркальним відображенням послуг за поточними хмарними пропозиціями, якими зараз користуються клієнти Web2.
Багато говорили про цензуру ШІ. Наприклад, Туреччина тимчасово заборонила OpenAI (але пізніше змінила свою позицію, коли OpenAI покращила свою згоду). Ми вважаємо, що цей вид цензури на рівні країни є фундаментально незначним, оскільки країни повинні будуть прийняти ШІ, щоб залишатися конкурентоспроможними.
ще цікавіше те, що openai самоцензурується. наприклад, openai не буде мати справу з nsfw вмістом. ані openai передбачатиме наступні президентські вибори. ми вважаємо, що існує цікавий і великий ринок для випадків використання штучного інтелекту, які openai не торкатиметься з політичних міркувань.
відкрите використання є великим рішенням для цього, оскільки репозиторій GitHub не залежить від акціонерів або ради. Приклад цього єVenice.ai, яка обіцяє зберігати вашу конфіденційність, а також працювати у безцензурний спосіб. Ключем, звичайно ж, є відкритий код, який це забезпечує. Те, що web3 ai може ефективно принести для підвищення рівня цього - це допомога цим відкритим програмним забезпеченням (oss) моделями на недорогому кластері графічних процесорів для здійснення цього висновку. І саме з цих причин ми вважаємо, що oss + web3 - це ідеальне поєднання для відкриття шляху для безцензурного штучного інтелекту.
багато великих підприємств мають занепокоєння щодо конфіденційності своїх внутрішніх даних підприємства. для цих клієнтів може бути надзвичайно важко довіряти централізованій третій стороні, такій як openai, з цими даними.
з web3, це може здатися (на поверхні) ще більш налякано для цих підприємств, оскільки їх внутрішні дані раптово з'являються в децентралізованій мережі. однак, існують деякі інновації в технологіях, спрямованих на підвищення приватності для штучного інтелекту:
Ці технології все ще розвиваються, а продуктивність постійно покращується завдяки майбутнім zero knowledge (zk) та fhe asics. Проте, довгострокова мета полягає в захисті корпоративних даних під час налаштування моделі. З появою цих протоколів, web3 може стати більш привабливим місцем для обчислень штучного інтелекту з підтримкою конфіденційності.
oss постійно підривав частку ринку пропріетарного програмного забезпечення протягом останніх кількох десятиліть. Ми дивимося на llm просто як на вишукану форму пропріетарного програмного забезпечення, яке готове до руйнування oss. Кілька помітних прикладів конкурентів включаютьЛама, РВКВ, та Mistral.ai. цей список безумовно буде зростати з часом (більш детальний список доступний за адресою Openrouter.ai). використовуючи web3 ai (розроблено моделями oss), можна скористатися цими новими інноваціями.
ми вважаємо, що з плином часу відкрита глобальна розробницька робоча сила, поєднана з крипто-стимулами, може забезпечити швидкий розвиток інновацій у моделях відкритого джерела, а також в агентах та фреймворках, побудованих на основі них. прикладом протоколу штучного інтелекту є Theoriq. theoriq використовує моделі oss для створення складової взаємопов'язаної мережі ai-агентів, які можуть бути зібрані для створення ai-рішень вищого рівня.
причина, по которой у нас здесь есть убеждение, заключается в прошлом: большинство «программного обеспечения разработчика» со временем медленно устарело из-за открытого программного обеспечения. Microsoft раньше была компанией, занимающейся проприетарным программным обеспечением, а теперь они являются первой компанией, вносящей вклад в GitHub, и есть причина для этого. Если посмотреть, как Databricks, PostgresSQL, MongoDB и другие нарушили проприетарные базы данных, то это пример всей отрасли, которая была перевернута открытым программным обеспечением, поэтому прецедент здесь довольно сильный.
однак є одна підводна скеля. Одна з хитрощів з oss llms полягає в тому, що openai почав укладати платні ліцензійні угоди на дані з організаціями, такими як reddit і new york times. якщо ця тенденція триватиме, oss llms можуть мати складнощі у конкуренції через фінансовий бар'єр, пов'язаний з придбанням даних. можливо, nvidia подвоїть зусилля у питанні конфіденційного обчислення як засобу безпечного обміну даними. час покаже, як це вирішиться.
одним з викликів у використанні web3 ai є перевірка. є гіпотетична можливість для валідаторів обманути результати, щоб заробити комісійні, тому перевірка висновків є важливим заходом. Зауважте, що цей обман фактично ще не трапився, оскільки ai inference знаходиться на початковому етапі, але це неминуче, якщо не будуть прийняті заходи для зменшення цього виду поведінки.
стандартним підходом web3 є декілька перевіряючих, які повторюють ту ж операцію та порівнюють результати. Очевидною проблемою є те, що, як зазначено, виведення штучного інтелекту є дорогим через поточний дефіцит високопродуктивних чіпів nvidia. Оскільки web3 може запропонувати інференцію за меншою вартістю за допомогою недостатньо використаних gpu depins, зайві обчислення серйозно підрізали б веб3 пропозицію вартості.
більш перспективним рішенням є виконання zk-доказу для обчислення off-chain ai-виведення. у цьому випадку стислий zk-доказ може бути перевірений, щоб визначити, що модель була правильно навчена, або що висновок був правильно виконаний (відомий як zkml). приклади включаютьМодульні лабораторіїіZKonduit. продуктивність цих рішень поки що є досить початковою, оскільки операції zk вимагають значних обчислень. однак ми очікуємо, що це, швидше за все, покращиться, коли в найближчому майбутньому будуть випущені апаратні засоби zk asics.
Ще більш перспективною є ідея дещо "оптимістичного" підходу до інференції штучного інтелекту на основі вибіркового вибіркового вибіру. У цій моделі ви перевіряли б лише крихітний відсоток результатів, що генеруються валідаторами, але встановлюєте високий економічний витрати на зниження, щоб, якщо їх спіймали, це створило міцний економічний дезінцентив для валідаторів обманювати. Таким чином, ви економите на зайвому обчисленні (наприклад, дивітьсяГіперболічний’sДоказ вибіркового зразка паперу).
Ще однією багатообіцяючою ідеєю є рішення для нанесення водяних знаків і відбитків пальців, наприклад, запропоноване Bagel мережа. це схоже на механізм Amazon Alexa для забезпечення якості моделей штучного інтелекту на пристроях для мільйонів їх пристроїв.
Наступна можливість, яку Web3 надає штучному інтелекту, — це демократизація витрат. Досі ми говорили про економію витрат на графічний процесор за допомогою депінів. Але Web3 також пропонує можливості заощадити на маржі прибутку централізованих сервісів штучного інтелекту Web2 (наприклад, OpenAI, дохід якого на момент написання цієї статті перевищує 1 мільярд доларів США на рік). Ця економія коштів пов'язана з тим, що використовуються моделі OSS, а не пропрієтарні моделі для додаткового рівня економії, оскільки творець моделі не намагається отримати прибуток.
багато моделей oss залишаться абсолютно безкоштовними, що дозволяє забезпечити найкращі економічні умови для клієнтів. але може бути деякі моделі oss, які також намагаються використовувати ці методи монетизації. Зверніть увагу, що лише 4% від загальної кількості моделей на hugging face навчені компаніями з бюджетами для допомоги у підтримці моделей (див. тут). залишилось 96% моделей навчаються спільнотою. Ця когорта – 96% hugging face – має фундаментальні реальні витрати (включаючи витрати на обчислення і витрати на дані). Тому ці моделі якось потрібно монетизувати.
Існує кілька пропозицій щодо досягнення монетизації моделей oss. Одним з найцікавіших є концепція «першої пропозиції моделі» (IMO), де ви токенізуєте саму модель, залишаєте частину токенів для команди і спрямовуєте деякі майбутні доходи від цієї моделі на токенхолдерів, хоча очевидно є деякі правові та регуляторні перешкоди.
Інші моделі OSS намагатимуться монетизувати використання. Зазначимо, що якщо це станеться, моделі OSS можуть почати все більше нагадувати свої аналоги з Web2, які генерують прибуток. Але, реально, ринок буде роздвоєний, а деякі моделі залишаться абсолютно вільними.
Одним з найбільших викликів штучного інтелекту є пошук правильних даних для навчання ваших моделей. Ми вже згадували раніше, що децентралізоване навчання штучного інтелекту має свої виклики. Але що на рахунок використання децентралізованої мережі для пошуку даних (які потім можуть бути використані для навчання в інших місцях, навіть в традиційних веб2 майданчиках)?
Саме такими є такі стартапи, як Трава роблять. Grass — це децентралізована мережа «скреперів даних», людей, які вносять незадіяні обчислювальні потужності своєї машини для пошуку даних для інформування про навчання моделей штучного інтелекту. Гіпотетично, у масштабі, це джерело даних може бути кращим за внутрішні зусилля будь-якої компанії щодо джерел даних завдяки величезній потужності великої мережі стимулюючих вузлів. Це включає в себе не просто пошук більшої кількості даних, але й частіше їх пошуки, щоб вони були більш релевантними та актуальними. Також практично неможливо зупинити децентралізовану армію скреперів даних, оскільки вони за своєю суттю фрагментовані і не знаходяться в межах однієї IP-адреси. У них також є мережа людей, які можуть очищати та нормалізувати дані, щоб вони були корисними після вилучення.
коли у вас є дані, вам також потрібне місце для зберігання їх на ланцюжку, а також llms, що генеруються з цими даними.0g.AIЦе ранній лідер у цій категорії. Це оптимізоване штучним інтелектом високопродуктивне веб-сховище web3, яке значно дешевше, ніж aws (ще одна економічна перемога для web3 ai), а також служить інфраструктурою доступності даних для рівнів 2s, штучного інтелекту та інших.
зверніть увагу, що роль даних у майбутньому веб3 ai може змінитися. сьогодні поточний статус кво для llms - це попереднє навчання моделі з даними та її подальше вдосконалення з часом за допомогою більше даних. однак ці моделі завжди трохи застарілі, оскільки дані в Інтернеті змінюються в реальному часі. тому відповіді від ллм-інференції трохи неточні.
майбутнє, куди світ може рухатися, - це нова парадигма – "реальний час" дані. Концепція полягає в тому, що коли llm запитується про питання виведення, цей llm може використовувати впорскування запиту у дані в llm, де ці дані збираються в реальному часі з Інтернету. Таким чином, llm використовує найактуальніші дані, які тільки можливі. Grass також досліджує це.
висновок
ми сподіваємось, що це послужить корисним аналізом для вас, коли ви думаєте про обіцянки проти реалій web3 ai. це лише початок розмови, і ландшафт швидко змінюється, тому будь ласка, не соромтеся долучитися та висловлювати свої погляди, оскільки ми б хотіли продовжувати вчитися й будувати разом.
визнання
особлива подяка альберту кастеллані, джасперу жангу, василісу ціокасу, бідхану рою, резо, вінсенту вейсеру, шашанку Ядаву, алі хусейну, нукрі башарулі, емаду мостаку, девіду мінаршу, томмі шонессі, майклу хайнріху, кекацу вонгу, марку вайнштейну, філіпу бонелло, джеффу аміко, еджазу ахамадіну, евану фенгу і Дж. В. Вангу за їх відгуки та внесок у цей пост.
інформація, наведена тут, призначена лише для загального ознайомлення та не має на меті надавати інвестиційну пораду і не повинна використовуватись при оцінці будь-якого інвестиційного рішення. На таку інформацію не можна покладатися для отримання бухгалтерських, юридичних, податкових, бізнесових, інвестиційних або інших відповідних порад. Вам слід звернутися до своїх власних консультантів, включаючи свого юриста, щодо отримання бухгалтерської, юридичної, податкової, бізнесової, інвестиційної або іншої відповідної поради, включаючи все, що обговорюється тут.
Ця публікація відображає поточні думки автора (авторів) і не зроблена від імені Hack VC або її афілійованих осіб, включаючи будь-які кошти, якими керує Hack VC, і не обов'язково відображає думки Hack VC, її афілійованих осіб, включаючи її генеральних партнерів, або будь-яких інших осіб, пов'язаних із Hack VC. Певна інформація, що міститься в цьому документі, була отримана з опублікованих джерел та/або підготовлена третіми особами та в деяких випадках не була оновлена до дати цієї Угоди. Хоча такі джерела вважаються надійними, ні Hack VC, ні його філії, включаючи його філії генерального партнера, ні будь-які інші особи, пов'язані з Hack VC, не роблять заяв щодо їх точності чи повноти, і на них не слід покладатися як на такі або бути основою для прийняття бухгалтерського, юридичного, податкового, ділового, інвестиційного чи іншого рішення. Інформація, наведена в цьому документі, не претендує на повноту і може бути змінена, і HACK VC не зобов'язаний оновлювати таку інформацію або робити будь-які повідомлення, якщо така інформація стає неточною.
минула виконавча діяльність не обов'язково є показником майбутніх результатів. Будь-які прогнози, висловлені тут, ґрунтуються на певних припущеннях та аналізах, проведених автором на підставі його досвіду та сприйняття історичних тенденцій, поточних умов та очікуваних майбутніх подій, а також інших факторів, які, на його думку, є належними в даних обставинах. Такі заяви не є гарантіями майбутніх результатів та піддаються певним ризикам, невизначеностям та припущенням, які складно передбачити.
Цю статтю відтворено з [Hack vc], оригінальний заголовок «ai x crypto - обіцянки та реальності», авторське право належить оригінальному автору [ед роман, керуючий партнер в hack vc], якщо у вас є які-небудь заперечення стосовно репринту, будь ласка, зв'яжіться з нами.Команда Gate Learn, команда обробить це якнайшвидше відповідно до відповідних процедур.
відмова від відповідальності: погляди та думки, висловлені в цій статті, відображають тільки особисті погляди автора і не становлять жодної інвестиційної поради.
інші мовні версії статті перекладені командою вивчення Gate.io, не згадано вGate.io, перекладена стаття не може бути відтворена, розповсюджена або плагіатована.