ИИ x Крипто - Обещания и Реальности

Средний7/13/2024, 3:21:16 PM
AI+Crypto — одна из самых заметных пограничных областей на современном рынке криптовалют. Это включает в себя децентрализованное обучение ИИ, депин-коды GPU и устойчивые к цензуре модели ИИ. Основная проблема с обучением ИИ заключается в необходимости высокоскоростной связи и координации между графическими процессорами, поскольку нейронные сети требуют обратного распространения ошибки во время обучения. Внедрение децентрализованной сети может значительно замедлить процесс из-за увеличения задержки и пропускной способности сети. В этой статье также систематизированы решения текущих проблем и приведены примеры того, как интеграция криптовалюты и искусственного интеллекта может принести значительную пользу.

Искусственный интеллект (AI) является одной из самых горячих и перспективных категорий на рынках криптовалют в последнее время.

💡Децентрализованный тренинг искусственного интеллекта

💡gpu depins

💡ненормированные модели искусственного интеллекта

это прорывы или просто модные фразы? 🤔

на hack vc мы прорубаем путь сквозь шум, чтобы отделить обещание от реальности.

этот пост анализирует лучшие идеи по Крипто x искусственный интеллект. давайте обсудим реальные вызовы и возможности.

идеи с начальным обещанием, но столкнувшиеся с трудностями в реальности.

сначала давайте начнем с «обещания web3 ai» — идей, которые вызывают немалый ажиотаж, но реальность может оказаться не такой блестящей.

идея №1: децентрализованное обучение искусственного интеллекта

Проблема с обучением ИИ в блокчейне заключается в том, что обучение требует высокоскоростной связи и координации между графическими процессорами из-за того, что нейронные сети требуют обратного распространения ошибки при обучении. Для этого у NVIDIA есть два нововведения (НВЛинкиInfiniBand). эти технологии позволяют эффективно ускорить обмен данными между графическими процессорами, но они применимы только внутри кластеров графических процессоров, расположенных в пределах одного дата-центра (скорости свыше 50 гигабит).

если вы вводите в картину децентрализованную сеть, то внезапно вы становитесь на порядки медленнее из-за добавленной сетевой задержки и пропускной способности. это абсолютно неприемлемо для использования в обучении искусственного интеллекта по сравнению с пропускной способностью, которую вы получаете от высокоскоростной интерконнектности nvidia внутри дата-центра.

обратите внимание, здесь были некоторые новшества, которые могут дать надежду на будущее:

  • распределенное обучение по InfiniBand происходит в значительном масштабе, поскольку сама компания Nvidia поддерживает распределенное, нелокальное обучение по InfiniBand через библиотеку коллективных коммуникаций Nvidia. Однако это все еще находится в зачаточном состоянии, поэтому метрики принятия пока не установлены. См.здесь. узкое место, которым являются законы физики на расстоянии, по-прежнему существует, поэтому локальное обучение по инфинибенд все еще значительно быстрее.
  • были опубликованы новаторские исследования в области децентрализованного обучения, которые основаны на меньшем количестве синхронизации коммуникации и могут потенциально сделать децентрализованное обучение более практичным в будущем. См. здесьиздесь.
  • Интеллектуальное шардирование и планирование обучения модели могут помочь улучшить производительность. Аналогично, в будущем могут быть разработаны уникальные архитектуры моделей для распределенной инфраструктуры (gensyn исследует эти области).

Компонент данных обучения также представляет собой сложную задачу. Любой процесс обучения искусственного интеллекта включает в себя работу с огромными объемами данных. Как правило, модели обучаются на централизованных и безопасных системах хранения данных с высокой масштабируемостью и производительностью. Это требует передачи и обработки терабайтов данных, и это не является единовременным циклом. Данные обычно содержат шум и ошибки, поэтому их необходимо очищать и преобразовывать в удобный формат перед обучением модели. Этот этап включает в себя повторяющиеся задачи нормализации, фильтрации и обработки отсутствующих значений. Все это представляет собой серьезные вызовы в децентрализованной среде.

компонент данных обучения также итеративен, что плохо подходит для web3. openai заняло тысячи итераций, чтобы достичь своих результатов. самая основная сценарий задачи для специалиста по науке о данных в команде искусственного интеллекта включает определение целей, подготовку данных, анализ и структурирование данных для извлечения важных идей и их подготовки для моделирования. затем разрабатывается модель машинного обучения для решения определенной проблемы, и ее производительность проверяется с использованием тестового набора данных. этот процесс итеративен: если текущая модель не работает как ожидалось, специалист возвращается к сбору данных или этапу обучения модели для улучшения результатов. теперь представьте этот процесс в децентрализованной среде, где лучшие существующие фреймворки и инструменты не так легко доступны в web3.

другая проблема с обучением моделей искусственного интеллекта on-chain заключается в том, что это гораздо менее интересный рынок по сравнению с выводом. на данный момент огромное количество вычислительных мощностей gpu используется для обучения искусственного интеллекта llm. но в долгосрочной перспективе вывод станет (намного) более распространенным случаем использования gpu. подумайте”: сколько искусственных интеллектуальных llm нужно обучить, чтобы мир был счастлив, по сравнению с количеством клиентов, которые будут использовать эти модели?

Одним из решений, которое прогрессирует по всем фронтам, является 0g.ai (поддерживаемая Hack VC), которая предоставляет как ончейн-хранилище данных, так и инфраструктуру доступности данных. Их сверхбыстрая архитектура и способность хранить огромные объемы данных в блокчейне позволяют проводить быстрое, итеративное обучение ончейн-моделей ИИ любого типа.

идея №2: использование чрезмерно избыточных вычислений вывода искусственного интеллекта для достижения консенсуса

Одной из проблем крипто x ai является проверка точности вывода ai, поскольку вы не можете полагаться на единственную централизованную сторону для выполнения этого вывода из-за возможности неправильного поведения узлов. Эта проблема не существует в web2 ai, потому что там нет децентрализованной системы консенсуса.

одна предложенная идея для решения этой проблемы - избыточные вычисления, при которых несколько узлов повторяют одну и ту же операцию вывода искусственного интеллекта, чтобы можно было работать в безопасном режиме и не иметь единой точки отказа.

Проблема этого подхода заключается в том, что мы живем в мире с катастрофическим дефицитом высококлассных чипов искусственного интеллекта. Высококлассные чипы Nvidia заказывают за многие годы вперед, что приводит к росту цен. Если вам также требуется выполнить ваш вывод искусственного интеллекта несколько раз на нескольких узлах, вы умножаете эти дорогостоящие затраты. Для многих проектов это будет неприемлемо.

идея №3: специфичные для web3 случаи использования искусственного интеллекта в ближайшее время

появились предложения, что у веб3 должны быть свои уникальные применения искусственного интеллекта, специфические для клиентов веб3. Это может быть (например) протокол веб3, который использует искусственный интеллект для оценки риска пула Defi, кошелек веб3, который предлагает вам новые протоколы на основе истории вашего кошелька, или игра веб3, которая использует искусственный интеллект для управления неигровыми персонажами (NPCs).

на данный момент это (в краткосрочной перспективе) рынок, где все еще находят применение. Некоторые проблемы включают в себя:

  • Для веб-3-нативных случаев использования требуется меньше потенциальных транзакций искусственного интеллекта, поскольку спрос на рынке все еще находится в зачаточном состоянии.
  • меньше клиентов, поскольку количество клиентов web3 на порядок меньше, чем клиентов web2, поэтому рынок менее фрагментирован.
  • клиенты сами по себе менее стабильны, так как они являются стартапами с меньшим финансированием, поэтому некоторые из этих стартапов могут вылететь со временем. поставщик услуг web3 ai, обслуживающий клиентов web3, вероятно, будет нуждаться в повторном привлечении части своей клиентской базы со временем для замены тех, которые вылетели, что делает бизнес масштабирования более сложным.

в более долгосрочной перспективе мы довольно оптимистично относимся к использованию web3-нативных искусственных интеллектов, особенно поскольку их агенты становятся более распространенными. мы представляем себе будущее, в котором у любого пользователя web3 будет множество искусственных интеллектов, помогающих им. ранний лидер в этой категории - Theoriq(поддерживаемый hack vc), который позволяет создавать композиционных и автономных цепных искусственных интеллектов.

идея № 4: отпаивание графических процессоров общего назначения для потребителей

существует ряд децентрализованных вычислительных сетей искусственного интеллекта, которые полагаются на графические процессоры для потребителей, а не на центры обработки данных. Графические процессоры для потребителей удобны для задач низкоуровневого вывода искусственного интеллекта или для случаев использования потребителей, где гибкость задержки, пропускной способности и надежности. Но для серьезных корпоративных случаев использования (которые составляют основную часть рынка, который имеет значение), заказчики хотят более надежную сеть по сравнению с домашними машинами людей и часто нуждаются в более продвинутых графических процессорах, если у них есть более сложные задачи вывода. Центры обработки данных более подходят для этих более ценных случаев использования клиентов.

обратите внимание, что мы считаем графические процессоры для потребителей полезными для демонстрационных целей или для отдельных лиц и стартапов, которые могут терпеть более низкую надежность. Но эти клиенты фундаментально менее ценны, поэтому мы считаем, что депины, ориентированные на предприятия web2, будут более ценны в долгосрочной перспективе. Таким образом, известные проекты депина графического процессора в целом развивались с ранних дней, когда использовалось преимущественно оборудование для потребителей, до наличия a100/h100 и кластерного уровня.

реальность—практические и реалистичные примеры использования крипто x искусственный интеллект

теперь давайте обсудим случаи использования, которые приносят «реальные преимущества». Это действительные «победы», где Крипто x AI может добавить значительную ценность.

реальная выгода №1: обслуживание клиентов web2

mckinsey оценки что генеративный искусственный интеллект может добавить эквивалент от $2.6 триллионов до $4.4 триллионов ежегодно по всем 63 использованиям, которые они проанализировали. В сравнении, весь ВВП Великобритании в 2021 году составил $3.1 триллиона. Это увеличило бы влияние всего искусственного интеллекта на 15% до 40%. Эта оценка примерно удвоится, если мы включим влияние внедрения генеративного искусственного интеллекта в программное обеспечение, которое в настоящее время используется для других задач, кроме этих использований.

Если посчитать вышеприведенную оценку, то получится, что общий рынок ИИ (помимо генеративного ИИ) может исчисляться десятками триллионов долларов во всем мире. Для сравнения, все криптовалюты вместе взятые, включая биткоин и все альткоины, сегодня стоят всего около 2,7 триллиона долларов. Так что давайте будем реалистами: подавляющее большинство клиентов, которым нужен ИИ в краткосрочной перспективе, будут клиентами Web2, поскольку клиенты Web3, которым действительно нужен ИИ, будут крошечной частью этих 2,7 триллиона долларов (учтите, что BTC составляет половину этого рынка, а сам BTC не нуждается в ИИ).

Применения искусственного интеллекта в сети Web3 только начинают свое развитие, и пока неясно, каков будет размер этого рынка. Но одно можно сказать с уверенностью - это будет лишь небольшая доля рынка Web2 в ближайшем будущем. Мы считаем, что у искусственного интеллекта в сети Web3 всё ещё яркое будущее, но на данный момент его наиболее мощное применение заключается в обслуживании клиентов Web2.

примеры клиентов web2, которые могут потенциально получить выгоду от web3 искусственного интеллекта, включают:

  • компании, специализирующиеся на вертикальном программном обеспечении, которые созданы с нуля с учетом искусственного интеллекта, (например, cedar.ai или observe.ai)
  • крупные предприятия, которые настраивают модели для своих собственных целей (например, Netflix)
  • быстрорастущие поставщики искусственного интеллекта (например, anthropic)
  • компании-разработчики программного обеспечения, которые добавляют искусственный интеллект в свои существующие продукты (например, Canva)

это относительно стабильный образ клиента, поскольку клиенты, как правило, являются крупными и ценными. Вероятно, они не скоро разорятся, и они представляют собой очень крупных потенциальных клиентов для услуг искусственного интеллекта. Веб-сервисы AI web3, обслуживающие клиентов web2, будут иметь пользу от этой стабильной базы клиентов.

но почему бы веб-2 клиенту использовать стек веб-3? остаток этого поста делает этот случай.

реальное преимущество №2: снижение затрат на использование gpu с помощью depins gpu

gpu depins aggreGate.io недостаточно использует вычислительную мощность gpu (наиболее надежными из которых являются центры обработки данных) и делает ее доступной для ai-вывода (примером является io.net, которая является портфельной компанией фондов, управляемых hack vc). простой способ думать об этом - это "airbnb для gpus" (эффективно, коллективное потребление недопользуемых активов).

Причина, по которой мы в восторге от GPU Depins, заключается в том, что, как отмечалось выше, существует нехватка чипов Nvidia, и в настоящее время есть потраченные впустую циклы графического процессора, которые можно использовать для инференса ИИ. Эти владельцы оборудования имеют невозвратные затраты и не используют свое оборудование в полной мере сегодня, и поэтому могут предложить эти дробные циклы графического процессора по гораздо более низкой цене по сравнению со статус-кво, поскольку это фактически «найденные деньги» для владельцев оборудования.

примеры включают в себя:

  • машин aws. если вы сегодня арендуете h100 от aws, вам придется заключить договор аренды на 1 год, потому что рынок ограничен поставками. это приводит к потерям, поскольку вы, вероятно, не будете использовать свой графический процессор 365 дней в году, 7 дней в неделю.
  • оборудование для майнинга filecoin. filecoin - это сеть с большим количеством субсидированного предложения, но не значительным количеством реального спроса. К сожалению, filecoin никогда не нашел истинной производственно-рыночной ниши, и поэтому майнеры filecoin находятся в опасности банкротства. На этих машинах установлены графические процессоры (GPU) и их можно использовать для выполнения задач по нижнему уровню вывода искусственного интеллекта (AI inference).
  • оборудование для майнинга eth. когда eth перешел от pow к pos, это сразу же сделало большое количество оборудования доступным для переделки под ai-выводы.

Обратите внимание, что не весь GPU-оборудование подходит для вывода искусственного интеллекта. Одна из явных причин в том, что у старых GPU нет необходимого количества памяти для LLMS, хотя здесь были некоторые интересные инновации, чтобы помочь.Эксабиты, например, имеет технологию, которая загружает активные нейроны в память gpu, а неактивные нейроны - в память cpu. они предсказывают, какие нейроны должны быть активными / неактивными. это позволяет нижестоящим gpu обрабатывать ai-нагрузки даже с ограниченной памятью gpu. это позволяет более низким gpu быть более полезными для ai-вывода.

обратите внимание, что веб-3 искусственный интеллект depins со временем должны усовершенствовать свои предложения и предлагать услуги класса предприятий, такие как одноэтапная аутентификация, соответствие soc 2, соглашения об уровне обслуживания (SLA) и многое другое. Это повторило бы услуги, предлагаемые в рамках текущих облачных предложений, которые веб-2 клиенты в настоящее время наслаждаются.

Реальная польза #3: модели без цензуры, чтобы избежать самоцензуры OpenAI

было много разговоров о цензуре искусственного интеллекта. Турция, например, временно запретила OpenAI (позже отменила это решение, когда OpenAI улучшил свою совместимость). Мы считаем, что такая цензура на уровне стран фундаментально неинтересна, поскольку странам придется принять искусственный интеллект, чтобы оставаться конкурентоспособными.

еще более интересно то, что openai самоцензурируется. Например, openai не будет обрабатывать контент для взрослых. Ни openai не предскажет следующие президентские выборы. Мы считаем, что существует интересный и большой рынок для применения искусственного интеллекта, которыми openai не будет заниматься по политическим причинам.

открытое предоставление исходного кода является отличным решением для этого, поскольку репозиторий GitHub не привязан к акционерам или совету директоров. примером этого являетсяVenice.ai, которая обещает сохранить вашу конфиденциальность, а также работать в непроцензурном режиме. ключ, конечно же, заключается в открытом исходном коде, благодаря которому это происходит. то, что web3 ai может эффективно принести вверх, это обеспечение этих моделей open-source software (oss) в кластере gpu по более низкой стоимости для выполнения этого вывода. по этим причинам мы считаем, что oss + web3 - идеальное сочетание для прокладывания пути к непроцензурному искусственному интеллекту.

реальная польза #4: избегание отправки лично идентифицируемой информации в openai

Многие крупные предприятия опасаются за конфиденциальность своих внутренних корпоративных данных. Для таких клиентов может быть чрезвычайно сложно доверять централизованному третьему лицу, такому как OpenAI, с этими данными.

с web3 может показаться (на первый взгляд) еще более пугающим для этих предприятий, поскольку их внутренние данные внезапно находятся в децентрализованной сети. однако существуют некоторые инновации в технологиях повышения конфиденциальности для искусственного интеллекта:

  • доверенные исполнительные окружения (TEE), такие какСупер протокол
  • полностью гомоморфное шифрование (FHE), такое как Fhenix.io (компания-портфель фонда, управляемого hack vc) или Сеть Inco (каждый из которых работает на Zama.ai), и ppml Bagel

эти технологии все еще развиваются, и производительность все еще улучшается за счет грядущих асиков zero knowledge (zk) и fhe. но долгосрочная цель - защитить предприятийные данные при настройке модели. по мере развития этих протоколов, web3 может стать более привлекательной площадкой для вычислений искусственного интеллекта с сохранением конфиденциальности.

реальная выгода №5: воспользуйтесь последними инновациями в открытых моделях

oss постоянно подрывает долю рынка проприетарного программного обеспечения на протяжении последних нескольких десятилетий. Мы рассматриваем llm как просто модную форму проприетарного программного обеспечения, которая готова к разрушению oss. Несколько примечательных примеров конкурентов включают Лама, RWKV, и Mistral.ai. этот список без сомнения будет расти по мере того, как время идет (более подробный список доступен наOpenrouter.ai). используя web3 ai (работающий на моделях oss), можно воспользоваться этими новыми инновациями.

мы верим, что по мере того, как время идет, мировая разработчики с открытым исходным кодом, совместно с крипто-стимулами, могут стимулировать быстрые инновации в моделях с открытым исходным кодом, а также агенты и фреймворки, построенные на их основе. примером протокола искусственного интеллекта является Theoriq. theoriq использует модели oss для создания композиционной взаимосвязанной сети искусственного интеллекта, которую можно собрать для создания более высокоуровневых решений в области искусственного интеллекта.

причина, по которой мы имеем убеждение здесь, заключается в прошлом: большинство 'программного обеспечения разработчика' со временем было постепенно переплюнуто oss. Microsoft раньше была компанией с проприетарным программным обеспечением, а теперь они являются ведущей компанией, вносящей вклад в GitHub, и в этом есть причина. Если посмотреть, как Databricks, PostgresSQL, MongoDB и другие нарушили проприетарные базы данных, это пример целой отрасли, которая была перевернута oss, так что прецедент здесь довольно сильный.

однако это сопряжено с определенными сложностями. одна из проблем с oss llms заключается в том, что openai начала заключать платные лицензионные соглашения по данным с организациями, такими как reddit и the new york times. если эта тенденция продолжится, станет все сложнее конкурировать oss llms из-за финансового барьера, связанного с их получением данных. возможно, nvidia удвоит усилия в области конфиденциальных вычислений как средства обеспечения безопасного обмена данными. время покажет, как все это разрешится.

Реальная выгода #6: Консенсус достигается с помощью случайной выборки с высокими затратами на слэшинг или с помощью доказательств ZK

Одной из проблем с выводом веб3 ИИ является проверка. Существует гипотетическая возможность для валидаторов обмануть свои результаты, чтобы получить комиссионные, поэтому проверка выводов является важной мерой. Следует отметить, что такого обмана пока еще не произошло, поскольку выводы ИИ находятся в зачаточном состоянии, но это неизбежно, если не будут предприняты меры для дезинцентивации такого поведения.

Стандартный подход web3 заключается в том, чтобы иметь несколько валидаторов, повторяющих одну и ту же операцию и сравнивающих результаты. Главная проблема заключается в том, как отмечено, что вывод ai дорог из-за недостатка высококлассных чипов nvidia. Учитывая, что web3 может предложить вывод с более низкой стоимостью через недоиспользуемые gpu-зависимости, избыточные вычисления серьезно подрежут предложение web3.

более многообещающим решением является выполнение zk proof для вычисления off-chain ai inference. в этом случае краткий zk proof может быть проверен для определения того, что модель была правильно обучена, или что вывод был выполнен правильно (известный как zkml). примеры включаютЛаборатории модулейиZKonduit. производительность этих решений все еще находится в начальной стадии, поскольку zk операции достаточно интенсивны с вычислительной точки зрения. однако мы предполагаем, что это, вероятно, улучшится с выпуском zk аппаратных средств asics в ближайшем будущем.

Еще более многообещающей является идея несколько «оптимистичного» подхода к логическому выводу ИИ на основе выборки. В этой модели вы бы проверили лишь небольшой процент результатов, сгенерированных валидаторами, но установили бы экономические издержки слэшинга достаточно высокими, чтобы в случае поимки это создало сильный экономический стимул для валидаторов жульничать. Таким образом, вы экономите на избыточных вычислениях (например, см. Гиперболический’s Доказательство выборочной бумаги).

еще одна многообещающая идея - это решение по водяным знакам и отпечаткам, например, то, которое предложеноСеть Bagel. это похоже на механизм amazon alexa для обеспечения качества моделей искусственного интеллекта на устройствах для их миллионов устройств.

реальная выгода №7: экономия на комиссиях (маржа openai) через oss

следующая возможность, которую web3 приносит искусственному интеллекту, - демократизация издержек. До сих пор мы говорили о сбережении затрат на гпу через depins. Но web3 также предлагает возможности сэкономить на прибыли централизованных веб-сервисов ai web2 (например, openai, который в настоящее время приносит более $1 млрд в год). Экономия затрат обусловлена тем, что вместо проприетарных моделей используются oss-модели, что позволяет сэкономить еще больше, так как создатель модели не пытается извлечь прибыль.

множество моделей OSS останутся полностью бесплатными, что обеспечивает наилучшую экономику для клиентов. Но могут быть и некоторые модели OSS, которые попытаются использовать эти методы монетизации. Учтите, что только 4% общего числа моделей на Hugging Face обучены компаниями с бюджетом для поддержки моделей (см. здесьоставшиеся 96% моделей обучены сообществом. Этот когорт - 96% hugging face - имеют фундаментальные реальные издержки (включая издержки на вычисления и данные). Таким образом, эти модели каким-то образом должны монетизировать.

есть несколько предложений по осуществлению монетизации моделей с открытым исходным кодом. Одно из самых интересных - это концепция "первичного предложения модели" (IMO), где вы токенизируете саму модель, оставляете определенный процент токенов для команды и направляете некоторые будущие доходы от этой модели держателям токенов, хотя, очевидно, есть некоторые юридические и регуляторные препятствия.

другие модели ОСС будут пытаться монетизировать использование. обратите внимание, что если это осуществится, модели ОСС могут все больше начать напоминать своих прибыльных аналогов из веб2. но, реалистически, рынок будет разделен, и некоторые модели останутся полностью бесплатными.

реальная выгода #8: децентрализованный сбор данных

Одна из крупнейших проблем с ИИ - это поиск правильных данных для обучения ваших моделей. Мы упоминали ранее, что децентрализованное обучение ИИ имеет свои сложности. Но что насчет использования децентрализованной сети для поиска данных (которые могут затем использоваться для обучения в другом месте, даже в традиционных веб-площадках web2)?

это точно то, что делают стартапы, такие как Траваделают. трава - это децентрализованная сеть “сборщиков данных”, людей, которые вносят свободную вычислительную мощность своей машины для получения данных для обучения моделей искусственного интеллекта. Гипотетически, на масштабах, этот сбор данных может быть более эффективным, чем усилия любой компании по сбору данных благодаря мощи большой сети инцентивизированных узлов. Это включает в себя не только сбор большего количества данных, но и более частый сбор данных, чтобы данные были более актуальными и обновленными. Также практически невозможно остановить децентрализованную армию сборщиков данных, поскольку они по своей природе фрагментированы и не находятся в одном IP-адресе. У них также есть сеть людей, которые могут очищать и нормализовывать данные, чтобы они были полезны после сбора.

как только у вас есть данные, вам также нужно место для их хранения в цепи, а также сгенерированные с этими данными llms.0г. Искусственный интеллектв этой категории на раннем этапе лидером является. это оптимизированное под искусственный интеллект высокопроизводительное хранилище web3, которое значительно дешевле aws (еще одна экономическая победа для web3 ai), а также служит инфраструктурой доступности данных для уровней 2, искусственного интеллекта и многого другого.

Обратите внимание, что роль данных в будущем может измениться в web3 ai. На сегодняшний день текущая стандартная практика для LLMS - это предварительное обучение модели данными и ее дальнейшее усовершенствование с течением времени при помощи новых данных. Однако такие модели всегда немного устаревают, поскольку данные в Интернете меняются в реальном времени. Поэтому ответы от вывода LLMS немного неточны.

будущее того, куда могут направляться мир, это новая парадигма - «реальные» данные. Концепция заключается в том, что когда LLM задается вопрос о выводе, этот LLM может использовать внедрение подсказки данных в LLM, где эти данные собираются в реальном времени из интернета. Таким образом, LLM использует наиболее актуальные данные. Grass также исследует это.

заключение

Мы надеемся, что это послужит вам полезным анализом, когда вы думаете о обещаниях против реальности веб3 и искусственного интеллекта. Это всего лишь отправная точка для разговора, и ситуация быстро меняется, поэтому не стесняйтесь присоединиться и высказать свое мнение, так как нам очень хотелось бы продолжать учиться и развиваться вместе.

благодарности

очень особая благодарность альберту кастеллане, джасперу чжангу, вассилису циокасу, бидхану рою, резо, винсенту вейссеру, шашанку ядаву, али хусаину, нукри башарули, эмаду мостаку, дэвиду минаршу, томми шонесси, майклу хайнриху, кекаку вонгу, марку вайнштейну, филлипу бонелло, джеффу амико, эджазу ахамадину, эвану фэну и джу вангу за их отзывы и вклад в этот пост.


Информация, содержащаяся здесь, предназначена исключительно для общего ознакомления и не является инвестиционным советом, а также не предполагает его предоставления. Она не должна использоваться при принятии решений об инвестициях. Данная информация не должна рассматриваться как основа для получения бухгалтерского, юридического, налогового, делового, инвестиционного или другого соответствующего совета. Вы должны проконсультироваться со своими собственными консультантами, включая юриста, для получения бухгалтерского, юридического, налогового, делового, инвестиционного или другого соответствующего совета, включая все обсуждаемые вопросы.

Этот пост отражает текущее мнение автора (авторов) и не сделан от имени Hack VC или его аффилированных лиц, включая любые фонды, управляемые Hack VC, и не обязательно отражает мнение Hack VC, его аффилированных лиц, включая его генеральных партнеров, или любых других лиц, связанных с Hack VC. Определенная информация, содержащаяся в настоящем документе, была получена из опубликованных источников и/или подготовлена третьими лицами и в некоторых случаях не обновлялась на дату настоящего документа. Несмотря на то, что такие источники считаются надежными, ни Hack VC, ни ее аффилированные лица, включая ее Генеральных партнеров, ни любые другие лица, связанные с Hack VC, не делают заявлений относительно их точности или полноты, и на них не следует полагаться как на таковые или быть основой для принятия бухгалтерских, юридических, налоговых, деловых, инвестиционных или других решений. Информация, содержащаяся в настоящем документе, не претендует на полноту и может быть изменена, и Hack VC не обязана обновлять такую информацию или делать какие-либо уведомления, если такая информация становится неточной.

Прошлые результаты не обязательно свидетельствуют о будущих результатах. Любые прогнозные заявления, сделанные в настоящем документе, основаны на определенных предположениях и анализе, сделанных автором в свете его опыта и восприятия исторических тенденций, текущих условий и ожидаемого будущего развития, а также других факторов, которые, по его мнению, уместны в данных обстоятельствах. Такие заявления не являются гарантиями будущих результатов и подвержены определенным рискам, неопределенностям и предположениям, которые трудно предсказать.

утверждение:

  1. эта статья воспроизведена из[Hack vc], оригинальное название «ai x crypto - обещания и реальность», авторские права принадлежат оригинальному автору [ед роман, управляющий партнер в hack vc], если у вас есть возражения против публикации, пожалуйста, свяжитесь сКоманда Gate learnКоманда обработает это как можно скорее в соответствии с соответствующими процедурами.

  2. отказ от ответственности: мнения и взгляды, выраженные в этой статье, представляют только личные взгляды автора и не являются инвестиционным советом.

  3. другие языковые версии статьи переводятся командой Gate.io Learn, не указанными вGate.io, переведенная статья не может быть воспроизведена, распространена или использована в качестве плагиата.

ИИ x Крипто - Обещания и Реальности

Средний7/13/2024, 3:21:16 PM
AI+Crypto — одна из самых заметных пограничных областей на современном рынке криптовалют. Это включает в себя децентрализованное обучение ИИ, депин-коды GPU и устойчивые к цензуре модели ИИ. Основная проблема с обучением ИИ заключается в необходимости высокоскоростной связи и координации между графическими процессорами, поскольку нейронные сети требуют обратного распространения ошибки во время обучения. Внедрение децентрализованной сети может значительно замедлить процесс из-за увеличения задержки и пропускной способности сети. В этой статье также систематизированы решения текущих проблем и приведены примеры того, как интеграция криптовалюты и искусственного интеллекта может принести значительную пользу.

Искусственный интеллект (AI) является одной из самых горячих и перспективных категорий на рынках криптовалют в последнее время.

💡Децентрализованный тренинг искусственного интеллекта

💡gpu depins

💡ненормированные модели искусственного интеллекта

это прорывы или просто модные фразы? 🤔

на hack vc мы прорубаем путь сквозь шум, чтобы отделить обещание от реальности.

этот пост анализирует лучшие идеи по Крипто x искусственный интеллект. давайте обсудим реальные вызовы и возможности.

идеи с начальным обещанием, но столкнувшиеся с трудностями в реальности.

сначала давайте начнем с «обещания web3 ai» — идей, которые вызывают немалый ажиотаж, но реальность может оказаться не такой блестящей.

идея №1: децентрализованное обучение искусственного интеллекта

Проблема с обучением ИИ в блокчейне заключается в том, что обучение требует высокоскоростной связи и координации между графическими процессорами из-за того, что нейронные сети требуют обратного распространения ошибки при обучении. Для этого у NVIDIA есть два нововведения (НВЛинкиInfiniBand). эти технологии позволяют эффективно ускорить обмен данными между графическими процессорами, но они применимы только внутри кластеров графических процессоров, расположенных в пределах одного дата-центра (скорости свыше 50 гигабит).

если вы вводите в картину децентрализованную сеть, то внезапно вы становитесь на порядки медленнее из-за добавленной сетевой задержки и пропускной способности. это абсолютно неприемлемо для использования в обучении искусственного интеллекта по сравнению с пропускной способностью, которую вы получаете от высокоскоростной интерконнектности nvidia внутри дата-центра.

обратите внимание, здесь были некоторые новшества, которые могут дать надежду на будущее:

  • распределенное обучение по InfiniBand происходит в значительном масштабе, поскольку сама компания Nvidia поддерживает распределенное, нелокальное обучение по InfiniBand через библиотеку коллективных коммуникаций Nvidia. Однако это все еще находится в зачаточном состоянии, поэтому метрики принятия пока не установлены. См.здесь. узкое место, которым являются законы физики на расстоянии, по-прежнему существует, поэтому локальное обучение по инфинибенд все еще значительно быстрее.
  • были опубликованы новаторские исследования в области децентрализованного обучения, которые основаны на меньшем количестве синхронизации коммуникации и могут потенциально сделать децентрализованное обучение более практичным в будущем. См. здесьиздесь.
  • Интеллектуальное шардирование и планирование обучения модели могут помочь улучшить производительность. Аналогично, в будущем могут быть разработаны уникальные архитектуры моделей для распределенной инфраструктуры (gensyn исследует эти области).

Компонент данных обучения также представляет собой сложную задачу. Любой процесс обучения искусственного интеллекта включает в себя работу с огромными объемами данных. Как правило, модели обучаются на централизованных и безопасных системах хранения данных с высокой масштабируемостью и производительностью. Это требует передачи и обработки терабайтов данных, и это не является единовременным циклом. Данные обычно содержат шум и ошибки, поэтому их необходимо очищать и преобразовывать в удобный формат перед обучением модели. Этот этап включает в себя повторяющиеся задачи нормализации, фильтрации и обработки отсутствующих значений. Все это представляет собой серьезные вызовы в децентрализованной среде.

компонент данных обучения также итеративен, что плохо подходит для web3. openai заняло тысячи итераций, чтобы достичь своих результатов. самая основная сценарий задачи для специалиста по науке о данных в команде искусственного интеллекта включает определение целей, подготовку данных, анализ и структурирование данных для извлечения важных идей и их подготовки для моделирования. затем разрабатывается модель машинного обучения для решения определенной проблемы, и ее производительность проверяется с использованием тестового набора данных. этот процесс итеративен: если текущая модель не работает как ожидалось, специалист возвращается к сбору данных или этапу обучения модели для улучшения результатов. теперь представьте этот процесс в децентрализованной среде, где лучшие существующие фреймворки и инструменты не так легко доступны в web3.

другая проблема с обучением моделей искусственного интеллекта on-chain заключается в том, что это гораздо менее интересный рынок по сравнению с выводом. на данный момент огромное количество вычислительных мощностей gpu используется для обучения искусственного интеллекта llm. но в долгосрочной перспективе вывод станет (намного) более распространенным случаем использования gpu. подумайте”: сколько искусственных интеллектуальных llm нужно обучить, чтобы мир был счастлив, по сравнению с количеством клиентов, которые будут использовать эти модели?

Одним из решений, которое прогрессирует по всем фронтам, является 0g.ai (поддерживаемая Hack VC), которая предоставляет как ончейн-хранилище данных, так и инфраструктуру доступности данных. Их сверхбыстрая архитектура и способность хранить огромные объемы данных в блокчейне позволяют проводить быстрое, итеративное обучение ончейн-моделей ИИ любого типа.

идея №2: использование чрезмерно избыточных вычислений вывода искусственного интеллекта для достижения консенсуса

Одной из проблем крипто x ai является проверка точности вывода ai, поскольку вы не можете полагаться на единственную централизованную сторону для выполнения этого вывода из-за возможности неправильного поведения узлов. Эта проблема не существует в web2 ai, потому что там нет децентрализованной системы консенсуса.

одна предложенная идея для решения этой проблемы - избыточные вычисления, при которых несколько узлов повторяют одну и ту же операцию вывода искусственного интеллекта, чтобы можно было работать в безопасном режиме и не иметь единой точки отказа.

Проблема этого подхода заключается в том, что мы живем в мире с катастрофическим дефицитом высококлассных чипов искусственного интеллекта. Высококлассные чипы Nvidia заказывают за многие годы вперед, что приводит к росту цен. Если вам также требуется выполнить ваш вывод искусственного интеллекта несколько раз на нескольких узлах, вы умножаете эти дорогостоящие затраты. Для многих проектов это будет неприемлемо.

идея №3: специфичные для web3 случаи использования искусственного интеллекта в ближайшее время

появились предложения, что у веб3 должны быть свои уникальные применения искусственного интеллекта, специфические для клиентов веб3. Это может быть (например) протокол веб3, который использует искусственный интеллект для оценки риска пула Defi, кошелек веб3, который предлагает вам новые протоколы на основе истории вашего кошелька, или игра веб3, которая использует искусственный интеллект для управления неигровыми персонажами (NPCs).

на данный момент это (в краткосрочной перспективе) рынок, где все еще находят применение. Некоторые проблемы включают в себя:

  • Для веб-3-нативных случаев использования требуется меньше потенциальных транзакций искусственного интеллекта, поскольку спрос на рынке все еще находится в зачаточном состоянии.
  • меньше клиентов, поскольку количество клиентов web3 на порядок меньше, чем клиентов web2, поэтому рынок менее фрагментирован.
  • клиенты сами по себе менее стабильны, так как они являются стартапами с меньшим финансированием, поэтому некоторые из этих стартапов могут вылететь со временем. поставщик услуг web3 ai, обслуживающий клиентов web3, вероятно, будет нуждаться в повторном привлечении части своей клиентской базы со временем для замены тех, которые вылетели, что делает бизнес масштабирования более сложным.

в более долгосрочной перспективе мы довольно оптимистично относимся к использованию web3-нативных искусственных интеллектов, особенно поскольку их агенты становятся более распространенными. мы представляем себе будущее, в котором у любого пользователя web3 будет множество искусственных интеллектов, помогающих им. ранний лидер в этой категории - Theoriq(поддерживаемый hack vc), который позволяет создавать композиционных и автономных цепных искусственных интеллектов.

идея № 4: отпаивание графических процессоров общего назначения для потребителей

существует ряд децентрализованных вычислительных сетей искусственного интеллекта, которые полагаются на графические процессоры для потребителей, а не на центры обработки данных. Графические процессоры для потребителей удобны для задач низкоуровневого вывода искусственного интеллекта или для случаев использования потребителей, где гибкость задержки, пропускной способности и надежности. Но для серьезных корпоративных случаев использования (которые составляют основную часть рынка, который имеет значение), заказчики хотят более надежную сеть по сравнению с домашними машинами людей и часто нуждаются в более продвинутых графических процессорах, если у них есть более сложные задачи вывода. Центры обработки данных более подходят для этих более ценных случаев использования клиентов.

обратите внимание, что мы считаем графические процессоры для потребителей полезными для демонстрационных целей или для отдельных лиц и стартапов, которые могут терпеть более низкую надежность. Но эти клиенты фундаментально менее ценны, поэтому мы считаем, что депины, ориентированные на предприятия web2, будут более ценны в долгосрочной перспективе. Таким образом, известные проекты депина графического процессора в целом развивались с ранних дней, когда использовалось преимущественно оборудование для потребителей, до наличия a100/h100 и кластерного уровня.

реальность—практические и реалистичные примеры использования крипто x искусственный интеллект

теперь давайте обсудим случаи использования, которые приносят «реальные преимущества». Это действительные «победы», где Крипто x AI может добавить значительную ценность.

реальная выгода №1: обслуживание клиентов web2

mckinsey оценки что генеративный искусственный интеллект может добавить эквивалент от $2.6 триллионов до $4.4 триллионов ежегодно по всем 63 использованиям, которые они проанализировали. В сравнении, весь ВВП Великобритании в 2021 году составил $3.1 триллиона. Это увеличило бы влияние всего искусственного интеллекта на 15% до 40%. Эта оценка примерно удвоится, если мы включим влияние внедрения генеративного искусственного интеллекта в программное обеспечение, которое в настоящее время используется для других задач, кроме этих использований.

Если посчитать вышеприведенную оценку, то получится, что общий рынок ИИ (помимо генеративного ИИ) может исчисляться десятками триллионов долларов во всем мире. Для сравнения, все криптовалюты вместе взятые, включая биткоин и все альткоины, сегодня стоят всего около 2,7 триллиона долларов. Так что давайте будем реалистами: подавляющее большинство клиентов, которым нужен ИИ в краткосрочной перспективе, будут клиентами Web2, поскольку клиенты Web3, которым действительно нужен ИИ, будут крошечной частью этих 2,7 триллиона долларов (учтите, что BTC составляет половину этого рынка, а сам BTC не нуждается в ИИ).

Применения искусственного интеллекта в сети Web3 только начинают свое развитие, и пока неясно, каков будет размер этого рынка. Но одно можно сказать с уверенностью - это будет лишь небольшая доля рынка Web2 в ближайшем будущем. Мы считаем, что у искусственного интеллекта в сети Web3 всё ещё яркое будущее, но на данный момент его наиболее мощное применение заключается в обслуживании клиентов Web2.

примеры клиентов web2, которые могут потенциально получить выгоду от web3 искусственного интеллекта, включают:

  • компании, специализирующиеся на вертикальном программном обеспечении, которые созданы с нуля с учетом искусственного интеллекта, (например, cedar.ai или observe.ai)
  • крупные предприятия, которые настраивают модели для своих собственных целей (например, Netflix)
  • быстрорастущие поставщики искусственного интеллекта (например, anthropic)
  • компании-разработчики программного обеспечения, которые добавляют искусственный интеллект в свои существующие продукты (например, Canva)

это относительно стабильный образ клиента, поскольку клиенты, как правило, являются крупными и ценными. Вероятно, они не скоро разорятся, и они представляют собой очень крупных потенциальных клиентов для услуг искусственного интеллекта. Веб-сервисы AI web3, обслуживающие клиентов web2, будут иметь пользу от этой стабильной базы клиентов.

но почему бы веб-2 клиенту использовать стек веб-3? остаток этого поста делает этот случай.

реальное преимущество №2: снижение затрат на использование gpu с помощью depins gpu

gpu depins aggreGate.io недостаточно использует вычислительную мощность gpu (наиболее надежными из которых являются центры обработки данных) и делает ее доступной для ai-вывода (примером является io.net, которая является портфельной компанией фондов, управляемых hack vc). простой способ думать об этом - это "airbnb для gpus" (эффективно, коллективное потребление недопользуемых активов).

Причина, по которой мы в восторге от GPU Depins, заключается в том, что, как отмечалось выше, существует нехватка чипов Nvidia, и в настоящее время есть потраченные впустую циклы графического процессора, которые можно использовать для инференса ИИ. Эти владельцы оборудования имеют невозвратные затраты и не используют свое оборудование в полной мере сегодня, и поэтому могут предложить эти дробные циклы графического процессора по гораздо более низкой цене по сравнению со статус-кво, поскольку это фактически «найденные деньги» для владельцев оборудования.

примеры включают в себя:

  • машин aws. если вы сегодня арендуете h100 от aws, вам придется заключить договор аренды на 1 год, потому что рынок ограничен поставками. это приводит к потерям, поскольку вы, вероятно, не будете использовать свой графический процессор 365 дней в году, 7 дней в неделю.
  • оборудование для майнинга filecoin. filecoin - это сеть с большим количеством субсидированного предложения, но не значительным количеством реального спроса. К сожалению, filecoin никогда не нашел истинной производственно-рыночной ниши, и поэтому майнеры filecoin находятся в опасности банкротства. На этих машинах установлены графические процессоры (GPU) и их можно использовать для выполнения задач по нижнему уровню вывода искусственного интеллекта (AI inference).
  • оборудование для майнинга eth. когда eth перешел от pow к pos, это сразу же сделало большое количество оборудования доступным для переделки под ai-выводы.

Обратите внимание, что не весь GPU-оборудование подходит для вывода искусственного интеллекта. Одна из явных причин в том, что у старых GPU нет необходимого количества памяти для LLMS, хотя здесь были некоторые интересные инновации, чтобы помочь.Эксабиты, например, имеет технологию, которая загружает активные нейроны в память gpu, а неактивные нейроны - в память cpu. они предсказывают, какие нейроны должны быть активными / неактивными. это позволяет нижестоящим gpu обрабатывать ai-нагрузки даже с ограниченной памятью gpu. это позволяет более низким gpu быть более полезными для ai-вывода.

обратите внимание, что веб-3 искусственный интеллект depins со временем должны усовершенствовать свои предложения и предлагать услуги класса предприятий, такие как одноэтапная аутентификация, соответствие soc 2, соглашения об уровне обслуживания (SLA) и многое другое. Это повторило бы услуги, предлагаемые в рамках текущих облачных предложений, которые веб-2 клиенты в настоящее время наслаждаются.

Реальная польза #3: модели без цензуры, чтобы избежать самоцензуры OpenAI

было много разговоров о цензуре искусственного интеллекта. Турция, например, временно запретила OpenAI (позже отменила это решение, когда OpenAI улучшил свою совместимость). Мы считаем, что такая цензура на уровне стран фундаментально неинтересна, поскольку странам придется принять искусственный интеллект, чтобы оставаться конкурентоспособными.

еще более интересно то, что openai самоцензурируется. Например, openai не будет обрабатывать контент для взрослых. Ни openai не предскажет следующие президентские выборы. Мы считаем, что существует интересный и большой рынок для применения искусственного интеллекта, которыми openai не будет заниматься по политическим причинам.

открытое предоставление исходного кода является отличным решением для этого, поскольку репозиторий GitHub не привязан к акционерам или совету директоров. примером этого являетсяVenice.ai, которая обещает сохранить вашу конфиденциальность, а также работать в непроцензурном режиме. ключ, конечно же, заключается в открытом исходном коде, благодаря которому это происходит. то, что web3 ai может эффективно принести вверх, это обеспечение этих моделей open-source software (oss) в кластере gpu по более низкой стоимости для выполнения этого вывода. по этим причинам мы считаем, что oss + web3 - идеальное сочетание для прокладывания пути к непроцензурному искусственному интеллекту.

реальная польза #4: избегание отправки лично идентифицируемой информации в openai

Многие крупные предприятия опасаются за конфиденциальность своих внутренних корпоративных данных. Для таких клиентов может быть чрезвычайно сложно доверять централизованному третьему лицу, такому как OpenAI, с этими данными.

с web3 может показаться (на первый взгляд) еще более пугающим для этих предприятий, поскольку их внутренние данные внезапно находятся в децентрализованной сети. однако существуют некоторые инновации в технологиях повышения конфиденциальности для искусственного интеллекта:

  • доверенные исполнительные окружения (TEE), такие какСупер протокол
  • полностью гомоморфное шифрование (FHE), такое как Fhenix.io (компания-портфель фонда, управляемого hack vc) или Сеть Inco (каждый из которых работает на Zama.ai), и ppml Bagel

эти технологии все еще развиваются, и производительность все еще улучшается за счет грядущих асиков zero knowledge (zk) и fhe. но долгосрочная цель - защитить предприятийные данные при настройке модели. по мере развития этих протоколов, web3 может стать более привлекательной площадкой для вычислений искусственного интеллекта с сохранением конфиденциальности.

реальная выгода №5: воспользуйтесь последними инновациями в открытых моделях

oss постоянно подрывает долю рынка проприетарного программного обеспечения на протяжении последних нескольких десятилетий. Мы рассматриваем llm как просто модную форму проприетарного программного обеспечения, которая готова к разрушению oss. Несколько примечательных примеров конкурентов включают Лама, RWKV, и Mistral.ai. этот список без сомнения будет расти по мере того, как время идет (более подробный список доступен наOpenrouter.ai). используя web3 ai (работающий на моделях oss), можно воспользоваться этими новыми инновациями.

мы верим, что по мере того, как время идет, мировая разработчики с открытым исходным кодом, совместно с крипто-стимулами, могут стимулировать быстрые инновации в моделях с открытым исходным кодом, а также агенты и фреймворки, построенные на их основе. примером протокола искусственного интеллекта является Theoriq. theoriq использует модели oss для создания композиционной взаимосвязанной сети искусственного интеллекта, которую можно собрать для создания более высокоуровневых решений в области искусственного интеллекта.

причина, по которой мы имеем убеждение здесь, заключается в прошлом: большинство 'программного обеспечения разработчика' со временем было постепенно переплюнуто oss. Microsoft раньше была компанией с проприетарным программным обеспечением, а теперь они являются ведущей компанией, вносящей вклад в GitHub, и в этом есть причина. Если посмотреть, как Databricks, PostgresSQL, MongoDB и другие нарушили проприетарные базы данных, это пример целой отрасли, которая была перевернута oss, так что прецедент здесь довольно сильный.

однако это сопряжено с определенными сложностями. одна из проблем с oss llms заключается в том, что openai начала заключать платные лицензионные соглашения по данным с организациями, такими как reddit и the new york times. если эта тенденция продолжится, станет все сложнее конкурировать oss llms из-за финансового барьера, связанного с их получением данных. возможно, nvidia удвоит усилия в области конфиденциальных вычислений как средства обеспечения безопасного обмена данными. время покажет, как все это разрешится.

Реальная выгода #6: Консенсус достигается с помощью случайной выборки с высокими затратами на слэшинг или с помощью доказательств ZK

Одной из проблем с выводом веб3 ИИ является проверка. Существует гипотетическая возможность для валидаторов обмануть свои результаты, чтобы получить комиссионные, поэтому проверка выводов является важной мерой. Следует отметить, что такого обмана пока еще не произошло, поскольку выводы ИИ находятся в зачаточном состоянии, но это неизбежно, если не будут предприняты меры для дезинцентивации такого поведения.

Стандартный подход web3 заключается в том, чтобы иметь несколько валидаторов, повторяющих одну и ту же операцию и сравнивающих результаты. Главная проблема заключается в том, как отмечено, что вывод ai дорог из-за недостатка высококлассных чипов nvidia. Учитывая, что web3 может предложить вывод с более низкой стоимостью через недоиспользуемые gpu-зависимости, избыточные вычисления серьезно подрежут предложение web3.

более многообещающим решением является выполнение zk proof для вычисления off-chain ai inference. в этом случае краткий zk proof может быть проверен для определения того, что модель была правильно обучена, или что вывод был выполнен правильно (известный как zkml). примеры включаютЛаборатории модулейиZKonduit. производительность этих решений все еще находится в начальной стадии, поскольку zk операции достаточно интенсивны с вычислительной точки зрения. однако мы предполагаем, что это, вероятно, улучшится с выпуском zk аппаратных средств asics в ближайшем будущем.

Еще более многообещающей является идея несколько «оптимистичного» подхода к логическому выводу ИИ на основе выборки. В этой модели вы бы проверили лишь небольшой процент результатов, сгенерированных валидаторами, но установили бы экономические издержки слэшинга достаточно высокими, чтобы в случае поимки это создало сильный экономический стимул для валидаторов жульничать. Таким образом, вы экономите на избыточных вычислениях (например, см. Гиперболический’s Доказательство выборочной бумаги).

еще одна многообещающая идея - это решение по водяным знакам и отпечаткам, например, то, которое предложеноСеть Bagel. это похоже на механизм amazon alexa для обеспечения качества моделей искусственного интеллекта на устройствах для их миллионов устройств.

реальная выгода №7: экономия на комиссиях (маржа openai) через oss

следующая возможность, которую web3 приносит искусственному интеллекту, - демократизация издержек. До сих пор мы говорили о сбережении затрат на гпу через depins. Но web3 также предлагает возможности сэкономить на прибыли централизованных веб-сервисов ai web2 (например, openai, который в настоящее время приносит более $1 млрд в год). Экономия затрат обусловлена тем, что вместо проприетарных моделей используются oss-модели, что позволяет сэкономить еще больше, так как создатель модели не пытается извлечь прибыль.

множество моделей OSS останутся полностью бесплатными, что обеспечивает наилучшую экономику для клиентов. Но могут быть и некоторые модели OSS, которые попытаются использовать эти методы монетизации. Учтите, что только 4% общего числа моделей на Hugging Face обучены компаниями с бюджетом для поддержки моделей (см. здесьоставшиеся 96% моделей обучены сообществом. Этот когорт - 96% hugging face - имеют фундаментальные реальные издержки (включая издержки на вычисления и данные). Таким образом, эти модели каким-то образом должны монетизировать.

есть несколько предложений по осуществлению монетизации моделей с открытым исходным кодом. Одно из самых интересных - это концепция "первичного предложения модели" (IMO), где вы токенизируете саму модель, оставляете определенный процент токенов для команды и направляете некоторые будущие доходы от этой модели держателям токенов, хотя, очевидно, есть некоторые юридические и регуляторные препятствия.

другие модели ОСС будут пытаться монетизировать использование. обратите внимание, что если это осуществится, модели ОСС могут все больше начать напоминать своих прибыльных аналогов из веб2. но, реалистически, рынок будет разделен, и некоторые модели останутся полностью бесплатными.

реальная выгода #8: децентрализованный сбор данных

Одна из крупнейших проблем с ИИ - это поиск правильных данных для обучения ваших моделей. Мы упоминали ранее, что децентрализованное обучение ИИ имеет свои сложности. Но что насчет использования децентрализованной сети для поиска данных (которые могут затем использоваться для обучения в другом месте, даже в традиционных веб-площадках web2)?

это точно то, что делают стартапы, такие как Траваделают. трава - это децентрализованная сеть “сборщиков данных”, людей, которые вносят свободную вычислительную мощность своей машины для получения данных для обучения моделей искусственного интеллекта. Гипотетически, на масштабах, этот сбор данных может быть более эффективным, чем усилия любой компании по сбору данных благодаря мощи большой сети инцентивизированных узлов. Это включает в себя не только сбор большего количества данных, но и более частый сбор данных, чтобы данные были более актуальными и обновленными. Также практически невозможно остановить децентрализованную армию сборщиков данных, поскольку они по своей природе фрагментированы и не находятся в одном IP-адресе. У них также есть сеть людей, которые могут очищать и нормализовывать данные, чтобы они были полезны после сбора.

как только у вас есть данные, вам также нужно место для их хранения в цепи, а также сгенерированные с этими данными llms.0г. Искусственный интеллектв этой категории на раннем этапе лидером является. это оптимизированное под искусственный интеллект высокопроизводительное хранилище web3, которое значительно дешевле aws (еще одна экономическая победа для web3 ai), а также служит инфраструктурой доступности данных для уровней 2, искусственного интеллекта и многого другого.

Обратите внимание, что роль данных в будущем может измениться в web3 ai. На сегодняшний день текущая стандартная практика для LLMS - это предварительное обучение модели данными и ее дальнейшее усовершенствование с течением времени при помощи новых данных. Однако такие модели всегда немного устаревают, поскольку данные в Интернете меняются в реальном времени. Поэтому ответы от вывода LLMS немного неточны.

будущее того, куда могут направляться мир, это новая парадигма - «реальные» данные. Концепция заключается в том, что когда LLM задается вопрос о выводе, этот LLM может использовать внедрение подсказки данных в LLM, где эти данные собираются в реальном времени из интернета. Таким образом, LLM использует наиболее актуальные данные. Grass также исследует это.

заключение

Мы надеемся, что это послужит вам полезным анализом, когда вы думаете о обещаниях против реальности веб3 и искусственного интеллекта. Это всего лишь отправная точка для разговора, и ситуация быстро меняется, поэтому не стесняйтесь присоединиться и высказать свое мнение, так как нам очень хотелось бы продолжать учиться и развиваться вместе.

благодарности

очень особая благодарность альберту кастеллане, джасперу чжангу, вассилису циокасу, бидхану рою, резо, винсенту вейссеру, шашанку ядаву, али хусаину, нукри башарули, эмаду мостаку, дэвиду минаршу, томми шонесси, майклу хайнриху, кекаку вонгу, марку вайнштейну, филлипу бонелло, джеффу амико, эджазу ахамадину, эвану фэну и джу вангу за их отзывы и вклад в этот пост.


Информация, содержащаяся здесь, предназначена исключительно для общего ознакомления и не является инвестиционным советом, а также не предполагает его предоставления. Она не должна использоваться при принятии решений об инвестициях. Данная информация не должна рассматриваться как основа для получения бухгалтерского, юридического, налогового, делового, инвестиционного или другого соответствующего совета. Вы должны проконсультироваться со своими собственными консультантами, включая юриста, для получения бухгалтерского, юридического, налогового, делового, инвестиционного или другого соответствующего совета, включая все обсуждаемые вопросы.

Этот пост отражает текущее мнение автора (авторов) и не сделан от имени Hack VC или его аффилированных лиц, включая любые фонды, управляемые Hack VC, и не обязательно отражает мнение Hack VC, его аффилированных лиц, включая его генеральных партнеров, или любых других лиц, связанных с Hack VC. Определенная информация, содержащаяся в настоящем документе, была получена из опубликованных источников и/или подготовлена третьими лицами и в некоторых случаях не обновлялась на дату настоящего документа. Несмотря на то, что такие источники считаются надежными, ни Hack VC, ни ее аффилированные лица, включая ее Генеральных партнеров, ни любые другие лица, связанные с Hack VC, не делают заявлений относительно их точности или полноты, и на них не следует полагаться как на таковые или быть основой для принятия бухгалтерских, юридических, налоговых, деловых, инвестиционных или других решений. Информация, содержащаяся в настоящем документе, не претендует на полноту и может быть изменена, и Hack VC не обязана обновлять такую информацию или делать какие-либо уведомления, если такая информация становится неточной.

Прошлые результаты не обязательно свидетельствуют о будущих результатах. Любые прогнозные заявления, сделанные в настоящем документе, основаны на определенных предположениях и анализе, сделанных автором в свете его опыта и восприятия исторических тенденций, текущих условий и ожидаемого будущего развития, а также других факторов, которые, по его мнению, уместны в данных обстоятельствах. Такие заявления не являются гарантиями будущих результатов и подвержены определенным рискам, неопределенностям и предположениям, которые трудно предсказать.

утверждение:

  1. эта статья воспроизведена из[Hack vc], оригинальное название «ai x crypto - обещания и реальность», авторские права принадлежат оригинальному автору [ед роман, управляющий партнер в hack vc], если у вас есть возражения против публикации, пожалуйста, свяжитесь сКоманда Gate learnКоманда обработает это как можно скорее в соответствии с соответствующими процедурами.

  2. отказ от ответственности: мнения и взгляды, выраженные в этой статье, представляют только личные взгляды автора и не являются инвестиционным советом.

  3. другие языковые версии статьи переводятся командой Gate.io Learn, не указанными вGate.io, переведенная статья не может быть воспроизведена, распространена или использована в качестве плагиата.

Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!