近年、人工知能(AI)やWeb3技術の急速な発展が世界的に注目を集めています。人間の知能をシミュレートして模倣する技術であるAIは、顔認識、自然言語処理、機械学習などの分野で大きなブレークスルーを達成しました。AI技術の急速な進歩は、さまざまな業界に大きな変革と革新をもたらしました。
AI業界は2023年に2,000億ドルの市場規模に達し、OpenAI、Character.AI、Midjourneyなどの業界大手や著名企業が急速に台頭し、AIブームリーディングています。
同時に、新しいインターネットモデルであるWeb3は、インターネットに対する私たちの認識と使用を徐々に変化させています。Web3は、分散型ブロックチェーン技術に基づいて、スマートコントラクト、分散ストレージ、分散型ID検証などの機能を通じて、データの共有と制御、ユーザーの自律性、および信頼メカニズムの確立を実現します。Web3の核となる考え方は、中央集権的な権威からデータを解放し、ユーザーが自分のデータの価値をコントロールし、共有
できるようにすることです。現在、Web3業界の市場価値は25兆ドルに達しています。ビットコイン、イーサリアム、ソラナから、UniswapやStepnなどのアプリケーションレベルのプレーヤーまで、新しい物語やシナリオが絶えず出現しており、ますます多くの人々がWeb3業界に参加しています。
AIとWeb3の統合が、東洋と西洋の両方のビルダーやベンチャーキャピタリストにとって焦点であることは明らかです。この2つの技術を効果的に組み合わせる方法を模索することは、非常に価値のある取り組みです。
この記事では、AI+Web3開発の現状に焦点を当て、それらの統合の潜在的な価値と影響を探ります。まず、AIとWeb3の基本的な概念と特徴を紹介し、その後、それらの相互関係について説明します。続いて、AI+Web3プロジェクトの現状を分析し、その限界や課題を掘り下げていきます。この調査を通じて、投資家や業界の専門家に貴重な参考資料と洞察を提供することを目指しています。
AIとWeb3の発展は、AIが生産性の向上をもたらすのに対し、Web3は生産関係に革命をもたらすという、天秤の両面として捉えることができます。では、AIとWeb3がぶつかり合ったとき、どのような火花を散らすことができるのでしょうか。まず、AIとWeb3業界における課題と潜在的な改善点を分析し、それらが互いの問題解決にどのように役立つかを探ります。
AI業界が抱える課題を探るには、まずその本質を理解する必要があります。AI業界の中核は、計算能力、アルゴリズム、データという3つの重要な要素を中心に展開しています。
現在のAIの3つのコア要素を理解した上で、これらの領域でAIが直面している困難と課題について考えてみましょう。
まず、計算能力の面では、AIタスクは通常、モデルのトレーニングと推論、特にディープラーニングモデルのために大量の計算リソースを必要とします。しかし、大規模な計算能力の取得と管理は、コストがかかり、複雑な課題です。高性能コンピューティング機器のコスト、エネルギー消費、およびメンテナンスは重要な問題です。これは、十分な計算能力を獲得することが困難なスタートアップや個人の開発者にとって特に困難です。
アルゴリズムに関しては、深層学習アルゴリズムが多くの分野で大きな成功を収めているにもかかわらず、まだ課題や困難があります。たとえば、ディープ ニューラル ネットワークのトレーニングには、大量のデータと計算リソースが必要です。さらに、特定のタスクでは、モデルの解釈可能性と説明可能性が不十分な場合があります。アルゴリズムのロバスト性と汎化機能も重要な問題であり、目に見えないデータに対するモデルのパフォーマンスは不安定になる可能性があるためです。多くのアルゴリズムの中から最適なパフォーマンスを提供する最適なアルゴリズムを見つけることは、継続的な探求です。
データ面では、AIの原動力はデータですが、高品質で多様なデータの取得は依然として課題です。医療分野における機密性の高い健康データなど、一部の分野のデータは入手が困難な場合があります。さらに、データの品質、正確性、ラベル付けは、不完全または偏ったデータが誤ったモデルの動作やバイアスにつながる可能性があるため、重要な問題です。データのプライバシーとセキュリティを保護することも重要な考慮事項です。
さらに、解釈可能性と透明性に関連する問題があります。AIモデルの「ブラックボックス」の性質は、社会の関心事です。金融、医療、司法などの特定のアプリケーションでは、モデルの意思決定プロセスが解釈可能で追跡可能である必要があります。しかし、既存の深層学習モデルでは、透明性に欠けることがよくあります。モデルの意思決定プロセスを説明し、信頼できる説明を提供することは、依然として困難です。
さらに、多くのAIスタートアッププロジェクトのビジネスモデルはあまり明確ではなく、これも多くのAI起業家に混乱を引き起こしています。
Web3業界では、データ分析やユーザーエクスペリエンスからスマートコントラクトの脆弱性やハッカー攻撃まで、対処すべき課題は数多くあります。AIは、生産性を高めるツールとして、これらの分野で大きな可能性を秘めています。
まず、データ分析と予測機能に改善の余地があります。データ分析と予測におけるAIアプリケーションは、Web3業界に大きな影響を与えています。Web3プラットフォームは、AIアルゴリズムによるインテリジェントな分析とマイニングを通じて、膨大な量のデータから貴重な情報を抽出し、より正確な予測と意思決定を行うことができます。これは、分散型金融(DeFi)におけるリスク評価、市場予測、および資産管理にとって特に重要です。
さらに、ユーザーエクスペリエンスとパーソナライゼーションサービスを強化する可能性があります。AIアプリケーションにより、Web3プラットフォームはより良いユーザーエクスペリエンスとパーソナライズされたサービスを提供することができます。Web3プラットフォームは、ユーザーデータを分析・モデル化することで、パーソナライズされたレコメンデーション、カスタマイズされたサービス、インテリジェントなインタラクション体験を提供することができます。これにより、ユーザーのエンゲージメントと満足度が向上し、Web3エコシステムの発展が促進されます。例えば、多くのWeb3プロトコルは、ChatGPTのようなAIツールを統合して、ユーザーにより良いサービスを提供しています。
セキュリティとプライバシー保護の観点からも、AIアプリケーションはWeb3業界に大きな影響を与えています。AIテクノロジーは、ネットワーク攻撃を検出して防御し、異常な動作を特定し、より強力なセキュリティ対策を提供するために使用できます。さらに、AIはデータプライバシー保護に適用でき、データ暗号化やプライバシーコンピューティングなどの技術を通じてWeb3プラットフォーム上のユーザーの個人情報を保護します。スマートコントラクトの監査に関しては、スマートコントラクトの作成および監査プロセスに脆弱性とセキュリティリスクが存在する可能性があるため、AIテクノロジーを使用して自動契約監査と脆弱性検出を行い、契約のセキュリティと信頼性を高めることができます。
AIが、Web3業界のさまざまな側面における課題や潜在的な改善に取り組むことに大きく貢献できることは明らかです。
AIとWeb3プロジェクトの組み合わせは、主にブロックチェーン技術を活用してAIプロジェクトを強化することと、AI技術を活用してWeb3プロジェクトの改善に役立てることの2つの主要な側面に焦点を当てています。この道に沿って、Io.net、Gensyn、Ritualなど、数多くのプロジェクトが生まれました。以下の分析では、AIがWeb3を支援し、Web3がAIを強化するさまざまなサブドメインを掘り下げます。
3.1.1 分散型コンピューティングパワー
2022年末にOpenAIがChatGPTをローンチして以来、AI分野に熱狂の火をつけました。リリースから5日間でユーザー数は100万人に達し、約2カ月半かかって達成したInstagramのダウンロード数を上回りました。その後、ChatGPTは急成長を遂げ、2か月以内に月間アクティブユーザー数が1億人に達し、2023年11月には週間アクティブユーザー数が1億人に達しました。ChatGPTの登場により、AI分野はニッチな分野から評価の高い業界へと急速に移行しました。
Trendforce のレポートによると、ChatGPT が動作するには 30,000 個の NVIDIA A100 GPU が必要であり、GPT-5 などの将来のモデルではさらに多くの計算能力が必要になります。これは、AI分野での競争力を維持するために十分な計算能力を持つことが不可欠であり、GPUの不足にリーディングされているため、さまざまなAI企業の間で軍拡競争を引き起こしています。
AIが上昇する前は、主要なGPUプロバイダーであるNVIDIAは、主にAWS、Azure、GCPの3つの主要なクラウドサービスのクライアントにサービスを提供していました。人工知能の上昇に伴い、Meta、Oracleなどの大手テクノロジー企業、その他のデータプラットフォーム、AIスタートアップなど、多数の新しいバイヤーが出現し、AIモデルをトレーニングするためのGPUを備蓄する競争に参加しました。MetaやTeslaなどの大手テクノロジー企業は、カスタマイズされたAIモデルや社内調査の購入を大幅に増やしました。Anthropicなどのベーシックモデル企業や、SnowflakeやDatabricksなどのデータプラットフォーム企業も、クライアントによるAIサービスの提供を支援するために、GPUを追加購入しました。
昨年のSemi Analysisが述べたように、「GPUリッチ」と「GPUフリー」の企業の間には分断があり、20,000を超えるA100/H100 GPUを所有している企業はごくわずかであり、チームメンバーは100〜1000のGPUをプロジェクトに利用できます。これらの企業は、クラウドプロバイダーであるか、OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistralなど、独自の大規模言語モデル(LLM)を構築しています。
しかし、大多数の企業は「GPU貧弱」のカテゴリーに下落し、GPUが大幅に少ないことに苦労し、エコシステムを前進させることがより困難なタスクにかなりの時間と労力を費やしています。しかも、この状況はスタートアップに限ったことではありません。Hugging Face、Databricks(MosaicML)、Together、さらにはSnowflakeなど、最も有名なAI企業の中には、A100/H100の数量が20,000未満のものもあります。これらの企業は、世界トップクラスの技術人材を擁しているにもかかわらず、GPUの供給が限られているため、AI競争の大企業に比べて不利な立場に
置かれています。この不足は「GPU貧弱」のカテゴリーに限ったことではなく、2023年末になっても、リーディングAIプレーヤーであるOpenAIは、十分なGPUを入手できないため、有料登録を一時的に閉鎖しなければならず、より多くのGPU供給を調達しなければなりませんでした。
AIの急速な発展により、GPUの需要と供給の間に深刻なミスマッチが発生し、差し迫った供給不足が発生していることは明らかです。
この問題に対処するために、一部のWeb3プロジェクトでは、Web3テクノロジーのユニークな特性を活用して、分散型コンピューティングパワーソリューションを模索し始めています。これらのプロジェクトには、Akash、Render、Gensynなどが含まれます。これらのプロジェクトに共通する特徴は、トークンを使用してユーザーにアイドル状態のGPUコンピューティングパワーを提供するようにインセンティブを与え、それによってAIクライアントをサポートするためのコンピューティングパワーの供給側になることです。
サプライサイドのプロファイルは、主にクラウドサービスプロバイダー、暗号通貨マイナー、企業の3つの側面で構成されています。クラウドサービスプロバイダーには、主要なクラウドサービスプロバイダー(AWS、Azure、GCPなど)やGPUクラウドサービスプロバイダー(Coreweave、Lambda、Crusoeなど)が含まれ、ユーザーはこれらのプロバイダーからアイドル状態のコンピューティングパワーを転売して収入を得ることができます。イーサリアムがPoWからPoSに移行するにつれて、アイドル状態のGPUコンピューティングパワーは、暗号通貨マイナーにとって重要な潜在的な供給側になりました。さらに、戦略的な目的で大量のGPUを購入しているTeslaやMetaなどの大企業も、供給サイドの一部としてアイドル状態のGPUコンピューティングパワーを提供することができます。
現在、この分野のプレーヤーは、一般的に、AI推論に分散型コンピューティングパワーを使用する企業と、AIトレーニングに分散コンピューティングパワーを使用する企業の2つに分類できます。前者のカテゴリには、Render(レンダリングに焦点を当てていますが、AIコンピューティングにも使用できます)、Akash、Aethirなどのプロジェクトが含まれ、後者のカテゴリには、io.net(推論とトレーニングの両方をサポート)やGensynなどのプロジェクトが含まれます。この 2 つの主な違いは、コンピューティング能力に対する要件が異なることです。
まず、AI推論に焦点を当てたプロジェクトについて説明しましょう。これらのプロジェクトは、トークンインセンティブを通じてコンピューティングパワーを提供するようにユーザーを引き付け、次に需要側にコンピューティングパワーネットワークサービスを提供し、それによってアイドル状態のコンピューティング電力の需要と需要のマッチングを促進します。このようなプロジェクトの詳細は、Ryze LabsのDePINによる調査レポートお気軽にお読みください。
核心となるのはトークンインセンティブメカニズムにあり、プロジェクトが最初にサプライヤーを引き付け、次にユーザーを引き付けることで、プロジェクトのコールドスタートとコア運用メカニズムを実現し、さらなる拡大と開発を可能にします。このサイクルでは、供給側はより価値のあるトークン報酬を受け取り、需要側はより費用対効果の高いサービスを享受します。プロジェクトのトークンの価値と需要と供給の両方の参加者の成長は一貫しています。トークンの価格が上昇すると、より多くの参加者や投機家が引き付けられ、価値獲得ループが生まれます。
もう1つのカテゴリーは、Gensynや io.net(AIトレーニングと推論の両方サポート)など、AIトレーニングに分散型コンピューティングパワーを使用することです。実際、これらのプロジェクトの運用ロジックは、AI推論プロジェクトと根本的に異なるものではありません。彼らは依然としてトークンインセンティブに依存して、供給側からの参加を引き付けてコンピューティングパワーを提供し、それを需要側が利用します。
io.net は、分散型コンピューティングパワーネットワークとして、現在500,000以上のGPUを誇り、分散型コンピューティングパワープロジェクトで傑出したパフォーマンスを発揮しています。さらに、RenderとFilecoinのコンピューティングパワーを統合し、エコシステムの継続的な開発を実証しています。
さらに、Gensynは、AIトレーニングを可能にするスマートコントラクトを通じて、機械学習のタスク割り当てと報酬を促進します。下の図に示すように、Gensyn での機械学習トレーニング作業の時間あたりのコストは約 0.4 ドルで、AWS や GCP の 2 ドルを超えるコストよりも大幅に低くなっています。
Gensynのエコシステムには、4つの参加団体が参加しています。
ご覧のとおり、Gensynは、グローバルなディープラーニングモデル向けの非常にスケーラブルで費用対効果の高いコンピューティングプロトコルになることを目指しています。しかし、この分野に目を向けると、なぜほとんどのプロジェクトがAI推論にトレーニングではなく分散型コンピューティングパワーを選択するのでしょうか?
また、AI のトレーニングと推論に慣れていない友人が 2 つの違いを理解できるようにしましょう。
AI推論とAI学習の両方に求められる計算能力が大きく異なることが分かります。AI推論とAIトレーニングのための分散型コンピューティングパワーの利用可能性については、今後の課題セクションでさらに分析します。
さらに、Ritualは、分散化とセキュリティを維持するために、分散型ネットワークとモデル作成者を組み合わせることを目指しています。その最初の製品であるInfernetは、ブロックチェーン上のスマートコントラクトがオフチェーンでAIモデルにアクセスできるようにし、そのような契約が検証、分散化、およびプライバシー保護を維持する方法でAIにアクセスできるようにします。
Infernetのコーディネーターは、ネットワーク内のノードの動作を管理し、コンシューマからの計算要求に応答する責任があります。ユーザーがInfernetを使用すると、推論や証明などのタスクがオフチェーンで実行され、出力がコーディネーターに返され、最終的にスマートコントラクトを介してオンチェーンで消費者に送信されます。
分散型コンピューティングパワーネットワークに加えて、データ伝送の速度と効率を向上させることを目的としたGrassのような分散型帯域幅ネットワークもあります。全体として、分散型コンピューティングパワーネットワークの出現は、AIコンピューティングパワーの供給側に新たな可能性を提供し、AIを新しい方向に前進させます。
3.1.2 分散型アルゴリズムモデル
第2章で述べたように、AIの3つのコア要素は、計算能力、アルゴリズム、データです。計算能力は分散化によって供給ネットワークを形成できるので、アルゴリズムも同様のアプローチに従って、アルゴリズムモデルの供給ネットワークを形成できますか?
この分野のプロジェクトを分析する前に、まず分散型アルゴリズムモデルの重要性を理解しましょう。多くの人は、すでにOpenAIを持っているのに、なぜ分散型アルゴリズムネットワークが必要なのか疑問に思うかもしれません。
基本的に、分散型アルゴリズムネットワークは、多くの異なるAIモデルを接続する分散型AIアルゴリズムサービスマーケットプレイスです。各 AI モデルには、独自の専門知識とスキルがあります。ユーザーが質問をすると、マーケットプレイスは質問に答えるのに最も適したAIモデルを選択します。OpenAI によって開発された Chat-GPT は、人間と同様のテキストを理解して生成できるそのような AI モデルの 1 つです。
簡単に言えば、ChatGPT はさまざまな種類の問題の解決を支援する非常に有能な学生のようなものですが、分散型アルゴリズム ネットワークは、多くの学生が問題解決を支援する学校のようなものです。現在の学生(ChatGPT)は非常に有能ですが、ロングランでは、世界中から学生を募集できる学校には大きな可能性があります。
現在、分散型アルゴリズムモデルの分野では、実験や探索を行っているプロジェクトもいくつかあります。次に、代表的なプロジェクトであるBittensorをケーススタディとして、このニッチな分野の発展を理解するのに役立ちます。
Bittensorでは、アルゴリズムモデル(またはマイナー)の供給側が機械学習モデルをネットワークに提供します。これらのモデルは、データを分析し、分析情報を提供できます。モデルプロバイダーは、貢献に対する報酬として、TAOと呼ばれる暗号通貨トークンを受け取ります。
回答の品質を確保するために、Bittensorは独自のコンセンサスメカニズムを使用して、最良の回答に関するコンセンサスに達します。質問が提起されると、複数のモデルマイナーが回答を提供します。次に、ネットワーク内のバリデータが最適な答えを決定するために作業を開始し、それがユーザーに送り返されます。
BittensorエコシステムのトークンTAOは、プロセス全体で2つの主要な役割を果たします。一方では、マイナーがアルゴリズムモデルをネットワークに提供するインセンティブとして機能します。一方、ユーザーはトークンを使って質問をしたり、ネットワークにタスクを完了させ
たりする必要があります。Bittensorは分散化されているため、インターネットにアクセスできる人なら誰でも、質問をするユーザーとして、または答えを提供するマイナーとして、ネットワークに参加できます。これにより、より多くの人々が人工知能の力を活用できるようになります。
要約すると、Bittensorのような分散型アルゴリズムモデルネットワークは、よりオープンで透明性の高いランドスケープを作成する可能性を秘めています。このエコシステムでは、AIモデルを安全かつ分散的にトレーニング、共有、利用することができます。さらに、BasedAIのような他のネットワークも同様の試みを試みており、ゼロ知識証明(ZK)を使用してユーザーモデルのインタラクティブなデータプライバシーを保護するという興味深い側面があります。
分散型アルゴリズムモデルプラットフォームが進化するにつれて、中小企業が最先端のAIツールを使用して大企業と競争できるようになり、さまざまな業界に大きな影響を与える可能性があります。
3.1.3 分散型データ収集
AIモデルの学習には、大量のデータが欠かせません。しかし、現在、ほとんどのWeb2企業は依然としてユーザーデータを独占しています。X、Reddit、TikTok、Snapchat、Instagram、YouTubeなどのプラットフォームは、AIトレーニングのためのデータ収集を禁止しており、AI業界の発展に大きな障害となっています。
一方、Web2プラットフォームの中には、ユーザーと利益を分け合うことなく、ユーザーデータをAI企業に販売するものもあります。例えば、RedditはGoogleと6,000万ドルの契約を結び、GoogleがRedditの投稿を使ってAIモデルをトレーニングできるようにしました。その結果、データ収集権は大手資本会社やビッグデータ企業に独占され、業界は資本集約的な方向に追いやられています。
この状況に対応して、一部のプロジェクトでは、Web3とトークンのインセンティブを活用して、分散型データ収集を実現しています。PublicAIを例にとると、ユーザーは2つの役割で参加できます。
報酬として、ユーザーはこれらの貢献を通じてトークンを獲得でき、データ貢献者とAI業界の間のWin-Winの関係を育むことができます。
AIトレーニングのためにデータを収集するPublicAIのようなプロジェクトに加えて、分散型データ収集にトークンインセンティブを使用するプロジェクトは他にもたくさんあります。たとえば、Oceanはデータトークン化を通じてユーザーデータを収集してAIを提供し、Hivemapperはユーザーの車のカメラを使用して地図データを収集し、Dimoは車のデータを収集し、WiHiは気象データを収集します。これらのプロジェクトは、分散型データ収集を通じて、AIトレーニングの潜在的なデータソースとしても機能します。したがって、広い意味では、AIを支援するWeb3のパラダイムに含めることができます。
3.1.4 ZKはAIでユーザーのプライバシーを保護
ブロックチェーンテクノロジーは分散化の利点を提供し、ゼロ知識証明という重要な機能も導入します。ゼロ知識技術により、プライバシーを維持しながら情報を検証することができます。
従来の機械学習では、通常、データを一元的に保存して処理する必要があり、プライバシーのリスクにつながる可能性があります。暗号化やデータの匿名化など、データのプライバシーを保護する方法によって、機械学習モデルの精度とパフォーマンスが制限される場合があります。
ゼロ知識証明技術は、プライバシー保護とデータ共有の対立に対処することで、このジレンマを解決するのに役立ちます。ゼロ知識機械学習(ZKML)は、ゼロ知識証明技術を使用して、元のデータを公開することなく機械学習モデルのトレーニングと推論を可能にします。ゼロ知識証明は、実際のデータの内容を明らかにすることなく、データの特徴とモデルの結果が正しいことを検証できることを保証します。
ZKMLの主な目標は、プライバシー保護とデータ共有のバランスをとることです。医療データ分析、財務データ分析、組織間コラボレーションなど、さまざまなシナリオに適用できます。ZKMLを使用することで、個人は機密データのプライバシーを保護しながら、他の人とデータを共有して、データプライバシー侵害のリスクなしに、より幅広い洞察とコラボレーションの機会を得ることができます。この分野はまだ初期段階にあり、ほとんどのプロジェクトはまだ調査中です。たとえば、BasedAIは、データの機密性を維持するために、完全同型暗号化(FHE)と大規模言語モデル(LLM)をシームレスに統合することにより、分散型アプローチを提案しています。ゼロ知識大規模言語モデル(ZK-LLM)は、分散ネットワークインフラストラクチャにプライバシーを組み込み、ネットワークの運用全体を通じてユーザーデータの機密性を確保します。
ここでは、完全同型暗号化(FHE)について簡単に説明します。FHEは、暗号化されたデータを復号化せずに計算を実行できるようにする暗号化技術です。つまり、FHEで暗号化されたデータに対して実行されるさまざまな数学演算(加算、乗算など)は、暗号化されていない元のデータに対して実行された場合と同じ結果が得られるため、ユーザーデータのプライバシーが保護されます。
前述の方法に加えて、Web3は、AIプログラムのオンチェーン実行を可能にするCortexなどのプロジェクトを通じてAIもサポートしています。従来のブロックチェーンで機械学習プログラムを実行することは、仮想マシンが重要な機械学習モデルを実行するのに非常に非効率的であるため、課題に直面しています。ほとんどの人は、ブロックチェーン上でAIを実行することは不可能だと考えています。ただし、Cortex 仮想マシン(CVM)はGPUを利用してオンチェーンでAIプログラムを実行し、イーサリアム仮想マシン(EVM)と互換性があります。言い換えれば、CortexチェーンはすべてのイーサリアムDAppを実行し、AI機械学習をこれらのDAppsに統合することができます。これにより、機械学習モデルを分散化され、不変かつ透過的な方法で実行でき、ネットワークコンセンサスによってAI推論の各ステップが検証されます。
AIとWeb3の衝突では、Web3のAI支援に加えて、AIのWeb3業界への支援も注目に値します。人工知能の主な貢献は生産性の向上であるため、AI監査スマートコントラクト、データ分析と予測、パーソナライズされたサービス、セキュリティとプライバシー保護などに多くの試みがあります。
3.2.1 データ解析と予測
多くのWeb3プロジェクトは、既存のAIサービス(ChatGPTなど)を統合したり、独自のサービスを開発したりして、Web3ユーザーにデータ分析および予測サービスを提供しています。これらのサービスは、投資戦略のためのAIアルゴリズム、オンチェーン分析ツール、価格および市場予測など、幅広い範囲をカバーしています。
例えば、PondはAIグラフアルゴリズムを使用して将来の価値あるアルファトークンを予測し、ユーザーや機関投資家に投資顧問サービスを提供しています。BullBear AIは、ユーザーの履歴データ、価格履歴、市場動向を学習し、価格動向予測をサポートする正確な情報を提供し、ユーザーが利益を達成できるよう支援します。
Numeraiのようなプラットフォームでは、参加者がAIと大規模言語モデルを使用して株式市場を予測する投資コンペティションが開催されています。プラットフォームから提供される高品質のデータでモデルをトレーニングし、毎日の予測を送信します。Numeraiは翌月にわたってこれらの予測を評価し、参加者はモデルにトークンステーク NMRて、パフォーマンスに基づいて報酬を獲得できます。
ブロックチェーンデータ分析プラットフォームであるArkhamも、AIをサービスに統合しています。アーカムは、ブロックチェーンアドレスを取引所、ファンド、クジラなどのエンティティにリンクし、重要なデータと分析を表示して、ユーザーに意思決定の優位性を提供します。Arkham Ultraは、パランティアとOpenAIの創設者のサポートを受けて3年間にわたって開発されたアルゴリズムを使用して、住所を実際のエンティティと照合します。
3.2.2 パーソナライズされたサービス
検索とレコメンデーションにおけるAIアプリケーションは、Web2プロジェクトで普及しており、ユーザーのパーソナライズされたニーズに応えています。Web3プロジェクトも同様にAIを統合し、ユーザーエクスペリエンスを向上させます。
たとえば、有名なデータ分析プラットフォームであるDuneは最近、大規模な言語モデルを使用してSQLクエリを記述するWandツールを導入しました。Wand Createを使用すると、ユーザーは自然言語の質問からSQLクエリを生成できるため、SQLに慣れていない人でも簡単にデータを検索できます。
Followinのようなコンテンツプラットフォームは、ChatGPTを統合して、特定のセクターの視点と最新情報を要約します。Web3百科事典IQ.wikiは、ブロックチェーン技術と暗号通貨に関する客観的で質の高い知識の主要な情報源になることを目指しています。GPT-4を統合してWikiの記事を要約し、ブロックチェーン情報を世界中でよりアクセスしやすくします。LLMベースの検索エンジンKaitoは、Web3情報検索に革命を起こすことを目指しています。
クリエイティブ分野では、NFPromptのようなプロジェクトにより、コンテンツ作成のコストが削減されます。NFPromptは、ユーザーがAIでより簡単にNFTを生成することを可能にし、さまざまなパーソナライズされたクリエイティブサービスを提供します。
3.2.3 スマートコントラクトのAI監査
スマートコントラクトの監査はWeb3の重要なタスクであり、AIはコードの脆弱性を特定する際の効率と精度を高めることができます。
ビタリックブテリンは、暗号通貨空間における最大の課題の1つは、コードのエラーであると指摘しています。AIは、コードの正しさを証明するための形式検証ツールの使用を大幅に簡素化することが期待されています。これを達成すると、ほぼエラーのないSEK EVM(イーサリアム仮想マシン)が実現し、エラーが少なくなると全体的な安全性が向上するため、宇宙のセキュリティが強化されます。
例えば、0x0.ai プロジェクトでは、AIを活用したスマートコントラクトの監査人を提供しています。このツールは、高度なアルゴリズムを使用してスマートコントラクトを分析し、詐欺やその他のセキュリティリスクにつながる可能性のある潜在的な脆弱性や問題を特定します。監査人は機械学習を使用してコードのパターンや異常を検出し、潜在的な問題にフラグを立ててさらにレビューします。
AIがWeb3を支援するネイティブケースは他にもあります。PAALは、ユーザーがWeb3ユーザーにサービスを提供するためにTelegramとDiscordに展開できるパーソナライズされたAIボットを作成するのに役立ちます。AI駆動型のマルチチェーンDEXアグリゲーターであるHeraは、AIを使用して、さまざまなトークンの任意のトークンペア間の最適な取引パスを提供します。全体として、Web3に対するAIの貢献は、主にツールレベルであり、さまざまなプロセスや機能を強化します。
現在、AIを支援する多くのWeb3プロジェクトは、分散型コンピューティングパワーに焦点を当てています。トークンインセンティブを使用して、世界中のユーザーがコンピューティング電源側の一部になることを促進することは、非常に興味深いイノベーションです。ただし、その一方で、対処する必要がある現実的な問題がいくつかあります。
分散型コンピューティングパワーサービスプロバイダーと比較すると、分散型コンピューティングパワー製品は通常、コンピューティングリソースを提供するために世界中に分散したノードと参加者に依存しています。これらのノード間のネットワーク接続のレイテンシーと不安定性が発生する可能性があるため、パフォーマンスと安定性は集中型コンピューティング電源製品よりも悪くなる可能性があります。
さらに、分散型コンピューティングパワー製品の可用性は、需要と供給の間のマッチング度の影響を受けます。サプライヤーが足りなかったり、需要が高すぎたりすると、リソースが不足したり、ユーザーのニーズに応えられなくなったりする可能性があります。
最後に、集中型コンピューティングパワー製品と比較して、分散型コンピューティングパワー製品は通常、より技術的な詳細と複雑さを伴います。ユーザーは、分散ネットワーク、スマートコントラクト、および暗号通貨の支払いの側面を理解して処理する必要がある場合があり、ユーザーの理解と使用のコストが増加します。
多数の分散型コンピューティングパワープロジェクトチームとの詳細な議論の結果、現在の分散型コンピューティングパワーは、AIトレーニングではなくAI推論にまだほとんど制限されていることがわかりました。
次に、この背景にある理由を皆さんが理解できるように、4つの質問を使用します。
なぜ、ほとんどの分散型コンピューティングパワープロジェクトは、AIトレーニングではなくAI推論を選択するのでしょうか?
NVIDIAがこれほど強力な理由は何ですか?分散型コンピューティングパワーのトレーニングが難しい理由は何ですか?
分散型コンピューティングパワー(Render、Akash、io.net など)の終盤戦はどうなるのでしょうか?
分散型アルゴリズム(Bittensor)の終盤戦は?
詳細を段階的に掘り下げてみましょう。
1)この分野を観察すると、ほとんどの分散型コンピューティングパワープロジェクトは、主にコンピューティングパワーと帯域幅の要件が異なるため、トレーニングではなくAI推論に焦点を当てることを選択します。
みんなが理解を深めるために、AIと学生を比較してみましょう。
AIトレーニング:人工知能を学生に例えると、トレーニングはAIに大量の知識と例を提供するのと似ており、私たちがしばしばデータと呼ぶものに似ています。AIはこれらの例から学習します。学習には膨大な量の情報を理解して記憶する必要があるため、このプロセスにはかなりの計算能力と時間が必要です。
AI推論:推論は、習得した知識を使用して問題を解決したり、試験を受けたりすることとして理解できます。推論中、AIは新しい情報を取得するのではなく、学習した知識を利用して質問に答えるため、計算要件は比較的低くなります。
難易度の根本的な違いは、大規模モデルのAIトレーニングには膨大なデータ量とデータ伝送のための非常に高い帯域幅が必要であり、分散型コンピューティングパワーで実現することが非常に困難であるという事実にあることは容易に理解できます。対照的に、推論に必要なデータと帯域幅ははるかに少ないため、より実現可能です。
大規模なモデルでは、安定性が重要です。トレーニングが中断された場合は、トレーニングを再開する必要があり、サンクコストが高くなります。一方、AI 推論や、中小規模のモデル トレーニングを含む特定のシナリオなど、コンピューティング パワー要件が比較的低い要求を達成できます。分散型コンピューティングパワーネットワークでは、一部の比較的大規模なノードサービスプロバイダーは、これらの比較的高いコンピューティングパワーの需要に対応できます。
2)では、データと帯域幅のボトルネックはどこにあるのでしょうか?分散型トレーニングの実現が難しいのはなぜですか?
これには、大規模モデルのトレーニングの 2 つの重要な要素 (シングルカードの計算能力とマルチカードの並列処理) が含まれます。
シングルカードのコンピューティング能力:現在、スーパーコンピューティングセンターと呼ばれる大規模なモデルトレーニングを必要とするすべてのセンターは、基盤となるユニットであるGPUが細胞のようなものである人体に例えることができます。単一セル (GPU) の計算能力が強い場合、全体的な計算能力 (単一セル×量) も非常に強力になる可能性があります。
マルチカード並列処理: 大規模なモデルのトレーニングには、多くの場合、数千億ギガバイトが含まれます。大規模なモデルをトレーニングするスーパーコンピューティング センターでは、少なくとも数万個の A100 GPU が必要です。そのためには、何千枚ものカードをトレーニングに動員する必要があります。ただし、大規模なモデルのトレーニングは、単純な逐次プロセスではありません。1枚目のA100カードでトレーニングしてから、2枚目のカードに移るだけではありません。代わりに、モデルの異なる部分が異なる GPU で同時にトレーニングされ、パート A のトレーニングには、並列処理を伴うパート B からの結果が必要になる場合があります。
AMDやHuaweiやHorizonなどの国内企業が追いつくのが難しいと感じているのに対し、NVIDIAの優位性と市場価値の上昇は、CUDAソフトウェア環境とNVLinkマルチカード通信の2つの側面に起因しています。
CUDAソフトウェア環境:NVIDIAのCUDAシステムのように、ハードウェアにマッチするソフトウェアエコシステムがあるかどうかが重要です。新しいシステムの構築は、高い置き換えコストで新しい言語を作成するのと同様に、困難です。
NVLink マルチカード通信: 基本的に、マルチカード通信には情報の入力と出力が含まれます。いかに並列化して伝送するかが重要です。NVLinkの存在は、NVIDIAカードとAMDカードが通信できないことを意味します。さらに、NVLink は GPU 間の物理的な距離を制限し、同じスーパーコンピューティング センターに配置する必要があります。これにより、世界中に分散したコンピューティング能力が、大規模なモデルトレーニング用のまとまりのあるコンピューティングクラスターを形成することが困難になります。
1つ目のポイントは、AMDやHuaweiやHorizonなどの国内企業が追いつくのに苦労している理由を説明し、2つ目のポイントは、分散型トレーニングの実現が難しい理由を説明しています。
3) 分散型コンピューティングパワーの終盤戦は?分散型コンピューティング能力は、安定性が最も重要であるため、現在、大規模なモデルのトレーニングに苦労しています。中断が発生すると再トレーニングが必要になり、サンクコストが高くなります。マルチカード並列処理の高い要件は、物理的な帯域幅の制約によって制限されます。NVIDIA の NVLink はマルチカード通信を実現しますが、スーパーコンピューティング センター内では、NVLink によって GPU 間の物理的な距離が制限されます。したがって、分散したコンピューティング能力では、大規模なモデルトレーニング用のコンピューティングクラスターを形成できません。
しかし、AI推論や、中小規模のモデルトレーニングを含む特定のシナリオなど、コンピューティングパワー要件が比較的低い需要に対しては、比較的大規模なノードサービスプロバイダーによる分散型コンピューティングパワーネットワークが可能性を秘めています。さらに、レンダリング用のエッジ コンピューティングなどのシナリオは、比較的簡単に実装できます。
4) 分散型アルゴリズムモデルの終盤戦は?分散型アルゴリズムモデルの将来は、AIの最終的な方向性にかかっています。AIの未来は、1〜2のクローズドソースモデルの巨人(ChatGPTなど)と、多数のモデルを特徴とする可能性があると私は信じています。このコンテキストでは、アプリケーション層製品は 1 つの大規模モデルにバインドする必要はなく、複数の大規模モデルと連携します。このシナリオでは、Bittensor のモデルは大きな可能性を示しています。
Web3とAIを組み合わせた現在のプロジェクト、特にAIがWeb3の取り組みを支援するプロジェクトでは、ほとんどのプロジェクトはAIと暗号通貨の深い統合を示すことなく、AIを表面的に使用しているに過ぎません。この表面的な適用は、次の2つの側面で明らかです。
現在のWeb3やAIプロジェクトにはこれらの限界がありますが、これは開発の初期段階に過ぎないことを認識する必要があります。将来的には、AIと暗号通貨のより緊密な統合を実現し、金融、分散型自律組織(DAO)、予測市場、NFTなどの分野で、よりネイティブで有意義なソリューションを生み出すために、より詳細な研究とイノベーションが期待できます。
最初に述べたように、AIプロジェクトはビジネスモデルにおいて課題に直面しており、特に大規模なモデルが徐々にオープンソース化されています。多くのAI + Web3プロジェクト、多くの場合、Web2スペースで繁栄し、資金調達を確保するのに苦労している純粋なAIプロジェクトは、ユーザーの参加を促進するためにWeb3からの物語とトークンエコノミクスをオーバーレイすることを選択します。
しかし、重要な問題は、トークンエコノミクスの統合がAIプロジェクトが現実世界のニーズに対応するのに本当に役立つのか、それとも単に物語やショート的な価値提案として機能するのかということです。現在、ほとんどのAI+Web3プロジェクトは実用化にはほど遠い状況です。より地に足の着いた思慮深いチームが、AIプロジェクトを誇大宣伝する手段としてトークンを使用するだけでなく、実用的なユースケースを真に実現することが期待されています。
現在、AI+Web3プロジェクトでは数多くの事例や応用が生まれています。まず、AIテクノロジーは、Web3のより効率的でインテリジェントなユースケースを提供することができます。データ分析と予測におけるAIの機能を通じて、Web3のユーザーは、投資決定やその他のシナリオのためのより良いツールを手に入れることができます。さらに、AIはスマートコントラクトのコードを監査し、契約の実行を最適化し、ブロックチェーンのパフォーマンスと効率を向上させることができます。さらに、AIテクノロジーは、分散型アプリケーションに対して、より正確でインテリジェントなレコメンデーションとパーソナライズされたサービスを提供できるため、ユーザーエクスペリエンスが向上します。
同時に、Web3の分散型でプログラム可能な性質は、AI技術に新たな機会をもたらします。分散型コンピューティングパワープロジェクトは、トークンインセンティブを通じて、AIコンピューティングパワーの不足というジレンマに対する新しいソリューションを提供します。Web3のスマートコントラクトと分散ストレージメカニズムは、AIアルゴリズムの共有とトレーニングのためのより広いスペースとリソースも提供します。また、Web3のユーザーの自律性と信頼のメカニズムは、AI開発に新たな可能性をもたらし、ユーザーが自律的にデータ共有やトレーニングに参加することを選択することで、データの多様性と品質を高め、AIモデルのパフォーマンスと精度をさらに向上させます。
現在のAI+Web3のクロスオーバープロジェクトはまだ初期段階にあり、多くの課題に直面していますが、多くの利点ももたらします。たとえば、分散型コンピューティングパワー製品にはいくつかの欠点がありますが、中央集権的な機関への依存を減らし、透明性と監査可能性を高め、より広範な参加とイノベーションを可能にします。特定のユースケースやユーザーのニーズに対しては、分散型コンピューティングパワー製品が貴重な選択肢となる可能性があります。同じことがデータ収集にも当てはまります。分散型データ収集プロジェクトには、単一のデータソースへの依存を減らし、より広いデータカバレッジを提供し、データの多様性と包括性を促進するなどの利点があります。実際には、これらの長所と短所のバランスを取り、課題を克服するための適切な管理および技術的対策を講じ、分散型データ収集プロジェクトがAI開発にプラスの影響を与えるようにする必要があります。
全体として、AI+Web3の統合は、将来の技術革新と経済発展に無限の可能性を提供します。AIのインテリジェントな分析・意思決定能力と、Web3の分散型・ユーザー自律性を組み合わせることで、よりスマートでオープン、かつ公平な経済・社会システムを構築できると考えられています。
近年、人工知能(AI)やWeb3技術の急速な発展が世界的に注目を集めています。人間の知能をシミュレートして模倣する技術であるAIは、顔認識、自然言語処理、機械学習などの分野で大きなブレークスルーを達成しました。AI技術の急速な進歩は、さまざまな業界に大きな変革と革新をもたらしました。
AI業界は2023年に2,000億ドルの市場規模に達し、OpenAI、Character.AI、Midjourneyなどの業界大手や著名企業が急速に台頭し、AIブームリーディングています。
同時に、新しいインターネットモデルであるWeb3は、インターネットに対する私たちの認識と使用を徐々に変化させています。Web3は、分散型ブロックチェーン技術に基づいて、スマートコントラクト、分散ストレージ、分散型ID検証などの機能を通じて、データの共有と制御、ユーザーの自律性、および信頼メカニズムの確立を実現します。Web3の核となる考え方は、中央集権的な権威からデータを解放し、ユーザーが自分のデータの価値をコントロールし、共有
できるようにすることです。現在、Web3業界の市場価値は25兆ドルに達しています。ビットコイン、イーサリアム、ソラナから、UniswapやStepnなどのアプリケーションレベルのプレーヤーまで、新しい物語やシナリオが絶えず出現しており、ますます多くの人々がWeb3業界に参加しています。
AIとWeb3の統合が、東洋と西洋の両方のビルダーやベンチャーキャピタリストにとって焦点であることは明らかです。この2つの技術を効果的に組み合わせる方法を模索することは、非常に価値のある取り組みです。
この記事では、AI+Web3開発の現状に焦点を当て、それらの統合の潜在的な価値と影響を探ります。まず、AIとWeb3の基本的な概念と特徴を紹介し、その後、それらの相互関係について説明します。続いて、AI+Web3プロジェクトの現状を分析し、その限界や課題を掘り下げていきます。この調査を通じて、投資家や業界の専門家に貴重な参考資料と洞察を提供することを目指しています。
AIとWeb3の発展は、AIが生産性の向上をもたらすのに対し、Web3は生産関係に革命をもたらすという、天秤の両面として捉えることができます。では、AIとWeb3がぶつかり合ったとき、どのような火花を散らすことができるのでしょうか。まず、AIとWeb3業界における課題と潜在的な改善点を分析し、それらが互いの問題解決にどのように役立つかを探ります。
AI業界が抱える課題を探るには、まずその本質を理解する必要があります。AI業界の中核は、計算能力、アルゴリズム、データという3つの重要な要素を中心に展開しています。
現在のAIの3つのコア要素を理解した上で、これらの領域でAIが直面している困難と課題について考えてみましょう。
まず、計算能力の面では、AIタスクは通常、モデルのトレーニングと推論、特にディープラーニングモデルのために大量の計算リソースを必要とします。しかし、大規模な計算能力の取得と管理は、コストがかかり、複雑な課題です。高性能コンピューティング機器のコスト、エネルギー消費、およびメンテナンスは重要な問題です。これは、十分な計算能力を獲得することが困難なスタートアップや個人の開発者にとって特に困難です。
アルゴリズムに関しては、深層学習アルゴリズムが多くの分野で大きな成功を収めているにもかかわらず、まだ課題や困難があります。たとえば、ディープ ニューラル ネットワークのトレーニングには、大量のデータと計算リソースが必要です。さらに、特定のタスクでは、モデルの解釈可能性と説明可能性が不十分な場合があります。アルゴリズムのロバスト性と汎化機能も重要な問題であり、目に見えないデータに対するモデルのパフォーマンスは不安定になる可能性があるためです。多くのアルゴリズムの中から最適なパフォーマンスを提供する最適なアルゴリズムを見つけることは、継続的な探求です。
データ面では、AIの原動力はデータですが、高品質で多様なデータの取得は依然として課題です。医療分野における機密性の高い健康データなど、一部の分野のデータは入手が困難な場合があります。さらに、データの品質、正確性、ラベル付けは、不完全または偏ったデータが誤ったモデルの動作やバイアスにつながる可能性があるため、重要な問題です。データのプライバシーとセキュリティを保護することも重要な考慮事項です。
さらに、解釈可能性と透明性に関連する問題があります。AIモデルの「ブラックボックス」の性質は、社会の関心事です。金融、医療、司法などの特定のアプリケーションでは、モデルの意思決定プロセスが解釈可能で追跡可能である必要があります。しかし、既存の深層学習モデルでは、透明性に欠けることがよくあります。モデルの意思決定プロセスを説明し、信頼できる説明を提供することは、依然として困難です。
さらに、多くのAIスタートアッププロジェクトのビジネスモデルはあまり明確ではなく、これも多くのAI起業家に混乱を引き起こしています。
Web3業界では、データ分析やユーザーエクスペリエンスからスマートコントラクトの脆弱性やハッカー攻撃まで、対処すべき課題は数多くあります。AIは、生産性を高めるツールとして、これらの分野で大きな可能性を秘めています。
まず、データ分析と予測機能に改善の余地があります。データ分析と予測におけるAIアプリケーションは、Web3業界に大きな影響を与えています。Web3プラットフォームは、AIアルゴリズムによるインテリジェントな分析とマイニングを通じて、膨大な量のデータから貴重な情報を抽出し、より正確な予測と意思決定を行うことができます。これは、分散型金融(DeFi)におけるリスク評価、市場予測、および資産管理にとって特に重要です。
さらに、ユーザーエクスペリエンスとパーソナライゼーションサービスを強化する可能性があります。AIアプリケーションにより、Web3プラットフォームはより良いユーザーエクスペリエンスとパーソナライズされたサービスを提供することができます。Web3プラットフォームは、ユーザーデータを分析・モデル化することで、パーソナライズされたレコメンデーション、カスタマイズされたサービス、インテリジェントなインタラクション体験を提供することができます。これにより、ユーザーのエンゲージメントと満足度が向上し、Web3エコシステムの発展が促進されます。例えば、多くのWeb3プロトコルは、ChatGPTのようなAIツールを統合して、ユーザーにより良いサービスを提供しています。
セキュリティとプライバシー保護の観点からも、AIアプリケーションはWeb3業界に大きな影響を与えています。AIテクノロジーは、ネットワーク攻撃を検出して防御し、異常な動作を特定し、より強力なセキュリティ対策を提供するために使用できます。さらに、AIはデータプライバシー保護に適用でき、データ暗号化やプライバシーコンピューティングなどの技術を通じてWeb3プラットフォーム上のユーザーの個人情報を保護します。スマートコントラクトの監査に関しては、スマートコントラクトの作成および監査プロセスに脆弱性とセキュリティリスクが存在する可能性があるため、AIテクノロジーを使用して自動契約監査と脆弱性検出を行い、契約のセキュリティと信頼性を高めることができます。
AIが、Web3業界のさまざまな側面における課題や潜在的な改善に取り組むことに大きく貢献できることは明らかです。
AIとWeb3プロジェクトの組み合わせは、主にブロックチェーン技術を活用してAIプロジェクトを強化することと、AI技術を活用してWeb3プロジェクトの改善に役立てることの2つの主要な側面に焦点を当てています。この道に沿って、Io.net、Gensyn、Ritualなど、数多くのプロジェクトが生まれました。以下の分析では、AIがWeb3を支援し、Web3がAIを強化するさまざまなサブドメインを掘り下げます。
3.1.1 分散型コンピューティングパワー
2022年末にOpenAIがChatGPTをローンチして以来、AI分野に熱狂の火をつけました。リリースから5日間でユーザー数は100万人に達し、約2カ月半かかって達成したInstagramのダウンロード数を上回りました。その後、ChatGPTは急成長を遂げ、2か月以内に月間アクティブユーザー数が1億人に達し、2023年11月には週間アクティブユーザー数が1億人に達しました。ChatGPTの登場により、AI分野はニッチな分野から評価の高い業界へと急速に移行しました。
Trendforce のレポートによると、ChatGPT が動作するには 30,000 個の NVIDIA A100 GPU が必要であり、GPT-5 などの将来のモデルではさらに多くの計算能力が必要になります。これは、AI分野での競争力を維持するために十分な計算能力を持つことが不可欠であり、GPUの不足にリーディングされているため、さまざまなAI企業の間で軍拡競争を引き起こしています。
AIが上昇する前は、主要なGPUプロバイダーであるNVIDIAは、主にAWS、Azure、GCPの3つの主要なクラウドサービスのクライアントにサービスを提供していました。人工知能の上昇に伴い、Meta、Oracleなどの大手テクノロジー企業、その他のデータプラットフォーム、AIスタートアップなど、多数の新しいバイヤーが出現し、AIモデルをトレーニングするためのGPUを備蓄する競争に参加しました。MetaやTeslaなどの大手テクノロジー企業は、カスタマイズされたAIモデルや社内調査の購入を大幅に増やしました。Anthropicなどのベーシックモデル企業や、SnowflakeやDatabricksなどのデータプラットフォーム企業も、クライアントによるAIサービスの提供を支援するために、GPUを追加購入しました。
昨年のSemi Analysisが述べたように、「GPUリッチ」と「GPUフリー」の企業の間には分断があり、20,000を超えるA100/H100 GPUを所有している企業はごくわずかであり、チームメンバーは100〜1000のGPUをプロジェクトに利用できます。これらの企業は、クラウドプロバイダーであるか、OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistralなど、独自の大規模言語モデル(LLM)を構築しています。
しかし、大多数の企業は「GPU貧弱」のカテゴリーに下落し、GPUが大幅に少ないことに苦労し、エコシステムを前進させることがより困難なタスクにかなりの時間と労力を費やしています。しかも、この状況はスタートアップに限ったことではありません。Hugging Face、Databricks(MosaicML)、Together、さらにはSnowflakeなど、最も有名なAI企業の中には、A100/H100の数量が20,000未満のものもあります。これらの企業は、世界トップクラスの技術人材を擁しているにもかかわらず、GPUの供給が限られているため、AI競争の大企業に比べて不利な立場に
置かれています。この不足は「GPU貧弱」のカテゴリーに限ったことではなく、2023年末になっても、リーディングAIプレーヤーであるOpenAIは、十分なGPUを入手できないため、有料登録を一時的に閉鎖しなければならず、より多くのGPU供給を調達しなければなりませんでした。
AIの急速な発展により、GPUの需要と供給の間に深刻なミスマッチが発生し、差し迫った供給不足が発生していることは明らかです。
この問題に対処するために、一部のWeb3プロジェクトでは、Web3テクノロジーのユニークな特性を活用して、分散型コンピューティングパワーソリューションを模索し始めています。これらのプロジェクトには、Akash、Render、Gensynなどが含まれます。これらのプロジェクトに共通する特徴は、トークンを使用してユーザーにアイドル状態のGPUコンピューティングパワーを提供するようにインセンティブを与え、それによってAIクライアントをサポートするためのコンピューティングパワーの供給側になることです。
サプライサイドのプロファイルは、主にクラウドサービスプロバイダー、暗号通貨マイナー、企業の3つの側面で構成されています。クラウドサービスプロバイダーには、主要なクラウドサービスプロバイダー(AWS、Azure、GCPなど)やGPUクラウドサービスプロバイダー(Coreweave、Lambda、Crusoeなど)が含まれ、ユーザーはこれらのプロバイダーからアイドル状態のコンピューティングパワーを転売して収入を得ることができます。イーサリアムがPoWからPoSに移行するにつれて、アイドル状態のGPUコンピューティングパワーは、暗号通貨マイナーにとって重要な潜在的な供給側になりました。さらに、戦略的な目的で大量のGPUを購入しているTeslaやMetaなどの大企業も、供給サイドの一部としてアイドル状態のGPUコンピューティングパワーを提供することができます。
現在、この分野のプレーヤーは、一般的に、AI推論に分散型コンピューティングパワーを使用する企業と、AIトレーニングに分散コンピューティングパワーを使用する企業の2つに分類できます。前者のカテゴリには、Render(レンダリングに焦点を当てていますが、AIコンピューティングにも使用できます)、Akash、Aethirなどのプロジェクトが含まれ、後者のカテゴリには、io.net(推論とトレーニングの両方をサポート)やGensynなどのプロジェクトが含まれます。この 2 つの主な違いは、コンピューティング能力に対する要件が異なることです。
まず、AI推論に焦点を当てたプロジェクトについて説明しましょう。これらのプロジェクトは、トークンインセンティブを通じてコンピューティングパワーを提供するようにユーザーを引き付け、次に需要側にコンピューティングパワーネットワークサービスを提供し、それによってアイドル状態のコンピューティング電力の需要と需要のマッチングを促進します。このようなプロジェクトの詳細は、Ryze LabsのDePINによる調査レポートお気軽にお読みください。
核心となるのはトークンインセンティブメカニズムにあり、プロジェクトが最初にサプライヤーを引き付け、次にユーザーを引き付けることで、プロジェクトのコールドスタートとコア運用メカニズムを実現し、さらなる拡大と開発を可能にします。このサイクルでは、供給側はより価値のあるトークン報酬を受け取り、需要側はより費用対効果の高いサービスを享受します。プロジェクトのトークンの価値と需要と供給の両方の参加者の成長は一貫しています。トークンの価格が上昇すると、より多くの参加者や投機家が引き付けられ、価値獲得ループが生まれます。
もう1つのカテゴリーは、Gensynや io.net(AIトレーニングと推論の両方サポート)など、AIトレーニングに分散型コンピューティングパワーを使用することです。実際、これらのプロジェクトの運用ロジックは、AI推論プロジェクトと根本的に異なるものではありません。彼らは依然としてトークンインセンティブに依存して、供給側からの参加を引き付けてコンピューティングパワーを提供し、それを需要側が利用します。
io.net は、分散型コンピューティングパワーネットワークとして、現在500,000以上のGPUを誇り、分散型コンピューティングパワープロジェクトで傑出したパフォーマンスを発揮しています。さらに、RenderとFilecoinのコンピューティングパワーを統合し、エコシステムの継続的な開発を実証しています。
さらに、Gensynは、AIトレーニングを可能にするスマートコントラクトを通じて、機械学習のタスク割り当てと報酬を促進します。下の図に示すように、Gensyn での機械学習トレーニング作業の時間あたりのコストは約 0.4 ドルで、AWS や GCP の 2 ドルを超えるコストよりも大幅に低くなっています。
Gensynのエコシステムには、4つの参加団体が参加しています。
ご覧のとおり、Gensynは、グローバルなディープラーニングモデル向けの非常にスケーラブルで費用対効果の高いコンピューティングプロトコルになることを目指しています。しかし、この分野に目を向けると、なぜほとんどのプロジェクトがAI推論にトレーニングではなく分散型コンピューティングパワーを選択するのでしょうか?
また、AI のトレーニングと推論に慣れていない友人が 2 つの違いを理解できるようにしましょう。
AI推論とAI学習の両方に求められる計算能力が大きく異なることが分かります。AI推論とAIトレーニングのための分散型コンピューティングパワーの利用可能性については、今後の課題セクションでさらに分析します。
さらに、Ritualは、分散化とセキュリティを維持するために、分散型ネットワークとモデル作成者を組み合わせることを目指しています。その最初の製品であるInfernetは、ブロックチェーン上のスマートコントラクトがオフチェーンでAIモデルにアクセスできるようにし、そのような契約が検証、分散化、およびプライバシー保護を維持する方法でAIにアクセスできるようにします。
Infernetのコーディネーターは、ネットワーク内のノードの動作を管理し、コンシューマからの計算要求に応答する責任があります。ユーザーがInfernetを使用すると、推論や証明などのタスクがオフチェーンで実行され、出力がコーディネーターに返され、最終的にスマートコントラクトを介してオンチェーンで消費者に送信されます。
分散型コンピューティングパワーネットワークに加えて、データ伝送の速度と効率を向上させることを目的としたGrassのような分散型帯域幅ネットワークもあります。全体として、分散型コンピューティングパワーネットワークの出現は、AIコンピューティングパワーの供給側に新たな可能性を提供し、AIを新しい方向に前進させます。
3.1.2 分散型アルゴリズムモデル
第2章で述べたように、AIの3つのコア要素は、計算能力、アルゴリズム、データです。計算能力は分散化によって供給ネットワークを形成できるので、アルゴリズムも同様のアプローチに従って、アルゴリズムモデルの供給ネットワークを形成できますか?
この分野のプロジェクトを分析する前に、まず分散型アルゴリズムモデルの重要性を理解しましょう。多くの人は、すでにOpenAIを持っているのに、なぜ分散型アルゴリズムネットワークが必要なのか疑問に思うかもしれません。
基本的に、分散型アルゴリズムネットワークは、多くの異なるAIモデルを接続する分散型AIアルゴリズムサービスマーケットプレイスです。各 AI モデルには、独自の専門知識とスキルがあります。ユーザーが質問をすると、マーケットプレイスは質問に答えるのに最も適したAIモデルを選択します。OpenAI によって開発された Chat-GPT は、人間と同様のテキストを理解して生成できるそのような AI モデルの 1 つです。
簡単に言えば、ChatGPT はさまざまな種類の問題の解決を支援する非常に有能な学生のようなものですが、分散型アルゴリズム ネットワークは、多くの学生が問題解決を支援する学校のようなものです。現在の学生(ChatGPT)は非常に有能ですが、ロングランでは、世界中から学生を募集できる学校には大きな可能性があります。
現在、分散型アルゴリズムモデルの分野では、実験や探索を行っているプロジェクトもいくつかあります。次に、代表的なプロジェクトであるBittensorをケーススタディとして、このニッチな分野の発展を理解するのに役立ちます。
Bittensorでは、アルゴリズムモデル(またはマイナー)の供給側が機械学習モデルをネットワークに提供します。これらのモデルは、データを分析し、分析情報を提供できます。モデルプロバイダーは、貢献に対する報酬として、TAOと呼ばれる暗号通貨トークンを受け取ります。
回答の品質を確保するために、Bittensorは独自のコンセンサスメカニズムを使用して、最良の回答に関するコンセンサスに達します。質問が提起されると、複数のモデルマイナーが回答を提供します。次に、ネットワーク内のバリデータが最適な答えを決定するために作業を開始し、それがユーザーに送り返されます。
BittensorエコシステムのトークンTAOは、プロセス全体で2つの主要な役割を果たします。一方では、マイナーがアルゴリズムモデルをネットワークに提供するインセンティブとして機能します。一方、ユーザーはトークンを使って質問をしたり、ネットワークにタスクを完了させ
たりする必要があります。Bittensorは分散化されているため、インターネットにアクセスできる人なら誰でも、質問をするユーザーとして、または答えを提供するマイナーとして、ネットワークに参加できます。これにより、より多くの人々が人工知能の力を活用できるようになります。
要約すると、Bittensorのような分散型アルゴリズムモデルネットワークは、よりオープンで透明性の高いランドスケープを作成する可能性を秘めています。このエコシステムでは、AIモデルを安全かつ分散的にトレーニング、共有、利用することができます。さらに、BasedAIのような他のネットワークも同様の試みを試みており、ゼロ知識証明(ZK)を使用してユーザーモデルのインタラクティブなデータプライバシーを保護するという興味深い側面があります。
分散型アルゴリズムモデルプラットフォームが進化するにつれて、中小企業が最先端のAIツールを使用して大企業と競争できるようになり、さまざまな業界に大きな影響を与える可能性があります。
3.1.3 分散型データ収集
AIモデルの学習には、大量のデータが欠かせません。しかし、現在、ほとんどのWeb2企業は依然としてユーザーデータを独占しています。X、Reddit、TikTok、Snapchat、Instagram、YouTubeなどのプラットフォームは、AIトレーニングのためのデータ収集を禁止しており、AI業界の発展に大きな障害となっています。
一方、Web2プラットフォームの中には、ユーザーと利益を分け合うことなく、ユーザーデータをAI企業に販売するものもあります。例えば、RedditはGoogleと6,000万ドルの契約を結び、GoogleがRedditの投稿を使ってAIモデルをトレーニングできるようにしました。その結果、データ収集権は大手資本会社やビッグデータ企業に独占され、業界は資本集約的な方向に追いやられています。
この状況に対応して、一部のプロジェクトでは、Web3とトークンのインセンティブを活用して、分散型データ収集を実現しています。PublicAIを例にとると、ユーザーは2つの役割で参加できます。
報酬として、ユーザーはこれらの貢献を通じてトークンを獲得でき、データ貢献者とAI業界の間のWin-Winの関係を育むことができます。
AIトレーニングのためにデータを収集するPublicAIのようなプロジェクトに加えて、分散型データ収集にトークンインセンティブを使用するプロジェクトは他にもたくさんあります。たとえば、Oceanはデータトークン化を通じてユーザーデータを収集してAIを提供し、Hivemapperはユーザーの車のカメラを使用して地図データを収集し、Dimoは車のデータを収集し、WiHiは気象データを収集します。これらのプロジェクトは、分散型データ収集を通じて、AIトレーニングの潜在的なデータソースとしても機能します。したがって、広い意味では、AIを支援するWeb3のパラダイムに含めることができます。
3.1.4 ZKはAIでユーザーのプライバシーを保護
ブロックチェーンテクノロジーは分散化の利点を提供し、ゼロ知識証明という重要な機能も導入します。ゼロ知識技術により、プライバシーを維持しながら情報を検証することができます。
従来の機械学習では、通常、データを一元的に保存して処理する必要があり、プライバシーのリスクにつながる可能性があります。暗号化やデータの匿名化など、データのプライバシーを保護する方法によって、機械学習モデルの精度とパフォーマンスが制限される場合があります。
ゼロ知識証明技術は、プライバシー保護とデータ共有の対立に対処することで、このジレンマを解決するのに役立ちます。ゼロ知識機械学習(ZKML)は、ゼロ知識証明技術を使用して、元のデータを公開することなく機械学習モデルのトレーニングと推論を可能にします。ゼロ知識証明は、実際のデータの内容を明らかにすることなく、データの特徴とモデルの結果が正しいことを検証できることを保証します。
ZKMLの主な目標は、プライバシー保護とデータ共有のバランスをとることです。医療データ分析、財務データ分析、組織間コラボレーションなど、さまざまなシナリオに適用できます。ZKMLを使用することで、個人は機密データのプライバシーを保護しながら、他の人とデータを共有して、データプライバシー侵害のリスクなしに、より幅広い洞察とコラボレーションの機会を得ることができます。この分野はまだ初期段階にあり、ほとんどのプロジェクトはまだ調査中です。たとえば、BasedAIは、データの機密性を維持するために、完全同型暗号化(FHE)と大規模言語モデル(LLM)をシームレスに統合することにより、分散型アプローチを提案しています。ゼロ知識大規模言語モデル(ZK-LLM)は、分散ネットワークインフラストラクチャにプライバシーを組み込み、ネットワークの運用全体を通じてユーザーデータの機密性を確保します。
ここでは、完全同型暗号化(FHE)について簡単に説明します。FHEは、暗号化されたデータを復号化せずに計算を実行できるようにする暗号化技術です。つまり、FHEで暗号化されたデータに対して実行されるさまざまな数学演算(加算、乗算など)は、暗号化されていない元のデータに対して実行された場合と同じ結果が得られるため、ユーザーデータのプライバシーが保護されます。
前述の方法に加えて、Web3は、AIプログラムのオンチェーン実行を可能にするCortexなどのプロジェクトを通じてAIもサポートしています。従来のブロックチェーンで機械学習プログラムを実行することは、仮想マシンが重要な機械学習モデルを実行するのに非常に非効率的であるため、課題に直面しています。ほとんどの人は、ブロックチェーン上でAIを実行することは不可能だと考えています。ただし、Cortex 仮想マシン(CVM)はGPUを利用してオンチェーンでAIプログラムを実行し、イーサリアム仮想マシン(EVM)と互換性があります。言い換えれば、CortexチェーンはすべてのイーサリアムDAppを実行し、AI機械学習をこれらのDAppsに統合することができます。これにより、機械学習モデルを分散化され、不変かつ透過的な方法で実行でき、ネットワークコンセンサスによってAI推論の各ステップが検証されます。
AIとWeb3の衝突では、Web3のAI支援に加えて、AIのWeb3業界への支援も注目に値します。人工知能の主な貢献は生産性の向上であるため、AI監査スマートコントラクト、データ分析と予測、パーソナライズされたサービス、セキュリティとプライバシー保護などに多くの試みがあります。
3.2.1 データ解析と予測
多くのWeb3プロジェクトは、既存のAIサービス(ChatGPTなど)を統合したり、独自のサービスを開発したりして、Web3ユーザーにデータ分析および予測サービスを提供しています。これらのサービスは、投資戦略のためのAIアルゴリズム、オンチェーン分析ツール、価格および市場予測など、幅広い範囲をカバーしています。
例えば、PondはAIグラフアルゴリズムを使用して将来の価値あるアルファトークンを予測し、ユーザーや機関投資家に投資顧問サービスを提供しています。BullBear AIは、ユーザーの履歴データ、価格履歴、市場動向を学習し、価格動向予測をサポートする正確な情報を提供し、ユーザーが利益を達成できるよう支援します。
Numeraiのようなプラットフォームでは、参加者がAIと大規模言語モデルを使用して株式市場を予測する投資コンペティションが開催されています。プラットフォームから提供される高品質のデータでモデルをトレーニングし、毎日の予測を送信します。Numeraiは翌月にわたってこれらの予測を評価し、参加者はモデルにトークンステーク NMRて、パフォーマンスに基づいて報酬を獲得できます。
ブロックチェーンデータ分析プラットフォームであるArkhamも、AIをサービスに統合しています。アーカムは、ブロックチェーンアドレスを取引所、ファンド、クジラなどのエンティティにリンクし、重要なデータと分析を表示して、ユーザーに意思決定の優位性を提供します。Arkham Ultraは、パランティアとOpenAIの創設者のサポートを受けて3年間にわたって開発されたアルゴリズムを使用して、住所を実際のエンティティと照合します。
3.2.2 パーソナライズされたサービス
検索とレコメンデーションにおけるAIアプリケーションは、Web2プロジェクトで普及しており、ユーザーのパーソナライズされたニーズに応えています。Web3プロジェクトも同様にAIを統合し、ユーザーエクスペリエンスを向上させます。
たとえば、有名なデータ分析プラットフォームであるDuneは最近、大規模な言語モデルを使用してSQLクエリを記述するWandツールを導入しました。Wand Createを使用すると、ユーザーは自然言語の質問からSQLクエリを生成できるため、SQLに慣れていない人でも簡単にデータを検索できます。
Followinのようなコンテンツプラットフォームは、ChatGPTを統合して、特定のセクターの視点と最新情報を要約します。Web3百科事典IQ.wikiは、ブロックチェーン技術と暗号通貨に関する客観的で質の高い知識の主要な情報源になることを目指しています。GPT-4を統合してWikiの記事を要約し、ブロックチェーン情報を世界中でよりアクセスしやすくします。LLMベースの検索エンジンKaitoは、Web3情報検索に革命を起こすことを目指しています。
クリエイティブ分野では、NFPromptのようなプロジェクトにより、コンテンツ作成のコストが削減されます。NFPromptは、ユーザーがAIでより簡単にNFTを生成することを可能にし、さまざまなパーソナライズされたクリエイティブサービスを提供します。
3.2.3 スマートコントラクトのAI監査
スマートコントラクトの監査はWeb3の重要なタスクであり、AIはコードの脆弱性を特定する際の効率と精度を高めることができます。
ビタリックブテリンは、暗号通貨空間における最大の課題の1つは、コードのエラーであると指摘しています。AIは、コードの正しさを証明するための形式検証ツールの使用を大幅に簡素化することが期待されています。これを達成すると、ほぼエラーのないSEK EVM(イーサリアム仮想マシン)が実現し、エラーが少なくなると全体的な安全性が向上するため、宇宙のセキュリティが強化されます。
例えば、0x0.ai プロジェクトでは、AIを活用したスマートコントラクトの監査人を提供しています。このツールは、高度なアルゴリズムを使用してスマートコントラクトを分析し、詐欺やその他のセキュリティリスクにつながる可能性のある潜在的な脆弱性や問題を特定します。監査人は機械学習を使用してコードのパターンや異常を検出し、潜在的な問題にフラグを立ててさらにレビューします。
AIがWeb3を支援するネイティブケースは他にもあります。PAALは、ユーザーがWeb3ユーザーにサービスを提供するためにTelegramとDiscordに展開できるパーソナライズされたAIボットを作成するのに役立ちます。AI駆動型のマルチチェーンDEXアグリゲーターであるHeraは、AIを使用して、さまざまなトークンの任意のトークンペア間の最適な取引パスを提供します。全体として、Web3に対するAIの貢献は、主にツールレベルであり、さまざまなプロセスや機能を強化します。
現在、AIを支援する多くのWeb3プロジェクトは、分散型コンピューティングパワーに焦点を当てています。トークンインセンティブを使用して、世界中のユーザーがコンピューティング電源側の一部になることを促進することは、非常に興味深いイノベーションです。ただし、その一方で、対処する必要がある現実的な問題がいくつかあります。
分散型コンピューティングパワーサービスプロバイダーと比較すると、分散型コンピューティングパワー製品は通常、コンピューティングリソースを提供するために世界中に分散したノードと参加者に依存しています。これらのノード間のネットワーク接続のレイテンシーと不安定性が発生する可能性があるため、パフォーマンスと安定性は集中型コンピューティング電源製品よりも悪くなる可能性があります。
さらに、分散型コンピューティングパワー製品の可用性は、需要と供給の間のマッチング度の影響を受けます。サプライヤーが足りなかったり、需要が高すぎたりすると、リソースが不足したり、ユーザーのニーズに応えられなくなったりする可能性があります。
最後に、集中型コンピューティングパワー製品と比較して、分散型コンピューティングパワー製品は通常、より技術的な詳細と複雑さを伴います。ユーザーは、分散ネットワーク、スマートコントラクト、および暗号通貨の支払いの側面を理解して処理する必要がある場合があり、ユーザーの理解と使用のコストが増加します。
多数の分散型コンピューティングパワープロジェクトチームとの詳細な議論の結果、現在の分散型コンピューティングパワーは、AIトレーニングではなくAI推論にまだほとんど制限されていることがわかりました。
次に、この背景にある理由を皆さんが理解できるように、4つの質問を使用します。
なぜ、ほとんどの分散型コンピューティングパワープロジェクトは、AIトレーニングではなくAI推論を選択するのでしょうか?
NVIDIAがこれほど強力な理由は何ですか?分散型コンピューティングパワーのトレーニングが難しい理由は何ですか?
分散型コンピューティングパワー(Render、Akash、io.net など)の終盤戦はどうなるのでしょうか?
分散型アルゴリズム(Bittensor)の終盤戦は?
詳細を段階的に掘り下げてみましょう。
1)この分野を観察すると、ほとんどの分散型コンピューティングパワープロジェクトは、主にコンピューティングパワーと帯域幅の要件が異なるため、トレーニングではなくAI推論に焦点を当てることを選択します。
みんなが理解を深めるために、AIと学生を比較してみましょう。
AIトレーニング:人工知能を学生に例えると、トレーニングはAIに大量の知識と例を提供するのと似ており、私たちがしばしばデータと呼ぶものに似ています。AIはこれらの例から学習します。学習には膨大な量の情報を理解して記憶する必要があるため、このプロセスにはかなりの計算能力と時間が必要です。
AI推論:推論は、習得した知識を使用して問題を解決したり、試験を受けたりすることとして理解できます。推論中、AIは新しい情報を取得するのではなく、学習した知識を利用して質問に答えるため、計算要件は比較的低くなります。
難易度の根本的な違いは、大規模モデルのAIトレーニングには膨大なデータ量とデータ伝送のための非常に高い帯域幅が必要であり、分散型コンピューティングパワーで実現することが非常に困難であるという事実にあることは容易に理解できます。対照的に、推論に必要なデータと帯域幅ははるかに少ないため、より実現可能です。
大規模なモデルでは、安定性が重要です。トレーニングが中断された場合は、トレーニングを再開する必要があり、サンクコストが高くなります。一方、AI 推論や、中小規模のモデル トレーニングを含む特定のシナリオなど、コンピューティング パワー要件が比較的低い要求を達成できます。分散型コンピューティングパワーネットワークでは、一部の比較的大規模なノードサービスプロバイダーは、これらの比較的高いコンピューティングパワーの需要に対応できます。
2)では、データと帯域幅のボトルネックはどこにあるのでしょうか?分散型トレーニングの実現が難しいのはなぜですか?
これには、大規模モデルのトレーニングの 2 つの重要な要素 (シングルカードの計算能力とマルチカードの並列処理) が含まれます。
シングルカードのコンピューティング能力:現在、スーパーコンピューティングセンターと呼ばれる大規模なモデルトレーニングを必要とするすべてのセンターは、基盤となるユニットであるGPUが細胞のようなものである人体に例えることができます。単一セル (GPU) の計算能力が強い場合、全体的な計算能力 (単一セル×量) も非常に強力になる可能性があります。
マルチカード並列処理: 大規模なモデルのトレーニングには、多くの場合、数千億ギガバイトが含まれます。大規模なモデルをトレーニングするスーパーコンピューティング センターでは、少なくとも数万個の A100 GPU が必要です。そのためには、何千枚ものカードをトレーニングに動員する必要があります。ただし、大規模なモデルのトレーニングは、単純な逐次プロセスではありません。1枚目のA100カードでトレーニングしてから、2枚目のカードに移るだけではありません。代わりに、モデルの異なる部分が異なる GPU で同時にトレーニングされ、パート A のトレーニングには、並列処理を伴うパート B からの結果が必要になる場合があります。
AMDやHuaweiやHorizonなどの国内企業が追いつくのが難しいと感じているのに対し、NVIDIAの優位性と市場価値の上昇は、CUDAソフトウェア環境とNVLinkマルチカード通信の2つの側面に起因しています。
CUDAソフトウェア環境:NVIDIAのCUDAシステムのように、ハードウェアにマッチするソフトウェアエコシステムがあるかどうかが重要です。新しいシステムの構築は、高い置き換えコストで新しい言語を作成するのと同様に、困難です。
NVLink マルチカード通信: 基本的に、マルチカード通信には情報の入力と出力が含まれます。いかに並列化して伝送するかが重要です。NVLinkの存在は、NVIDIAカードとAMDカードが通信できないことを意味します。さらに、NVLink は GPU 間の物理的な距離を制限し、同じスーパーコンピューティング センターに配置する必要があります。これにより、世界中に分散したコンピューティング能力が、大規模なモデルトレーニング用のまとまりのあるコンピューティングクラスターを形成することが困難になります。
1つ目のポイントは、AMDやHuaweiやHorizonなどの国内企業が追いつくのに苦労している理由を説明し、2つ目のポイントは、分散型トレーニングの実現が難しい理由を説明しています。
3) 分散型コンピューティングパワーの終盤戦は?分散型コンピューティング能力は、安定性が最も重要であるため、現在、大規模なモデルのトレーニングに苦労しています。中断が発生すると再トレーニングが必要になり、サンクコストが高くなります。マルチカード並列処理の高い要件は、物理的な帯域幅の制約によって制限されます。NVIDIA の NVLink はマルチカード通信を実現しますが、スーパーコンピューティング センター内では、NVLink によって GPU 間の物理的な距離が制限されます。したがって、分散したコンピューティング能力では、大規模なモデルトレーニング用のコンピューティングクラスターを形成できません。
しかし、AI推論や、中小規模のモデルトレーニングを含む特定のシナリオなど、コンピューティングパワー要件が比較的低い需要に対しては、比較的大規模なノードサービスプロバイダーによる分散型コンピューティングパワーネットワークが可能性を秘めています。さらに、レンダリング用のエッジ コンピューティングなどのシナリオは、比較的簡単に実装できます。
4) 分散型アルゴリズムモデルの終盤戦は?分散型アルゴリズムモデルの将来は、AIの最終的な方向性にかかっています。AIの未来は、1〜2のクローズドソースモデルの巨人(ChatGPTなど)と、多数のモデルを特徴とする可能性があると私は信じています。このコンテキストでは、アプリケーション層製品は 1 つの大規模モデルにバインドする必要はなく、複数の大規模モデルと連携します。このシナリオでは、Bittensor のモデルは大きな可能性を示しています。
Web3とAIを組み合わせた現在のプロジェクト、特にAIがWeb3の取り組みを支援するプロジェクトでは、ほとんどのプロジェクトはAIと暗号通貨の深い統合を示すことなく、AIを表面的に使用しているに過ぎません。この表面的な適用は、次の2つの側面で明らかです。
現在のWeb3やAIプロジェクトにはこれらの限界がありますが、これは開発の初期段階に過ぎないことを認識する必要があります。将来的には、AIと暗号通貨のより緊密な統合を実現し、金融、分散型自律組織(DAO)、予測市場、NFTなどの分野で、よりネイティブで有意義なソリューションを生み出すために、より詳細な研究とイノベーションが期待できます。
最初に述べたように、AIプロジェクトはビジネスモデルにおいて課題に直面しており、特に大規模なモデルが徐々にオープンソース化されています。多くのAI + Web3プロジェクト、多くの場合、Web2スペースで繁栄し、資金調達を確保するのに苦労している純粋なAIプロジェクトは、ユーザーの参加を促進するためにWeb3からの物語とトークンエコノミクスをオーバーレイすることを選択します。
しかし、重要な問題は、トークンエコノミクスの統合がAIプロジェクトが現実世界のニーズに対応するのに本当に役立つのか、それとも単に物語やショート的な価値提案として機能するのかということです。現在、ほとんどのAI+Web3プロジェクトは実用化にはほど遠い状況です。より地に足の着いた思慮深いチームが、AIプロジェクトを誇大宣伝する手段としてトークンを使用するだけでなく、実用的なユースケースを真に実現することが期待されています。
現在、AI+Web3プロジェクトでは数多くの事例や応用が生まれています。まず、AIテクノロジーは、Web3のより効率的でインテリジェントなユースケースを提供することができます。データ分析と予測におけるAIの機能を通じて、Web3のユーザーは、投資決定やその他のシナリオのためのより良いツールを手に入れることができます。さらに、AIはスマートコントラクトのコードを監査し、契約の実行を最適化し、ブロックチェーンのパフォーマンスと効率を向上させることができます。さらに、AIテクノロジーは、分散型アプリケーションに対して、より正確でインテリジェントなレコメンデーションとパーソナライズされたサービスを提供できるため、ユーザーエクスペリエンスが向上します。
同時に、Web3の分散型でプログラム可能な性質は、AI技術に新たな機会をもたらします。分散型コンピューティングパワープロジェクトは、トークンインセンティブを通じて、AIコンピューティングパワーの不足というジレンマに対する新しいソリューションを提供します。Web3のスマートコントラクトと分散ストレージメカニズムは、AIアルゴリズムの共有とトレーニングのためのより広いスペースとリソースも提供します。また、Web3のユーザーの自律性と信頼のメカニズムは、AI開発に新たな可能性をもたらし、ユーザーが自律的にデータ共有やトレーニングに参加することを選択することで、データの多様性と品質を高め、AIモデルのパフォーマンスと精度をさらに向上させます。
現在のAI+Web3のクロスオーバープロジェクトはまだ初期段階にあり、多くの課題に直面していますが、多くの利点ももたらします。たとえば、分散型コンピューティングパワー製品にはいくつかの欠点がありますが、中央集権的な機関への依存を減らし、透明性と監査可能性を高め、より広範な参加とイノベーションを可能にします。特定のユースケースやユーザーのニーズに対しては、分散型コンピューティングパワー製品が貴重な選択肢となる可能性があります。同じことがデータ収集にも当てはまります。分散型データ収集プロジェクトには、単一のデータソースへの依存を減らし、より広いデータカバレッジを提供し、データの多様性と包括性を促進するなどの利点があります。実際には、これらの長所と短所のバランスを取り、課題を克服するための適切な管理および技術的対策を講じ、分散型データ収集プロジェクトがAI開発にプラスの影響を与えるようにする必要があります。
全体として、AI+Web3の統合は、将来の技術革新と経済発展に無限の可能性を提供します。AIのインテリジェントな分析・意思決定能力と、Web3の分散型・ユーザー自律性を組み合わせることで、よりスマートでオープン、かつ公平な経済・社会システムを構築できると考えられています。