AIは最近、暗号資産市場で最も注目されているカテゴリーの1つです。
💡分散型AIトレーニング
💡gpu depins
💡uncensored ai モデル
これらは突破口なのか、単なるキャッチフレーズなのか? 🤔
Hack VCでは、約束と現実を分けるために、ノイズを取り除いています。
この投稿では、トップの暗号資産×AIアイデアを分析します。実際の課題や機会について議論しましょう。
現実の中で課題に直面した、最初の有望なアイデア
まず、Web3 AIの「約束」から始めましょう。それらのアイデアはかなりのハイプがありますが、現実はあまり輝かしくないかもしれません。
オンチェーンでAIトレーニングを行う問題は、トレーニングにはニューラルネットワークがトレーニングされる際に逆伝搬を必要とするため、GPU間の高速な通信と調整が必要であることです。 NVIDIAにはこの問題に対し2つの革新があります(NVLinkとインフィニバンド).これらのテクノロジは、GPU 通信を効果的に超高速にしますが、ローカルのみのテクノロジであり、単一のデータセンター (50+ ギガビット速度) 内にある GPU クラスター内でのみ適用できます。
分散型ネットワークを導入すると、追加されたネットワークの遅延と帯域幅により、急に注文が数桁遅くなります。これは、NVIDIAのデータセンター内の高速インターコネクトから得られるスループットと比較して、AIトレーニング用途にとってのスタート地点ではありません。
将来に希望をもたらす可能性があるいくつかの革新があったことに注意してください:
トレーニングのデータコンポーネントも困難です。 任意のAIトレーニングプロセスには、膨大な量のデータを扱う必要があります。通常、モデルは高いスケーラビリティとパフォーマンスを持つ集中型で安全なデータストレージシステムでトレーニングされます。これにはテラバイト単位のデータの転送と処理が必要であり、これは一度限りのサイクルではありません。データには通常ノイズがあり、エラーが含まれているため、モデルのトレーニングの前に使用可能な形式にクリーニングおよび変換する必要があります。この段階には、正規化、フィルタリング、および欠損値の処理といった反復的なタスクが含まれます。これらはすべて分散型の環境で深刻な課題を提起します。
トレーニングのデータコンポーネントも反復的であり、これはWeb3には適していません。OpenAIには成果を出すまで何千回も反復が必要でした。AIチームのデータサイエンス専門家の最も基本的なタスクシナリオには、目標の定義、データの準備、データの分析と構造化が含まれ、重要な洞察を抽出し、モデリングに適したものにします。その後、定義された問題を解決するために機械学習モデルが開発され、その性能はテストデータセットを使用して検証されます。このプロセスは反復的です:現在のモデルが期待どおりのパフォーマンスを発揮しない場合、専門家は結果を改善するためにデータ収集またはモデルトレーニングの段階に戻ります。これを分散型の環境で行うことを想像してみてください。Web3では、ベストオブブリードの既存のフレームワークやツールが簡単に利用できない状況です。
チェーン上でAIモデルをトレーニングすることに関するもう1つの懸念は、推論と比較して、それがはるかに興味深い市場ではないということです。現時点では、AI LLMトレーニングに大量のGPUコンピュートが使用されています。しかし、長い目で見ると、推論が(GPUの)より普及した利用事例となるでしょう。考えてみてください: 世界が満足するためにAI LLMをどれだけトレーニングする必要がありますか? それを利用する顧客の数と比較してください。
あらゆる面で進歩している1つの解決策は、hack vcによって支援されている0g.aiです。彼らはオンチェーンデータストレージとデータ可用性インフラを両方提供しています。彼らの超高速アーキテクチャとオンチェーンで大量のデータを保存できる能力により、どのようなタイプの素早いイテレーションオンチェーンAIモデルトレーニングも可能になります。
暗号 x AI の課題の一つは、誤ったノードが生じる可能性があるため、単一の中央集権型のパーティがその推論を実行することを信頼できないため、AI 推論の正確性を検証することです。この課題は、Web2 AI には存在しません。分散型のコンセンサススタイルシステムがないためです。
この問題を解決するための提案の1つは、冗長な計算であり、複数のノードが同じAI推論操作を繰り返すことで、信頼できる方法で動作し、単一障害点を持たないようにすることです。
このアプローチの問題は、高性能AIチップの深刻な不足がある世界に生きていることです。高性能なNVIDIAチップの入手には数年待ちが必要であり、それが価格の上昇につながっています。さらに、AI推論を複数のノードで複数回再実行する必要がある場合、これらの高額なコストがさらに増加します。これは多くのプロジェクトにとってスタート地点に立てない状況になります。
web3には、web3の顧客に特化した独自のAIユースケースを持つべきだという提案がありました。これには、例えば、デフィプールのリスクスコアリングを行うAIを使用するweb3プロトコル、ウォレットの履歴に基づいて新しいプロトコルを提案するweb3ウォレット、またはAIを使用して非プレイヤーキャラクター(NPC)を制御するweb3ゲームなどが含まれます。
現時点では、これは(短期間の内に)まだ新興の市場であり、ユースケースがまだ発見されている段階です。いくつかの課題があります:
長期的には、特にAIエージェントの普及に伴い、Web3ネイティブのAIユースケースについてかなり強気です。私たちは、特定のWeb3ユーザーが多数のAIエージェントを支援する未来を想像しています。これの初期のカテゴリーリーダーはTheoriq(hack vcの支援を受けて),これにより合成可能で自律的なオンチェーンAIエージェントが可能になります。
コンシューマグレードのGPUに頼る分散型AIコンピュートネットワークがいくつかあります。コンシューマGPUは、低レベルのAI推論タスクやレイテンシ、スループット、信頼性が柔軟なコンシューマユースケースに便利ですが、真剣なエンタープライズユースケース(市場の大部分を占める)では、顧客は自宅のマシンと比較してより高い信頼性のネットワークを求め、より複雑な推論タスクがある場合はより高度なGPUが必要です。これらのより価値のある顧客ユースケースには、データセンターがより適しています。
注意してください、私たちは消費者向けのGPUをデモ目的や信頼性の低い状況に耐えられる個人やスタートアップ向けに有用と考えています。しかし、これらの顧客は基本的には価値が低いため、Web2エンタープライズに対応するデピンが長期的により価値があると考えています。そのため、有名なGPUデピンプロジェクトは、主に消費者向けのハードウェアからa100/h100やクラスターレベルの利用可能性を持つものに進化してきました。
現実- 暗号資産 x AI の実用的かつ現実的な使用例
さあ、実際に「本当の利益」を提供するユースケースについて話しましょう。これらは、暗号資産×AIが重要な価値を追加できる実際の「勝利」です。
mckinsey見積もり生成AIは、彼らが分析した63のユースケース全体で、年間2.6兆ドルから4.4兆ドル相当の価値を追加する可能性があるとされており、これは2021年の英国のGDP全体の3.1兆ドルと比較しています。これにより、すべての人工知能の影響が15%から40%増加するでしょう。この見積もりに、これらのユースケース以外のタスクに現在使用されているソフトウェアに生成AIを組み込む影響を含めると、おおよそ倍になるでしょう。
上記の試算で計算すると、AI(生成AIを超えて)の市場全体は、世界中で数十兆ドルの価値がある可能性があることを意味します。比較として、ビットコインとすべてのアルトコインを含むすべての暗号通貨を合わせると、今日では約2兆7,000億ドルの価値しかありません。つまり、AIを実際に必要とするWeb3の顧客は、この2兆7,000億ドルのごく一部に過ぎないため、短期的にAIを必要とする顧客の大多数はWeb2の顧客になるということです(BTCはこの市場の半分であり、BTC自体はAIを必要としない/使用していないと考えてください)。
web3 AIのユースケースはまだ始まったばかりであり、その市場規模が全く明確ではありません。しかし直感的に確かなことは、それが当分の間、web2市場のごく一部に過ぎないということです。web3 AIには依然として明るい未来があると信じていますが、今のところ、web3 AIの最も強力なアプリケーションは、単純にweb2の顧客にサービスを提供することを意味します。
Web3 AIの恩恵を仮に受けることができるWeb2顧客の例には、次のようなものがあります。
これは、顧客が一般的に大規模で価値があるため、比較的安定した顧客ペルソナです。すぐに廃業する可能性は低く、AIサービスの非常に大きな潜在顧客です。Web2の顧客にサービスを提供するWeb3 AIサービスは、この安定した顧客基盤の恩恵を受けるでしょう。
しかし、なぜWeb2の顧客がWeb3スタックを使用したいと思うのでしょうか?この投稿の残りの部分でその理由を述べています。
gpu depins aggreGate.io 未使用の gpu コンピュート パワー (最も信頼性のあるものはデータセンターから提供されます) を ai 推論に利用可能にし、それを可能にします (これの例は io.net、それはhack vcによって管理されるファンドのポートフォリオ企業です)。これを考える簡単な方法は、「GPU向けのAirbnb」と言えます(実質的には、未使用の資産の共同利用)。
GPUデピンに興奮している理由は、上記のように、NVIDIAチップの不足があり、現在はAI推論に使用できる無駄なGPUサイクルがあるためです。これらのハードウェア所有者は沈没費用がかかっており、現在は機器を十分に活用していません。したがって、ステータスクオに比べて、これらの一部のGPUサイクルをはるかに低コストで提供できます。ハードウェア所有者にとっては実質的に「見つかったお金」です。
例えば:
ai推論に適したgpuハードウェアがすべてではないことに注意してください。これには1つの大きな理由があり、それは古いgpuにはllms用の十分なgpuメモリがないということですが、ここで助けるためのいくつかの興味深いイノベーションが行われてきました。エクサビットたとえば、技術では活性ニューロンをGPUメモリに読み込み、非活性ニューロンをCPUメモリに読み込みます。そして、どのニューロンが活性/非活性であるかを予測します。これにより、限られたGPUメモリでも下位のGPUがAIワークロードを処理できるようになります。これにより、下位のGPUがAI推論により有用になります。
また、Web3 AIプロバイダーは時間の経過とともに自社の提供物を強化し、シングルサインオン、SOC 2コンプライアンス、サービスレベル契約(SLA)などのエンタープライズクラスのサービス提供を行う必要があります。これにより、Web2の顧客が現在利用しているクラウドサービスと同様のサービスが提供されます。
AI検閲について多くの議論がありました。例えば、トルコは一時的にOpenAIを禁止しました(後にOpenAIがコンプライアンスを改善したため、トルコは方針を転換しました)。私たちはこのような国レベルの検閲は基本的に興味深くないと考えています。なぜなら、国々は競争力を維持するためにAIを受け入れる必要があるからです。
さらに興味深いのは、OpenAI自体がセンショアを行っていることです。例えば、OpenAIはNSFWコンテンツを扱いませんし、次の大統領選挙の予測も行いません。OpenAIが政治的な理由で触れないAIのユースケースには、興味深いかつ大きな市場が存在すると考えています。
オープンソース化は、これには最適な解決策です。なぜなら、GitHubのリポジトリは株主や取締役会に縛られていないからです。これの例としてはVenice.aiプライバシーを守り、検閲されない方法で動作することを約束する、Web3 AIが効果的にもたらすことができるものは、低コストのGPUクラスターでこれらのオープンソースソフトウェア(OSS)モデルを駆動することです。これらの理由から、私たちはOSS + Web3がアンセンサードAIの道を切り拓くための理想的な組み合わせであると信じています。
多くの大手企業は、内部の企業データにプライバシー上の懸念を抱いています。これらの顧客にとって、そのデータをOpenAIのような中央集権的な第三者に信頼することは非常に困難です。
Web3では、内部データが突然分散型ネットワーク上にあるため、これらの企業にとって(表面的には)さらに恐ろしいものに見えるかもしれません。しかし、AIのプライバシー強化技術にはいくつかの革新があります。
これらの技術はまだ進化中であり、ゼロ知識(zk)およびfhe asicsの登場によりパフォーマンスが改善され続けています。しかし、長期的な目標は、モデルを微調整する際に企業データを保護することです。これらのプロトコルが出現するにつれて、Web3はプライバシー保護AIコンピューティングのより魅力的な場になるかもしれません。
過去数十年間、OSSは独占的なソフトウェアの市場シェアを一貫して侵食してきました。私たちはLLMを単なる派手な独占的なソフトウェアと見なしており、OSSの破壊の対象となっています。いくつかの注目すべき挑戦者の例には、ラマ, RWKV、そして、Mistral.ai. 時間の経過と共に、このリストは確実に成長します(より包括的なリストは で利用可能です)。Openrouter.ai)。Web3 AI(OSSモデルによるパワード)を活用することで、これらの新しいイノベーションを活用することができます。
時間の経過とともに、オープンソースのグローバル開発労働力と、 暗号資産によるインセンティブが組み合わさり、オープンソースモデルやそれらの上に構築されたエージェントやフレームワークの迅速なイノベーションを推進できると信じています。AIエージェントプロトコルの一例は、Theoriq. theoriqはOSSモデルを活用して、組み合わせ可能な相互接続されたAIエージェントのウェブを作成し、より高次のAIソリューションを作成するために組み立てることができます。
私たちがここで確信を持っている理由は、過去にあるからです。ほとんどの「開発者ソフトウェア」は時間の経過とともにOSSによって徐々に革新されてきました。マイクロソフトはかつてプロプライエタリなソフトウェア企業でしたが、今ではGitHubへの貢献度No.1企業になっています。そして、それには理由があります。Databricks、PostgreSQL、MongoDBなどがプロプライエタリなデータベースを破壊した方法を見ると、それはOSSによって完全に転覆された業界の例です。したがって、ここに先例が非常に強いのです。
ただし、これには注意が必要です。 OSS LLMSの困難な点の1つは、OpenAIがRedditやニューヨークタイムズなどの組織と有料のデータライセンス契約を作成し始めたことです。この傾向が続くと、データの取得に関与する財政的な障壁のため、OSS LLMSが競争することがより困難になる可能性があります。 NVIDIAは、安全なデータ共有を可能にするために機密コンピューティングに注力する可能性があります。時間が経てばどうなるかわかりません。
web3 ai推論の課題の1つは、検証です。バリデータが手数料を稼ぐために結果を改ざんする可能性があるため、推論の検証は重要な措置です。なお、このような不正行為はまだ実際には起きていませんが、ai推論はまだ初期段階にあるため、対策が取られない限り不可避です。
標準的なweb3のアプローチは、複数の検証者が同じ操作を繰り返して結果を比較することです。これに対する顕著な課題は、現在の高級nvidiaチップの不足により、ai推論が高価であることです。web3が未使用のGPUデピンを介した低コスト推論を提供できることを考慮すると、冗長な計算はweb3の価値提案を大きく損なうことになります。
より有望な解決策は、オフチェーンAI推論計算のためにzkプルーフを実行することです。この場合、簡潔なzkプルーフは、モデルが適切にトレーニングされたか、または推論が適切に実行されたか(zkmlとして知られる)を判断するために検証できます。例には、Cryptoなどがあります。モジュラスラボそしてZKonduitこれらのソリューションのパフォーマンスは、まだzk操作がかなり計算集約的であるため、未成熟です。しかし、zkハードウェアasicsが近い将来にリリースされることで、おそらく改善すると予想しています。
さらに有望なのは、ある種の「楽観的」なサンプリングベースのAI推論アプローチのアイデアです。このモデルでは、バリデータが生成した結果のごくわずかの割合のみを検証しますが、もし発覚した場合にはスラッシング経済コストを十分に高く設定し、バリデータに不正行為をすることへの強力な経済的ディスインセンティブを生み出します。この方法により、冗長な計算を節約することができます(例:)。双曲線的’s サンプリングペーパーの証明).
もう一つの有望なアイデアは、提案されたもののようなウォーターマーキングおよびフィンガープリントソリューションです。ベーグルネットワーク. これは、数百万台のデバイスに搭載されたAIモデルの品質保証のためのAmazon Alexaのメカニズムに類似しています。
Web3がAIにもたらす次の機会は、コストを民主化することです。これまでに、depinsを使用してGPUコストを節約することについて話してきました。しかし、Web3は、中央集権的なWeb2 AIサービス(例:この執筆時点で年間売上10億ドル以上を達成しているOpenAIなど)の利益率を節約する機会も提供しています。これらのコスト削減は、プロプライエタリなモデルではなくOSSモデルが使用されていることから生じており、モデル作成者が利益を上げようとしていないため、追加の節約が可能となっています。
多くのOSSモデルは完全に無料のままであり、これにより顧客にとって最適な経済状況が実現されます。ただし、これらのモデルを収益化しようとするOSSモデルもあるかもしれません。Hugging Faceの総モデルのうち、予算を持つ企業によって訓練されたモデルはわずか4%に過ぎません(詳細は参照)。ここ). 残りの96%のモデルはコミュニティによってトレーニングされます。この96%のコホートは、基本的な実際のコスト(計算コストやデータコストなど)を持っています。したがって、これらのモデルはどうしても収益化する必要があります。
これを実現するための提案がいくつかあります。最も興味深いのは、モデル自体をトークン化し、チームのためにトークンの一部を保持し、そのモデルから将来の収益をトークン保有者に還元するという「初期モデルオファリング(IMO)」のコンセプトですが、明らかにいくつかの法的および規制上の障壁があります。
他のOSSモデルは利用を通じて収益化しようとするかもしれません。ただし、これが実現する場合、OSSモデルはますますWeb2で利益を生み出す相手に似てくる可能性があります。しかし、現実的には、市場は二分され、一部のモデルは完全に無料のままです。
AIの最大の課題の1つは、モデルをトレーニングするための適切なデータの入手です。前述したように、分散型AIトレーニングには課題がありますが、データを入手するために分散型ネットワークを使用することはどうでしょうか(それを他の場所でトレーニングに使用でき、伝統的なWeb2の場でも使用できますか)?
これはまさにスタートアップなどのものです草grassは、「データスクレイパー」と呼ばれる分散ネットワークであり、個々のマシンのアイドル処理能力をデータソーシングに貢献する個人で構成されています。これにより、AIモデルの学習に必要なデータを収集します。理論的には、規模が大きくなれば、このデータソーシングは、インセンティブを受けているノードの大きなネットワークの力により、1つの企業の内部努力よりも優れたものになります。これには、単により多くのデータをソースとするだけでなく、そのデータをより頻繁にソースすることによって、そのデータをより関連性が高く最新のものにします。また、分散されており単一のIPアドレス内に存在しないため、分散型のデータスクレイパーの軍を停止することは事実上不可能です。また、データのクリーニングと正規化を行う人間のネットワークも存在し、スクレイピング後にデータが有用になります。
データを入手したら、そのデータをチェーン上に保存する場所が必要です。また、そのデータと一緒に生成されるLLMSも必要です。0g.AIこのカテゴリーで初期リーダーです。これは、AI最適化された高性能なWeb3ストレージソリューションであり、AWSよりも格段に安価です(Web3 AIの別の経済的な勝利)、また、レイヤー2、AIなどのデータ可用性インフラとしても機能します。
データの役割は、将来のWeb3 AIでは変化する可能性があることに注意してください。現在、LLMの現在のステータスクオは、モデルをデータで事前学習し、より多くのデータで時間をかけて磨くことです。しかし、それらのモデルは常に少し古く、インターネット上のデータがリアルタイムで変化しているため、LLM推論からの応答はわずかに不正確です。
世界が向かう未来は、新しいパラダイムである「リアルタイム」データです。このコンセプトは、LLMに推論質問を行うとき、そのLLMがリアルタイムにインターネットから収集されたデータのプロンプトインジェクションを使用することができるというものです。この方法で、LLMは可能な限り最新のデータを使用します。Grassもこれについて研究しています。
結論
Web3 AIの約束と現実について考える際に、この分析が役立つことを願っています。これは会話の出発点であり、環境は急速に変化しているため、ご自分の意見を述べて参加していただければ幸いです。私たちは共に学び、成長することを望んでいます。
謝辞
この投稿へのフィードバックと貢献に対して、アルバート・カステラーナ、ジャスパー・チャン、バシリス・ツィオカス、ビダン・ロイ、レゾ、ヴィンセント・ワイサー、シャシャンク・ヤダブ、アリ・フセイン、ヌクリ・バシャルリ、エマド・モスタケ、デヴィッド・ミナーシュ、トミー・ショーネシー、マイケル・ハインリッヒ、ケッカク・ウォン、マーク・ワインスタイン、フィリップ・ボネッロ、ジェフ・アミコ、イージャズ・アハマディーン、エヴァン・ファン、JW・ワンに特別なお礼を申し上げます。
ここに記載されている情報は一般的な情報提供のみを目的としており、投資アドバイスを構成するものではなく、また意図されておらず、いかなる投資判断の評価にも使用すべきではありません。このような情報には、会計、法律、税務、ビジネス、投資その他の関連するアドバイスに依存すべきではありません。ここで議論されていることに関しても、会計、法律、税務、ビジネス、投資その他の関連するアドバイスを含め、自身の顧問、自らの法律顧問を含めるべきです。
この投稿は、hack vcまたはその関連会社、hack vcが運営するファンドを含む、hack vcの代表者の関連会社を含む、hack vcの関連個人と必ずしも一致するわけではなく、著者の現在の意見を反映しています。ここに含まれる情報の一部は、公表された情報源から入手されたものであり、また、第三者によって作成されたものであり、特定の場合には、ここまで更新されていません。このような情報源は信頼できると考えられていますが、hack vc、その関連会社、hack vcの代表者の関連会社を含むその他の関連個人は、その正確性や完全性について表明しておらず、そのように依存したり、会計、法的、税務、ビジネス、投資、その他の決定の根拠にするべきではありません。ここに記載された情報は完全ではなく、変更される可能性があり、hack vcはそのような情報を更新する義務を負わず、そのような情報が不正確になった場合に通知する義務を負わないことに留意してください。
過去のパフォーマンスは将来の結果を必ずしも示すものではありません。ここで行われた将来を見据えた声明は、筆者が歴史的トレンド、現在の状況、予想される将来の動向、およびその他の状況において適切と考える要因をもとに行ったある仮定と分析に基づいています。このような声明は将来のパフォーマンスを保証するものではなく、予測が困難な一定のリスク、不確実性、および仮定に影響を受けるものです。
この記事は から再現されました[ハックVC], 元のタイトル「ai x crypto - promises and realities」、著作権は元の著者[ed roman, managing partner at hack vc]に帰属します。転載に異議がある場合は、お問い合わせください。ゲートラーンチーム、チームは関連手続きに従ってできるだけ早く対応いたします。
免責事項:この記事に表現された見解および意見は、著者個人の見解を表しており、投資アドバイスを構成するものではありません。
他の言語版の記事は、Gate.ioの学習チームによって翻訳されており、言及されていませんゲート.io、翻訳された記事の転載、配布、または盗用はできません。
AIは最近、暗号資産市場で最も注目されているカテゴリーの1つです。
💡分散型AIトレーニング
💡gpu depins
💡uncensored ai モデル
これらは突破口なのか、単なるキャッチフレーズなのか? 🤔
Hack VCでは、約束と現実を分けるために、ノイズを取り除いています。
この投稿では、トップの暗号資産×AIアイデアを分析します。実際の課題や機会について議論しましょう。
現実の中で課題に直面した、最初の有望なアイデア
まず、Web3 AIの「約束」から始めましょう。それらのアイデアはかなりのハイプがありますが、現実はあまり輝かしくないかもしれません。
オンチェーンでAIトレーニングを行う問題は、トレーニングにはニューラルネットワークがトレーニングされる際に逆伝搬を必要とするため、GPU間の高速な通信と調整が必要であることです。 NVIDIAにはこの問題に対し2つの革新があります(NVLinkとインフィニバンド).これらのテクノロジは、GPU 通信を効果的に超高速にしますが、ローカルのみのテクノロジであり、単一のデータセンター (50+ ギガビット速度) 内にある GPU クラスター内でのみ適用できます。
分散型ネットワークを導入すると、追加されたネットワークの遅延と帯域幅により、急に注文が数桁遅くなります。これは、NVIDIAのデータセンター内の高速インターコネクトから得られるスループットと比較して、AIトレーニング用途にとってのスタート地点ではありません。
将来に希望をもたらす可能性があるいくつかの革新があったことに注意してください:
トレーニングのデータコンポーネントも困難です。 任意のAIトレーニングプロセスには、膨大な量のデータを扱う必要があります。通常、モデルは高いスケーラビリティとパフォーマンスを持つ集中型で安全なデータストレージシステムでトレーニングされます。これにはテラバイト単位のデータの転送と処理が必要であり、これは一度限りのサイクルではありません。データには通常ノイズがあり、エラーが含まれているため、モデルのトレーニングの前に使用可能な形式にクリーニングおよび変換する必要があります。この段階には、正規化、フィルタリング、および欠損値の処理といった反復的なタスクが含まれます。これらはすべて分散型の環境で深刻な課題を提起します。
トレーニングのデータコンポーネントも反復的であり、これはWeb3には適していません。OpenAIには成果を出すまで何千回も反復が必要でした。AIチームのデータサイエンス専門家の最も基本的なタスクシナリオには、目標の定義、データの準備、データの分析と構造化が含まれ、重要な洞察を抽出し、モデリングに適したものにします。その後、定義された問題を解決するために機械学習モデルが開発され、その性能はテストデータセットを使用して検証されます。このプロセスは反復的です:現在のモデルが期待どおりのパフォーマンスを発揮しない場合、専門家は結果を改善するためにデータ収集またはモデルトレーニングの段階に戻ります。これを分散型の環境で行うことを想像してみてください。Web3では、ベストオブブリードの既存のフレームワークやツールが簡単に利用できない状況です。
チェーン上でAIモデルをトレーニングすることに関するもう1つの懸念は、推論と比較して、それがはるかに興味深い市場ではないということです。現時点では、AI LLMトレーニングに大量のGPUコンピュートが使用されています。しかし、長い目で見ると、推論が(GPUの)より普及した利用事例となるでしょう。考えてみてください: 世界が満足するためにAI LLMをどれだけトレーニングする必要がありますか? それを利用する顧客の数と比較してください。
あらゆる面で進歩している1つの解決策は、hack vcによって支援されている0g.aiです。彼らはオンチェーンデータストレージとデータ可用性インフラを両方提供しています。彼らの超高速アーキテクチャとオンチェーンで大量のデータを保存できる能力により、どのようなタイプの素早いイテレーションオンチェーンAIモデルトレーニングも可能になります。
暗号 x AI の課題の一つは、誤ったノードが生じる可能性があるため、単一の中央集権型のパーティがその推論を実行することを信頼できないため、AI 推論の正確性を検証することです。この課題は、Web2 AI には存在しません。分散型のコンセンサススタイルシステムがないためです。
この問題を解決するための提案の1つは、冗長な計算であり、複数のノードが同じAI推論操作を繰り返すことで、信頼できる方法で動作し、単一障害点を持たないようにすることです。
このアプローチの問題は、高性能AIチップの深刻な不足がある世界に生きていることです。高性能なNVIDIAチップの入手には数年待ちが必要であり、それが価格の上昇につながっています。さらに、AI推論を複数のノードで複数回再実行する必要がある場合、これらの高額なコストがさらに増加します。これは多くのプロジェクトにとってスタート地点に立てない状況になります。
web3には、web3の顧客に特化した独自のAIユースケースを持つべきだという提案がありました。これには、例えば、デフィプールのリスクスコアリングを行うAIを使用するweb3プロトコル、ウォレットの履歴に基づいて新しいプロトコルを提案するweb3ウォレット、またはAIを使用して非プレイヤーキャラクター(NPC)を制御するweb3ゲームなどが含まれます。
現時点では、これは(短期間の内に)まだ新興の市場であり、ユースケースがまだ発見されている段階です。いくつかの課題があります:
長期的には、特にAIエージェントの普及に伴い、Web3ネイティブのAIユースケースについてかなり強気です。私たちは、特定のWeb3ユーザーが多数のAIエージェントを支援する未来を想像しています。これの初期のカテゴリーリーダーはTheoriq(hack vcの支援を受けて),これにより合成可能で自律的なオンチェーンAIエージェントが可能になります。
コンシューマグレードのGPUに頼る分散型AIコンピュートネットワークがいくつかあります。コンシューマGPUは、低レベルのAI推論タスクやレイテンシ、スループット、信頼性が柔軟なコンシューマユースケースに便利ですが、真剣なエンタープライズユースケース(市場の大部分を占める)では、顧客は自宅のマシンと比較してより高い信頼性のネットワークを求め、より複雑な推論タスクがある場合はより高度なGPUが必要です。これらのより価値のある顧客ユースケースには、データセンターがより適しています。
注意してください、私たちは消費者向けのGPUをデモ目的や信頼性の低い状況に耐えられる個人やスタートアップ向けに有用と考えています。しかし、これらの顧客は基本的には価値が低いため、Web2エンタープライズに対応するデピンが長期的により価値があると考えています。そのため、有名なGPUデピンプロジェクトは、主に消費者向けのハードウェアからa100/h100やクラスターレベルの利用可能性を持つものに進化してきました。
現実- 暗号資産 x AI の実用的かつ現実的な使用例
さあ、実際に「本当の利益」を提供するユースケースについて話しましょう。これらは、暗号資産×AIが重要な価値を追加できる実際の「勝利」です。
mckinsey見積もり生成AIは、彼らが分析した63のユースケース全体で、年間2.6兆ドルから4.4兆ドル相当の価値を追加する可能性があるとされており、これは2021年の英国のGDP全体の3.1兆ドルと比較しています。これにより、すべての人工知能の影響が15%から40%増加するでしょう。この見積もりに、これらのユースケース以外のタスクに現在使用されているソフトウェアに生成AIを組み込む影響を含めると、おおよそ倍になるでしょう。
上記の試算で計算すると、AI(生成AIを超えて)の市場全体は、世界中で数十兆ドルの価値がある可能性があることを意味します。比較として、ビットコインとすべてのアルトコインを含むすべての暗号通貨を合わせると、今日では約2兆7,000億ドルの価値しかありません。つまり、AIを実際に必要とするWeb3の顧客は、この2兆7,000億ドルのごく一部に過ぎないため、短期的にAIを必要とする顧客の大多数はWeb2の顧客になるということです(BTCはこの市場の半分であり、BTC自体はAIを必要としない/使用していないと考えてください)。
web3 AIのユースケースはまだ始まったばかりであり、その市場規模が全く明確ではありません。しかし直感的に確かなことは、それが当分の間、web2市場のごく一部に過ぎないということです。web3 AIには依然として明るい未来があると信じていますが、今のところ、web3 AIの最も強力なアプリケーションは、単純にweb2の顧客にサービスを提供することを意味します。
Web3 AIの恩恵を仮に受けることができるWeb2顧客の例には、次のようなものがあります。
これは、顧客が一般的に大規模で価値があるため、比較的安定した顧客ペルソナです。すぐに廃業する可能性は低く、AIサービスの非常に大きな潜在顧客です。Web2の顧客にサービスを提供するWeb3 AIサービスは、この安定した顧客基盤の恩恵を受けるでしょう。
しかし、なぜWeb2の顧客がWeb3スタックを使用したいと思うのでしょうか?この投稿の残りの部分でその理由を述べています。
gpu depins aggreGate.io 未使用の gpu コンピュート パワー (最も信頼性のあるものはデータセンターから提供されます) を ai 推論に利用可能にし、それを可能にします (これの例は io.net、それはhack vcによって管理されるファンドのポートフォリオ企業です)。これを考える簡単な方法は、「GPU向けのAirbnb」と言えます(実質的には、未使用の資産の共同利用)。
GPUデピンに興奮している理由は、上記のように、NVIDIAチップの不足があり、現在はAI推論に使用できる無駄なGPUサイクルがあるためです。これらのハードウェア所有者は沈没費用がかかっており、現在は機器を十分に活用していません。したがって、ステータスクオに比べて、これらの一部のGPUサイクルをはるかに低コストで提供できます。ハードウェア所有者にとっては実質的に「見つかったお金」です。
例えば:
ai推論に適したgpuハードウェアがすべてではないことに注意してください。これには1つの大きな理由があり、それは古いgpuにはllms用の十分なgpuメモリがないということですが、ここで助けるためのいくつかの興味深いイノベーションが行われてきました。エクサビットたとえば、技術では活性ニューロンをGPUメモリに読み込み、非活性ニューロンをCPUメモリに読み込みます。そして、どのニューロンが活性/非活性であるかを予測します。これにより、限られたGPUメモリでも下位のGPUがAIワークロードを処理できるようになります。これにより、下位のGPUがAI推論により有用になります。
また、Web3 AIプロバイダーは時間の経過とともに自社の提供物を強化し、シングルサインオン、SOC 2コンプライアンス、サービスレベル契約(SLA)などのエンタープライズクラスのサービス提供を行う必要があります。これにより、Web2の顧客が現在利用しているクラウドサービスと同様のサービスが提供されます。
AI検閲について多くの議論がありました。例えば、トルコは一時的にOpenAIを禁止しました(後にOpenAIがコンプライアンスを改善したため、トルコは方針を転換しました)。私たちはこのような国レベルの検閲は基本的に興味深くないと考えています。なぜなら、国々は競争力を維持するためにAIを受け入れる必要があるからです。
さらに興味深いのは、OpenAI自体がセンショアを行っていることです。例えば、OpenAIはNSFWコンテンツを扱いませんし、次の大統領選挙の予測も行いません。OpenAIが政治的な理由で触れないAIのユースケースには、興味深いかつ大きな市場が存在すると考えています。
オープンソース化は、これには最適な解決策です。なぜなら、GitHubのリポジトリは株主や取締役会に縛られていないからです。これの例としてはVenice.aiプライバシーを守り、検閲されない方法で動作することを約束する、Web3 AIが効果的にもたらすことができるものは、低コストのGPUクラスターでこれらのオープンソースソフトウェア(OSS)モデルを駆動することです。これらの理由から、私たちはOSS + Web3がアンセンサードAIの道を切り拓くための理想的な組み合わせであると信じています。
多くの大手企業は、内部の企業データにプライバシー上の懸念を抱いています。これらの顧客にとって、そのデータをOpenAIのような中央集権的な第三者に信頼することは非常に困難です。
Web3では、内部データが突然分散型ネットワーク上にあるため、これらの企業にとって(表面的には)さらに恐ろしいものに見えるかもしれません。しかし、AIのプライバシー強化技術にはいくつかの革新があります。
これらの技術はまだ進化中であり、ゼロ知識(zk)およびfhe asicsの登場によりパフォーマンスが改善され続けています。しかし、長期的な目標は、モデルを微調整する際に企業データを保護することです。これらのプロトコルが出現するにつれて、Web3はプライバシー保護AIコンピューティングのより魅力的な場になるかもしれません。
過去数十年間、OSSは独占的なソフトウェアの市場シェアを一貫して侵食してきました。私たちはLLMを単なる派手な独占的なソフトウェアと見なしており、OSSの破壊の対象となっています。いくつかの注目すべき挑戦者の例には、ラマ, RWKV、そして、Mistral.ai. 時間の経過と共に、このリストは確実に成長します(より包括的なリストは で利用可能です)。Openrouter.ai)。Web3 AI(OSSモデルによるパワード)を活用することで、これらの新しいイノベーションを活用することができます。
時間の経過とともに、オープンソースのグローバル開発労働力と、 暗号資産によるインセンティブが組み合わさり、オープンソースモデルやそれらの上に構築されたエージェントやフレームワークの迅速なイノベーションを推進できると信じています。AIエージェントプロトコルの一例は、Theoriq. theoriqはOSSモデルを活用して、組み合わせ可能な相互接続されたAIエージェントのウェブを作成し、より高次のAIソリューションを作成するために組み立てることができます。
私たちがここで確信を持っている理由は、過去にあるからです。ほとんどの「開発者ソフトウェア」は時間の経過とともにOSSによって徐々に革新されてきました。マイクロソフトはかつてプロプライエタリなソフトウェア企業でしたが、今ではGitHubへの貢献度No.1企業になっています。そして、それには理由があります。Databricks、PostgreSQL、MongoDBなどがプロプライエタリなデータベースを破壊した方法を見ると、それはOSSによって完全に転覆された業界の例です。したがって、ここに先例が非常に強いのです。
ただし、これには注意が必要です。 OSS LLMSの困難な点の1つは、OpenAIがRedditやニューヨークタイムズなどの組織と有料のデータライセンス契約を作成し始めたことです。この傾向が続くと、データの取得に関与する財政的な障壁のため、OSS LLMSが競争することがより困難になる可能性があります。 NVIDIAは、安全なデータ共有を可能にするために機密コンピューティングに注力する可能性があります。時間が経てばどうなるかわかりません。
web3 ai推論の課題の1つは、検証です。バリデータが手数料を稼ぐために結果を改ざんする可能性があるため、推論の検証は重要な措置です。なお、このような不正行為はまだ実際には起きていませんが、ai推論はまだ初期段階にあるため、対策が取られない限り不可避です。
標準的なweb3のアプローチは、複数の検証者が同じ操作を繰り返して結果を比較することです。これに対する顕著な課題は、現在の高級nvidiaチップの不足により、ai推論が高価であることです。web3が未使用のGPUデピンを介した低コスト推論を提供できることを考慮すると、冗長な計算はweb3の価値提案を大きく損なうことになります。
より有望な解決策は、オフチェーンAI推論計算のためにzkプルーフを実行することです。この場合、簡潔なzkプルーフは、モデルが適切にトレーニングされたか、または推論が適切に実行されたか(zkmlとして知られる)を判断するために検証できます。例には、Cryptoなどがあります。モジュラスラボそしてZKonduitこれらのソリューションのパフォーマンスは、まだzk操作がかなり計算集約的であるため、未成熟です。しかし、zkハードウェアasicsが近い将来にリリースされることで、おそらく改善すると予想しています。
さらに有望なのは、ある種の「楽観的」なサンプリングベースのAI推論アプローチのアイデアです。このモデルでは、バリデータが生成した結果のごくわずかの割合のみを検証しますが、もし発覚した場合にはスラッシング経済コストを十分に高く設定し、バリデータに不正行為をすることへの強力な経済的ディスインセンティブを生み出します。この方法により、冗長な計算を節約することができます(例:)。双曲線的’s サンプリングペーパーの証明).
もう一つの有望なアイデアは、提案されたもののようなウォーターマーキングおよびフィンガープリントソリューションです。ベーグルネットワーク. これは、数百万台のデバイスに搭載されたAIモデルの品質保証のためのAmazon Alexaのメカニズムに類似しています。
Web3がAIにもたらす次の機会は、コストを民主化することです。これまでに、depinsを使用してGPUコストを節約することについて話してきました。しかし、Web3は、中央集権的なWeb2 AIサービス(例:この執筆時点で年間売上10億ドル以上を達成しているOpenAIなど)の利益率を節約する機会も提供しています。これらのコスト削減は、プロプライエタリなモデルではなくOSSモデルが使用されていることから生じており、モデル作成者が利益を上げようとしていないため、追加の節約が可能となっています。
多くのOSSモデルは完全に無料のままであり、これにより顧客にとって最適な経済状況が実現されます。ただし、これらのモデルを収益化しようとするOSSモデルもあるかもしれません。Hugging Faceの総モデルのうち、予算を持つ企業によって訓練されたモデルはわずか4%に過ぎません(詳細は参照)。ここ). 残りの96%のモデルはコミュニティによってトレーニングされます。この96%のコホートは、基本的な実際のコスト(計算コストやデータコストなど)を持っています。したがって、これらのモデルはどうしても収益化する必要があります。
これを実現するための提案がいくつかあります。最も興味深いのは、モデル自体をトークン化し、チームのためにトークンの一部を保持し、そのモデルから将来の収益をトークン保有者に還元するという「初期モデルオファリング(IMO)」のコンセプトですが、明らかにいくつかの法的および規制上の障壁があります。
他のOSSモデルは利用を通じて収益化しようとするかもしれません。ただし、これが実現する場合、OSSモデルはますますWeb2で利益を生み出す相手に似てくる可能性があります。しかし、現実的には、市場は二分され、一部のモデルは完全に無料のままです。
AIの最大の課題の1つは、モデルをトレーニングするための適切なデータの入手です。前述したように、分散型AIトレーニングには課題がありますが、データを入手するために分散型ネットワークを使用することはどうでしょうか(それを他の場所でトレーニングに使用でき、伝統的なWeb2の場でも使用できますか)?
これはまさにスタートアップなどのものです草grassは、「データスクレイパー」と呼ばれる分散ネットワークであり、個々のマシンのアイドル処理能力をデータソーシングに貢献する個人で構成されています。これにより、AIモデルの学習に必要なデータを収集します。理論的には、規模が大きくなれば、このデータソーシングは、インセンティブを受けているノードの大きなネットワークの力により、1つの企業の内部努力よりも優れたものになります。これには、単により多くのデータをソースとするだけでなく、そのデータをより頻繁にソースすることによって、そのデータをより関連性が高く最新のものにします。また、分散されており単一のIPアドレス内に存在しないため、分散型のデータスクレイパーの軍を停止することは事実上不可能です。また、データのクリーニングと正規化を行う人間のネットワークも存在し、スクレイピング後にデータが有用になります。
データを入手したら、そのデータをチェーン上に保存する場所が必要です。また、そのデータと一緒に生成されるLLMSも必要です。0g.AIこのカテゴリーで初期リーダーです。これは、AI最適化された高性能なWeb3ストレージソリューションであり、AWSよりも格段に安価です(Web3 AIの別の経済的な勝利)、また、レイヤー2、AIなどのデータ可用性インフラとしても機能します。
データの役割は、将来のWeb3 AIでは変化する可能性があることに注意してください。現在、LLMの現在のステータスクオは、モデルをデータで事前学習し、より多くのデータで時間をかけて磨くことです。しかし、それらのモデルは常に少し古く、インターネット上のデータがリアルタイムで変化しているため、LLM推論からの応答はわずかに不正確です。
世界が向かう未来は、新しいパラダイムである「リアルタイム」データです。このコンセプトは、LLMに推論質問を行うとき、そのLLMがリアルタイムにインターネットから収集されたデータのプロンプトインジェクションを使用することができるというものです。この方法で、LLMは可能な限り最新のデータを使用します。Grassもこれについて研究しています。
結論
Web3 AIの約束と現実について考える際に、この分析が役立つことを願っています。これは会話の出発点であり、環境は急速に変化しているため、ご自分の意見を述べて参加していただければ幸いです。私たちは共に学び、成長することを望んでいます。
謝辞
この投稿へのフィードバックと貢献に対して、アルバート・カステラーナ、ジャスパー・チャン、バシリス・ツィオカス、ビダン・ロイ、レゾ、ヴィンセント・ワイサー、シャシャンク・ヤダブ、アリ・フセイン、ヌクリ・バシャルリ、エマド・モスタケ、デヴィッド・ミナーシュ、トミー・ショーネシー、マイケル・ハインリッヒ、ケッカク・ウォン、マーク・ワインスタイン、フィリップ・ボネッロ、ジェフ・アミコ、イージャズ・アハマディーン、エヴァン・ファン、JW・ワンに特別なお礼を申し上げます。
ここに記載されている情報は一般的な情報提供のみを目的としており、投資アドバイスを構成するものではなく、また意図されておらず、いかなる投資判断の評価にも使用すべきではありません。このような情報には、会計、法律、税務、ビジネス、投資その他の関連するアドバイスに依存すべきではありません。ここで議論されていることに関しても、会計、法律、税務、ビジネス、投資その他の関連するアドバイスを含め、自身の顧問、自らの法律顧問を含めるべきです。
この投稿は、hack vcまたはその関連会社、hack vcが運営するファンドを含む、hack vcの代表者の関連会社を含む、hack vcの関連個人と必ずしも一致するわけではなく、著者の現在の意見を反映しています。ここに含まれる情報の一部は、公表された情報源から入手されたものであり、また、第三者によって作成されたものであり、特定の場合には、ここまで更新されていません。このような情報源は信頼できると考えられていますが、hack vc、その関連会社、hack vcの代表者の関連会社を含むその他の関連個人は、その正確性や完全性について表明しておらず、そのように依存したり、会計、法的、税務、ビジネス、投資、その他の決定の根拠にするべきではありません。ここに記載された情報は完全ではなく、変更される可能性があり、hack vcはそのような情報を更新する義務を負わず、そのような情報が不正確になった場合に通知する義務を負わないことに留意してください。
過去のパフォーマンスは将来の結果を必ずしも示すものではありません。ここで行われた将来を見据えた声明は、筆者が歴史的トレンド、現在の状況、予想される将来の動向、およびその他の状況において適切と考える要因をもとに行ったある仮定と分析に基づいています。このような声明は将来のパフォーマンスを保証するものではなく、予測が困難な一定のリスク、不確実性、および仮定に影響を受けるものです。
この記事は から再現されました[ハックVC], 元のタイトル「ai x crypto - promises and realities」、著作権は元の著者[ed roman, managing partner at hack vc]に帰属します。転載に異議がある場合は、お問い合わせください。ゲートラーンチーム、チームは関連手続きに従ってできるだけ早く対応いたします。
免責事項:この記事に表現された見解および意見は、著者個人の見解を表しており、投資アドバイスを構成するものではありません。
他の言語版の記事は、Gate.ioの学習チームによって翻訳されており、言及されていませんゲート.io、翻訳された記事の転載、配布、または盗用はできません。