Akashは、GPUコンピューティングの「Airbnb」を目指し、GPUコンピューティングを必要とするユーザーと、十分に活用されていないGPUサプライをつなぐために設計された分散型コンピューティングプラットフォームです。 他の競合他社とは異なり、主に一般的なエンタープライズグレードのGPUコンピューティングに焦点を当てています。 2023年9月のGPUメインネットの立ち上げ以来、ネットワーク上には150〜200個のGPUがあり、使用率は50〜70%に達し、年間総取引額は50万ドルから100万ドルに達しています。 ネットワーク市場と同様に、AkashはUSDCの支払いに20%の取引手数料を請求します。
私たちは大規模なインフラストラクチャの変革の始まりにおり、GPU 主導の並列処理が増加しています。 人工知能は世界のGDPを7兆ドル増加させ、3億人の雇用を自動化すると予測されています。 GPUのメーカーであるエヌビディアは、収益が2022年の270億ドルから2023年には600億ドルに増加し、2025年までに約1,000億ドルに達すると予想しています。 クラウドコンピューティングプロバイダー(AWS、GCP、Azureなど)によるNvidiaチップへの設備投資は、1桁台から25%に増加し、今後数年間で50%を超えると予想されています。 (出典:Koyfin)
モルガン・スタンレーは、2025年までに、超大規模GPUのIaaS(Infrastructure as a Service)の機会が400億ドルから500億ドルに達すると推定しています。 例えば、GPUコンピューティングの30%が流通市場を通じて30%割引で転売された場合、100億ドルの収益機会となります。 超大規模ではないソースからの50億ドルの収益機会を加えると、総収益機会は150億ドルになります。 Akashがこの機会の33%の市場シェア(総取引額50億ドル)を獲得し、20%の取引手数料を請求できると仮定すると、これは10億ドルの純収益に相当します。 この数字に10を掛けると、時価総額は約100億ドルになります。
2022年11月、OpenAIはChatGPTをローンチし、2023年1月までに1億人、5月までに2億人に達し、ユーザーベースが最も速い成長の記録を打ち立てました。 その影響は甚大で、生産性の向上と300万人の雇用の自動化により、世界のGDPは7兆ドル増加すると推定されています。
人工知能は、ニッチな研究分野から、企業にとって最大の支出の焦点へと急速に成長しました。 GPT-4の作成コストは1億ドルで、年間運用コストは2億5000万ドルです。 GPT-5 には 25,000 基の A100 GPU (Nvidia ハードウェアで 22 億 5,000 万ドルに相当) が必要であり、ハードウェアの総投資額は 100 億ドルになる可能性があります。 これにより、AI主導のエンタープライズワークロードをサポートするのに十分なGPUを確保するための企業間の軍拡競争が巻き起こっています。
人工知能革命は、インフラストラクチャの記念碑的な変化を引き起こし、CPUからGPUへの並列処理への移行を加速させました。 従来、GPUは大規模なレンダリングと画像処理を同時に行うために利用されてきましたが、CPUは逐次実行用に設計されており、そのような同時操作はできません。 メモリ帯域幅が高いため、GPU は徐々に進化し、人工知能モデルのトレーニング、最適化、改善など、並列問題を伴う他の計算を処理するようになりました。
1990年代のGPUテクノロジーのパイオニアであるNvidiaは、一流のハードウェアとCUDAソフトウェアスタックを組み合わせ、長年にわたって競合他社(主にAMDとIntel)に対して主導的な地位を確立しました。 Nvidia の CUDA スタックは 2006 年に開発され、開発者は Nvidia GPU を最適化してワークロードを高速化し、GPU プログラミングを簡素化できます。 400万人のCUDAユーザーと50,000人以上の開発者が開発にCUDAを使用しており、プログラミング言語、ライブラリ、ツール、アプリケーション、およびフレームワークの強力なエコシステムを誇っています。 時間の経過とともに、データセンターでは Nvidia GPU が Intel や AMD の CPU を上回ると予想されます。
ハイパースケール クラウド サービス プロバイダーや大手テクノロジー企業による Nvidia GPU への支出は、2010 年代初頭の 1 桁台前半から 2015 年から 2022 年にかけて 1 桁台半ば、2023 年には 25% に急速に増加しています。 今後数年間で、クラウドサービスプロバイダーの設備投資の50%以上をエヌビディアが占めると考えています。 これにより、エヌビディアの収益は2022年の250億ドルから2025年には1,000億ドルになると予想されています(出典:Koyfin)。
モルガン・スタンレーは、2025年までに、ハイパースケールクラウドサービスプロバイダー向けのGPUサービスとしてのインフラストラクチャ(IaaS)の市場規模が400億ドルから500億ドルに達すると予測しています。 これは、ハイパースケール・クラウド・サービス・プロバイダーの総収益のごく一部に過ぎず、上位3社のハイパースケール・クラウド・サービス・プロバイダーは現在、2,500億ドル以上の収益を上げています。
GPUの需要が旺盛なことから、GPU不足はThe New York TimesやThe Wall Street Journalなどのメディアで広く報じられています。 AWSのCEOは、「需要が供給を上回っている。これは誰にでも当てはまる」と述べています。 イーロンマスク氏は、テスラの2023年第2四半期の決算説明会で、「引き続き使用し、できるだけ早くNvidiaハードウェアを入手する」と述べました。
Index Venturesは、投資先企業のためにチップを購入しなければならなかった。 主流のテクノロジー企業以外でNvidiaからチップを購入することはほぼ不可能であり、ハイパースケールクラウドサービスプロバイダーからチップを入手するのにも長い時間がかかります。
以下は、AWSとAzureのGPU価格です。 下記のように、1〜3年のご予約で30〜65%の割引が受けられます。 ハイパースケールクラウドサービスプロバイダーは、容量の拡大に数十億ドルを投資しているため、収益を可視化する投資機会を探しています。 使用率が 60% を超えると顧客が予想する場合は、1 年間の予約価格を選択するのが最善です。 予想される稼働率が 35% を超える場合は、3 年を選択します。 未使用の容量は再販できるため、総コストを大幅に削減できます。
超大規模なクラウドサービスプロバイダーが500億ドルのGPUコンピューティングリース事業を立ち上げた場合、未使用のコンピューティングパワーを転売することは大きなチャンスとなります。 コンピューティングパワーの30%が30%の割引で転売されると仮定すると、超大規模クラウドサービスプロバイダーのGPUコンピューティングパワーを再販する100億ドルの市場が生まれます。
しかし、超大規模なクラウドサービスプロバイダー以外にも、大企業(Meta、Teslaなど)、競合他社(CoreWeave、Lambdaなど)、資金力のあるAIスタートアップなど、他の供給源があります。 2022 年から 2025 年にかけて、Nvidia は約 3,000 億ドルの収益を生み出すと予想されています。 超大規模クラウドサービスプロバイダー以外にさらに700億ドル相当のチップがあると仮定すると、コンピューティングパワーの20%を30%割引で転売すると、さらに100億ドルが追加され、合計2,000億ドルになります。
Akashは、2015年に設立された分散型コンピューティングマーケットプレイスで、2020年9月にCosmosアプリケーションチェーンとしてメインネットを立ち上げました。 そのビジョンは、超大規模なクラウドサービスプロバイダーよりも大幅に安価なコンピューティングリソースを提供することで、クラウドコンピューティングを民主化することです。
ブロックチェーンは調整と決済を処理し、リクエスト、入札、リース、決済の記録を保存し、実行はオフチェーンで行われます。 Akashは、ユーザーが任意のクラウドネイティブアプリケーションを実行できるコンテナをホストします。 Akash は、これらのコンテナをオーケストレーションおよび管理するために、Kubernetes を含む一連のクラウド管理サービスを構築しました。 デプロイメントは、ブロックチェーンから分離されたプライベート・ピアツーピア・ネットワークから転送されます。
Akash の最初のバージョンは、CPU コンピューティングに焦点を当てていました。 ピーク時には、年間総取引額は約20万ドルで、4〜5,000個のCPUをリースしていました。 しかし、主な問題は2つあり、参入障壁(Cosmosウォレットの立ち上げとワークロードの支払いにAKTトークンの使用が必要)と顧客離れ(AKTでウォレットを再充電する必要があり、AKTがなくなったり価格が変わったりした場合、代替プロバイダーなしでワークロードが停止する)でした。
この1年間で、AkashはCPUコンピューティングからGPUコンピューティングに移行し、コンピューティングインフラストラクチャと供給不足のパラダイムシフトを利用しました。
AkashのGPUネットワークは、2023年9月にメインネットでローンチされる予定です。 それ以来、Akashは150〜200個のGPUに拡張し、50〜70%の使用率を達成しました。
以下は、いくつかのベンダーからのNvidiaA100の価格の比較です。 Akashの価格は、競合他社よりも30〜60%安いです。
Akashネットワークには、7か国にある約19のユニークなサプライヤーがあり、15種類以上のチップを供給しています。 最大のプロバイダーは、DCGが支援する企業であるFoundryで、暗号マイニングとステーキングにも従事しています。
Akashは、AIワークロードをサポートするために伝統的に使用されているエンタープライズチップ(A100)に主に焦点を当てています。 また、民生用チップもいくつか提供していますが、これらは、消費電力、ソフトウェア、遅延の問題により、これまで一般的にAIに使用することが困難でした。 FedML、io.net、Gensynなどのいくつかの企業は、AIエッジコンピューティングを可能にするオーケストレーションレイヤーを構築しようとしています。
市場がトレーニングではなく推論にますますシフトするにつれて、コンシューマーグレードのGPUがより実行可能になる可能性がありますが、現在の市場はトレーニングにエンタープライズグレードのチップを使用することに重点を置いています。
供給側では、Akashはパブリックハイパースケールクラウドサービスプロバイダー、プライベートGPUベンダー、クリプトマイナー、および十分に活用されていないGPUを保有する企業に焦点を当てています。
GPU ネットワークが発売される前の 2022 年と 2023 年のほとんどの期間、CPU の年間総商品価値 (GMV) は約 50,000 ドルでした。 GPUネットワークの導入以来、GMVは年間50万ドルから100万ドルのレベルに達し、GPUネットワークの利用率は50%から70%の範囲です。
Akashは、ユーザーの摩擦を減らし、ユーザーエクスペリエンスを向上させ、ユースケースを広げることに取り組んできました。
Akashは、ネットワークを介したユースケースの検証も行っています。 GPU Test Network では、コミュニティがネットワークを使用して、多くの一般的な AI モデルに推論をデプロイして実行できることを実証しました。 Akash ChatとStable Diffusion XLのアプリケーションは、どちらもAkashの推論実行能力を実証しています。 時間の経過とともに、推論市場はトレーニング市場よりもはるかに大きくなると考えています。 現在のAIによる検索のコストは0.02ドル(Googleの現在のコストの10倍)です。 年間3兆件の検索があることを考えると、これは年間600億ドルになります。 これを文脈に当てはめると、OpenAI モデルのトレーニングには約 1 億ドルの費用がかかります。 どちらの場合もコストは低くなる可能性がありますが、これは長期的な収益プールの大きな違いを浮き彫りにしています。
今日のハイエンドチップの需要のほとんどがトレーニングに集中していることを考慮し、Akashは現在、Akashネットワークを使用してモデルをトレーニングできることを実証し、2024年初頭に発売する予定です。 単一のサプライヤーの均質ウェーハを使用した後、次のプロジェクトは複数のサプライヤーの異種ウェーハを使用することです。
Akash のロードマップは膨大です。 継続的な製品機能には、プライバシー管理のサポート、オンデマンド/予約インスタンス、検出可能性の向上などがあります。
Akashは、AKTの支払いに4%の手数料を請求し、USDCの支払いに20%の手数料を請求します。 この20%の手数料率は、従来のオンライン市場で見られるものと似ています(例: Uberの30%)。
Akashは、トークンの約58%を流通させています(流通量2億2500万、最大供給量3億8800万)。 年間インフレ率は8%から13%に上昇しました。 現在、流通しているトークンの60%がロックされており、ロックアップ期間は21日間です。
インフレ率とGMVの40%(以前は25%)の手数料率も、現在1,000万ドルのAKTトークンを保有しているコミュニティプールに送られます。
これらの資金の目的はまだ決定されていませんが、公的資金、プロバイダーのインセンティブ、ステーキング、潜在的なバーニング、およびコミュニティプールに分配されます。
1月19日、Akashは1,000台のA100をプラットフォームに導入することを目的とした500万ドルのパイロットインセンティブプログラムを開始しました。 長期的には、市場に参加しているプロバイダーに供給側の収益の可視性(95%の有効利用率など)を提供することが目標です。
ここでは、Akashの主要な推進要因に関するいくつかのシナリオと仮定を例示します。
短期シナリオ:Akashが15,000台のA100ユニットを達成できれば、GMVは1億5,000万ドル近くになると推定しています。 20%の手数料率で、これはAkashに3000万ドルの契約料をもたらすことになります。 成長軌道を考えると、この数字に100を掛けると(AIの評価を考慮)、これは30億ドルの価値があります。
ベースラインケース:IaaSの市場機会は、モルガン・スタンレーの推定である500億ドルと一致していると想定しています。 使用率を70%と仮定すると、150億ドルの再販可能な容量があります。 この容量を30%割引すると仮定すると、100億ドルに加えて、他のハイパースケーラブルでないソースから100億ドルが得られます。 市場が一般的に強力な堀を享受していることを考えると、Akashは33%のシェア(Airbnbのバケーションレンタル市場シェアの20%、Uberのライドシェアの75%、Doordashのフードデリバリー市場シェアの65%)を達成できると想定しています。 20%の手数料率では、10億ドルのプロトコル手数料が発生することになります。 これに10を掛けると、Akashは100億ドルの結果を得ることになる。
上向きのケース: 上向きのケースは、ベースラインのケースと同じフレームワークを使用します。 200億ドルの再販機会は、より多くのユニークなGPUソースに浸透する能力とより高いシェア成長により想定されています。
背景情報:Nvidiaは時価総額1兆2,000億米ドルの上場企業であり、OpenAIは非公開市場で800億米ドル、Anthropicは200億米ドル、CoreWeaveは70億米ドルと評価されています。 暗号空間では、RenderとTAOはそれぞれ20億ドル以上と55億ドル以上の価値があります。
需要と供給の集中:現在、GPUの需要の大部分は、非常に大規模で複雑なLLM(大規模言語モデル)をトレーニングするための大手テクノロジー企業から来ています。 時間の経過とともに、より安価でプライベートデータの処理に適した小規模なAIモデルのトレーニングへの関心が高まると予想されます。 微調整は、モデルが汎用的なものから垂直固有のものへと移行するにつれて、ますます重要になります。 最終的には、利用と採用が加速するにつれて、推論の重要性がますます高まっていくでしょう。
競争:多くの暗号企業と非暗号企業が、十分に活用されていないGPUを解放しようとしています。 より注目すべき暗号化プロトコルのいくつかは次のとおりです。
レイテンシーの問題と技術的な課題:AIトレーニングは非常にリソースを大量に消費するタスクであり、すべてのチップがデータセンター内に収容されていることを考えると、分散型で同じ場所に配置されていないGPUスタックでモデルをトレーニングできるかどうかは不明です。 OpenAI は、アリゾナ州に 75,000 を超える GPU を備えた次のトレーニング施設を建設する予定です。 これらはすべて、FedML、Io.net、Gensyn などのスケジューリング レイヤーによって対処されている問題です。
Akashは、GPUコンピューティングの「Airbnb」を目指し、GPUコンピューティングを必要とするユーザーと、十分に活用されていないGPUサプライをつなぐために設計された分散型コンピューティングプラットフォームです。 他の競合他社とは異なり、主に一般的なエンタープライズグレードのGPUコンピューティングに焦点を当てています。 2023年9月のGPUメインネットの立ち上げ以来、ネットワーク上には150〜200個のGPUがあり、使用率は50〜70%に達し、年間総取引額は50万ドルから100万ドルに達しています。 ネットワーク市場と同様に、AkashはUSDCの支払いに20%の取引手数料を請求します。
私たちは大規模なインフラストラクチャの変革の始まりにおり、GPU 主導の並列処理が増加しています。 人工知能は世界のGDPを7兆ドル増加させ、3億人の雇用を自動化すると予測されています。 GPUのメーカーであるエヌビディアは、収益が2022年の270億ドルから2023年には600億ドルに増加し、2025年までに約1,000億ドルに達すると予想しています。 クラウドコンピューティングプロバイダー(AWS、GCP、Azureなど)によるNvidiaチップへの設備投資は、1桁台から25%に増加し、今後数年間で50%を超えると予想されています。 (出典:Koyfin)
モルガン・スタンレーは、2025年までに、超大規模GPUのIaaS(Infrastructure as a Service)の機会が400億ドルから500億ドルに達すると推定しています。 例えば、GPUコンピューティングの30%が流通市場を通じて30%割引で転売された場合、100億ドルの収益機会となります。 超大規模ではないソースからの50億ドルの収益機会を加えると、総収益機会は150億ドルになります。 Akashがこの機会の33%の市場シェア(総取引額50億ドル)を獲得し、20%の取引手数料を請求できると仮定すると、これは10億ドルの純収益に相当します。 この数字に10を掛けると、時価総額は約100億ドルになります。
2022年11月、OpenAIはChatGPTをローンチし、2023年1月までに1億人、5月までに2億人に達し、ユーザーベースが最も速い成長の記録を打ち立てました。 その影響は甚大で、生産性の向上と300万人の雇用の自動化により、世界のGDPは7兆ドル増加すると推定されています。
人工知能は、ニッチな研究分野から、企業にとって最大の支出の焦点へと急速に成長しました。 GPT-4の作成コストは1億ドルで、年間運用コストは2億5000万ドルです。 GPT-5 には 25,000 基の A100 GPU (Nvidia ハードウェアで 22 億 5,000 万ドルに相当) が必要であり、ハードウェアの総投資額は 100 億ドルになる可能性があります。 これにより、AI主導のエンタープライズワークロードをサポートするのに十分なGPUを確保するための企業間の軍拡競争が巻き起こっています。
人工知能革命は、インフラストラクチャの記念碑的な変化を引き起こし、CPUからGPUへの並列処理への移行を加速させました。 従来、GPUは大規模なレンダリングと画像処理を同時に行うために利用されてきましたが、CPUは逐次実行用に設計されており、そのような同時操作はできません。 メモリ帯域幅が高いため、GPU は徐々に進化し、人工知能モデルのトレーニング、最適化、改善など、並列問題を伴う他の計算を処理するようになりました。
1990年代のGPUテクノロジーのパイオニアであるNvidiaは、一流のハードウェアとCUDAソフトウェアスタックを組み合わせ、長年にわたって競合他社(主にAMDとIntel)に対して主導的な地位を確立しました。 Nvidia の CUDA スタックは 2006 年に開発され、開発者は Nvidia GPU を最適化してワークロードを高速化し、GPU プログラミングを簡素化できます。 400万人のCUDAユーザーと50,000人以上の開発者が開発にCUDAを使用しており、プログラミング言語、ライブラリ、ツール、アプリケーション、およびフレームワークの強力なエコシステムを誇っています。 時間の経過とともに、データセンターでは Nvidia GPU が Intel や AMD の CPU を上回ると予想されます。
ハイパースケール クラウド サービス プロバイダーや大手テクノロジー企業による Nvidia GPU への支出は、2010 年代初頭の 1 桁台前半から 2015 年から 2022 年にかけて 1 桁台半ば、2023 年には 25% に急速に増加しています。 今後数年間で、クラウドサービスプロバイダーの設備投資の50%以上をエヌビディアが占めると考えています。 これにより、エヌビディアの収益は2022年の250億ドルから2025年には1,000億ドルになると予想されています(出典:Koyfin)。
モルガン・スタンレーは、2025年までに、ハイパースケールクラウドサービスプロバイダー向けのGPUサービスとしてのインフラストラクチャ(IaaS)の市場規模が400億ドルから500億ドルに達すると予測しています。 これは、ハイパースケール・クラウド・サービス・プロバイダーの総収益のごく一部に過ぎず、上位3社のハイパースケール・クラウド・サービス・プロバイダーは現在、2,500億ドル以上の収益を上げています。
GPUの需要が旺盛なことから、GPU不足はThe New York TimesやThe Wall Street Journalなどのメディアで広く報じられています。 AWSのCEOは、「需要が供給を上回っている。これは誰にでも当てはまる」と述べています。 イーロンマスク氏は、テスラの2023年第2四半期の決算説明会で、「引き続き使用し、できるだけ早くNvidiaハードウェアを入手する」と述べました。
Index Venturesは、投資先企業のためにチップを購入しなければならなかった。 主流のテクノロジー企業以外でNvidiaからチップを購入することはほぼ不可能であり、ハイパースケールクラウドサービスプロバイダーからチップを入手するのにも長い時間がかかります。
以下は、AWSとAzureのGPU価格です。 下記のように、1〜3年のご予約で30〜65%の割引が受けられます。 ハイパースケールクラウドサービスプロバイダーは、容量の拡大に数十億ドルを投資しているため、収益を可視化する投資機会を探しています。 使用率が 60% を超えると顧客が予想する場合は、1 年間の予約価格を選択するのが最善です。 予想される稼働率が 35% を超える場合は、3 年を選択します。 未使用の容量は再販できるため、総コストを大幅に削減できます。
超大規模なクラウドサービスプロバイダーが500億ドルのGPUコンピューティングリース事業を立ち上げた場合、未使用のコンピューティングパワーを転売することは大きなチャンスとなります。 コンピューティングパワーの30%が30%の割引で転売されると仮定すると、超大規模クラウドサービスプロバイダーのGPUコンピューティングパワーを再販する100億ドルの市場が生まれます。
しかし、超大規模なクラウドサービスプロバイダー以外にも、大企業(Meta、Teslaなど)、競合他社(CoreWeave、Lambdaなど)、資金力のあるAIスタートアップなど、他の供給源があります。 2022 年から 2025 年にかけて、Nvidia は約 3,000 億ドルの収益を生み出すと予想されています。 超大規模クラウドサービスプロバイダー以外にさらに700億ドル相当のチップがあると仮定すると、コンピューティングパワーの20%を30%割引で転売すると、さらに100億ドルが追加され、合計2,000億ドルになります。
Akashは、2015年に設立された分散型コンピューティングマーケットプレイスで、2020年9月にCosmosアプリケーションチェーンとしてメインネットを立ち上げました。 そのビジョンは、超大規模なクラウドサービスプロバイダーよりも大幅に安価なコンピューティングリソースを提供することで、クラウドコンピューティングを民主化することです。
ブロックチェーンは調整と決済を処理し、リクエスト、入札、リース、決済の記録を保存し、実行はオフチェーンで行われます。 Akashは、ユーザーが任意のクラウドネイティブアプリケーションを実行できるコンテナをホストします。 Akash は、これらのコンテナをオーケストレーションおよび管理するために、Kubernetes を含む一連のクラウド管理サービスを構築しました。 デプロイメントは、ブロックチェーンから分離されたプライベート・ピアツーピア・ネットワークから転送されます。
Akash の最初のバージョンは、CPU コンピューティングに焦点を当てていました。 ピーク時には、年間総取引額は約20万ドルで、4〜5,000個のCPUをリースしていました。 しかし、主な問題は2つあり、参入障壁(Cosmosウォレットの立ち上げとワークロードの支払いにAKTトークンの使用が必要)と顧客離れ(AKTでウォレットを再充電する必要があり、AKTがなくなったり価格が変わったりした場合、代替プロバイダーなしでワークロードが停止する)でした。
この1年間で、AkashはCPUコンピューティングからGPUコンピューティングに移行し、コンピューティングインフラストラクチャと供給不足のパラダイムシフトを利用しました。
AkashのGPUネットワークは、2023年9月にメインネットでローンチされる予定です。 それ以来、Akashは150〜200個のGPUに拡張し、50〜70%の使用率を達成しました。
以下は、いくつかのベンダーからのNvidiaA100の価格の比較です。 Akashの価格は、競合他社よりも30〜60%安いです。
Akashネットワークには、7か国にある約19のユニークなサプライヤーがあり、15種類以上のチップを供給しています。 最大のプロバイダーは、DCGが支援する企業であるFoundryで、暗号マイニングとステーキングにも従事しています。
Akashは、AIワークロードをサポートするために伝統的に使用されているエンタープライズチップ(A100)に主に焦点を当てています。 また、民生用チップもいくつか提供していますが、これらは、消費電力、ソフトウェア、遅延の問題により、これまで一般的にAIに使用することが困難でした。 FedML、io.net、Gensynなどのいくつかの企業は、AIエッジコンピューティングを可能にするオーケストレーションレイヤーを構築しようとしています。
市場がトレーニングではなく推論にますますシフトするにつれて、コンシューマーグレードのGPUがより実行可能になる可能性がありますが、現在の市場はトレーニングにエンタープライズグレードのチップを使用することに重点を置いています。
供給側では、Akashはパブリックハイパースケールクラウドサービスプロバイダー、プライベートGPUベンダー、クリプトマイナー、および十分に活用されていないGPUを保有する企業に焦点を当てています。
GPU ネットワークが発売される前の 2022 年と 2023 年のほとんどの期間、CPU の年間総商品価値 (GMV) は約 50,000 ドルでした。 GPUネットワークの導入以来、GMVは年間50万ドルから100万ドルのレベルに達し、GPUネットワークの利用率は50%から70%の範囲です。
Akashは、ユーザーの摩擦を減らし、ユーザーエクスペリエンスを向上させ、ユースケースを広げることに取り組んできました。
Akashは、ネットワークを介したユースケースの検証も行っています。 GPU Test Network では、コミュニティがネットワークを使用して、多くの一般的な AI モデルに推論をデプロイして実行できることを実証しました。 Akash ChatとStable Diffusion XLのアプリケーションは、どちらもAkashの推論実行能力を実証しています。 時間の経過とともに、推論市場はトレーニング市場よりもはるかに大きくなると考えています。 現在のAIによる検索のコストは0.02ドル(Googleの現在のコストの10倍)です。 年間3兆件の検索があることを考えると、これは年間600億ドルになります。 これを文脈に当てはめると、OpenAI モデルのトレーニングには約 1 億ドルの費用がかかります。 どちらの場合もコストは低くなる可能性がありますが、これは長期的な収益プールの大きな違いを浮き彫りにしています。
今日のハイエンドチップの需要のほとんどがトレーニングに集中していることを考慮し、Akashは現在、Akashネットワークを使用してモデルをトレーニングできることを実証し、2024年初頭に発売する予定です。 単一のサプライヤーの均質ウェーハを使用した後、次のプロジェクトは複数のサプライヤーの異種ウェーハを使用することです。
Akash のロードマップは膨大です。 継続的な製品機能には、プライバシー管理のサポート、オンデマンド/予約インスタンス、検出可能性の向上などがあります。
Akashは、AKTの支払いに4%の手数料を請求し、USDCの支払いに20%の手数料を請求します。 この20%の手数料率は、従来のオンライン市場で見られるものと似ています(例: Uberの30%)。
Akashは、トークンの約58%を流通させています(流通量2億2500万、最大供給量3億8800万)。 年間インフレ率は8%から13%に上昇しました。 現在、流通しているトークンの60%がロックされており、ロックアップ期間は21日間です。
インフレ率とGMVの40%(以前は25%)の手数料率も、現在1,000万ドルのAKTトークンを保有しているコミュニティプールに送られます。
これらの資金の目的はまだ決定されていませんが、公的資金、プロバイダーのインセンティブ、ステーキング、潜在的なバーニング、およびコミュニティプールに分配されます。
1月19日、Akashは1,000台のA100をプラットフォームに導入することを目的とした500万ドルのパイロットインセンティブプログラムを開始しました。 長期的には、市場に参加しているプロバイダーに供給側の収益の可視性(95%の有効利用率など)を提供することが目標です。
ここでは、Akashの主要な推進要因に関するいくつかのシナリオと仮定を例示します。
短期シナリオ:Akashが15,000台のA100ユニットを達成できれば、GMVは1億5,000万ドル近くになると推定しています。 20%の手数料率で、これはAkashに3000万ドルの契約料をもたらすことになります。 成長軌道を考えると、この数字に100を掛けると(AIの評価を考慮)、これは30億ドルの価値があります。
ベースラインケース:IaaSの市場機会は、モルガン・スタンレーの推定である500億ドルと一致していると想定しています。 使用率を70%と仮定すると、150億ドルの再販可能な容量があります。 この容量を30%割引すると仮定すると、100億ドルに加えて、他のハイパースケーラブルでないソースから100億ドルが得られます。 市場が一般的に強力な堀を享受していることを考えると、Akashは33%のシェア(Airbnbのバケーションレンタル市場シェアの20%、Uberのライドシェアの75%、Doordashのフードデリバリー市場シェアの65%)を達成できると想定しています。 20%の手数料率では、10億ドルのプロトコル手数料が発生することになります。 これに10を掛けると、Akashは100億ドルの結果を得ることになる。
上向きのケース: 上向きのケースは、ベースラインのケースと同じフレームワークを使用します。 200億ドルの再販機会は、より多くのユニークなGPUソースに浸透する能力とより高いシェア成長により想定されています。
背景情報:Nvidiaは時価総額1兆2,000億米ドルの上場企業であり、OpenAIは非公開市場で800億米ドル、Anthropicは200億米ドル、CoreWeaveは70億米ドルと評価されています。 暗号空間では、RenderとTAOはそれぞれ20億ドル以上と55億ドル以上の価値があります。
需要と供給の集中:現在、GPUの需要の大部分は、非常に大規模で複雑なLLM(大規模言語モデル)をトレーニングするための大手テクノロジー企業から来ています。 時間の経過とともに、より安価でプライベートデータの処理に適した小規模なAIモデルのトレーニングへの関心が高まると予想されます。 微調整は、モデルが汎用的なものから垂直固有のものへと移行するにつれて、ますます重要になります。 最終的には、利用と採用が加速するにつれて、推論の重要性がますます高まっていくでしょう。
競争:多くの暗号企業と非暗号企業が、十分に活用されていないGPUを解放しようとしています。 より注目すべき暗号化プロトコルのいくつかは次のとおりです。
レイテンシーの問題と技術的な課題:AIトレーニングは非常にリソースを大量に消費するタスクであり、すべてのチップがデータセンター内に収容されていることを考えると、分散型で同じ場所に配置されていないGPUスタックでモデルをトレーニングできるかどうかは不明です。 OpenAI は、アリゾナ州に 75,000 を超える GPU を備えた次のトレーニング施設を建設する予定です。 これらはすべて、FedML、Io.net、Gensyn などのスケジューリング レイヤーによって対処されている問題です。