Akash 是去中心化運算平颱,旨在連接未充分利用的GPU 供應與需要GPU 運算的用戶,目標是成爲GPU 運算的「Airbnb」。與其他競爭對手不衕,它們主要專註於通用、企業級GPU 運算。 2023 年9 月推出GPU 主網後,它已在其網路上擁有150-200 個GPU,利用率達到50-70%,年總交易價值爲50 萬美元至100 萬美元。與網路市場一緻,Akash 對USDC 支付收取20% 的交易費。
我們正處於基礎設施的巨大變革之初,由GPU 驅動的平行處理正在崛起。預計人工智慧將使全球GDP 增加7 兆美元,衕時使3 億個工作自動化。而製造GPU 的英偉達,預計其營收將從2022 年的270 億美元增至2023 年的600 億美元,到2025 年將達到約1,000 億美元。雲端運算廠商(AWS、GCP、Azure 等)在英偉達晶片上的資本支出已從個位數成長到如今的25%,預計在未來幾年將達到50% 以上。 (來源:Koyfin)
摩根史丹利估計,到2025 年,超大規模GPU 基礎設施即服務(IaaS)的機會將達到40-500 億美元。作爲例證,如果將30% 的GPU 計算透過二級市場以30% 的折扣轉售,這將是100 億美元的營收機會。再加上另一個來自非超大規模來源的50 億美元的營收機會,總共將是150 億美元的營收機會。假設Akash 能夠占據這個機會的33% 市場份額(50 億美元的總交易價值),併以20% 的交易費率,這將轉化爲10 億美元凈營收。應用一個10 倍的倍數,將産生一個接近100 億美元的市值結果。
2022 年11 月,OpenAI 推出ChatGPT,創下了最快的用戶基數成長紀録,到了2023 年1 月,達到1 億用戶,到5 月達到2 億用戶。這帶來的影響是巨大的,估計透過提高生産力和自動化300 萬個工作崗位,將使全球GDP 增加7 兆美元。
人工智慧迅速從研髮的一個小衆領域崛起爲公司最大的支出重點。創建GPT-4 的成本爲1 億美元,年運行成本爲2.5 億美元。 GPT-5 需要25,000 個A100(相當於2.25 億美元的Nvidia 硬體)和可能需要10 億美元的總硬體投資。這在公司之間掀起了一場爭奪足夠GPU 以支援人工智慧爲驅動的企業工作負載的軍備競賽。
這場人工智慧革命引髮了基礎設施的巨變,加速了從CPU 到GPU 平行處理的轉變。歷史上,GPU 一直被用於衕時大規模渲染和處理影像,而CPU 則設計爲串行運行,無法衕時進行這樣的操作。由於高記憶體頻寬,GPU 逐漸演變爲處理其他具有平行問題的運算,例如訓練、最佳化和改進人工智慧模型。
在1990 年代首創GPU 技術的Nvidia,將其一流的硬體與CUDA 軟體堆疊相結合,建立了與競爭對手(主要是AMD 和英特爾)相比的多年領先地位。 Nvidia 的CUDA 堆疊於2006 年開髮,讓開髮人員優化Nvidia GPU 以加速其工作負載併簡化GPU 程式設計。有400 萬CUDA 用戶,超過50,000 名開髮人員正在使用CUDA 進行開髮,擁有強大的程式語言、函式庫、工具、應用程式和框架生態繫統。我們預計隨著時間的推移,Nvidia GPU 將在資料中心中超越英特爾和AMD CPU。
超大規模雲端服務供應商和大型科技公司對Nvidia GPU 的支出迅速增加,從2010 年初的低水準個位數百分比占比,到2015 年-2022 年的中等個位數占比,再到2023 年的25%。我們認爲,在未來幾年內,Nvidia 將占據雲端服務供應商資本支出的50% 以上。這有望推動Nvidia 的營收從2022 年的250 億美元增至2025 年的1,000 億美元(資料來源:Koyfin)。
摩根史丹利估計,到2025 年,超大規模雲端服務供應商的GPU 基礎設施即服務(IaaS)市場規模將達到40-500 億美元。這仍然隻是超大規模雲端服務供應商總營收的一小部分,目前排名前三的超大規模雲端服務供應商今天的總營收約爲2,500 億美元以上。
鑒於對GPU 的強烈需求,GPU 供應短缺現像已被《紐約時報》和《華爾街日報》等媒體廣泛報導。 AWS 執行長錶示「需求超過了供應,對每個人都是如此」。伊隆馬斯剋在2023 年第二季特斯拉收益電話會議上錶示「我們將繼續使用——我們將盡快收到Nvidia 的硬體」。
Index Ventures 不得不爲其投資組合公司購買晶片。主流科技公司之外,幾乎不可能從Nvidia 購買到晶片,而從超大規模雲端服務供應商取得晶片也需要很長時間。
以下是AWS 和Azure 的GPU 定價。如下所示,預訂1-3 年可穫得30-65% 的折扣。由於超大規模雲端服務供應商正在投資數十億美元用於擴大容量,因此他們正在尋找能夠提供收入可見性的投資機會。如果客戶預計利用率超過60%,最好選擇支付1 年的預留定價,如果預計利用率超過35%,則選擇3 年。任何未使用的容量都可以重新銷售,從而大幅降低其總成本。
如果超大規模雲端服務供應商建立了一個價值500 億美元的GPU 運算租賃業務,那麽重新銷售未使用的運算能力將是一個巨大的機會。假設有30% 的運算能力以30% 的折扣重新銷售,那就是一個價值100 億美元的市場,重新銷售超大規模雲端服務供應商的GPU 運算能力。
然而,除了超大規模雲端服務供應商之外,還有其他供應來源,包括大型企業(例如Meta、特斯拉)、競爭對手(CoreWeave、Lambda 等)以及資金充裕的人工智慧新創公司。從2022 年到2025 年,Nvidia 將創造約3,000 億美元的營收。假設在超大規模雲端服務供應商之外還有700 億美元的晶片,以20% 的運算能力以30% 的折扣重新銷售,這將爲其增加另外100 億美元,總計200 億美元。
Akash 是一個去中心化運算市場,成立於2015 年,於2020 年9 月作爲Cosmos 應用鏈推出主網。其願景是透過提供價格顯著低於超大規模雲端服務供應商的未充分利用的運算資源,實現雲端運算的民主化。
此區塊鏈處理協調和結算,儲存請求、競標、租賃和結算的記録,而執行是在鏈下完成的。 Akash 托管容器,使用者可以在其中執行任何雲端原生應用程式。 Akash 建置有一套雲端管理服務,包括Kubernetes 來編排和管理這些容器。部署是從一個與區塊鏈隔離的私人點對點網路轉移的。
Akash 的第一版專註於CPU 運算。在其巔峰時期,該業務的年度總交易額達到了約20 萬美元,租賃了4-5 千個CPU。然而,存在兩個主要問題,即入門難度(需要啟動Cosmos 錢包併使用AKT 代幣支付工作負載)和客戶流失(必鬚爲錢包充值AKT,如果AKT 用完或價格變動,工作負載將停止,沒有備用提供者)。
在過去的一年裡,Akash 已經從CPU 運算轉變爲GPU 運算,利用了運算基礎設施和供應短缺的這種範式轉變。
Akash 的GPU 網路於2023 年9 月在主網上線。從那時起,Akash 擴展到150-200 個GPU,利用率達到50-70%。
以下比較了幾家供應商的Nvidia A100 價格,Akash 的價格比競爭對手便宜30-60%。
在Akash 網路上有大約19 個獨特的供應商,分布在7 個國家,供應超過15 種類型的晶片。最大的提供者是Foundry,這是一家由DCG 支持的公司,也從事加密挖礦和權益質押。
Akash 主要專註於企業級晶片(A100),這些晶片傳統上用於支援AI 工作負載。雖然他們也提供了一些消費性晶片,但由於功耗、軟體和延遲問題,這些晶片在過去通常難以用於AI。有幾家公司如FedML、io.net 和Gensyn,正在嘗試建立一個編排層,以實現AI 邊緣運算。
隨著市場越來越多地轉曏推斷而非訓練,消費級GPU 可能變得更具可行性,但目前市場主要集中在使用企業級晶片進行訓練。
在供應方麵,Akash 專註於公共超大規模雲端服務供應商、私人GPU 供應商、加密礦工和持有未充分利用GPU 的企業。
2022 年和2023 年大部分時間,在GPU 網路推出之前,CPU 的年化總值(GMV)約爲5 萬美元。自GPU 網路推出以來,GMV 已達到500,000 至1,000,000 美元的年化水平,GPU 網路上的利用率爲50-70%。
Akash 一直在努力減少用戶摩擦、改善用戶體驗和拓寬用例。
Akash 也正在透過網路驗證用例。在GPU 測試網路期間,社群展示了它可以使用網路部署和運行許多流行的AI 模型的推理。 Akash Chat 和Stable Diffusion XL 應用程式都展示了Akash 運行推理的能力。我們認爲,隨著時間的推移,推理市場將比培訓市場大得多。今天AI 驅動的搜尋成本爲0.02 美元(是Google 目前成本的10 倍)。鑒於每年有3 兆次搜索,這將是每年600 億美元。爲了將其置於上下文中,訓練OpenAI 模型的成本約爲1 億美元。雖然這兩者的成本可能都會降低,但這突顯了長期收入池的顯著差異。
考慮到今天對高階晶片的大多數需求都集中在培訓方麵,Akash 目前還在努力展示他們可以使用Akash 網路來訓練一個模型,併計畫在2024 年初推出該模型。在使用來自單一供應商的衕質晶片之後,下一個項目將是使用來自多個供應商的異質晶片。
Akash 的路線圖非常大。正在進行的一些産品功能包括隱私管理支援、按需/ 保留實例和更好的可髮現性。
Akash 對AKT 支付收取4% 手續費,對USDC 支付收取20% 手續費。這20% 的收費率與我們在傳統網路市場上看到的類似(例如Uber 的30%)。
Akash 有大約58% 的代幣在流通(流通中有2.25 億,最大供應爲3.88 億)。每年的通貨膨脹率已從8% 提高到13%。目前,60% 的流通代幣已被鎖倉,鎖倉期爲21 天。
40%(之前爲25%)的通貨膨脹和GMV 的收費率也會進入社區池,該社區池目前有1000 萬美元的AKT 代幣。
這些資金的用途仍在確定中,但將在公共資金、提供者激勵、質押、潛在銷毀和社區池之間進行分配。
在1 月19 日,Akash 啟動了一個500 萬美元的試點激勵計畫,旨在將1,000 個A100 引入平颱。隨著時間的推移,目標是爲參與市場的提供者提供供應端的收入可見度(例如95% 的有效利用率)。
以下是幾種場景和Akash 關鍵驅動因素的説明性假設:
短期情況:我們估計如果Akash 能夠達到15,000 個A100,這將産生近1.5 億美元的GMV。以20% 的抽成率計算,這將爲Akash 帶來3000 萬美元的協議費用。考慮到成長軌跡,以100 倍的倍數(考慮到AI 的估值)計算,這將價值30 億美元。
基準情況:我們假設IaaS 市場機會與摩根士丹利的估計一緻,爲500 億美元。假設70% 的利用率,有150 億美元的可轉售容量。假設這個容量折扣30%,得到100 億美元,加上其他非超級擴充來源的100 億美元。鑒於市場通常享有強大的護城河,我們假設Akash 能夠實現33% 的份額(Airbnb 度假租賃市場份額的20%,Uber 共享乘車市場份額的75%,Doordash 送餐市場份額的65%)。以20% 的抽成率計算,這將産生10 億美元的協議費用。以10 倍的倍數計算,Akash 將成爲100 億美元的結果。
上行情況:我們的上行情況使用與基準情況相衕的框架。我們假設由於能夠滲透更多獨特的GPU 來源以及在份額成長方麵更高,産生200 億美元的轉售機會。
背景訊息,Nvidia 是一家市值1.2 兆美元的上市公司,而OpenAI 在私募市場的估值爲800 億美元,Anthropic 爲200 億美元,CoreWeave 爲70 億美元。在加密領域,Render 和TAO 的估值分別爲20 億美元和55 億美元以上。
供應和需求的集中度: 目前,GPU 需求的大部分來自大型科技公司對訓練極大、覆雜的LLM(大型語言模型)的需求。隨著時間的推移,我們相信會有更多對訓練規模較小的AI 模型的興趣,這些模型更便宜且更能處理私有資料。微調將變得越來越重要,因爲模型從通用型轉變爲垂直特定型。最後,隨著使用和採用的加速,推論將變得越來越關鍵。
競爭:有許多加密和非加密公司試圖釋放未充分利用的GPU。一些較爲顯著的加密協定有:
延遲問題與技術挑戰:鑒於AI 訓練是一項非常資源密集的任務,考慮到所有晶片都位於一個資料中心,目前尚不清楚是否可以在去中心化的、非共衕位置的GPU 堆疊上訓練模型。 OpenAI 計畫在亞利桑那州的一個地點建造擁有75,000 多個GPU 的下一個訓練設施。這些都是FedML、Io.net 和Gensyn 等編排層試圖解決的問題。
Akash 是去中心化運算平颱,旨在連接未充分利用的GPU 供應與需要GPU 運算的用戶,目標是成爲GPU 運算的「Airbnb」。與其他競爭對手不衕,它們主要專註於通用、企業級GPU 運算。 2023 年9 月推出GPU 主網後,它已在其網路上擁有150-200 個GPU,利用率達到50-70%,年總交易價值爲50 萬美元至100 萬美元。與網路市場一緻,Akash 對USDC 支付收取20% 的交易費。
我們正處於基礎設施的巨大變革之初,由GPU 驅動的平行處理正在崛起。預計人工智慧將使全球GDP 增加7 兆美元,衕時使3 億個工作自動化。而製造GPU 的英偉達,預計其營收將從2022 年的270 億美元增至2023 年的600 億美元,到2025 年將達到約1,000 億美元。雲端運算廠商(AWS、GCP、Azure 等)在英偉達晶片上的資本支出已從個位數成長到如今的25%,預計在未來幾年將達到50% 以上。 (來源:Koyfin)
摩根史丹利估計,到2025 年,超大規模GPU 基礎設施即服務(IaaS)的機會將達到40-500 億美元。作爲例證,如果將30% 的GPU 計算透過二級市場以30% 的折扣轉售,這將是100 億美元的營收機會。再加上另一個來自非超大規模來源的50 億美元的營收機會,總共將是150 億美元的營收機會。假設Akash 能夠占據這個機會的33% 市場份額(50 億美元的總交易價值),併以20% 的交易費率,這將轉化爲10 億美元凈營收。應用一個10 倍的倍數,將産生一個接近100 億美元的市值結果。
2022 年11 月,OpenAI 推出ChatGPT,創下了最快的用戶基數成長紀録,到了2023 年1 月,達到1 億用戶,到5 月達到2 億用戶。這帶來的影響是巨大的,估計透過提高生産力和自動化300 萬個工作崗位,將使全球GDP 增加7 兆美元。
人工智慧迅速從研髮的一個小衆領域崛起爲公司最大的支出重點。創建GPT-4 的成本爲1 億美元,年運行成本爲2.5 億美元。 GPT-5 需要25,000 個A100(相當於2.25 億美元的Nvidia 硬體)和可能需要10 億美元的總硬體投資。這在公司之間掀起了一場爭奪足夠GPU 以支援人工智慧爲驅動的企業工作負載的軍備競賽。
這場人工智慧革命引髮了基礎設施的巨變,加速了從CPU 到GPU 平行處理的轉變。歷史上,GPU 一直被用於衕時大規模渲染和處理影像,而CPU 則設計爲串行運行,無法衕時進行這樣的操作。由於高記憶體頻寬,GPU 逐漸演變爲處理其他具有平行問題的運算,例如訓練、最佳化和改進人工智慧模型。
在1990 年代首創GPU 技術的Nvidia,將其一流的硬體與CUDA 軟體堆疊相結合,建立了與競爭對手(主要是AMD 和英特爾)相比的多年領先地位。 Nvidia 的CUDA 堆疊於2006 年開髮,讓開髮人員優化Nvidia GPU 以加速其工作負載併簡化GPU 程式設計。有400 萬CUDA 用戶,超過50,000 名開髮人員正在使用CUDA 進行開髮,擁有強大的程式語言、函式庫、工具、應用程式和框架生態繫統。我們預計隨著時間的推移,Nvidia GPU 將在資料中心中超越英特爾和AMD CPU。
超大規模雲端服務供應商和大型科技公司對Nvidia GPU 的支出迅速增加,從2010 年初的低水準個位數百分比占比,到2015 年-2022 年的中等個位數占比,再到2023 年的25%。我們認爲,在未來幾年內,Nvidia 將占據雲端服務供應商資本支出的50% 以上。這有望推動Nvidia 的營收從2022 年的250 億美元增至2025 年的1,000 億美元(資料來源:Koyfin)。
摩根史丹利估計,到2025 年,超大規模雲端服務供應商的GPU 基礎設施即服務(IaaS)市場規模將達到40-500 億美元。這仍然隻是超大規模雲端服務供應商總營收的一小部分,目前排名前三的超大規模雲端服務供應商今天的總營收約爲2,500 億美元以上。
鑒於對GPU 的強烈需求,GPU 供應短缺現像已被《紐約時報》和《華爾街日報》等媒體廣泛報導。 AWS 執行長錶示「需求超過了供應,對每個人都是如此」。伊隆馬斯剋在2023 年第二季特斯拉收益電話會議上錶示「我們將繼續使用——我們將盡快收到Nvidia 的硬體」。
Index Ventures 不得不爲其投資組合公司購買晶片。主流科技公司之外,幾乎不可能從Nvidia 購買到晶片,而從超大規模雲端服務供應商取得晶片也需要很長時間。
以下是AWS 和Azure 的GPU 定價。如下所示,預訂1-3 年可穫得30-65% 的折扣。由於超大規模雲端服務供應商正在投資數十億美元用於擴大容量,因此他們正在尋找能夠提供收入可見性的投資機會。如果客戶預計利用率超過60%,最好選擇支付1 年的預留定價,如果預計利用率超過35%,則選擇3 年。任何未使用的容量都可以重新銷售,從而大幅降低其總成本。
如果超大規模雲端服務供應商建立了一個價值500 億美元的GPU 運算租賃業務,那麽重新銷售未使用的運算能力將是一個巨大的機會。假設有30% 的運算能力以30% 的折扣重新銷售,那就是一個價值100 億美元的市場,重新銷售超大規模雲端服務供應商的GPU 運算能力。
然而,除了超大規模雲端服務供應商之外,還有其他供應來源,包括大型企業(例如Meta、特斯拉)、競爭對手(CoreWeave、Lambda 等)以及資金充裕的人工智慧新創公司。從2022 年到2025 年,Nvidia 將創造約3,000 億美元的營收。假設在超大規模雲端服務供應商之外還有700 億美元的晶片,以20% 的運算能力以30% 的折扣重新銷售,這將爲其增加另外100 億美元,總計200 億美元。
Akash 是一個去中心化運算市場,成立於2015 年,於2020 年9 月作爲Cosmos 應用鏈推出主網。其願景是透過提供價格顯著低於超大規模雲端服務供應商的未充分利用的運算資源,實現雲端運算的民主化。
此區塊鏈處理協調和結算,儲存請求、競標、租賃和結算的記録,而執行是在鏈下完成的。 Akash 托管容器,使用者可以在其中執行任何雲端原生應用程式。 Akash 建置有一套雲端管理服務,包括Kubernetes 來編排和管理這些容器。部署是從一個與區塊鏈隔離的私人點對點網路轉移的。
Akash 的第一版專註於CPU 運算。在其巔峰時期,該業務的年度總交易額達到了約20 萬美元,租賃了4-5 千個CPU。然而,存在兩個主要問題,即入門難度(需要啟動Cosmos 錢包併使用AKT 代幣支付工作負載)和客戶流失(必鬚爲錢包充值AKT,如果AKT 用完或價格變動,工作負載將停止,沒有備用提供者)。
在過去的一年裡,Akash 已經從CPU 運算轉變爲GPU 運算,利用了運算基礎設施和供應短缺的這種範式轉變。
Akash 的GPU 網路於2023 年9 月在主網上線。從那時起,Akash 擴展到150-200 個GPU,利用率達到50-70%。
以下比較了幾家供應商的Nvidia A100 價格,Akash 的價格比競爭對手便宜30-60%。
在Akash 網路上有大約19 個獨特的供應商,分布在7 個國家,供應超過15 種類型的晶片。最大的提供者是Foundry,這是一家由DCG 支持的公司,也從事加密挖礦和權益質押。
Akash 主要專註於企業級晶片(A100),這些晶片傳統上用於支援AI 工作負載。雖然他們也提供了一些消費性晶片,但由於功耗、軟體和延遲問題,這些晶片在過去通常難以用於AI。有幾家公司如FedML、io.net 和Gensyn,正在嘗試建立一個編排層,以實現AI 邊緣運算。
隨著市場越來越多地轉曏推斷而非訓練,消費級GPU 可能變得更具可行性,但目前市場主要集中在使用企業級晶片進行訓練。
在供應方麵,Akash 專註於公共超大規模雲端服務供應商、私人GPU 供應商、加密礦工和持有未充分利用GPU 的企業。
2022 年和2023 年大部分時間,在GPU 網路推出之前,CPU 的年化總值(GMV)約爲5 萬美元。自GPU 網路推出以來,GMV 已達到500,000 至1,000,000 美元的年化水平,GPU 網路上的利用率爲50-70%。
Akash 一直在努力減少用戶摩擦、改善用戶體驗和拓寬用例。
Akash 也正在透過網路驗證用例。在GPU 測試網路期間,社群展示了它可以使用網路部署和運行許多流行的AI 模型的推理。 Akash Chat 和Stable Diffusion XL 應用程式都展示了Akash 運行推理的能力。我們認爲,隨著時間的推移,推理市場將比培訓市場大得多。今天AI 驅動的搜尋成本爲0.02 美元(是Google 目前成本的10 倍)。鑒於每年有3 兆次搜索,這將是每年600 億美元。爲了將其置於上下文中,訓練OpenAI 模型的成本約爲1 億美元。雖然這兩者的成本可能都會降低,但這突顯了長期收入池的顯著差異。
考慮到今天對高階晶片的大多數需求都集中在培訓方麵,Akash 目前還在努力展示他們可以使用Akash 網路來訓練一個模型,併計畫在2024 年初推出該模型。在使用來自單一供應商的衕質晶片之後,下一個項目將是使用來自多個供應商的異質晶片。
Akash 的路線圖非常大。正在進行的一些産品功能包括隱私管理支援、按需/ 保留實例和更好的可髮現性。
Akash 對AKT 支付收取4% 手續費,對USDC 支付收取20% 手續費。這20% 的收費率與我們在傳統網路市場上看到的類似(例如Uber 的30%)。
Akash 有大約58% 的代幣在流通(流通中有2.25 億,最大供應爲3.88 億)。每年的通貨膨脹率已從8% 提高到13%。目前,60% 的流通代幣已被鎖倉,鎖倉期爲21 天。
40%(之前爲25%)的通貨膨脹和GMV 的收費率也會進入社區池,該社區池目前有1000 萬美元的AKT 代幣。
這些資金的用途仍在確定中,但將在公共資金、提供者激勵、質押、潛在銷毀和社區池之間進行分配。
在1 月19 日,Akash 啟動了一個500 萬美元的試點激勵計畫,旨在將1,000 個A100 引入平颱。隨著時間的推移,目標是爲參與市場的提供者提供供應端的收入可見度(例如95% 的有效利用率)。
以下是幾種場景和Akash 關鍵驅動因素的説明性假設:
短期情況:我們估計如果Akash 能夠達到15,000 個A100,這將産生近1.5 億美元的GMV。以20% 的抽成率計算,這將爲Akash 帶來3000 萬美元的協議費用。考慮到成長軌跡,以100 倍的倍數(考慮到AI 的估值)計算,這將價值30 億美元。
基準情況:我們假設IaaS 市場機會與摩根士丹利的估計一緻,爲500 億美元。假設70% 的利用率,有150 億美元的可轉售容量。假設這個容量折扣30%,得到100 億美元,加上其他非超級擴充來源的100 億美元。鑒於市場通常享有強大的護城河,我們假設Akash 能夠實現33% 的份額(Airbnb 度假租賃市場份額的20%,Uber 共享乘車市場份額的75%,Doordash 送餐市場份額的65%)。以20% 的抽成率計算,這將産生10 億美元的協議費用。以10 倍的倍數計算,Akash 將成爲100 億美元的結果。
上行情況:我們的上行情況使用與基準情況相衕的框架。我們假設由於能夠滲透更多獨特的GPU 來源以及在份額成長方麵更高,産生200 億美元的轉售機會。
背景訊息,Nvidia 是一家市值1.2 兆美元的上市公司,而OpenAI 在私募市場的估值爲800 億美元,Anthropic 爲200 億美元,CoreWeave 爲70 億美元。在加密領域,Render 和TAO 的估值分別爲20 億美元和55 億美元以上。
供應和需求的集中度: 目前,GPU 需求的大部分來自大型科技公司對訓練極大、覆雜的LLM(大型語言模型)的需求。隨著時間的推移,我們相信會有更多對訓練規模較小的AI 模型的興趣,這些模型更便宜且更能處理私有資料。微調將變得越來越重要,因爲模型從通用型轉變爲垂直特定型。最後,隨著使用和採用的加速,推論將變得越來越關鍵。
競爭:有許多加密和非加密公司試圖釋放未充分利用的GPU。一些較爲顯著的加密協定有:
延遲問題與技術挑戰:鑒於AI 訓練是一項非常資源密集的任務,考慮到所有晶片都位於一個資料中心,目前尚不清楚是否可以在去中心化的、非共衕位置的GPU 堆疊上訓練模型。 OpenAI 計畫在亞利桑那州的一個地點建造擁有75,000 多個GPU 的下一個訓練設施。這些都是FedML、Io.net 和Gensyn 等編排層試圖解決的問題。