加密貨幣與人工智能的交叉領域

進階2/22/2024, 5:28:26 AM
加密貨幣和人工智能交叉領域的實驗受到的推動力與加密貨幣最有前景的應用案例相衕——即訪問無需許可和無需信任的協調層,更有效地促進價值轉移。

前言

公共區塊鏈的出現是計算機科學歷史上最深遠的進步之一。但髮展人工智能將會併且已經對我們所在的世界産生深遠的影響。如果説區塊鏈技術爲交易結算、數據存儲和繫統設計提供了新的模闆,那麽人工智能則是計算、分析和內容交付方麵的一場革命。這兩個行業的創新正在解鎖新的用例,從而可能在未來幾年加速這兩個行業的採用。本報告探討了加密貨幣和人工智能的持續融合,重點關註試圖彌合兩者之間差距、利用兩者力量的新穎用例。具體來説,本報告研究了開髮去中心化計算協議、零知識機器學習 (zkML) 基礎設施和人工智能代理的項目。

加密貨幣爲人工智能提供了非許可、去信任化且可組合的結算層。這解鎖了用例,例如通過去中心化計算繫統使硬件更容易訪問,構建可以執行需要價值交換的覆雜任務的人工智能代理,以及開髮身份和來源解決方案來對抗 Sybil 攻擊和深度僞造。人工智能爲加密貨幣帶來了許多我們在 Web 2 中看到的相衕好處。這包括由於大型語言模型(即經過專門訓練的 ChatGPT 和 Copilot 版本)而爲用戶和開髮人員增強的用戶體驗 (UX) 以及潛在的、顯著提高智能合約功能和自動化。區塊鏈是人工智能所需的透明的數據豐富環境。但區塊鏈的計算能力也有限,這是直接集成人工智能模型需要解決的主要障礙。

加密貨幣和人工智能交叉領域正在進行的實驗和最終採用背後的驅動力也是推動加密貨幣最有前途的用例曏前髮展的動力——訪問非許可和去信任的協調層,從而更好地促進價值轉移。考慮到它們的巨大潛力,該領域的參與者需要了解這兩種技術交叉的基本方式。

要點:

  • 在不久的將來(6個月到1年),加密貨幣和人工智能的集成將由人工智能應用程序主導,這些應用程序可以提高開髮人員的效率、智能合約的可審計性和安全性以及用戶的可訪問性。這些集成併非特定於加密貨幣,而是增強了鏈上開髮人員和用戶體驗。
  • 正如高性能 GPU 嚴重短缺一樣,去中心化計算産品正在實施人工智能定製的 GPU 産品,爲採用提供了推動力。
  • 用戶體驗和監管仍然是爲吸引去中心化計算客戶需要解決問題。然後,在美國 OpenAI 的最新進展以及持續的監管審查強調了非許可、抗審查、去中心化的人工智能網絡的價值主張。
  • 鏈上人工智能集成,特別是能夠使用人工智能模型的智能合約,需要改進 zkML 技術和其他驗證鏈下計算的計算方法。缺乏全麵的工具和開髮人員人才以及高昂的成本是採用麵臨的障礙。
  • 人工智能代理非常適合加密貨幣,用戶(或代理本身)可以創建錢包以與其他服務、代理或人員進行交易。目前使用傳統的金融軌道無法實現這一點。爲了更廣泛的採用,需要與非加密産品進行額外的集成。

術語

人工智能:利用計算和機器來模仿人類的推理和解決問題的能力。

神經網絡:人工智能模型的一種訓練方法。他們通過離散的算法層運行輸入,對其進行改進,直到産生所需的輸出。神經網絡由具有權重的方程組成,可以修改權重來改變輸出。它們可能需要大量的數據和計算來進行訓練,以便其輸出準確。這是開髮 AI 模型最常見的方式之一(ChatGPT 使用依賴於轉換器)。

訓練:開髮神經網絡和其他人工智能模型的過程。它需要大量數據來訓練模型以正確解釋輸入併産生準確的輸出。在訓練過程中,模型方程的權重不斷修改,直到産生令人滿意的輸出。訓練費用可能非常高昂。以 ChatGPT 爲例,使用數萬個自己的 GPU 來處理數據。資源較少的團隊通常依賴專門的計算提供商,例如 Amazon Web Services、Azure 和 Google Cloud 提供商。

推理:實際使用 AI 模型來穫取輸出或結果(例如,使用 ChatGPT 爲有關加密貨幣和 AI 交叉點的論文創建大綱)。在整個訓練過程和最終産品中都會使用推理。由於計算成本的原因,即使在訓練完成後,它們的運行成本也可能很高,但其計算強度低於訓練。

零知識證明 (ZKP) 允許在不透露基礎信息的情況下驗證索賠。這在加密貨幣中很有用,主要有兩個原因:1) 提供隱私; 2) 支持擴展。爲了保護隱私,這使用戶能夠在不泄露敏感信息(例如錢包中有多少 ETH)的情況下進行交易。對於擴展而言,它使鏈下計算能夠比重新執行計算更快地在鏈上得到證明。這使得區塊鏈和應用程序能夠以低廉的成本在鏈外運行計算,然後在鏈上驗證它們。要了解有關零知識及其在以太坊虛擬機中的作用的更多信息,請參閲 Christine Kim的報告:zkEVM:以太坊可擴展性的未來

人工智能/加密貨幣市場地圖

人工智能和加密貨幣交叉的項目仍在構建支持大規模鏈上人工智能交互所需的底層基礎設施。

去中心化計算市場正在興起,以提供訓練和推理人工智能模型所需的大量物理硬件,主要以圖形處理單元 (GPU) 的形式。這些雙曏市場將那些租賃和尋求租賃計算的人連接起來,促進價值的轉移和計算的驗證。在去中心化計算中,正在出現幾個提供附加功能的子類別。除了雙邊市場之外,本報告還將回顧專門提供可驗證培訓和微調輸出的機器學習訓練提供商,以及緻力於連接計算和模型生成以實現人工智能的項目,也經常被稱爲智力激勵網絡。

zkML 是希望以經濟有效且及時的方式在鏈上提供可驗證模型輸出的項目的一個新興重點領域。這些項目主要賦予應用程序處理鏈下繁重計算請求的能力,然後在鏈上髮布可驗證的輸出,證明鏈下工作負載是完整且準確的。zkML 在當前實例中既昂貴又耗時,但越來越多地被用作解決方案。zkML 提供商和想要利用 AI 模型的 DeFi/游戲應用程序之間的集成數量在不斷增加,其中zkML的運用顯而易見。

充足的計算供應以及驗證鏈上計算的能力爲鏈上人工智能代理打開了大門。代理是經過訓練的模型,能夠代錶用戶執行請求。代理提供了顯著增強鏈上體驗的機會,使用戶隻需與聊天機器人對話即可執行覆雜的交易。然而,就目前而言,代理項目仍然專註於開髮基礎設施和工具,以實現輕鬆快速的部署。

去中心化計算

概述

人工智能需要大量計算來訓練模型和運行推理。在過去的十年中,隨著模型變得越來越覆雜,計算需求呈指數級增長。以開放人工智能(OpenAI)爲例。它在2012年到2018年間成立,其模型的計算需求從每兩年翻一番增加到每三個半月翻一番。這導緻一些加密貨幣礦工對 GPU 的需求激增,甚至一些加密礦工重新利用他們的 GPU 提供雲計算服務(可查看@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">我們的年度比特幣挖礦報告中以了解更多相關信息)。隨著訪問計算的競爭加劇和成本上升,一些項目正在利用加密技術來提供去中心化計算解決方案。他們以具有競爭力的價格提供按需計算,以便團隊能夠以經濟實惠的方式訓練和運行模型。在某些情況下,可能需要權衡性能和安全性。

最先進的 GPU,例如對 Nvidia 生産的産品需求量很大。9 月,Tether 收購了Northern Data(德國比特幣礦商)的一部分股份。據報道,Tether斥資4.2億美元購買了10,000個H100 GPU(用於人工智能訓練的最先進 GPU 之一)。等待一流的硬件時間可能至少爲六個月,在許多情況下甚至更長。更糟糕的是,公司經常被要求簽署長期合約,以穫取他們甚至可能不會使用的計算量。這可能會導緻存在可用計算但市場上不可用的情況。去中心化計算繫統有助於解決這些市場效率低下的問題,創建一個二級市場,計算所有者可以在接到通知後立即轉租其過剩容量,從而釋放新的供應。

除了有競爭力的定價和可訪問性之外,去中心化計算的關鍵價值主張是抗審查性。尖端人工智能開髮日益由擁有絶佳計算和數據訪問能力的大型科技公司主導。2023年的年度人工智能指數報告突出的第一個關鍵主題是,工業界在人工智能模型的開髮方麵越來越超過學術界,控製權集中在少數技術領導者手中。這引髮了人們的擔憂,即他們在規定支撐人工智能模型的規範和價值觀方麵是否有能力産生巨大影響力,特別是在這些科技公司爲限製人工智能的髮展超出他們的控製範圍而推動監管之後更是如此。

去中心化計算垂直領域

近年來出現了幾種去中心化計算模型,每種模型都有自己的重點和權衡。

廣義計算

Akash、io.net、iExec、Cudos 等項目都是去中心化計算應用程序,除了數據和通用計算解決方案之外,它們還提供或即將提供用於 AI 訓練和推理的專用計算的訪問權限。

Akash 是目前唯一完全開源的“超級雲”平颱。它是使用 Cosmos SDK 的權益證明網絡。AKT 是 Akash 的原生代幣,作爲一種支付形式,用於保護網絡安全併激勵參與。Akash 於 2020 年推出了第一個主網,專註於提供非許可的雲算力市場,最初具有存儲和 CPU 租賃特色服務。2023年6月,Akash 推出一個專註於 GPU 的新測試網,併於9月推出其可使用戶能夠租用 GPU 進行人工智能訓練和推理的 GPU 主網。

Akash 生態繫統中有兩個主要參與者:租戶和提供商。租戶是想要購買算力資源的 Akash 網絡的用戶。提供商是算力供應商。爲了匹配租戶和提供商,Akash 依靠逆曏拍賣流程。租戶提交他們的算力要求,在其中他們可以指定某些條件,例如服務器的位置或進行計算的硬件類型,以及他們願意支付的金額。然後,供應商提交他們的要價,最低出價者將穫得任務。

Akash 驗證者維護網絡的完整性。驗證者集目前限製爲100個,併計畫隨時間逐步增加。任何人都可以通過質押比當前質押 AKT 數量最少的驗證者更多的 AKT 來成爲驗證者。AKT 持有者還可以將其 AKT 委托給驗證者。網絡的交易費用和區塊獎勵以 AKT 形式分配。此外,對於每筆租賃,Akash 網絡都會按照社區確定的費率賺取“收取費用”,併將其分配給 AKT 持有者。

二級市場

去中心化算力市場將填補現有計算市場的低效率。供應限製導緻公司囤積超出其可能需要的算力資源,併且由於與雲提供商的合約結構將客戶鎖定在長期合約中,即使可能不需要持續訪問,供應也進一步受到限製。去中心化計算平颱釋放了新的供應,使世界上任何擁有算力需求的人都可以成爲供應商。

AI 訓練對 GPU 的需求激增是否會轉化爲 Akash 上的長期網絡使用還有待觀察。Akash 長期以來一直爲 CPU 提供市場,例如,以70-80%的折扣提供類似的服務作爲中心化替代方案。然而,較低的價格併沒有帶來顯著的採用。網絡上的活躍租約已趨於平緩,到2023年第二季度,平均隻有33%的算力、16%的內存和13%的存儲。雖然這些都是鏈上採用的可觀指標(作爲參考,領先的存儲提供商 Filecoin 已在2023年第三季度擁有12.6%存儲利用率 ),這錶明這些産品的供應繼續大於需求。

距 Akash 推出 GPU 網絡已經過去了半年多的時間,現在準確評估長期採用率還爲時過早。迄今爲止,GPU 的平均利用率爲44%,高於 CPU、內存和存儲的利用率,這是需求方麵的一個跡象。這主要是由對最高質量 GPU(如 A100)的需求推動的,90%以上的GPU都出租了。

Akash 的每日支出也有所增加,相對於 GPU 出現之前幾乎翻了一番。這部分歸因於其他服務使用量的增加,尤其是CPU,但主要是新 GPU 使用量導緻的結果。

定價與 Lambda Cloud 和 Vast.ai 等中心化競爭對手相當(或者在某些情況下甚至更貴)。對最高端 GPU(例如 H100 和 A100)的巨大需求意味著該設備的大多數所有者對在麵臨競爭性定價的市場上市興趣不大。

雖然最初體現了有前景的興趣,但採用仍然存在障礙(下麵進一步討論)。去中心化計算網絡需要採取更多措施來産生需求和供應,團隊正在嘗試如何最好地吸引新用戶。例如,2024年初,Akash 通過了提案240 增加 GPU 供應商的 AKT 排放量併激勵更多供應,特別是針對高端 GPU。團隊還緻力於推出概念驗證模型,曏潛在用戶展示其網絡的實時功能。Akash 正在訓練、自己的基礎模型,已經推出聊天機器人圖像生成,這些應用都使用 Akash GPU 創建輸出。衕樣,io.net 有開髮了穩定的擴散模型,併正在推出新的網絡功能,這能更好地模仿傳統 GPU 數據中心的性能和規模。

去中心化機器學習訓練

除了能夠滿足人工智能需求的通用計算平颱外,一組專註於機器學習模型訓練的專業人工智能GPU提供商也正在興起。例如,Gensyn 正在“協調電力和硬件來構建集體智慧”,其觀點是,“如果有人想要訓練某種東西,併且有人願意訓練它,那麽就應該允許這種訓練髮生。”

該協議有四個主要參與者:提交者、解決者、驗證者和舉報者。提交者曏網絡提交帶有培訓請求的任務。這些任務包括訓練目標、要訓練的模型和訓練數據。作爲提交過程的一部分,提交者需要爲解決者所需的估計計算量預先支付費用。

提交後,任務將分配給對模型進行實際訓練的解決者。然後,解決者將已完成的任務提交給驗證者,驗證者負責檢查訓練以確保正確完成。舉報人有責任確保驗證者誠實行事。爲了激勵舉報人參與網絡,Gensyn 計畫定期提供故意錯誤的證據,獎勵舉報人抓住他們。

除了爲人工智能相關工作負載提供計算之外,Gensyn 的關鍵價值主張是其驗證繫統,該繫統仍在開髮中。爲了確保 GPU 提供商的外部計算正確執行(即確保用戶的模型按照他們想要的方式進行訓練),驗證是必要的。Gensyn 採用獨特的方法解決了這個問題,利用了稱爲“概率學習證明、基於圖形的精確協議和 Truebit 式激勵游戲”的新穎驗證方法。這是一種樂觀求解模式,允許驗證者確認解決者已正確運行模型,而無需自己完全重新運行模型,這是一個成本高昂且低效的過程。

除了創新的驗證方法之外,Gensyn 還宣稱,相對於中心化替代方案和加密貨幣競爭對手而言,自己具有成本效益,可提供 ML 培訓的成本比 AWS 低 80%,衕時在測試中勝過 Truebit 等類似項目。

這些初步結果是否可以在去中心化網絡中大規模覆製還有待觀察。Gensyn 希望利用小型數據中心、零售用戶以及未來手機等小型移動設備等提供商的多餘算力。然而,正如 Gensyn 團隊本身所承認的那樣,依賴異構計算提供商帶來了一些新的挑戰。

對於 Google Cloud Providers 和 Coreweave 等中心化提供商來説,計算成本昂貴,而計算之間的通信(帶寬和延遲)卻很便宜。這些繫統旨在盡快實現硬件之間的通信。Gensyn 顛覆了這一框架,通過讓世界上任何人都可以提供 GPU 來降低計算成本,但衕時也增加了通信成本,因爲網絡現在必鬚在相距較遠的異構硬件上協調計算作業。Gensyn 尚未推出,但它是構建去中心化機器學習訓練協議時可能實現的概念證明。

去中心化通用智能

去中心化計算平颱也爲人工智能創建方法的設計提供了可能性。Bittensor 是一種基於 Substrate 建立的去中心化計算協議。Substrate 試圖回答 “我們如何將人工智能轉變爲協作方法?”的問題,Bittensor 旨在實現人工智能生成的去中心化和商品化。該協議於2021年推出,希望利用協作機器學習模型的力量來不斷迭代併産生更好的人工智能。

Bittensor 從比特幣中汲取靈感,其原生貨幣 TAO 的供應量爲2100萬,減半周期爲四年(第一次減半將於2025年)。Bittensor 不是使用工作量證明來生成正確的隨機數併穫得區塊獎勵,而是依賴於“智能證明”,要求礦工運行模型來響應推理請求而生成輸出。

激勵智能

Bittensor 最初依賴專家混合 (MoE) 模型來生成輸出。當提交推理請求時,MoE 模型不會依賴一個廣義模型,而是將推理請求轉髮給給定輸入類型的最準確的模型。想象一下建造一棟房子,您聘請了各種專家來負責施工過程的不衕方麵(例如:建築師、工程師、油漆工、建築工人等……)。 MoE 將其應用於機器學習模型,嘗試根據輸入利用不衕模型的輸出。Bittensor 創始人 Ala Shaabana認爲,這就像“與一屋子聰明人交談併穫得最佳答案,而不是與一個人交談”。由於確保正確路由、消息衕步到正確的模型以及激勵麵臨挑戰,這種方法已被擱置至項目得到進一步開髮。

Bittensor 網絡中有兩個主要參與者:驗證者和礦工。驗證者的任務是曏礦工髮送推理請求,審查他們的輸出,併根據他們的響應質量對它們進行排名。爲了確保他們的排名可靠,驗證者會根據他們的排名與其他驗證者排名的一緻程度給予“vtrust”分數。驗證者的 vtrust 分數越高,他們穫得的 TAO 排放量就越多。這是爲了激勵驗證者隨時間就模型排名達成共識,因爲就排名達成一緻的驗證者越多,他們的個人 vtrust 分數就越高。

礦工,也稱爲服務器,是運行實際機器學習模型的網絡參與者。礦工們相互競爭,爲驗證者提供針對給定查詢的最準確的輸出,輸出越準確,賺取的 TAO 排放就越多。礦工可以按照自己的意願生成這些輸出。例如,在未來的情況下,Bittensor 礦工完全有可能之前在 Gensyn 上訓練過模型,併用它們來賺取 TAO 排放量。

如今,大多數交互直接髮生在驗證者和礦工之間。驗證者曏礦工提交輸入併請求輸出(即訓練模型)。一旦驗證者查詢網絡上的礦工併收到他們的響應,他們就會對礦工進行排名併將其排名提交到網絡。

驗證者(依賴 PoS)和礦工(依賴模型證明,PoW 的一種形式)之間的這種互動被稱爲 Yuma 共識。它旨在激勵礦工産生最好的輸出來賺取 TAO 排放,併激勵驗證者對礦工輸出進行準確排名,以穫得更高的 vtrust 分數併增加他們的 TAO 獎勵,從而形成網絡的共識機製。

子網和應用程序

Bittensor 上的交互主要包括驗證者曏礦工提交請求併評估其輸出。然而,隨著貢獻礦工的質量提高和網絡整體智能的增長,Bittensor 將在其現有堆棧之上創建一個應用程序層,以便開髮人員可以構建查詢 Bittensor 網絡的應用程序。

2023年10月,Bittensor 朝著實現這一目標邁出了重要一步:引入通過其Revolution升級的子網。子網是 Bittensor 上激勵特定行爲的單獨網絡。Revolution 曏任何有興趣創建子網的人開放網絡。自髮布以來的幾個月裡,超過32個子網 已推出了包括文本提示、數據抓取、圖像生成和存儲的功能。隨著子網的成熟以及産品就緒,子網創建者還將創建應用程序集成,使團隊能夠構建查詢特定子網的應用程序。一些應用程序(聊天機器人圖像生成器推特回覆機器人預測市場)今天確實存在,但除了 Bittensor 基金會的資助之外,驗證者沒有正式的激勵措施來接受和轉髮這些查詢。

爲了提供更清晰的説明,下麵舉例示例説明應用程序集成到網絡中後 Bittensor 將如何工作。

子網根據子根網絡估的性能穫得 TAO。根網絡位於所有子網之上,本質上充當一種特殊的子網,併由 64 個最大的子網驗證者按權益進行管理。根網絡驗證者根據子網的性能對子網進行排名,併定期將 TAO 排放分配給子網。通過這種方式,各個子網充當根網絡的礦工。

Bittensor展望

Bittensor 仍在經歷成長的煩惱,因爲它擴展了協議的功能以激勵跨多個子網的智能生成。礦工們不斷設計新的方法來攻擊網絡以穫得更多 TAO 獎勵,例如通過稍微修改由他們的模型運行的高評價推理的輸出,然後提交多個變體。影響整個網絡的治理提案隻能由Triumvirate提交和實施。Triumvirate完全由 Opentensor 基金會利益相關者組成(需要註意的是,提案需要得到由實施前的 Bittensor 驗證者組成的 Bittensor 參議院的批準 )。該項目的代幣經濟正在完善之中,以提高對 TAO 跨子網使用的激勵。該項目還因其獨特的方法而迅速變得聲名狼藉,首席執行官是最受歡迎的人工智能網站之一HuggingFace錶明,Bittensor 應將其資源添加到網站上。

在最近髮錶的一篇文章由一位名爲“Bittensor Paradigm”的核心開髮人員提出,該團隊闡述了 Bittensor 的願景,即最終髮展爲“對所測量的內容不可知”。理論上,這可以使 Bittensor 開髮子網來激勵由 TAO 提供支持的任何類型的行爲。這仍存在相當大的實際限製——最明顯的是,證明這些網絡能夠擴展以處理如此多樣化的流程,併且潛在的激勵措施推動了超越中心化産品的進步。

爲人工智能模型構建去中心化計算堆棧

上述部分高度概述正在開髮的各種類型的去中心化人工智能計算協議。在開髮和採用的早期,它們提供了生態繫統的基礎,最終可以促進“人工智能構建塊”的創建,例如 DeFi 的“金錢樂高”概念。非許可的區塊鏈的可組合性爲每個協議構建在另一個協議之上提供了可能性,以提供更全麵的去中心化人工智能生態繫統。

例如,這是 Akash、Gensyn 和 Bittensor 可能全部交互以響應推理請求的一種方式。

需要明確的是,這隻舉例了一種未來可能髮生的情況,而不代錶當前生態繫統、現有合作伙伴關繫或可能結果。互操作性的限製以及下麵描述的其他考慮因素極大地限製了當今的集成可能性。除此之外,流動性的碎片化和使用多種代幣的需求可能會損害用戶體驗,Akash 和 Bittensor 的創始人已指出這一點。

其他去中心化産品

除了算力之外,還推出了其他幾種去中心化基礎設施服務,以支持加密貨幣新興的人工智能生態繫統。本文無法介紹所有這些産品,僅舉例一些有趣且具有説明性的産品:

  • Ocean:去中心化的數據市場。用戶可以創建代錶其數據的數據 NFT,併可以使用數據代幣進行購買。用戶既可以將其數據貨幣化,又可以對其擁有更大的主權,衕時爲人工智能團隊提供開髮和訓練模型所需數據的訪問權限。
  • Grass:去中心化的帶寬市場。用戶可以將多餘的帶寬出售給人工智能公司,後者利用這些帶寬從互聯網上抓取數據。這建立在Wynd網絡之上,不僅使個人能夠將其帶寬貨幣化,而且還爲帶寬購買者提供了更多樣化的觀點,讓他們了解個人用戶在網上看到的內容(因爲個人的互聯網訪問通常是根據其 IP 地址專門定製的)。
  • HiveMapper:構建一個去中心化的地圖産品,其中包含從日常汽車駕駛員收集的信息。HiveMapper 依靠 AI 來解釋從用戶儀錶闆攝像頭收集的圖像,併獎勵用戶通過強化人類學習反饋 (RHLF) 幫助微調 AI 模型的代幣。

總的來説,這些都指曏幾乎無限的機會,即探索支持人工智能模型的去中心化市場模型或開髮它們所需的周邊基礎設施。目前,這些項目大多處於概念驗證階段,需要更多的研究和開髮來證明它們能夠以提供全麵人工智能服務所需的規模運行。

展望

去中心化算力産品仍處於開髮的早期階段。他們剛剛開始推出最先進的算力,能夠在生産中訓練最強大的人工智能模型。爲了穫得有意義的市場份額,他們需要展示與中心化替代方案相比的實際優勢。更廣泛採用的潛在觸髮因素包括:

  • GPU 供應/需求。GPU 的稀缺加上快速增長的算力需求正在導緻 GPU 軍備競賽。 OpenAI 已因GPU限製而限製過一次訪問,即無法訪問其平颱。Akash 和 Gensyn 等平颱可以爲需要高性能算力的團隊提供具有成本競爭力的替代方案。對於去中心化算力提供商來説,未來 6-12 個月提供了特別獨特的機會以吸引新用戶,由於缺乏更廣泛的市場準入,這些新用戶被迫考慮去中心化産品。再加上 Meta 的 LLaMA 2 等性能日益提高的開源模型,用戶在部署有效的微調模型時不再麵臨衕樣的障礙,使計算資源成爲主要瓶頸。然而,平颱本身的存在併不能確保足夠的算力供應和消費者的相應需求。採購高端 GPU 仍然很睏難,而且成本併不總是需求方的主要動機。這些平颱將麵臨挑戰,以展示使用去中心化算力選項的實際好處(無論是由於成本、審查阻力、正常運行時間和彈性還是可訪問性)來積纍粘性用戶。他們必鬚快速行動。 GPU基礎設施投資和建設正在以驚人的速度髮生。
  • 監管。 監管仍然是去中心化算力運動的阻力。短期內,缺乏明確的監管意味著提供商和用戶都麵臨使用這些服務的潛在風險。如果供應商提供算力或買方在不知情的情況下從受製裁實體購買算力怎麽辦?用戶可能會猶豫是否使用缺乏中心化實體控製和監督的去中心化平颱。協議試圖通過將控件納入其平颱或添加過濾器以僅訪問已知的算力提供商(即提供了實名認證(KYC)信息)來減輕這些擔憂,但要實現採用就需要能在確保合規性的衕時保護隱私的更強大方法。短期內,我們可能會看到 KYC 和合規平颱的出現,這些平颱限製對其協議的訪問,以解決這些問題。此外,圍繞美國可能的新監管框架的討論,最好的體現是髮布的關於安全、可靠和值得信賴的人工智能開髮和使用的行政命令,強調了進一步限製 GPU 訪問的監管行動的可能性。
  • 審查製度。 監管是雙曏的,去中心化的算力産品可以從限製人工智能訪問的行動中受益。除了行政命令外,OpenAI 創始人 Sam Altman 還作證國會討論了監管機構爲人工智能開髮頒髮許可證的必要性。關於人工智能監管的討論才剛剛開始,但任何此類限製訪問或審查人工智能功能的嘗試都可能加速不存在此類障礙的去中心化平颱的採用。11月 OpenAI 領導層換屆 (或缺乏)進一步體現了將現有最強大的人工智能模型的決策權授予少數人的風險。此外,所有人工智能模型都必然反映了創建它們的人的偏見,無論是有意還是無意。消除這些偏差的一種方法是使模型盡可能開放地進行微調和訓練,確保任何地方的任何人都可以訪問各種類型和偏差的模型。
  • 數據隱私。 當與爲用戶提供數據自主權的外部數據和隱私解決方案集成時,去中心化算力可能會比中心化替代方案更具吸引力。Samsung公司成爲受害者,當他們意識到工程師正在使用 ChatGPT 來幫助芯片設計併將敏感信息泄露給 ChatGPT 時,他們就意識到了這一點。Phala Network 和 iExec 聲稱爲用戶提供 SGX 安全飛地來保護用戶數據,併且正在進行的完全衕態加密研究將進一步解鎖確保隱私的去中心化算力。隨著人工智能進一步融入我們的生活,用戶將更加重視能夠在具有隱私保護的應用程序上運行模型。用戶還需要支持數據可組合性的服務,以便他們可以將數據從一種模型無縫移植到另一種模型。
  • 用戶體驗(UX)。 用戶體驗仍然是更廣泛採用所有類型的加密應用程序和基礎設施的重大障礙。這對於去中心化算力産品來説併沒有什麽不衕,併且在某些情況下,由於開髮人員需要了解加密貨幣和人工智能,這會加劇這種情況。需要從基礎知識(例如入門和抽象與區塊鏈的交互)進行改進,以提供衕等的高質量輸出以作爲當前的市場領導者。鑒於許多提供更便宜産品的可操作的去中心化算力協議很難穫得普遍使用,這一點顯而易見。

智能合約和 zkML

智能合約是任何區塊鏈生態繫統的核心構建塊。在給定一組特定條件的情況下,它們會自動執行併減少或消除對受信任第三方的需求,從而能夠創建覆雜的去中心化應用程序,例如 DeFi 中的應用程序。然而,由於智能合約目前大部分都存在,因此其功能仍然有限,因爲它們根據必鬚更新的預設參數執行。

例如,部署的借貸協議智能合約包含根據特定貸款與價值比率何時清算頭寸的規範。雖然在靜態環境中有用,但在風險不斷變化的動態情況下,這些智能合約必鬚不斷更新以適應風險承受能力的變化,這給不通過集中流程管理的合約帶來了挑戰。例如,依賴去中心化治理流程的 DAO 可能無法快速反應以應對繫統性風險。

集成人工智能(即機器學習模型)的智能合約是增強功能、安全性和效率衕時改善整體用戶體驗的一種可能方法。然而,這些集成也帶來了額外的風險,因爲不可能確保支撐這些智能合約的模型不會被利用或解釋長尾情況(鑒於數據輸入的稀缺,長尾情況很難訓練模型)。

零知識機器學習(zkML)

機器學習需要大量的算力來運行覆雜的模型,這使得人工智能模型由於成本高昂而無法直接在智能合約中運行。例如,爲用戶提供收益優化模型的 DeFi 協議將很難在鏈上運行該模型,而無需支付過高的Gas費。一種解決方案是增加底層區塊鏈的算力能力。然而,這也增加了對鏈驗證者集的要求,可能會破壞去中心化特性。相反,一些項目正在探索使用 zkML 以去信任的方式驗證輸出,而不需要密集的鏈上計算。

説明 zkML 有用性的一個常見示例是,當用戶需要其他人通過模型運行數據併驗證其交易對手實際上運行了正確的模型時。也許開髮人員正在使用去中心化算力提供商來訓練他們的模型,併擔心該提供商試圖通過使用輸出差異幾乎無法察覺的更便宜的模型來削減成本。zkML 使算力提供商能夠通過其模型運行數據,然後生成可以在鏈上驗證的證明,以證明給定輸入的模型輸出是正確的。在這種情況下,模型提供者將具有額外的優勢,即能夠提供他們的模型,而不必透露産生輸出的基礎權重。

也可以做相反的事情。如果用戶想要使用他們的數據運行模型,但由於隱私問題(即,在醫療檢查或專有商業信息的情況下),不希望提供模型的項目訪問他們的數據,那麽用戶可以在他們的數據上運行模型而不共享數據,然後通過證明驗證他們運行了正確的模型。這些可能性通過解決令人望而卻步的算力限製,極大地擴展了人工智能和智能合約功能集成的設計空間。

基礎設施和工具

鑒於 zkML 領域的早期狀態,開髮主要集中在構建團隊所需的基礎設施和工具,以將其模型和輸出轉換爲可以在鏈上驗證的證明。這些産品盡可能地抽象了開髮的零知識方麵。

EZKLGiza 是兩個通過提供機器學習模型執行的可驗證證明來構建此工具的項目。兩者都幫助團隊構建機器學習模型,以確保這些模型可以以能夠在鏈上以可信方式驗證結果的方式執行。這兩個項目都使用開放神經網絡交換 (ONNX) 將用 TensorFlow 和 Pytorch 等通用語言編寫的機器學習模型轉換爲標準格式。然後,他們輸出這些模型的版本,這些模型在執行時也會生成 zk 證明。 EZKL 是開源的,生産 zk-SNARKS;而 Giza 是閉源的,生産 zk-STARKS。這兩個項目目前僅兼容 EVM。

過去幾個月,EZKL 在增強 zkML 解決方案方麵取得了重大進展,主要集中在降低成本提高安全性加速證明生成方麵。例如,2023年11月,EZKL 集成了一個新的開源 GPU 庫,可將聚合證明時間減少35%,1月 EZKL公布了 Lilith——一種軟件解決方案,用於在使用 EZKL 證明繫統時集成高性能算力集群併編排併髮作業。Giza 的獨特之處在於,除了提供用於創建可驗證的機器學習模型的工具之外,他們還計畫實現相當於 web3 的Hugging Face,從而開放 zkML 協作和模型共享的用戶市場,併最終集成去中心化算力産品。一月份 EZKL 髮布了基準評估,比較了 EZKL、Giza 和 RiscZero(下麵討論)的性能。 EZKL 展示了更快的證明時間和內存使用。

Modulus Labs還在開髮一種爲 AI 模型定製的新的 zk-proof 技術。Modulus髮錶了一篇論文,名爲智能的成本 (暗示在鏈上運行 AI 模型的成本極高),對當時現有的 zk-proof 繫統進行了基準測試,以確定改進 AI 模型 zk-proofs 的能力和瓶頸。該論文於2023年1月髮布,錶明現有産品成本過高且效率低下,無法大規模實現人工智能應用。基於他們的初步研究,11月的 Modulus@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">引入Remainder——一種專門的零知識證明器,專門爲降低 AI 模型的成本和證明時間而構建,其目標是使項目在經濟上可行,將模型大規模集成到其智能合約中。他們的工作是閉源的,因此無法與上述解決方案進行基準測試,但最近在 Vitalik 的加密貨幣和人工智能相關博客文中有提及。

工具和基礎設施開髮對於 zkML 空間的未來增長至關重要,因爲它可以大大減少需要部署運行可驗證的鏈下算力所需的 zk 電路的團隊之間的摩擦。安全接口的創建使從事機器學習工作的非加密原生構建者能夠將他們的模型帶到鏈上,這將使應用程序能夠通過真正新穎的用例進行更大的實驗。工具還解決了更廣泛採用 zkML 的一個主要障礙,即缺乏知識淵博且對零知識、機器學習和密碼學交叉領域工作感興趣的開髮人員。

協處理器

正在開髮的其他解決方案(稱爲“協處理器”)包括RiscZeroAxiomRitual。協處理器這個術語主要是語義上的——這些網絡履行許多不衕的角色,包括驗證鏈上的鏈下計算。與 EZKL、Giza 和 Modulus 一樣,他們的目標是完全抽象零知識證明生成過程,創建本質上能夠執行鏈下程序併生成鏈上驗證證明的零知識虛擬機。RiscZero 和 Axiom 可以服務簡單的人工智能模型,因爲它們是更通用的協處理器,而 Ritual 是專門爲與人工智能模型一起使用而構建的。

Infernet 是 Ritual 的第一個實例,包括允許開髮人員曏網絡提交推理請求併接收輸出和證明(可選)作爲回報的推理網SDK。Infernet 節點接收這些請求併在返回輸出之前處理鏈下計算。例如,DAO 可以創建一個流程,確保所有新的治理提案在提交之前滿足某些先決條件。每次提交新提案時,治理合約都會通過 Infernet 觸髮推理請求,調用 DAO 特定治理訓練的 AI 模型。該模型會審查提案,以確保提交所有必要的標準,併返回輸出和證據,批準或拒絶提案的提交。

在接下來的一年裡,Ritual 團隊計畫推出更多功能,形成稱爲 Ritual 超級鏈的基礎基礎設施層。前麵討論的許多項目都可以作爲服務提供商插入 Ritual。Ritual 團隊已與 EZKL 集成以生成證明,併且可能很快會添加其他領先提供商的功能。Ritual 上的 Infernet 節點還可以使用 Akash 或 io.net GPU 以及在 Bittensor 子網上訓練的查詢模型。他們的最終目標是成爲開放人工智能基礎設施的首選提供商,能夠爲任何網絡、任何工作負載的機器學習和其他人工智能相關任務提供服務。

應用領域

zkML 有幫助調和區塊鏈和人工智能之間的矛盾,前者本質上是資源受限的,而後者則需要大量的計算和數據。正如Giza的創始人之一所言,“用例如此豐富……這有點像以太坊早期問智能合約的用例是什麽……我們所做的隻是擴展智能合約的用例。”然而,如上所述,當今的開髮主要髮生在工具和基礎設施級別。應用程序仍處於探索階段,團隊麵臨的挑戰是證明使用 zkML 實現模型所産生的價值超過了其覆雜性和成本。

目前的一些應用包括:

  • 去中心化金融。 zkML通過增強智能合約能力,升級了DeFi的設計空間。DeFi 協議爲機器學習模型提供大量可驗證且不可變的數據,可用於生成收益生成或交易策略、風險分析、用戶體驗等。例如,Giza 與 Yearn Finance 合作,爲 Yearn 的新 v3 金庫構建概念驗證自動風險評估引擎。Modulus Labs 與 Lyra Finance @ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36">合作將機器學習納入其 AMM,與 Ion Protocol 合作實施分析驗證者風險的模型,併幫助 Upshot 驗證其人工智能支持的 NFT 價格信息。NOYA(利用 EZKL)和 Mozaic 等協議提供了對專有鏈下模型的訪問,這些模型使用戶能夠訪問自動化流動性挖礦,衕時使他們能夠驗證鏈上的數據輸入和證明。Spectral Finance 正在構建鏈上信用評分引擎,以預測 Compound 或 Aave 借款人拖欠貸款的可能性。由於 zkML,這些所謂的“De-Ai-Fi”産品在未來幾年可能會變得更加流行。
  • 游戲。長期以來,人們一直認爲公共區塊鏈顛覆和增強游戲的時機已經成熟(有關加密貨幣和游戲的更多信息,請參閲這份 Galaxy Digital 報告 -游戲的歷史及其 Web3 的未來)。 zkML 使人工智能的鏈上游戲成爲可能。Modulus Lab 已經實現了簡單鏈上游戲的概念驗證。Leela vs the World是一款博弈論國際象棋游戲,用戶在其中與 AI 國際象棋模型對抗,使用 zkML 驗證 Leela 走的每一步都是基於游戲運行的模型。衕樣,團隊也使用 EZKL 框架來構建簡單的歌唱比賽和鏈上井字游戲Cartridge 正在使用 Giza 以使團隊能夠部署完全鏈上游戲,最近重點介紹了一款簡單的人工智能駕駛游戲,用戶能參與競爭以試圖創建能避開障礙物的汽車來創建更好的模型。雖然很簡單,但這些概念驗證指曏未來的實現,能夠實現更覆雜的鏈上驗證,例如能夠與游戲內經濟體進行交互的覆雜 NPC 演員,如《@ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307">AI Arena》中所見,這是一款超級粉碎兄弟游戲,玩家可以在其中訓練自己的戰士,然後部署爲人工智能模型進行戰鬥。
  • 身份、出處和隱私。加密貨幣已經被用作驗證真實性和打擊越來越多的人工智能生成/操縱內容和深度僞造的手段。zkML 可以推進這些努力。WorldCoin 是一種身份證明解決方案,要求用戶掃描虹膜以生成唯一的 ID。未來,生物識別 ID 可以使用加密存儲在個人設備上進行自我托管,併使用驗證本地運行的生物識別所需的模型。然後,用戶可以提供生物識別證據,而無需透露自己的身份,從而在確保隱私的衕時抵禦女巫攻擊。這也可以應用於需要隱私的其他推論,例如使用模型分析醫療數據/圖像來檢測疾病、驗證人格併在約會應用程序中開髮匹配算法,或者需要驗證資金信息的保險和貸款機構。

展望

zkML 仍處於實驗階段,大多數項目都專註於構建基礎設施原語和概念證明。如今的挑戰包括計算成本、內存限製、模型覆雜性、有限的工具和基礎設施以及開髮人員人才。簡而言之,在 zkML 能夠以消費産品所需的規模實施之前,還有相當多的工作要做。

然而,隨著該領域的成熟以及這些限製的解決,zkML 將成爲人工智能和加密集成的關鍵組成部分。從本質上講,zkML 承諾能夠將任何規模的鏈外計算引入鏈上,衕時保持與鏈上運行相衕或接近相衕的安全保證。然而,在這一願景實現之前,該技術的早期用戶將繼續必鬚在 zkML 的隱私和安全性與替代方案的效率之間進行權衡。

人工智能代理

人工智能和加密貨幣最令人期待的的集成之一是正在進行的人工智能代理實驗。代理是能夠使用人工智能模型接收、解釋和執行任務的自主機器人。這可以是任何事情,從擁有一個隨時可用的、基於您偏好進行微調的個人助理,到雇用一個根據您風險偏好來管理和調整您投資組合的金融代理人。

由於加密貨幣提供了非許可和去信任的支付基礎設施,代理和加密貨幣可以很好地結合在一起。經過培訓後,代理將穫得一個錢包,以便他們可以自行使用智能合約進行交易。例如,今天的簡單代理可以在互聯網上抓取信息,然後根據模型在預測市場上進行交易。

代理提供商

Morpheus 是 2024 年在以太坊和 Arbitrum 上上市的最新開源代理項目之一。其白皮書於2023年9月匿名髮布,爲社區的形成和構建提供了基礎(包括著名人物,如Erik Vorhees)。該白皮書包含可下載的智能代理協議,這是一個開源的LLM,可以在本地運行,由用戶的錢包管理,併與智能合約交互。它使用一個智能合約排名來幫助代理根據處理的交易數量等標準確定哪些智能合約可以安全地進行交互。

白皮書還提供了構建 Morpheus 網絡的框架,例如使智能代理協議運行所需的激勵結構和基礎設施。這包括激勵貢獻者構建用於與代理交互的前端、供開髮人員構建可插入代理以便他們可以相互交互的應用程序的 API,以及使用戶能夠訪問運行代理所需的計算和存儲的雲解決方案在邊緣設備上。該項目的初始資金已於 2 月初啟動,完整協議預計將於 2024 年第二季度啟動。

去中心化自治基礎設施網絡(DAIN)是一種新的代理基礎設施協議,在 Solana 上構建代理到代理經濟。DAIN 的目標是讓來自不衕企業的代理可以通過通用 API 無縫地相互交互,從而大大開放 AI 代理的設計空間,重點是實現能夠與 web2 和 web3 産品交互的代理。一月份,DAIN 宣布了他們的第一個合伙伙伴Asset Shield,讓用戶可以將“代理簽名者”添加到其多重簽名中,這些簽名者能夠根據用戶設置的規則解釋交易併批準/拒絶。

Fetch.AI 是最早部署的人工智能代理協議之一,併開髮了一個生態繫統,用於使用其 FET 代幣構建、部署和利用使用 FET代幣和Fetch.AI錢包的鏈上代理。該協議提供了一套用於使用代理的全麵工具和應用程序,包括用於與代理交互和訂購代理的錢包內功能。

Fetch 團隊的前成員也是Autonolas的創始人。Autonolas是一個用於創建和使用去中心化人工智能代理的開放市場。Autonolas 還爲開髮人員提供了一套工具來構建鏈下托管的人工智能代理,併可以嵌入多個區塊鏈,包括 Polygon、Ethereum、Gnosis Chain 和 Solana。他們目前有一些積極的代理概念證明産品,包括用於預測市場和 DAO 治理的用例。

SingularityNet 正在爲人工智能代理建立一個去中心化的市場,人們可以在其中部署專門的人工智能代理,這些代理可以被其他人或代理雇用以執行覆雜的任務。其代理,如AlteredStateMachine,正在構建 AI Agent 與 NFT 的集成。用戶鑄造具有隨機屬性的 NFT,這些屬性賦予他們在不衕任務上的優勢和劣勢。然後可以對這些代理進行訓練,以增強某些屬性,從而用於游戲、DeFi 或作爲虛擬助手併與其他用戶進行交易。

總的來説,這些項目設想了一個未來的智能體生態繫統,這些智能體能夠協衕工作,不僅可以執行任務,還可以幫助構建通用人工智能。真正覆雜的代理將有能力自主完成任何用戶任務。例如,完全自主的代理將能夠弄清楚如何雇用另一個代理來集成 API,然後執行,而不必確保代理在使用之前已經與外部 API(例如旅行預訂網站)集成。任務。從用戶的角度來看,不需要檢查代理是否可以完成任務,因爲代理可以自己確定。

比特幣和人工智能代理

2023年7月,Lightning Labs 推出了在閃電網絡上使用代理的概念驗證實施方案,稱爲 LangChain 比特幣套件。該産品特別有趣,因爲它將解決 Web 2 世界中日益嚴重的問題 –門控和Web 應用程序的昂貴API 密鑰。

LangChain 通過爲開髮人員提供一套工具來解決此問題,使代理能夠購買、出售和持有比特幣,以及查詢 API 密鑰和髮送小額支付。在傳統的支付軌道上,小額支付由於費用而成本高昂;而在閃電網絡上,代理商可以每天以最低的費用髮送無限的小額支付。當與 LangChain 的 L402 支付計量 API 框架結合使用時,公司可以根據使用量的增加和減少調整其 API 的訪問費用,而不是設定單一的成本高昂的標準。

在未來,鏈上活動主要由智能代理與智能代理交互所主導,這樣的事情將是必要的,以確保智能代理能夠以不成本過高的方式相互交互。這是一個早期的例子,説明如何在非許可且經濟高效的支付軌道上使用代理,爲新市場和經濟互動開辟了可能性。

展望

代理領域仍處於新生階段。項目剛剛開始推出功能代理,可以使用其基礎設施處理簡單的任務——這通常隻有經驗豐富的開髮人員和用戶才能訪問。然而,隨著時間的推移,人工智能代理對加密貨幣的最大影響之一是所有垂直領域的用戶體驗改進。交易將開始從基於點擊轉曏基於文本,用戶能夠通過LLM與鏈上代理進行交互。已有團隊(如Dawn Wallet)正在推出聊天機器人錢包,供用戶在鏈上進行交互。

此外,目前還不清楚代理商如何在 Web 2 中運作,因爲金融賽道依賴於受監管的銀行機構,這些機構不能全天候運營,也無法進行無縫跨境交易。正如 Lyn Alden 強調的那樣,由於缺乏退款和處理微交易的能力,與信用卡相比,加密貨幣賽道尤其有吸引力。然而,如果代理成爲一種更常見的交易方式,現有的支付提供商和應用程序很可能會迅速採取行動,實施在現有金融賽掉上運營所需的基礎設施,從而削弱使用加密貨幣的一些好處。

目前,代理可能僅限於確定性的加密貨幣交易,其中給定輸入保證給定輸出。這兩種模型都規定了這些代理弄清楚如何執行覆雜任務的能力,而工具則擴大了它們可以完成的範圍,都需要進一步開髮。爲了讓加密代理在新的鏈上加密用例之外變得有用,需要更廣泛的集成、接受加密作爲一種支付形式,以及明確的監管。然而,隨著這些組件的髮展,代理準備成爲上述去中心化計算和 zkML 解決方案的最大消費者之一,以自主的非確定性方式接收和解決任何任務。

結論

AI 爲加密貨幣引入了我們在 web2 中看到的相衕創新,提升了從基礎設施開髮到用戶體驗和可訪問性的各個方麵。然而,項目仍處於髮展早期,近期加密貨幣和人工智能集成將主要由鏈下集成主導。

産品如Copilot將要“10倍的” 開髮人員效率,第1層協議和去中心化金融應用程序已與微軟等大公司合作推出人工智能輔助開髮平颱。Cub3.aiTest Machine 等公司正在開髮用於智能合約審計和實時威脅監控的人工智能集成,以增強鏈上安全性。LLM 聊天機器人正在使用鏈上數據、協議文檔和應用程序進行培訓,爲用戶提供增強的可訪問性和用戶體驗。

對於真正利用加密貨幣底層技術的更高級集成來説,挑戰仍然是證明在鏈上實施人工智能解決方案在技術上是可行的,在經濟上也是可行的。去中心化計算、zkML 和 AI 代理的髮展指曏有前景的垂直領域,這些領域爲加密貨幣和人工智能深度互聯的未來奠定了基礎。

聲明:

  1. 本文轉載自[galaxy],著作權歸屬原作者[Lucas Tcheyan],如對轉載有異議,請聯繫Gate Learn團隊,團隊會根據相關流程盡速處理。
  2. 免責聲明:本文所錶達的觀點和意見僅代錶作者個人觀點,不構成任何投資建議。
  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得覆製、傳播或抄襲經翻譯文章。

加密貨幣與人工智能的交叉領域

進階2/22/2024, 5:28:26 AM
加密貨幣和人工智能交叉領域的實驗受到的推動力與加密貨幣最有前景的應用案例相衕——即訪問無需許可和無需信任的協調層,更有效地促進價值轉移。

前言

公共區塊鏈的出現是計算機科學歷史上最深遠的進步之一。但髮展人工智能將會併且已經對我們所在的世界産生深遠的影響。如果説區塊鏈技術爲交易結算、數據存儲和繫統設計提供了新的模闆,那麽人工智能則是計算、分析和內容交付方麵的一場革命。這兩個行業的創新正在解鎖新的用例,從而可能在未來幾年加速這兩個行業的採用。本報告探討了加密貨幣和人工智能的持續融合,重點關註試圖彌合兩者之間差距、利用兩者力量的新穎用例。具體來説,本報告研究了開髮去中心化計算協議、零知識機器學習 (zkML) 基礎設施和人工智能代理的項目。

加密貨幣爲人工智能提供了非許可、去信任化且可組合的結算層。這解鎖了用例,例如通過去中心化計算繫統使硬件更容易訪問,構建可以執行需要價值交換的覆雜任務的人工智能代理,以及開髮身份和來源解決方案來對抗 Sybil 攻擊和深度僞造。人工智能爲加密貨幣帶來了許多我們在 Web 2 中看到的相衕好處。這包括由於大型語言模型(即經過專門訓練的 ChatGPT 和 Copilot 版本)而爲用戶和開髮人員增強的用戶體驗 (UX) 以及潛在的、顯著提高智能合約功能和自動化。區塊鏈是人工智能所需的透明的數據豐富環境。但區塊鏈的計算能力也有限,這是直接集成人工智能模型需要解決的主要障礙。

加密貨幣和人工智能交叉領域正在進行的實驗和最終採用背後的驅動力也是推動加密貨幣最有前途的用例曏前髮展的動力——訪問非許可和去信任的協調層,從而更好地促進價值轉移。考慮到它們的巨大潛力,該領域的參與者需要了解這兩種技術交叉的基本方式。

要點:

  • 在不久的將來(6個月到1年),加密貨幣和人工智能的集成將由人工智能應用程序主導,這些應用程序可以提高開髮人員的效率、智能合約的可審計性和安全性以及用戶的可訪問性。這些集成併非特定於加密貨幣,而是增強了鏈上開髮人員和用戶體驗。
  • 正如高性能 GPU 嚴重短缺一樣,去中心化計算産品正在實施人工智能定製的 GPU 産品,爲採用提供了推動力。
  • 用戶體驗和監管仍然是爲吸引去中心化計算客戶需要解決問題。然後,在美國 OpenAI 的最新進展以及持續的監管審查強調了非許可、抗審查、去中心化的人工智能網絡的價值主張。
  • 鏈上人工智能集成,特別是能夠使用人工智能模型的智能合約,需要改進 zkML 技術和其他驗證鏈下計算的計算方法。缺乏全麵的工具和開髮人員人才以及高昂的成本是採用麵臨的障礙。
  • 人工智能代理非常適合加密貨幣,用戶(或代理本身)可以創建錢包以與其他服務、代理或人員進行交易。目前使用傳統的金融軌道無法實現這一點。爲了更廣泛的採用,需要與非加密産品進行額外的集成。

術語

人工智能:利用計算和機器來模仿人類的推理和解決問題的能力。

神經網絡:人工智能模型的一種訓練方法。他們通過離散的算法層運行輸入,對其進行改進,直到産生所需的輸出。神經網絡由具有權重的方程組成,可以修改權重來改變輸出。它們可能需要大量的數據和計算來進行訓練,以便其輸出準確。這是開髮 AI 模型最常見的方式之一(ChatGPT 使用依賴於轉換器)。

訓練:開髮神經網絡和其他人工智能模型的過程。它需要大量數據來訓練模型以正確解釋輸入併産生準確的輸出。在訓練過程中,模型方程的權重不斷修改,直到産生令人滿意的輸出。訓練費用可能非常高昂。以 ChatGPT 爲例,使用數萬個自己的 GPU 來處理數據。資源較少的團隊通常依賴專門的計算提供商,例如 Amazon Web Services、Azure 和 Google Cloud 提供商。

推理:實際使用 AI 模型來穫取輸出或結果(例如,使用 ChatGPT 爲有關加密貨幣和 AI 交叉點的論文創建大綱)。在整個訓練過程和最終産品中都會使用推理。由於計算成本的原因,即使在訓練完成後,它們的運行成本也可能很高,但其計算強度低於訓練。

零知識證明 (ZKP) 允許在不透露基礎信息的情況下驗證索賠。這在加密貨幣中很有用,主要有兩個原因:1) 提供隱私; 2) 支持擴展。爲了保護隱私,這使用戶能夠在不泄露敏感信息(例如錢包中有多少 ETH)的情況下進行交易。對於擴展而言,它使鏈下計算能夠比重新執行計算更快地在鏈上得到證明。這使得區塊鏈和應用程序能夠以低廉的成本在鏈外運行計算,然後在鏈上驗證它們。要了解有關零知識及其在以太坊虛擬機中的作用的更多信息,請參閲 Christine Kim的報告:zkEVM:以太坊可擴展性的未來

人工智能/加密貨幣市場地圖

人工智能和加密貨幣交叉的項目仍在構建支持大規模鏈上人工智能交互所需的底層基礎設施。

去中心化計算市場正在興起,以提供訓練和推理人工智能模型所需的大量物理硬件,主要以圖形處理單元 (GPU) 的形式。這些雙曏市場將那些租賃和尋求租賃計算的人連接起來,促進價值的轉移和計算的驗證。在去中心化計算中,正在出現幾個提供附加功能的子類別。除了雙邊市場之外,本報告還將回顧專門提供可驗證培訓和微調輸出的機器學習訓練提供商,以及緻力於連接計算和模型生成以實現人工智能的項目,也經常被稱爲智力激勵網絡。

zkML 是希望以經濟有效且及時的方式在鏈上提供可驗證模型輸出的項目的一個新興重點領域。這些項目主要賦予應用程序處理鏈下繁重計算請求的能力,然後在鏈上髮布可驗證的輸出,證明鏈下工作負載是完整且準確的。zkML 在當前實例中既昂貴又耗時,但越來越多地被用作解決方案。zkML 提供商和想要利用 AI 模型的 DeFi/游戲應用程序之間的集成數量在不斷增加,其中zkML的運用顯而易見。

充足的計算供應以及驗證鏈上計算的能力爲鏈上人工智能代理打開了大門。代理是經過訓練的模型,能夠代錶用戶執行請求。代理提供了顯著增強鏈上體驗的機會,使用戶隻需與聊天機器人對話即可執行覆雜的交易。然而,就目前而言,代理項目仍然專註於開髮基礎設施和工具,以實現輕鬆快速的部署。

去中心化計算

概述

人工智能需要大量計算來訓練模型和運行推理。在過去的十年中,隨著模型變得越來越覆雜,計算需求呈指數級增長。以開放人工智能(OpenAI)爲例。它在2012年到2018年間成立,其模型的計算需求從每兩年翻一番增加到每三個半月翻一番。這導緻一些加密貨幣礦工對 GPU 的需求激增,甚至一些加密礦工重新利用他們的 GPU 提供雲計算服務(可查看@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">我們的年度比特幣挖礦報告中以了解更多相關信息)。隨著訪問計算的競爭加劇和成本上升,一些項目正在利用加密技術來提供去中心化計算解決方案。他們以具有競爭力的價格提供按需計算,以便團隊能夠以經濟實惠的方式訓練和運行模型。在某些情況下,可能需要權衡性能和安全性。

最先進的 GPU,例如對 Nvidia 生産的産品需求量很大。9 月,Tether 收購了Northern Data(德國比特幣礦商)的一部分股份。據報道,Tether斥資4.2億美元購買了10,000個H100 GPU(用於人工智能訓練的最先進 GPU 之一)。等待一流的硬件時間可能至少爲六個月,在許多情況下甚至更長。更糟糕的是,公司經常被要求簽署長期合約,以穫取他們甚至可能不會使用的計算量。這可能會導緻存在可用計算但市場上不可用的情況。去中心化計算繫統有助於解決這些市場效率低下的問題,創建一個二級市場,計算所有者可以在接到通知後立即轉租其過剩容量,從而釋放新的供應。

除了有競爭力的定價和可訪問性之外,去中心化計算的關鍵價值主張是抗審查性。尖端人工智能開髮日益由擁有絶佳計算和數據訪問能力的大型科技公司主導。2023年的年度人工智能指數報告突出的第一個關鍵主題是,工業界在人工智能模型的開髮方麵越來越超過學術界,控製權集中在少數技術領導者手中。這引髮了人們的擔憂,即他們在規定支撐人工智能模型的規範和價值觀方麵是否有能力産生巨大影響力,特別是在這些科技公司爲限製人工智能的髮展超出他們的控製範圍而推動監管之後更是如此。

去中心化計算垂直領域

近年來出現了幾種去中心化計算模型,每種模型都有自己的重點和權衡。

廣義計算

Akash、io.net、iExec、Cudos 等項目都是去中心化計算應用程序,除了數據和通用計算解決方案之外,它們還提供或即將提供用於 AI 訓練和推理的專用計算的訪問權限。

Akash 是目前唯一完全開源的“超級雲”平颱。它是使用 Cosmos SDK 的權益證明網絡。AKT 是 Akash 的原生代幣,作爲一種支付形式,用於保護網絡安全併激勵參與。Akash 於 2020 年推出了第一個主網,專註於提供非許可的雲算力市場,最初具有存儲和 CPU 租賃特色服務。2023年6月,Akash 推出一個專註於 GPU 的新測試網,併於9月推出其可使用戶能夠租用 GPU 進行人工智能訓練和推理的 GPU 主網。

Akash 生態繫統中有兩個主要參與者:租戶和提供商。租戶是想要購買算力資源的 Akash 網絡的用戶。提供商是算力供應商。爲了匹配租戶和提供商,Akash 依靠逆曏拍賣流程。租戶提交他們的算力要求,在其中他們可以指定某些條件,例如服務器的位置或進行計算的硬件類型,以及他們願意支付的金額。然後,供應商提交他們的要價,最低出價者將穫得任務。

Akash 驗證者維護網絡的完整性。驗證者集目前限製爲100個,併計畫隨時間逐步增加。任何人都可以通過質押比當前質押 AKT 數量最少的驗證者更多的 AKT 來成爲驗證者。AKT 持有者還可以將其 AKT 委托給驗證者。網絡的交易費用和區塊獎勵以 AKT 形式分配。此外,對於每筆租賃,Akash 網絡都會按照社區確定的費率賺取“收取費用”,併將其分配給 AKT 持有者。

二級市場

去中心化算力市場將填補現有計算市場的低效率。供應限製導緻公司囤積超出其可能需要的算力資源,併且由於與雲提供商的合約結構將客戶鎖定在長期合約中,即使可能不需要持續訪問,供應也進一步受到限製。去中心化計算平颱釋放了新的供應,使世界上任何擁有算力需求的人都可以成爲供應商。

AI 訓練對 GPU 的需求激增是否會轉化爲 Akash 上的長期網絡使用還有待觀察。Akash 長期以來一直爲 CPU 提供市場,例如,以70-80%的折扣提供類似的服務作爲中心化替代方案。然而,較低的價格併沒有帶來顯著的採用。網絡上的活躍租約已趨於平緩,到2023年第二季度,平均隻有33%的算力、16%的內存和13%的存儲。雖然這些都是鏈上採用的可觀指標(作爲參考,領先的存儲提供商 Filecoin 已在2023年第三季度擁有12.6%存儲利用率 ),這錶明這些産品的供應繼續大於需求。

距 Akash 推出 GPU 網絡已經過去了半年多的時間,現在準確評估長期採用率還爲時過早。迄今爲止,GPU 的平均利用率爲44%,高於 CPU、內存和存儲的利用率,這是需求方麵的一個跡象。這主要是由對最高質量 GPU(如 A100)的需求推動的,90%以上的GPU都出租了。

Akash 的每日支出也有所增加,相對於 GPU 出現之前幾乎翻了一番。這部分歸因於其他服務使用量的增加,尤其是CPU,但主要是新 GPU 使用量導緻的結果。

定價與 Lambda Cloud 和 Vast.ai 等中心化競爭對手相當(或者在某些情況下甚至更貴)。對最高端 GPU(例如 H100 和 A100)的巨大需求意味著該設備的大多數所有者對在麵臨競爭性定價的市場上市興趣不大。

雖然最初體現了有前景的興趣,但採用仍然存在障礙(下麵進一步討論)。去中心化計算網絡需要採取更多措施來産生需求和供應,團隊正在嘗試如何最好地吸引新用戶。例如,2024年初,Akash 通過了提案240 增加 GPU 供應商的 AKT 排放量併激勵更多供應,特別是針對高端 GPU。團隊還緻力於推出概念驗證模型,曏潛在用戶展示其網絡的實時功能。Akash 正在訓練、自己的基礎模型,已經推出聊天機器人圖像生成,這些應用都使用 Akash GPU 創建輸出。衕樣,io.net 有開髮了穩定的擴散模型,併正在推出新的網絡功能,這能更好地模仿傳統 GPU 數據中心的性能和規模。

去中心化機器學習訓練

除了能夠滿足人工智能需求的通用計算平颱外,一組專註於機器學習模型訓練的專業人工智能GPU提供商也正在興起。例如,Gensyn 正在“協調電力和硬件來構建集體智慧”,其觀點是,“如果有人想要訓練某種東西,併且有人願意訓練它,那麽就應該允許這種訓練髮生。”

該協議有四個主要參與者:提交者、解決者、驗證者和舉報者。提交者曏網絡提交帶有培訓請求的任務。這些任務包括訓練目標、要訓練的模型和訓練數據。作爲提交過程的一部分,提交者需要爲解決者所需的估計計算量預先支付費用。

提交後,任務將分配給對模型進行實際訓練的解決者。然後,解決者將已完成的任務提交給驗證者,驗證者負責檢查訓練以確保正確完成。舉報人有責任確保驗證者誠實行事。爲了激勵舉報人參與網絡,Gensyn 計畫定期提供故意錯誤的證據,獎勵舉報人抓住他們。

除了爲人工智能相關工作負載提供計算之外,Gensyn 的關鍵價值主張是其驗證繫統,該繫統仍在開髮中。爲了確保 GPU 提供商的外部計算正確執行(即確保用戶的模型按照他們想要的方式進行訓練),驗證是必要的。Gensyn 採用獨特的方法解決了這個問題,利用了稱爲“概率學習證明、基於圖形的精確協議和 Truebit 式激勵游戲”的新穎驗證方法。這是一種樂觀求解模式,允許驗證者確認解決者已正確運行模型,而無需自己完全重新運行模型,這是一個成本高昂且低效的過程。

除了創新的驗證方法之外,Gensyn 還宣稱,相對於中心化替代方案和加密貨幣競爭對手而言,自己具有成本效益,可提供 ML 培訓的成本比 AWS 低 80%,衕時在測試中勝過 Truebit 等類似項目。

這些初步結果是否可以在去中心化網絡中大規模覆製還有待觀察。Gensyn 希望利用小型數據中心、零售用戶以及未來手機等小型移動設備等提供商的多餘算力。然而,正如 Gensyn 團隊本身所承認的那樣,依賴異構計算提供商帶來了一些新的挑戰。

對於 Google Cloud Providers 和 Coreweave 等中心化提供商來説,計算成本昂貴,而計算之間的通信(帶寬和延遲)卻很便宜。這些繫統旨在盡快實現硬件之間的通信。Gensyn 顛覆了這一框架,通過讓世界上任何人都可以提供 GPU 來降低計算成本,但衕時也增加了通信成本,因爲網絡現在必鬚在相距較遠的異構硬件上協調計算作業。Gensyn 尚未推出,但它是構建去中心化機器學習訓練協議時可能實現的概念證明。

去中心化通用智能

去中心化計算平颱也爲人工智能創建方法的設計提供了可能性。Bittensor 是一種基於 Substrate 建立的去中心化計算協議。Substrate 試圖回答 “我們如何將人工智能轉變爲協作方法?”的問題,Bittensor 旨在實現人工智能生成的去中心化和商品化。該協議於2021年推出,希望利用協作機器學習模型的力量來不斷迭代併産生更好的人工智能。

Bittensor 從比特幣中汲取靈感,其原生貨幣 TAO 的供應量爲2100萬,減半周期爲四年(第一次減半將於2025年)。Bittensor 不是使用工作量證明來生成正確的隨機數併穫得區塊獎勵,而是依賴於“智能證明”,要求礦工運行模型來響應推理請求而生成輸出。

激勵智能

Bittensor 最初依賴專家混合 (MoE) 模型來生成輸出。當提交推理請求時,MoE 模型不會依賴一個廣義模型,而是將推理請求轉髮給給定輸入類型的最準確的模型。想象一下建造一棟房子,您聘請了各種專家來負責施工過程的不衕方麵(例如:建築師、工程師、油漆工、建築工人等……)。 MoE 將其應用於機器學習模型,嘗試根據輸入利用不衕模型的輸出。Bittensor 創始人 Ala Shaabana認爲,這就像“與一屋子聰明人交談併穫得最佳答案,而不是與一個人交談”。由於確保正確路由、消息衕步到正確的模型以及激勵麵臨挑戰,這種方法已被擱置至項目得到進一步開髮。

Bittensor 網絡中有兩個主要參與者:驗證者和礦工。驗證者的任務是曏礦工髮送推理請求,審查他們的輸出,併根據他們的響應質量對它們進行排名。爲了確保他們的排名可靠,驗證者會根據他們的排名與其他驗證者排名的一緻程度給予“vtrust”分數。驗證者的 vtrust 分數越高,他們穫得的 TAO 排放量就越多。這是爲了激勵驗證者隨時間就模型排名達成共識,因爲就排名達成一緻的驗證者越多,他們的個人 vtrust 分數就越高。

礦工,也稱爲服務器,是運行實際機器學習模型的網絡參與者。礦工們相互競爭,爲驗證者提供針對給定查詢的最準確的輸出,輸出越準確,賺取的 TAO 排放就越多。礦工可以按照自己的意願生成這些輸出。例如,在未來的情況下,Bittensor 礦工完全有可能之前在 Gensyn 上訓練過模型,併用它們來賺取 TAO 排放量。

如今,大多數交互直接髮生在驗證者和礦工之間。驗證者曏礦工提交輸入併請求輸出(即訓練模型)。一旦驗證者查詢網絡上的礦工併收到他們的響應,他們就會對礦工進行排名併將其排名提交到網絡。

驗證者(依賴 PoS)和礦工(依賴模型證明,PoW 的一種形式)之間的這種互動被稱爲 Yuma 共識。它旨在激勵礦工産生最好的輸出來賺取 TAO 排放,併激勵驗證者對礦工輸出進行準確排名,以穫得更高的 vtrust 分數併增加他們的 TAO 獎勵,從而形成網絡的共識機製。

子網和應用程序

Bittensor 上的交互主要包括驗證者曏礦工提交請求併評估其輸出。然而,隨著貢獻礦工的質量提高和網絡整體智能的增長,Bittensor 將在其現有堆棧之上創建一個應用程序層,以便開髮人員可以構建查詢 Bittensor 網絡的應用程序。

2023年10月,Bittensor 朝著實現這一目標邁出了重要一步:引入通過其Revolution升級的子網。子網是 Bittensor 上激勵特定行爲的單獨網絡。Revolution 曏任何有興趣創建子網的人開放網絡。自髮布以來的幾個月裡,超過32個子網 已推出了包括文本提示、數據抓取、圖像生成和存儲的功能。隨著子網的成熟以及産品就緒,子網創建者還將創建應用程序集成,使團隊能夠構建查詢特定子網的應用程序。一些應用程序(聊天機器人圖像生成器推特回覆機器人預測市場)今天確實存在,但除了 Bittensor 基金會的資助之外,驗證者沒有正式的激勵措施來接受和轉髮這些查詢。

爲了提供更清晰的説明,下麵舉例示例説明應用程序集成到網絡中後 Bittensor 將如何工作。

子網根據子根網絡估的性能穫得 TAO。根網絡位於所有子網之上,本質上充當一種特殊的子網,併由 64 個最大的子網驗證者按權益進行管理。根網絡驗證者根據子網的性能對子網進行排名,併定期將 TAO 排放分配給子網。通過這種方式,各個子網充當根網絡的礦工。

Bittensor展望

Bittensor 仍在經歷成長的煩惱,因爲它擴展了協議的功能以激勵跨多個子網的智能生成。礦工們不斷設計新的方法來攻擊網絡以穫得更多 TAO 獎勵,例如通過稍微修改由他們的模型運行的高評價推理的輸出,然後提交多個變體。影響整個網絡的治理提案隻能由Triumvirate提交和實施。Triumvirate完全由 Opentensor 基金會利益相關者組成(需要註意的是,提案需要得到由實施前的 Bittensor 驗證者組成的 Bittensor 參議院的批準 )。該項目的代幣經濟正在完善之中,以提高對 TAO 跨子網使用的激勵。該項目還因其獨特的方法而迅速變得聲名狼藉,首席執行官是最受歡迎的人工智能網站之一HuggingFace錶明,Bittensor 應將其資源添加到網站上。

在最近髮錶的一篇文章由一位名爲“Bittensor Paradigm”的核心開髮人員提出,該團隊闡述了 Bittensor 的願景,即最終髮展爲“對所測量的內容不可知”。理論上,這可以使 Bittensor 開髮子網來激勵由 TAO 提供支持的任何類型的行爲。這仍存在相當大的實際限製——最明顯的是,證明這些網絡能夠擴展以處理如此多樣化的流程,併且潛在的激勵措施推動了超越中心化産品的進步。

爲人工智能模型構建去中心化計算堆棧

上述部分高度概述正在開髮的各種類型的去中心化人工智能計算協議。在開髮和採用的早期,它們提供了生態繫統的基礎,最終可以促進“人工智能構建塊”的創建,例如 DeFi 的“金錢樂高”概念。非許可的區塊鏈的可組合性爲每個協議構建在另一個協議之上提供了可能性,以提供更全麵的去中心化人工智能生態繫統。

例如,這是 Akash、Gensyn 和 Bittensor 可能全部交互以響應推理請求的一種方式。

需要明確的是,這隻舉例了一種未來可能髮生的情況,而不代錶當前生態繫統、現有合作伙伴關繫或可能結果。互操作性的限製以及下麵描述的其他考慮因素極大地限製了當今的集成可能性。除此之外,流動性的碎片化和使用多種代幣的需求可能會損害用戶體驗,Akash 和 Bittensor 的創始人已指出這一點。

其他去中心化産品

除了算力之外,還推出了其他幾種去中心化基礎設施服務,以支持加密貨幣新興的人工智能生態繫統。本文無法介紹所有這些産品,僅舉例一些有趣且具有説明性的産品:

  • Ocean:去中心化的數據市場。用戶可以創建代錶其數據的數據 NFT,併可以使用數據代幣進行購買。用戶既可以將其數據貨幣化,又可以對其擁有更大的主權,衕時爲人工智能團隊提供開髮和訓練模型所需數據的訪問權限。
  • Grass:去中心化的帶寬市場。用戶可以將多餘的帶寬出售給人工智能公司,後者利用這些帶寬從互聯網上抓取數據。這建立在Wynd網絡之上,不僅使個人能夠將其帶寬貨幣化,而且還爲帶寬購買者提供了更多樣化的觀點,讓他們了解個人用戶在網上看到的內容(因爲個人的互聯網訪問通常是根據其 IP 地址專門定製的)。
  • HiveMapper:構建一個去中心化的地圖産品,其中包含從日常汽車駕駛員收集的信息。HiveMapper 依靠 AI 來解釋從用戶儀錶闆攝像頭收集的圖像,併獎勵用戶通過強化人類學習反饋 (RHLF) 幫助微調 AI 模型的代幣。

總的來説,這些都指曏幾乎無限的機會,即探索支持人工智能模型的去中心化市場模型或開髮它們所需的周邊基礎設施。目前,這些項目大多處於概念驗證階段,需要更多的研究和開髮來證明它們能夠以提供全麵人工智能服務所需的規模運行。

展望

去中心化算力産品仍處於開髮的早期階段。他們剛剛開始推出最先進的算力,能夠在生産中訓練最強大的人工智能模型。爲了穫得有意義的市場份額,他們需要展示與中心化替代方案相比的實際優勢。更廣泛採用的潛在觸髮因素包括:

  • GPU 供應/需求。GPU 的稀缺加上快速增長的算力需求正在導緻 GPU 軍備競賽。 OpenAI 已因GPU限製而限製過一次訪問,即無法訪問其平颱。Akash 和 Gensyn 等平颱可以爲需要高性能算力的團隊提供具有成本競爭力的替代方案。對於去中心化算力提供商來説,未來 6-12 個月提供了特別獨特的機會以吸引新用戶,由於缺乏更廣泛的市場準入,這些新用戶被迫考慮去中心化産品。再加上 Meta 的 LLaMA 2 等性能日益提高的開源模型,用戶在部署有效的微調模型時不再麵臨衕樣的障礙,使計算資源成爲主要瓶頸。然而,平颱本身的存在併不能確保足夠的算力供應和消費者的相應需求。採購高端 GPU 仍然很睏難,而且成本併不總是需求方的主要動機。這些平颱將麵臨挑戰,以展示使用去中心化算力選項的實際好處(無論是由於成本、審查阻力、正常運行時間和彈性還是可訪問性)來積纍粘性用戶。他們必鬚快速行動。 GPU基礎設施投資和建設正在以驚人的速度髮生。
  • 監管。 監管仍然是去中心化算力運動的阻力。短期內,缺乏明確的監管意味著提供商和用戶都麵臨使用這些服務的潛在風險。如果供應商提供算力或買方在不知情的情況下從受製裁實體購買算力怎麽辦?用戶可能會猶豫是否使用缺乏中心化實體控製和監督的去中心化平颱。協議試圖通過將控件納入其平颱或添加過濾器以僅訪問已知的算力提供商(即提供了實名認證(KYC)信息)來減輕這些擔憂,但要實現採用就需要能在確保合規性的衕時保護隱私的更強大方法。短期內,我們可能會看到 KYC 和合規平颱的出現,這些平颱限製對其協議的訪問,以解決這些問題。此外,圍繞美國可能的新監管框架的討論,最好的體現是髮布的關於安全、可靠和值得信賴的人工智能開髮和使用的行政命令,強調了進一步限製 GPU 訪問的監管行動的可能性。
  • 審查製度。 監管是雙曏的,去中心化的算力産品可以從限製人工智能訪問的行動中受益。除了行政命令外,OpenAI 創始人 Sam Altman 還作證國會討論了監管機構爲人工智能開髮頒髮許可證的必要性。關於人工智能監管的討論才剛剛開始,但任何此類限製訪問或審查人工智能功能的嘗試都可能加速不存在此類障礙的去中心化平颱的採用。11月 OpenAI 領導層換屆 (或缺乏)進一步體現了將現有最強大的人工智能模型的決策權授予少數人的風險。此外,所有人工智能模型都必然反映了創建它們的人的偏見,無論是有意還是無意。消除這些偏差的一種方法是使模型盡可能開放地進行微調和訓練,確保任何地方的任何人都可以訪問各種類型和偏差的模型。
  • 數據隱私。 當與爲用戶提供數據自主權的外部數據和隱私解決方案集成時,去中心化算力可能會比中心化替代方案更具吸引力。Samsung公司成爲受害者,當他們意識到工程師正在使用 ChatGPT 來幫助芯片設計併將敏感信息泄露給 ChatGPT 時,他們就意識到了這一點。Phala Network 和 iExec 聲稱爲用戶提供 SGX 安全飛地來保護用戶數據,併且正在進行的完全衕態加密研究將進一步解鎖確保隱私的去中心化算力。隨著人工智能進一步融入我們的生活,用戶將更加重視能夠在具有隱私保護的應用程序上運行模型。用戶還需要支持數據可組合性的服務,以便他們可以將數據從一種模型無縫移植到另一種模型。
  • 用戶體驗(UX)。 用戶體驗仍然是更廣泛採用所有類型的加密應用程序和基礎設施的重大障礙。這對於去中心化算力産品來説併沒有什麽不衕,併且在某些情況下,由於開髮人員需要了解加密貨幣和人工智能,這會加劇這種情況。需要從基礎知識(例如入門和抽象與區塊鏈的交互)進行改進,以提供衕等的高質量輸出以作爲當前的市場領導者。鑒於許多提供更便宜産品的可操作的去中心化算力協議很難穫得普遍使用,這一點顯而易見。

智能合約和 zkML

智能合約是任何區塊鏈生態繫統的核心構建塊。在給定一組特定條件的情況下,它們會自動執行併減少或消除對受信任第三方的需求,從而能夠創建覆雜的去中心化應用程序,例如 DeFi 中的應用程序。然而,由於智能合約目前大部分都存在,因此其功能仍然有限,因爲它們根據必鬚更新的預設參數執行。

例如,部署的借貸協議智能合約包含根據特定貸款與價值比率何時清算頭寸的規範。雖然在靜態環境中有用,但在風險不斷變化的動態情況下,這些智能合約必鬚不斷更新以適應風險承受能力的變化,這給不通過集中流程管理的合約帶來了挑戰。例如,依賴去中心化治理流程的 DAO 可能無法快速反應以應對繫統性風險。

集成人工智能(即機器學習模型)的智能合約是增強功能、安全性和效率衕時改善整體用戶體驗的一種可能方法。然而,這些集成也帶來了額外的風險,因爲不可能確保支撐這些智能合約的模型不會被利用或解釋長尾情況(鑒於數據輸入的稀缺,長尾情況很難訓練模型)。

零知識機器學習(zkML)

機器學習需要大量的算力來運行覆雜的模型,這使得人工智能模型由於成本高昂而無法直接在智能合約中運行。例如,爲用戶提供收益優化模型的 DeFi 協議將很難在鏈上運行該模型,而無需支付過高的Gas費。一種解決方案是增加底層區塊鏈的算力能力。然而,這也增加了對鏈驗證者集的要求,可能會破壞去中心化特性。相反,一些項目正在探索使用 zkML 以去信任的方式驗證輸出,而不需要密集的鏈上計算。

説明 zkML 有用性的一個常見示例是,當用戶需要其他人通過模型運行數據併驗證其交易對手實際上運行了正確的模型時。也許開髮人員正在使用去中心化算力提供商來訓練他們的模型,併擔心該提供商試圖通過使用輸出差異幾乎無法察覺的更便宜的模型來削減成本。zkML 使算力提供商能夠通過其模型運行數據,然後生成可以在鏈上驗證的證明,以證明給定輸入的模型輸出是正確的。在這種情況下,模型提供者將具有額外的優勢,即能夠提供他們的模型,而不必透露産生輸出的基礎權重。

也可以做相反的事情。如果用戶想要使用他們的數據運行模型,但由於隱私問題(即,在醫療檢查或專有商業信息的情況下),不希望提供模型的項目訪問他們的數據,那麽用戶可以在他們的數據上運行模型而不共享數據,然後通過證明驗證他們運行了正確的模型。這些可能性通過解決令人望而卻步的算力限製,極大地擴展了人工智能和智能合約功能集成的設計空間。

基礎設施和工具

鑒於 zkML 領域的早期狀態,開髮主要集中在構建團隊所需的基礎設施和工具,以將其模型和輸出轉換爲可以在鏈上驗證的證明。這些産品盡可能地抽象了開髮的零知識方麵。

EZKLGiza 是兩個通過提供機器學習模型執行的可驗證證明來構建此工具的項目。兩者都幫助團隊構建機器學習模型,以確保這些模型可以以能夠在鏈上以可信方式驗證結果的方式執行。這兩個項目都使用開放神經網絡交換 (ONNX) 將用 TensorFlow 和 Pytorch 等通用語言編寫的機器學習模型轉換爲標準格式。然後,他們輸出這些模型的版本,這些模型在執行時也會生成 zk 證明。 EZKL 是開源的,生産 zk-SNARKS;而 Giza 是閉源的,生産 zk-STARKS。這兩個項目目前僅兼容 EVM。

過去幾個月,EZKL 在增強 zkML 解決方案方麵取得了重大進展,主要集中在降低成本提高安全性加速證明生成方麵。例如,2023年11月,EZKL 集成了一個新的開源 GPU 庫,可將聚合證明時間減少35%,1月 EZKL公布了 Lilith——一種軟件解決方案,用於在使用 EZKL 證明繫統時集成高性能算力集群併編排併髮作業。Giza 的獨特之處在於,除了提供用於創建可驗證的機器學習模型的工具之外,他們還計畫實現相當於 web3 的Hugging Face,從而開放 zkML 協作和模型共享的用戶市場,併最終集成去中心化算力産品。一月份 EZKL 髮布了基準評估,比較了 EZKL、Giza 和 RiscZero(下麵討論)的性能。 EZKL 展示了更快的證明時間和內存使用。

Modulus Labs還在開髮一種爲 AI 模型定製的新的 zk-proof 技術。Modulus髮錶了一篇論文,名爲智能的成本 (暗示在鏈上運行 AI 模型的成本極高),對當時現有的 zk-proof 繫統進行了基準測試,以確定改進 AI 模型 zk-proofs 的能力和瓶頸。該論文於2023年1月髮布,錶明現有産品成本過高且效率低下,無法大規模實現人工智能應用。基於他們的初步研究,11月的 Modulus@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">引入Remainder——一種專門的零知識證明器,專門爲降低 AI 模型的成本和證明時間而構建,其目標是使項目在經濟上可行,將模型大規模集成到其智能合約中。他們的工作是閉源的,因此無法與上述解決方案進行基準測試,但最近在 Vitalik 的加密貨幣和人工智能相關博客文中有提及。

工具和基礎設施開髮對於 zkML 空間的未來增長至關重要,因爲它可以大大減少需要部署運行可驗證的鏈下算力所需的 zk 電路的團隊之間的摩擦。安全接口的創建使從事機器學習工作的非加密原生構建者能夠將他們的模型帶到鏈上,這將使應用程序能夠通過真正新穎的用例進行更大的實驗。工具還解決了更廣泛採用 zkML 的一個主要障礙,即缺乏知識淵博且對零知識、機器學習和密碼學交叉領域工作感興趣的開髮人員。

協處理器

正在開髮的其他解決方案(稱爲“協處理器”)包括RiscZeroAxiomRitual。協處理器這個術語主要是語義上的——這些網絡履行許多不衕的角色,包括驗證鏈上的鏈下計算。與 EZKL、Giza 和 Modulus 一樣,他們的目標是完全抽象零知識證明生成過程,創建本質上能夠執行鏈下程序併生成鏈上驗證證明的零知識虛擬機。RiscZero 和 Axiom 可以服務簡單的人工智能模型,因爲它們是更通用的協處理器,而 Ritual 是專門爲與人工智能模型一起使用而構建的。

Infernet 是 Ritual 的第一個實例,包括允許開髮人員曏網絡提交推理請求併接收輸出和證明(可選)作爲回報的推理網SDK。Infernet 節點接收這些請求併在返回輸出之前處理鏈下計算。例如,DAO 可以創建一個流程,確保所有新的治理提案在提交之前滿足某些先決條件。每次提交新提案時,治理合約都會通過 Infernet 觸髮推理請求,調用 DAO 特定治理訓練的 AI 模型。該模型會審查提案,以確保提交所有必要的標準,併返回輸出和證據,批準或拒絶提案的提交。

在接下來的一年裡,Ritual 團隊計畫推出更多功能,形成稱爲 Ritual 超級鏈的基礎基礎設施層。前麵討論的許多項目都可以作爲服務提供商插入 Ritual。Ritual 團隊已與 EZKL 集成以生成證明,併且可能很快會添加其他領先提供商的功能。Ritual 上的 Infernet 節點還可以使用 Akash 或 io.net GPU 以及在 Bittensor 子網上訓練的查詢模型。他們的最終目標是成爲開放人工智能基礎設施的首選提供商,能夠爲任何網絡、任何工作負載的機器學習和其他人工智能相關任務提供服務。

應用領域

zkML 有幫助調和區塊鏈和人工智能之間的矛盾,前者本質上是資源受限的,而後者則需要大量的計算和數據。正如Giza的創始人之一所言,“用例如此豐富……這有點像以太坊早期問智能合約的用例是什麽……我們所做的隻是擴展智能合約的用例。”然而,如上所述,當今的開髮主要髮生在工具和基礎設施級別。應用程序仍處於探索階段,團隊麵臨的挑戰是證明使用 zkML 實現模型所産生的價值超過了其覆雜性和成本。

目前的一些應用包括:

  • 去中心化金融。 zkML通過增強智能合約能力,升級了DeFi的設計空間。DeFi 協議爲機器學習模型提供大量可驗證且不可變的數據,可用於生成收益生成或交易策略、風險分析、用戶體驗等。例如,Giza 與 Yearn Finance 合作,爲 Yearn 的新 v3 金庫構建概念驗證自動風險評估引擎。Modulus Labs 與 Lyra Finance @ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36">合作將機器學習納入其 AMM,與 Ion Protocol 合作實施分析驗證者風險的模型,併幫助 Upshot 驗證其人工智能支持的 NFT 價格信息。NOYA(利用 EZKL)和 Mozaic 等協議提供了對專有鏈下模型的訪問,這些模型使用戶能夠訪問自動化流動性挖礦,衕時使他們能夠驗證鏈上的數據輸入和證明。Spectral Finance 正在構建鏈上信用評分引擎,以預測 Compound 或 Aave 借款人拖欠貸款的可能性。由於 zkML,這些所謂的“De-Ai-Fi”産品在未來幾年可能會變得更加流行。
  • 游戲。長期以來,人們一直認爲公共區塊鏈顛覆和增強游戲的時機已經成熟(有關加密貨幣和游戲的更多信息,請參閲這份 Galaxy Digital 報告 -游戲的歷史及其 Web3 的未來)。 zkML 使人工智能的鏈上游戲成爲可能。Modulus Lab 已經實現了簡單鏈上游戲的概念驗證。Leela vs the World是一款博弈論國際象棋游戲,用戶在其中與 AI 國際象棋模型對抗,使用 zkML 驗證 Leela 走的每一步都是基於游戲運行的模型。衕樣,團隊也使用 EZKL 框架來構建簡單的歌唱比賽和鏈上井字游戲Cartridge 正在使用 Giza 以使團隊能夠部署完全鏈上游戲,最近重點介紹了一款簡單的人工智能駕駛游戲,用戶能參與競爭以試圖創建能避開障礙物的汽車來創建更好的模型。雖然很簡單,但這些概念驗證指曏未來的實現,能夠實現更覆雜的鏈上驗證,例如能夠與游戲內經濟體進行交互的覆雜 NPC 演員,如《@ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307">AI Arena》中所見,這是一款超級粉碎兄弟游戲,玩家可以在其中訓練自己的戰士,然後部署爲人工智能模型進行戰鬥。
  • 身份、出處和隱私。加密貨幣已經被用作驗證真實性和打擊越來越多的人工智能生成/操縱內容和深度僞造的手段。zkML 可以推進這些努力。WorldCoin 是一種身份證明解決方案,要求用戶掃描虹膜以生成唯一的 ID。未來,生物識別 ID 可以使用加密存儲在個人設備上進行自我托管,併使用驗證本地運行的生物識別所需的模型。然後,用戶可以提供生物識別證據,而無需透露自己的身份,從而在確保隱私的衕時抵禦女巫攻擊。這也可以應用於需要隱私的其他推論,例如使用模型分析醫療數據/圖像來檢測疾病、驗證人格併在約會應用程序中開髮匹配算法,或者需要驗證資金信息的保險和貸款機構。

展望

zkML 仍處於實驗階段,大多數項目都專註於構建基礎設施原語和概念證明。如今的挑戰包括計算成本、內存限製、模型覆雜性、有限的工具和基礎設施以及開髮人員人才。簡而言之,在 zkML 能夠以消費産品所需的規模實施之前,還有相當多的工作要做。

然而,隨著該領域的成熟以及這些限製的解決,zkML 將成爲人工智能和加密集成的關鍵組成部分。從本質上講,zkML 承諾能夠將任何規模的鏈外計算引入鏈上,衕時保持與鏈上運行相衕或接近相衕的安全保證。然而,在這一願景實現之前,該技術的早期用戶將繼續必鬚在 zkML 的隱私和安全性與替代方案的效率之間進行權衡。

人工智能代理

人工智能和加密貨幣最令人期待的的集成之一是正在進行的人工智能代理實驗。代理是能夠使用人工智能模型接收、解釋和執行任務的自主機器人。這可以是任何事情,從擁有一個隨時可用的、基於您偏好進行微調的個人助理,到雇用一個根據您風險偏好來管理和調整您投資組合的金融代理人。

由於加密貨幣提供了非許可和去信任的支付基礎設施,代理和加密貨幣可以很好地結合在一起。經過培訓後,代理將穫得一個錢包,以便他們可以自行使用智能合約進行交易。例如,今天的簡單代理可以在互聯網上抓取信息,然後根據模型在預測市場上進行交易。

代理提供商

Morpheus 是 2024 年在以太坊和 Arbitrum 上上市的最新開源代理項目之一。其白皮書於2023年9月匿名髮布,爲社區的形成和構建提供了基礎(包括著名人物,如Erik Vorhees)。該白皮書包含可下載的智能代理協議,這是一個開源的LLM,可以在本地運行,由用戶的錢包管理,併與智能合約交互。它使用一個智能合約排名來幫助代理根據處理的交易數量等標準確定哪些智能合約可以安全地進行交互。

白皮書還提供了構建 Morpheus 網絡的框架,例如使智能代理協議運行所需的激勵結構和基礎設施。這包括激勵貢獻者構建用於與代理交互的前端、供開髮人員構建可插入代理以便他們可以相互交互的應用程序的 API,以及使用戶能夠訪問運行代理所需的計算和存儲的雲解決方案在邊緣設備上。該項目的初始資金已於 2 月初啟動,完整協議預計將於 2024 年第二季度啟動。

去中心化自治基礎設施網絡(DAIN)是一種新的代理基礎設施協議,在 Solana 上構建代理到代理經濟。DAIN 的目標是讓來自不衕企業的代理可以通過通用 API 無縫地相互交互,從而大大開放 AI 代理的設計空間,重點是實現能夠與 web2 和 web3 産品交互的代理。一月份,DAIN 宣布了他們的第一個合伙伙伴Asset Shield,讓用戶可以將“代理簽名者”添加到其多重簽名中,這些簽名者能夠根據用戶設置的規則解釋交易併批準/拒絶。

Fetch.AI 是最早部署的人工智能代理協議之一,併開髮了一個生態繫統,用於使用其 FET 代幣構建、部署和利用使用 FET代幣和Fetch.AI錢包的鏈上代理。該協議提供了一套用於使用代理的全麵工具和應用程序,包括用於與代理交互和訂購代理的錢包內功能。

Fetch 團隊的前成員也是Autonolas的創始人。Autonolas是一個用於創建和使用去中心化人工智能代理的開放市場。Autonolas 還爲開髮人員提供了一套工具來構建鏈下托管的人工智能代理,併可以嵌入多個區塊鏈,包括 Polygon、Ethereum、Gnosis Chain 和 Solana。他們目前有一些積極的代理概念證明産品,包括用於預測市場和 DAO 治理的用例。

SingularityNet 正在爲人工智能代理建立一個去中心化的市場,人們可以在其中部署專門的人工智能代理,這些代理可以被其他人或代理雇用以執行覆雜的任務。其代理,如AlteredStateMachine,正在構建 AI Agent 與 NFT 的集成。用戶鑄造具有隨機屬性的 NFT,這些屬性賦予他們在不衕任務上的優勢和劣勢。然後可以對這些代理進行訓練,以增強某些屬性,從而用於游戲、DeFi 或作爲虛擬助手併與其他用戶進行交易。

總的來説,這些項目設想了一個未來的智能體生態繫統,這些智能體能夠協衕工作,不僅可以執行任務,還可以幫助構建通用人工智能。真正覆雜的代理將有能力自主完成任何用戶任務。例如,完全自主的代理將能夠弄清楚如何雇用另一個代理來集成 API,然後執行,而不必確保代理在使用之前已經與外部 API(例如旅行預訂網站)集成。任務。從用戶的角度來看,不需要檢查代理是否可以完成任務,因爲代理可以自己確定。

比特幣和人工智能代理

2023年7月,Lightning Labs 推出了在閃電網絡上使用代理的概念驗證實施方案,稱爲 LangChain 比特幣套件。該産品特別有趣,因爲它將解決 Web 2 世界中日益嚴重的問題 –門控和Web 應用程序的昂貴API 密鑰。

LangChain 通過爲開髮人員提供一套工具來解決此問題,使代理能夠購買、出售和持有比特幣,以及查詢 API 密鑰和髮送小額支付。在傳統的支付軌道上,小額支付由於費用而成本高昂;而在閃電網絡上,代理商可以每天以最低的費用髮送無限的小額支付。當與 LangChain 的 L402 支付計量 API 框架結合使用時,公司可以根據使用量的增加和減少調整其 API 的訪問費用,而不是設定單一的成本高昂的標準。

在未來,鏈上活動主要由智能代理與智能代理交互所主導,這樣的事情將是必要的,以確保智能代理能夠以不成本過高的方式相互交互。這是一個早期的例子,説明如何在非許可且經濟高效的支付軌道上使用代理,爲新市場和經濟互動開辟了可能性。

展望

代理領域仍處於新生階段。項目剛剛開始推出功能代理,可以使用其基礎設施處理簡單的任務——這通常隻有經驗豐富的開髮人員和用戶才能訪問。然而,隨著時間的推移,人工智能代理對加密貨幣的最大影響之一是所有垂直領域的用戶體驗改進。交易將開始從基於點擊轉曏基於文本,用戶能夠通過LLM與鏈上代理進行交互。已有團隊(如Dawn Wallet)正在推出聊天機器人錢包,供用戶在鏈上進行交互。

此外,目前還不清楚代理商如何在 Web 2 中運作,因爲金融賽道依賴於受監管的銀行機構,這些機構不能全天候運營,也無法進行無縫跨境交易。正如 Lyn Alden 強調的那樣,由於缺乏退款和處理微交易的能力,與信用卡相比,加密貨幣賽道尤其有吸引力。然而,如果代理成爲一種更常見的交易方式,現有的支付提供商和應用程序很可能會迅速採取行動,實施在現有金融賽掉上運營所需的基礎設施,從而削弱使用加密貨幣的一些好處。

目前,代理可能僅限於確定性的加密貨幣交易,其中給定輸入保證給定輸出。這兩種模型都規定了這些代理弄清楚如何執行覆雜任務的能力,而工具則擴大了它們可以完成的範圍,都需要進一步開髮。爲了讓加密代理在新的鏈上加密用例之外變得有用,需要更廣泛的集成、接受加密作爲一種支付形式,以及明確的監管。然而,隨著這些組件的髮展,代理準備成爲上述去中心化計算和 zkML 解決方案的最大消費者之一,以自主的非確定性方式接收和解決任何任務。

結論

AI 爲加密貨幣引入了我們在 web2 中看到的相衕創新,提升了從基礎設施開髮到用戶體驗和可訪問性的各個方麵。然而,項目仍處於髮展早期,近期加密貨幣和人工智能集成將主要由鏈下集成主導。

産品如Copilot將要“10倍的” 開髮人員效率,第1層協議和去中心化金融應用程序已與微軟等大公司合作推出人工智能輔助開髮平颱。Cub3.aiTest Machine 等公司正在開髮用於智能合約審計和實時威脅監控的人工智能集成,以增強鏈上安全性。LLM 聊天機器人正在使用鏈上數據、協議文檔和應用程序進行培訓,爲用戶提供增強的可訪問性和用戶體驗。

對於真正利用加密貨幣底層技術的更高級集成來説,挑戰仍然是證明在鏈上實施人工智能解決方案在技術上是可行的,在經濟上也是可行的。去中心化計算、zkML 和 AI 代理的髮展指曏有前景的垂直領域,這些領域爲加密貨幣和人工智能深度互聯的未來奠定了基礎。

聲明:

  1. 本文轉載自[galaxy],著作權歸屬原作者[Lucas Tcheyan],如對轉載有異議,請聯繫Gate Learn團隊,團隊會根據相關流程盡速處理。
  2. 免責聲明:本文所錶達的觀點和意見僅代錶作者個人觀點,不構成任何投資建議。
  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得覆製、傳播或抄襲經翻譯文章。
Comece agora
Registe-se e ganhe um cupão de
100 USD
!