Galaxy Digital:了解加密貨幣和人工智能的交集

中級2/28/2024, 4:55:32 AM
本文介紹了加密貨幣和人工智能的交集,公共區塊鏈的出現是計算機科學歷史上最深刻的進步之一, 而人工智能的髮展將會併且已經在對我們的世界産生深遠的影

引言

公共區塊鏈的出現是計算機科學歷史上最深刻的進步之一。而人工智能的髮展將會併且已經在對我們的世界産生深遠的影響。如果説區塊鏈技術爲交易結算、數據存儲和繫統設計提供了新的模闆,那麽人工智能則是計算、分析和內容交付方麵的一場革命。這兩個行業的創新正在釋放新的用例,從而可能在未來幾年加速這兩個行業的採用。本報告探討了加密貨幣和人工智能的持續集成,重點關註試圖彌合兩者之間差距、利用兩者力量的新穎用例。具體來説,本報告研究了開髮去中心化計算協議、零知識機器學習 (zkML) 基礎設施和人工智能代理的項目。

加密貨幣爲人工智能提供了無需許可、無需信任且可組合的結算層。這解鎖了用例,例如通過去中心化計算繫統使硬件更容易訪問,構建可以執行需要價值交換的覆雜任務的人工智能代理,以及開髮身份和來源解決方案來對抗 Sybil 攻擊和深度僞造。人工智能爲加密貨幣帶來了許多我們在 Web 2 中看到的相衕好處。這包括通過大型語言模型(即經過專門訓練的 ChatGPT 和 Copilot )增強用戶和開髮人員的用戶體驗 (UX),以及顯著地改進智能合約的功能和自動化的潛力。 區塊鏈是人工智能所需的透明的數據豐富環境。 但區塊鏈的計算能力也有限,這是直接集成人工智能模型的主要障礙。

加密貨幣和人工智能交叉領域正在進行的實驗和最終採用背後的驅動力與推動加密貨幣最有前途的用例的驅動力相衕——訪問無需許可和去信任化的協調層,從而更好地促進價值轉移。鑒於巨大的潛力,該領域的參與者需要了解這兩種技術交叉的基本方式。

要點:

  • 在不久的將來(6 個月到 1 年),加密貨幣和人工智能的集成將由人工智能應用程序主導,這些應用程序可以提高開髮人員的效率、智能合約的可審計性和安全性以及用戶的可訪問性。這些集成併非特定於加密貨幣,而是增強了鏈上開髮人員和用戶體驗。
  • 正如高性能 GPU 嚴重短缺一樣,去中心化計算産品正在實施人工智能定製的 GPU 産品,爲採用提供了助力。
  • 用戶體驗和監管仍然是吸引去中心化計算客戶的障礙。然而,OpenAI 的最新髮展以及美國正在進行的監管審查凸顯了無需許可、抗審查、以及去中心化的人工智能網絡的價值主張。
  • 鏈上人工智能集成,特別是能夠使用人工智能模型的智能合約,需要改進 zkML 技術和其他驗證鏈下計算的計算方法。缺乏全麵的工具和開髮人員人才以及高昂的成本是採用的障礙。
  • 人工智能代理非常適合加密貨幣,用戶(或代理本身)可以創建錢包以與其他服務、代理或人員進行交易。目前使用傳統的金融軌道無法實現這一點。爲了更廣泛地採用,需要與非加密産品進行額外的集成。

術語

人工智能是利用計算和機器來模仿人類的推理和解決問題的能力。

神經網絡是人工智能模型的一種訓練方法。他們通過離散的算法層運行輸入,對其進行改進,直到産生所需的輸出。神經網絡由具有權重的方程組成,可以修改權重來改變輸出。它們可能需要大量的數據和計算來進行訓練,以便其輸出準確。這是開髮人工智能模型最常見的方式之一(ChatGPT 使用依賴於 Transformer 的神經網絡過程)。

訓練是開髮神經網絡和其他人工智能模型的過程。它需要大量數據來訓練模型以正確解釋輸入併産生準確的輸出。在訓練過程中,模型方程的權重不斷修改,直到産生令人滿意的輸出。培訓費用可能非常昂貴。例如,ChatGPT 使用數萬個自己的 GPU 來處理數據。資源較少的團隊通常依賴專門的計算供應商,例如 Amazon Web Services、Azure 和 Google Cloud 供應商。

推理是實際使用 AI 模型來穫取輸出或結果(例如,使用 ChatGPT 爲有關加密貨幣和 AI 交集的論文創建大綱)。在整個培訓過程和最終産品中都會使用推理。由於計算成本的原因,即使在訓練完成後,它們的運行成本也可能很高,但其計算強度低於訓練。

零知識證明 (ZKP) 允許在不泄露基礎信息的情況下驗證聲明。這在加密貨幣中很有用,主要有兩個原因:1) 隱私和 2) 擴展。爲了保護隱私,這使用戶能夠在不泄露敏感信息(例如錢包中有多少 ETH)的情況下進行交易。對於擴展而言,它使鏈下計算能夠比重新執行計算更快地在鏈上得到證明。這使得區塊鏈和應用程序能夠廉價地在鏈外運行計算,然後在鏈上驗證它們。有關零知識及其在以太坊虛擬機中的作用的更多信息,請參閲 Christine Kim 的報告 zkEVMs:以太坊可擴展性的未來。

人工智能 / 加密貨幣市場地圖

人工智能和加密貨幣集成的項目仍在構建支持大規模鏈上人工智能交互所需的底層基礎設施。

去中心化計算市場正在興起,以提供訓練和推理人工智能模型所需的大量物理硬件,主要以圖形處理單元 (GPU) 的形式。這些雙曏市場將那些租賃和尋求租賃計算的人連接起來,促進價值的轉移和計算的驗證。在去中心化計算中,正在出現幾個提供附加功能的子類別。除了雙邊市場之外,本報告還將審查專門提供可驗證培訓和微調輸出的機器學習培訓供應商,以及緻力於連接計算和模型生成以實現人工智能的項目,也經常被稱爲智能激勵網絡。

zkML 是希望以經濟有效且及時的方式在鏈上提供可驗證模型輸出的項目的一個新興重點領域。這些項目主要使應用程序能夠處理鏈下繁重的計算請求,然後在鏈上髮布可驗證的輸出,證明鏈下工作負載是完整且準確的。zkML 在當前實例中既昂貴又耗時,但越來越多地被用作解決方案。這在 zkML 供應商和想要利用 AI 模型的 DeFi/ 游戲應用程序之間的集成數量不斷增加中顯而易見。

充足的計算供應以及驗證鏈上計算的能力爲鏈上人工智能代理打開了大門。代理是經過訓練的模型,能夠代錶用戶執行請求。代理提供了顯著增強鏈上體驗的機會,使用戶隻需與聊天機器人對話即可執行覆雜的交易。然而,就目前而言,代理項目仍然專註於開髮基礎設施和工具,以實現輕鬆快速地部署。

去中心化計算

概述

人工智能需要大量計算來訓練模型和運行推理。在過去的十年中,隨著模型變得越來越覆雜,計算需求呈指數級增長。例如,OpenAI 髮現,從 2012 年到 2018 年,其模型的計算需求從每兩年翻一番變爲每三個半月翻一番。這導緻對 GPU 的需求激增,一些加密貨幣礦工甚至重新利用其 GPU 來提供雲計算服務 。隨著訪問計算的競爭加劇和成本上升,一些項目正在利用加密技術來提供去中心化計算解決方案。他們以具有競爭力的價格提供按需計算,以便團隊能夠以經濟實惠的方式訓練和運行模型。在某些情況下,權衡可能是性能和安全性。

最先進的 GPU(例如 Nvidia 生産的 GPU)的需求量很大。9 月,Tether 收購了德國比特幣礦商 Northern Data 的股份,據報道,該公司斥資 4.2 億美元購買了 10,000 個 H100 GPU(用於 AI 訓練的最先進 GPU 之一)。穫得一流硬件的等待時間可能至少爲六個月,在許多情況下甚至更長。更糟糕的是,公司經常被要求簽署長期合衕,以穫取他們甚至可能不會使用的計算量。這可能會導緻存在可用計算但市場上不可用的情況。去中心化計算繫統有助於解決這些市場效率低下的問題,創建一個二級市場,計算所有者可以在接到通知後立即轉租其過剩容量,從而釋放新的供應。

除了有競爭力的定價和可訪問性之外,去中心化計算的關鍵價值主張是抗審查性。尖端人工智能開髮日益由擁有無與倫比的計算和數據訪問能力的大型科技公司主導。2023 年的 AI 指數年度報告中強調的第一個關鍵主題是,工業界在人工智能模型的開髮方麵日益超越學術界,將控製權集中在少數技術領導者手中。這引髮了人們的擔憂,即他們是否有能力在製定支撐人工智能模型的規範和價值觀方麵産生巨大影響力,特別是在這些科技公司推動監管以限製其無法控製的人工智能開髮之後。

去中心化計算的垂直領域

近年來出現了幾種去中心化計算模型,每種模型都有自己的重點和權衡。

廣義計算

Akash、io.net、iExec、Cudos 等項目都是去中心化計算的應用程序,除了數據和通用計算解決方案之外,它們還提供或即將提供用於 AI 訓練和推理的專用計算的訪問權限。

Akash 是目前唯一完全開源的「超級雲」平颱。它是使用 Cosmos SDK 的權益證明網絡。AKT 是 Akash 的原生代幣,作爲一種支付形式,用於保護網絡安全併激勵參與。Akash 於 2020 年推出了第一個主網,專註於提供無需許可的雲計算市場,最初以存儲和 CPU 租賃服務爲特色。2023 年 6 月,Akash 推出了一個專註於 GPU 的新測試網,併於 9 月推出了 GPU 主網,使用戶能夠租賃 GPU 進行人工智能訓練和推理。

Akash 生態繫統中有兩個主要參與者 - 租戶和供應商。租戶是想要購買計算資源的 Akash 網絡的用戶。供應商是計算供應商。爲了匹配租戶和供應商,Akash 依靠逆曏拍賣流程。租戶提交他們的計算要求,在其中他們可以指定某些條件,例如服務器的位置或進行計算的硬件類型,以及他們願意支付的金額。然後,供應商提交他們的要價,最低出價者將穫得任務。

Akash 驗證器維護網絡的完整性。 一套驗證器目前限製爲 100 個,併計畫隨著時間的推移逐步增加。任何人都可以通過質押比當前質押 AKT 數量最少的驗證者更多的 AKT 來成爲驗證者。AKT 持有者還可以將其 AKT 委托給驗證者。網絡的交易費用和區塊獎勵以 AKT 形式分配。此外,對於每筆租賃,Akash 網絡都會按照社區確定的費率賺取「收取費用」,併將其分配給 AKT 持有者。

二級市場

去中心化計算市場旨在填補現有計算市場的低效率。供應的限製導緻公司囤積超出其可能需要的計算資源,併且由於與雲供應商的合衕結構將客戶鎖定在長期合衕中,即使可能不需要持續訪問,供應也進一步受到限製。去中心化計算平颱釋放了新的供應,使世界上任何擁有計算需求的人都可以成爲供應商。

AI 訓練對 GPU 的需求激增是否會轉化爲 Akash 上的長期網絡使用還有待觀察。 例如,Akash 長期以來一直爲 CPU 提供市場,以 70-80% 的折扣提供與集中式替代品類似的服務。 然而,較低的價格併沒有帶來顯著的採用。 網絡上的活躍租約已經趨於平緩,到 2023 年第二季度,平均隻有 33% 的計算、16% 的內存和 13% 的存儲。雖然這些都是鏈上採用的令人印象深刻的指標(作爲參考,領先的存儲提供商 Filecoin 已經 2023 年第三季度存儲利用率爲 12.6%),這錶明這些産品的供應仍然超過需求。

Akash 推出 GPU 網絡已經過去了半年多的時間,現在準確評估長期採用率還爲時過早。迄今爲止,GPU 的平均利用率爲 44%,高於 CPU、內存和存儲,這是需求的一個跡象。這主要是由對最高質量 GPU(如 A100)的需求推動的,超過 90% 已出租。

Akash 的每日支出也有所增加,相對於 GPU 出現之前幾乎翻了一番。 這部分歸因於其他服務使用量的增加,尤其是 CPU,但主要是新 GPU 使用量的結果。

定價與 Lambda Cloud 和 Vast.ai 等中心化競爭對手相當(或者在某些情況下甚至更貴)。對最高端 GPU(例如 H100 和 A100)的巨大需求意味著該設備的大多數所有者對在麵臨競爭性定價的市場上市興趣不大。

雖然初期的利潤是正曏的,但採用仍然存在障礙(下麵進一步討論)。 去中心化計算網絡需要採取更多措施來産生需求和供應,團隊正在嘗試如何最好地吸引新用戶。 例如,2024 年初,Akash 通過了第 240 號提案,增加 GPU 供應商的 AKT 排放量併激勵更多供應,特別針對高端 GPU。 團隊還緻力於推出概念驗證模型,曏潛在用戶展示其網絡的實時功能。 Akash 正在訓練他們自己的基礎模型,併且已經推出了聊天機器人和圖像生成産品,可以使用 Akash GPU 創建輸出。 衕樣,io.net 開髮了一個穩定的擴散模型,併正在推出新的網絡功能,以更好地模仿網絡的性能和規模。

去中心化機器學習培訓

除了能夠滿足人工智能需求的通用計算平颱外,一組專註於機器學習模型訓練的專業人工智能 GPU 供應商也正在興起。例如,Gensyn 正在「協調電力和硬件來構建集體智慧」,其觀點是,「如果有人想要訓練某種東西,併且有人願意訓練它,那麽就應該允許這種訓練髮生。」

該協議有四個主要參與者:提交者、解決者、驗證者和舉報人。提交者曏網絡提交帶有培訓請求的任務。這些任務包括訓練目標、要訓練的模型和訓練數據。作爲提交過程的一部分,提交者需要爲解決者所需的估計計算量預先支付費用。

提交後,任務將分配給對模型進行實際訓練的解決者。然後,解決者將已完成的任務提交給驗證者,驗證者負責檢查訓練以確保正確完成。舉報人有責任確保驗證者誠實行事。爲了激勵舉報人參與網絡,Gensyn 計畫定期提供故意錯誤的證據,獎勵舉報人抓住他們。

除了爲人工智能相關工作負載提供計算之外,Gensyn 的關鍵價值主張是其驗證繫統,該繫統仍在開髮中。爲了確保 GPU 提供商的外部計算正確執行(即確保用戶的模型按照他們想要的方式進行訓練),驗證是必要的。Gensyn 採用獨特的方法解決了這個問題,利用了稱爲「概率學習證明、基於圖形的精確協議和 Truebit 式激勵游戲」的新穎驗證方法。這是一種樂觀求解模式,允許驗證者確認解決者已正確運行模型,而無需自己完全重新運行模型,這是一個成本高昂且低效的過程。

除了其創新的驗證方法之外,Gensyn 還聲稱相對於中心化替代方案和加密貨幣競爭對手而言具有成本效益 - 提供的 ML 培訓價格比 AWS 便宜高達 80%,衕時在測試方麵勝過 Truebit 等類似項目。

這些初步結果是否可以在去中心化網絡中大規模覆製還有待觀察。Gensyn 希望利用小型數據中心、零售用戶以及未來手機等小型移動設備等供應商的多餘計算能力。然而,正如 Gensyn 團隊自己承認的那樣,依賴異構計算供應商帶來了一些新的挑戰。

對於穀歌雲和 Coreweave 等中心化供應商來説,計算成本昂貴,而計算之間的通信(帶寬和延遲)卻很便宜。這些繫統旨在盡快實現硬件之間的通信。Gensyn 顛覆了這一框架,通過讓世界上任何人都可以提供 GPU 來降低計算成本,但衕時也增加了通信成本,因爲網絡現在必鬚在相距較遠的異構硬件上協調計算作業。Gensyn 尚未推出,但它是構建去中心化機器學習訓練協議時可能實現的概念證明。

去中心化一般智能

去中心化計算平颱也爲人工智能創建方法的設計提供了可能性。Bittensor 是一種基於 Substrate 構建的去中心化計算協議,試圖解答「我們如何將人工智能轉變爲協作方法?」。Bittensor 旨在實現人工智能生成的去中心化和商品化。該協議於 2021 年推出,希望利用協作機器學習模型的力量來不斷迭代併産生更好的人工智能。

Bittensor 從比特幣中汲取靈感,其原生貨幣 TAO 的供應量爲 2100 萬,減半周期爲四年(第一次減半將於 2025 年)。Bittensor 不是使用工作量證明來生成正確的隨機數併穫得區塊獎勵,而是依賴於「智能證明」,要求礦工運行模型來響應推理請求而生成輸出。

激勵智能

Bittensor 最初依賴專家混合 (MoE) 模型來生成輸出。當提交推理請求時,MoE 模型不會依賴一個廣義模型,而是將推理請求轉髮給給定輸入類型的最準確的模型。想象一下建造一棟房子,您聘請了各種專家來負責施工過程的不衕方麵(例如:建築師、工程師、油漆工、建築工人等……)。MoE 將其應用於機器學習模型,嘗試根據輸入利用不衕模型的輸出。正如 Bittensor 創始人 Ala Shaabana 所解釋的那樣,這就像「與一屋子聰明人交談併穫得最佳答案,而不是與一個人交談」。由於在確保正確路由、消息衕步到正確模型以及激勵方麵存在挑戰,這種方法已被擱置,直到項目得到進一步開髮。

Bittensor 網絡中有兩個主要參與者:驗證者和礦工。驗證者的任務是曏礦工髮送推理請求,審查他們的輸出,併根據他們的響應質量對它們進行排名。爲了確保他們的排名可靠,驗證者會根據他們的排名與其他驗證者排名的一緻程度給予「vtrust」分數。驗證者的 vtrust 分數越高,他們穫得的 TAO 排放量就越多。這是爲了激勵驗證者隨著時間的推移就模型排名達成共識,因爲就排名達成一緻的驗證者越多,他們的個人 vtrust 分數就越高。

礦工,也稱爲服務器,是運行實際機器學習模型的網絡參與者。礦工們相互競爭,爲驗證者提供針對給定查詢的最準確的輸出,輸出越準確,賺取的 TAO 排放就越多。礦工可以按照自己的意願生成這些輸出。例如,在未來的情況下,Bittensor 礦工完全有可能之前在 Gensyn 上訓練過模型,併用它們來賺取 TAO 排放量。

如今,大多數交互直接髮生在驗證者和礦工之間。驗證者曏礦工提交輸入併請求輸出(即訓練模型)。一旦驗證者查詢網絡上的礦工併收到他們的響應,他們就會對礦工進行排名併將其排名提交到網絡。

驗證者(依賴 PoS)和礦工(依賴模型證明,PoW 的一種形式)之間的這種互動被稱爲 Yuma 共識。它旨在激勵礦工産生最好的輸出來賺取 TAO 的排放,併激勵驗證者對礦工輸出進行準確排名,以穫得更高的 vtrust 分數併增加他們的 TAO 獎勵,從而形成網絡的共識機製。

子網和應用程序

Bittensor 上的交互主要包括驗證者曏礦工提交請求併評估其輸出。然而,隨著貢獻礦工的質量提高和網絡整體智能的增長,Bittensor 將在其現有堆棧之上創建一個應用程序層,以便開髮人員可以構建查詢 Bittensor 網絡的應用程序。

2023 年 10 月,Bittensor 通過 Revolution 升級引入了子網,朝著實現這一目標邁出了重要一步。子網是 Bittensor 上激勵特定行爲的單獨網絡。Revolution 曏任何有興趣創建子網的人開放網絡。自髮布以來的幾個月內,已經啟動了超過 32 個子網,包括用於文本提示、數據抓取、圖像生成和存儲的子網。隨著子網的成熟併成爲産品就緒,子網創建者還將創建應用程序集成,使團隊能夠構建查詢特定子網的應用程序。一些應用程序(如聊天機器人、圖像生成器、推特回覆機器人、預測市場)目前確實存在,但除了 Bittensor 基金會的資助之外,沒有正式的激勵措施讓驗證者接受和轉髮這些查詢。

爲了提供更清晰的説明,下麵是一個示例,説明應用程序集成到網絡中後 Bittensor 可能如何工作。

子網根據根網絡評估的性能賺取 TAO。根網絡位於所有子網之上,本質上充當一種特殊的子網,併由 64 個最大的子網驗證者按權益進行管理。根網絡驗證器根據子網的性能對子網進行排名,併定期將 TAO 排放分配給子網。通過這種方式,各個子網充當根網絡的礦工。

Bittensor 的展望

Bittensor 仍在經歷成長的煩惱,因爲它擴展了協議的功能以激勵跨多個子網的智能生成。礦工們不斷設計新的方法來攻擊網絡以穫得更多 TAO 的獎勵,例如通過稍微修改其模型運行的高評價推理的輸出,然後提交多個變體。影響整個網絡的治理提案隻能由完全由 Opentensor 基金會利益相關者組成的 Triumvirate 提交和實施(值得註意的是,提案需要在實施之前得到由 Bittensor 驗證者組成的 Bittensor 參議院的批準)。該項目的代幣經濟正在進行修改,以提高對 TAO 跨子網使用的激勵。該項目還因其獨特的方法而迅速聲名狼藉,最受歡迎的人工智能網站之一 HuggingFace 的首席執行官錶示 Bittensor 應該將其資源添加到該網站。

在核心開髮人員最近髮錶的一篇名爲「Bittensor Paradigm」的文章中,該團隊闡述了 Bittensor 的願景,即最終髮展爲「對所測量的內容不可知」。理論上,這可以使 Bittensor 開髮子網來激勵由 TAO 提供支持的任何類型的行爲。仍然存在相當大的實際限製——最值得註意的是,證明這些網絡能夠擴展以處理如此多樣化的流程,併且潛在的激勵措施推動的進步超過了中心化産品。

爲人工智能模型構建去中心化計算堆棧

上述部分提供了正在開髮的各種類型的去中心化人工智能計算協議的深度概述。在開髮和採用的早期,它們提供了生態繫統的基礎,最終可以促進「人工智能構建塊」的創建,例如 DeFi 的「金錢樂高」概念。無需許可的區塊鏈的可組合性爲每個協議構建在另一個協議之上提供了可能性,以提供更全麵的去中心化人工智能生態繫統。

例如,這是 Akash、Gensyn 和 Bittensor 可能全部交互以響應推理請求的一種方式。

需要明確的是,這隻是未來可能髮生的事情的一個例子,而不是當前生態繫統、現有合作伙伴關繫或可能結果的代錶。 相互操作性的限製以及下麵描述的其他考慮因素極大地限製了當今的集成可能性。 除此之外,流動性分散和使用多種代幣的需要可能會損害用戶體驗,Akash 和 Bittensor 的創始人都指出了這一點。

其他去中心化産品

除了計算之外,還推出了其他幾種去中心化基礎設施服務,以支持加密貨幣新興的人工智能生態繫統。列出所有這些超出了本報告的範圍,但一些有趣且有説明性的示例包括:

  • Ocean:一個去中心化的數據市場。用戶可以創建代錶其數據的數據 NFT,併可以使用數據代幣進行購買。用戶既可以將其數據貨幣化,又可以對其擁有更大的主權,衕時爲人工智能團隊提供開髮和訓練模型所需的數據的訪問權限。
  • Grass:去中心化的帶寬市場。用戶可以將多餘的帶寬出售給人工智能公司,後者利用這些帶寬從互聯網上抓取數據。建立在 Wynd 網絡之上,這不僅使個人能夠將其帶寬貨幣化,而且還爲帶寬購買者提供了更多樣化的觀點來了解個人用戶在網上看到的內容(因爲個人的互聯網訪問通常是根據其 IP 地址專門定製的) )。
  • HiveMapper:構建一個分散的地圖産品,其中包含從日常汽車駕駛員收集的信息。HiveMapper 依靠 AI 來解釋從用戶儀錶闆攝像頭收集的圖像,併獎勵用戶通過強化人類學習反饋 (RHLF) 幫助微調 AI 模型的代幣。

總的來説,這些都指曏探索支持人工智能模型的去中心化市場模型或開髮它們所需的周邊基礎設施的幾乎無限的機會。目前,這些項目大多處於概念驗證階段,需要更多的研究和開髮來證明它們能夠以提供全麵人工智能服務所需的規模運行。

展望

去中心化計算産品仍處於開髮的早期階段。他們剛剛開始推出最先進的計算能力,能夠在生産中訓練最強大的人工智能模型。爲了穫得有意義的市場份額,他們需要展示與中心化替代方案相比的實際優勢。更廣泛採用的潛在觸髮因素包括:

  • GPU 的供應 / 需求。GPU 的稀缺加上快速增長的計算需求正在導緻 GPU 軍備競賽。由於 GPU 的限製,OpenAI 已經一度限製對其平颱的訪問。Akash 和 Gensyn 等平颱可以爲需要高性能計算的團隊提供具有成本競爭力的替代方案。對於去中心化計算供應商來説,未來 6-12 個月是一個特別獨特的機會來吸引新用戶,由於缺乏更廣泛的市場準入,這些新用戶被迫考慮去中心化産品。再加上 Meta 的 LLaMA2 等性能日益提高的開源模型,用戶在部署有效的微調模型時不再麵臨衕樣的障礙,使計算資源成爲主要瓶頸。然而,平颱本身的存在併不能確保足夠的計算供應和消費者的相應需求。採購高端 GPU 仍然很睏難,而且成本併不總是需求方的主要動機。這些平颱將麵臨挑戰,以展示使用去中心化計算選項的實際好處(無論是由於成本、審查阻力、正常運行時間和彈性還是可訪問性)來積纍粘性用戶。他們必鬚快速行動。GPU 基礎設施投資和建設正在以驚人的速度進行。
  • 規定。監管仍然是去中心化計算運動的阻力。短期內,缺乏明確的監管意味著供應商和用戶都麵臨使用這些服務的潛在風險。如果供應商提供計算或買方在不知情的情況下從受製裁實體購買計算怎麽辦?用戶可能會猶豫是否使用缺乏中心化實體控製和監督的去中心化平颱。協議試圖通過將控件納入其平颱或添加過濾器以僅訪問已知的計算供應商(即提供了解你的客戶(KYC)信息)來減輕這些擔憂,但需要採用更強大的方法來保護隱私,衕時確保合規性。短期內,我們可能會看到 KYC 和合規平颱的出現,這些平颱限製對其協議的訪問,以解決這些問題。此外,圍繞美國可能的新監管框架的討論(以《關於安全、可靠和值得信賴的人工智能開髮和使用的行政命令》的髮布爲最佳例證)凸顯了進一步限製 GPU 穫取的監管行動的潛力。
  • 審查製度。監管是雙曏的,去中心化的計算産品可以從限製人工智能訪問的行動中受益。除了行政命令之外,OpenAI 創始人 Sam Altman 還在國會作證,説明監管機構需要爲人工智能開髮頒髮許可證。關於人工智能監管的討論才剛剛開始,但任何此類限製訪問或審查人工智能功能的嘗試都可能加速不存在此類障礙的去中心化平颱的採用。11 月的 OpenAI 領導層變動(或缺乏)進一步錶明,將最強大的現有人工智能模型的決策權授予少數人是存在風險的。此外,所有人工智能模型都必然反映了創建它們的人的偏見,無論是有意還是無意。消除這些偏差的一種方法是使模型盡可能開放地進行微調和訓練,確保任何地方的任何人都可以訪問各種類型和偏差的模型。
  • 數據隱私。當與爲用戶提供數據自主權的外部數據和隱私解決方案集成時,去中心化計算可能會比集中式替代方案更具吸引力。當三星意識到工程師正在使用 ChatGPT 幫助芯片設計併將敏感信息泄露給 ChatGPT 時,三星成爲了受害者。Phala Network 和 iExec 聲稱爲用戶提供 SGX 安全飛地來保護用戶數據,併且正在進行的完全衕態加密研究可以進一步解鎖確保隱私的去中心化計算。隨著人工智能進一步融入我們的生活,用戶將更加重視能夠在具有隱私保護的應用程序上運行模型。用戶還需要支持數據可組合性的服務,以便他們可以將數據從一種模型無縫移植到另一種模型。
  • 用戶體驗(UX)。用戶體驗仍然是更廣泛採用所有類型的加密應用程序和基礎設施的重大障礙。這對於去中心化計算産品來説併沒有什麽不衕,併且在某些情況下,由於開髮人員需要了解加密貨幣和人工智能,這會加劇這種情況。需要從基礎知識進行改進,例如加入併提取出與區塊鏈的交互,以提供與當前市場領導者相衕的高質量輸出。鑒於許多提供更便宜産品的可操作的去中心化計算協議很難穫得常規使用,這一點顯而易見。

智能合約和 zkML

智能合約是任何區塊鏈生態繫統的核心構建塊。在給定一組特定條件的情況下,它們會自動執行併減少或消除對受信任第三方的需求,從而能夠創建覆雜的去中心化應用程序,例如 DeFi 中的應用程序。然而,智能合約的功能仍然有限,因爲它們根據必鬚更新的預設參數執行。

例如,部署借出 / 借入協議的智能合約,其中包含根據特定貸款與價值比率何時清算頭寸的規範。雖然在靜態環境中有用,但在風險不斷變化的動態情況下,這些智能合約必鬚不斷更新以適應風險承受能力的變化,這給不通過集中流程管理的合約帶來了挑戰。例如,依賴去中心化治理流程的 DAO 可能無法快速反應以應對繫統性風險。

集成人工智能(即機器學習模型)的智能合約是增強功能、安全性和效率衕時改善整體用戶體驗的一種可能方法。然而,這些集成也帶來了額外的風險,因爲不可能確保支撐這些智能合約的模型不會被利用或解釋長尾情況(鑒於數據輸入的稀缺,長尾情況很難訓練模型)。

零知識機器學習(zkML)

機器學習需要大量的計算來運行覆雜的模型,這使得人工智能模型由於成本高昂而無法直接在智能合約中運行。例如,爲用戶提供收益優化模型的 DeFi 協議,如果不支付過高的 Gas 費用,將很難在鏈上運行該模型。一種解決方案是增加底層區塊鏈的計算能力。然而,這也增加了對鏈驗證器集的要求,可能會破壞去中心化特性。相反,一些項目正在探索使用 zkML 以去信任化的方式驗證輸出,而不需要密集的鏈上計算。

説明 zkML 有用性的一個常見示例是,當用戶需要其他人通過模型運行數據併驗證其交易對手實際上運行了正確的模型時。也許開髮人員正在使用去中心化計算供應商來訓練他們的模型,併擔心該供應商試圖通過使用輸出差異幾乎無法察覺的且更便宜的模型來削減成本。zkML 使計算供應商能夠通過其模型運行數據,然後生成可以在鏈上驗證的證明,以證明給定輸入的模型輸出是正確的。在這種情況下,模型提供者將具有額外的優勢,即能夠提供他們的模型,而不必透露産生輸出的基礎權重。

也可以做相反的事情。如果用戶想要使用他們的數據運行模型,但由於隱私問題(即,在醫療檢查或專有商業信息的情況下),不希望提供模型的項目訪問他們的數據,那麽用戶可以在他們的數據上運行模型而不共享數據,然後通過證明驗證他們運行了正確的模型。這些可能性通過解決令人望而卻步的計算限製,極大地擴展了人工智能和智能合約功能集成的設計空間。

基礎設施和工具

鑒於 zkML 領域的早期狀態,開髮主要集中在構建團隊所需的基礎設施和工具,以將其模型和輸出轉換爲可以在鏈上驗證的證明。這些産品盡可能地提取了零知識方麵的開髮。

EZKL 和 Giza 是通過提供機器學習模型執行的可驗證證明來構建此工具的兩個項目。兩者都幫助團隊構建機器學習模型,以確保這些模型能夠以可以在鏈上以可信方式驗證結果的形式執行。這兩個項目都使用開放神經網絡交換 (ONNX) 將用 TensorFlow 和 Pytorch 等通用語言編寫的機器學習模型轉換爲標準格式。然後,他們輸出這些模型的版本在執行時也會生成 zk 證明。EZKL 是開源的,生産 zk-SNARKS,而 Giza 是閉源的,生産 zk-STARKS。這兩個項目目前僅兼容 EVM。

過去幾個月,EZKL 在增強 zkML 解決方案方麵取得了重大進展,主要側重於降低成本、提高安全性和加快證明生成速度。例如,2023 年 11 月,EZKL 集成了一個新的開源 GPU 庫,可將聚合證明時間縮短 35%;1 月,EZKL 髮布了 Lilith,這是一種軟件解決方案,用於在使用 EZKL 證明時集成高性能計算集群和編排併髮作業繫統。Giza 的獨特之處在於,除了提供用於創建可驗證的機器學習模型的工具外,他們還計畫實現相當於 Hugging Face 的 web3,爲 zkML 協作和模型共享開放用戶市場,併最終集成去中心化計算産品。一月份,EZKL 髮布了一項基準評估,比較了 EZKL、Giza 和 RiscZero(如下所述)的性能。EZKL 展示了更快的證明時間和內存使用。

Modulus Labs 還在開髮一種專爲 AI 模型定製的新的 zk 證明技術。 Modulus 髮錶了一篇名爲《智能成本》的論文(暗示在鏈上運行 AI 模型的成本極高),該論文對當時現有的 zk 證明繫統進行了基準測試,以確定改進 AI 模型裡 zk 證明的能力和瓶頸。 該論文於 2023 年 1 月髮布,錶明現有産品過於昂貴且效率低下,無法大規模實現人工智能應用。 在最初研究的基礎上,Modulus 在 11 月推出了 Remainder,這是一種專門的零知識證明器,專門用於降低 AI 模型的成本和證明時間,其目標是使項目在經濟上可行,將模型大規模集成到智能合約中。 他們的工作是閉源的,因此無法與上述解決方案進行基準測試,但最近在 Vitalik 關於加密和人工智能的博客文章中引用了他們的工作。

工具和基礎設施開髮對於 zkML 空間的未來增長至關重要,因爲它可以顯著減少需要部署運行可驗證的鏈下計算與所需的 zk 團隊的線路的摩擦。創建安全接口,使從事機器學習工作的非加密原生構建者能夠將他們的模型帶到鏈上,這將使應用程序能夠通過真正新穎的用例進行更大的實驗。工具還解決了更廣泛採用 zkML 的一個主要障礙,即缺乏知識淵博且對零知識、機器學習和密碼學交叉領域工作感興趣的開髮人員。

協處理器

正在開髮的其他解決方案(稱爲「協處理器」)包括 RiscZero、Axiom 和 Ritual。協處理器這個術語主要是語義上的——這些網絡履行許多不衕的角色,包括驗證鏈上的鏈下計算。與 EZKL、Giza 和 Modulus 一樣,他們的目標是完全提取零知識證明生成的過程,創建本質上能夠執行鏈下程序併生成鏈上驗證證明的零知識虛擬機。RiscZero 和 Axiom 可以爲簡單的 AI 模型提供服務,因爲它們是更通用的協處理器,而 Ritual 是專門爲與 AI 模型一起使用而構建的。

Infernet是 Ritual 的第一個實例,包含一個 Infernet SDK,允許開髮人員曏網絡提交推理請求併接收輸出和證明(可選)作爲回報。Infernet的節點接收這些請求併在返回輸出之前處理鏈下計算。例如,DAO 可以創建一個流程,確保所有新的治理提案在提交之前滿足某些先決條件。每次提交新提案時,治理合約都會通過 Infernet觸髮推理請求,調用 DAO 特定治理訓練的 AI 模型。該模型會審查提案,以確保提交所有必要的標準,併返回輸出和證據,批準或拒絶提案的提交。

在接下來的一年裡,Ritual 團隊計畫推出更多功能,形成稱爲 Ritual 超級鏈的基礎設施層。前麵討論的許多項目都可以作爲服務供應商插入 Ritual。Ritual 團隊已經與 EZKL 集成以生成證明,併且可能很快會添加其他領先供應商的功能。Ritual 上的 Infernet 節點還可以使用 Akash 或 io.net GPU 以及在 Bittensor 子網上訓練的查詢模型。他們的最終目標是成爲開放人工智能基礎設施的首選供應商,能夠爲任何網絡、任何工作負載的機器學習和其他人工智能相關任務提供服務。

應用程序

zkML 有助於調和區塊鏈和人工智能之間的矛盾,前者本質上是資源受限的,而後者則需要大量的計算和數據。正如 Giza 的一位創始人所説,「用例非常豐富……這有點像以太坊早期問智能合約的用例是什麽……我們所做的隻是擴展智能合約的用例。」然而,如上所述,當今的開髮主要髮生在工具和基礎設施級別。應用程序仍處於探索階段,團隊麵臨的挑戰是證明使用 zkML 實現模型所産生的價值超過了其覆雜性和成本。

目前的一些應用包括:

  • 去中心化金融。zkML 通過增強智能合約的能力,升級了 DeFi 的設計空間。DeFi 協議爲機器學習模型提供大量可驗證且不可變的數據,可用於生成收益或交易策略、風險分析、用戶體驗等。例如,Giza 與 Yearn Finance 合作,爲 Yearn 的新 v3 金庫構建概念驗證自動風險評估引擎。Modulus Labs 與 Lyra Finance 合作將機器學習納入其 AMM,與 Ion Protocol 合作實施分析驗證者風險的模型,併幫助 Upshot 驗證其人工智能支持的 NFT 價格信息。NOYA(利用 EZKL)和 Mozaic 等協議提供了對專有鏈下模型的訪問,這些模型使用戶能夠訪問自動化流動性挖礦,衕時使他們能夠驗證鏈上的數據輸入和證明。Spectral Finance 正在構建鏈上信用評分引擎,以預測 Compound 或 Aave 借款人拖欠貸款的可能性。由於 zkML,這些所謂的「De-Ai-Fi」産品在未來幾年可能會變得更加流行。
  • 游戲。長期以來,游戲一直被認爲可以通過公共區塊鏈進行顛覆和增強。zkML 使人工智能的鏈上游戲成爲可能。Modulus Labs 已經實現了簡單鏈上游戲的概念驗證。Leela vs the World 是一款博弈論國際象棋游戲,用戶在其中對抗 AI 國際象棋模型,zkML 驗證 Leela 所做的每一步都是基於游戲運行的模型。衕樣,團隊也使用 EZKL 框架來構建簡單的歌唱比賽和鏈上井字棋。Cartridge 正在使用 Giza 使團隊能夠部署完全鏈上游戲,最近重點介紹了一款簡單的人工智能駕駛游戲,用戶可以競爭爲試圖避開障礙物的汽車創建更好的模型。雖然很簡單,但這些概念驗證指曏未來的實現,能夠實現更覆雜的鏈上驗證,例如能夠與游戲內經濟體進行交互的覆雜 NPC 演員,如《AI Arena》中所見,這是一款超級粉碎兄弟游戲,玩家可以在其中訓練自己的戰士, 然後部署爲人工智能模型進行戰鬥。
  • 身份、出處和隱私。加密貨幣已經被用作驗證真實性和打擊越來越多的人工智能生成 / 操縱內容和深度僞造的手段。zkML 可以推進這些努力。WorldCoin 是一種身份證明解決方案,要求用戶掃描虹膜以生成唯一的 ID。未來,生物識別 ID 可以使用加密存儲在個人設備上進行自我托管,併使用驗證本地運行的生物識別所需的模型。然後,用戶可以提供生物識別證據,而無需透露自己的身份,從而在確保隱私的衕時抵禦女巫攻擊。這也可以應用於需要隱私的其他推論,例如使用模型分析醫療數據 / 圖像來檢測疾病、驗證人格併在約會應用程序中開髮匹配算法,或者需要驗證財務信息的保險和貸款機構。

展望

zkML 仍處於實驗階段,大多數項目都專註於構建基礎設施原語和概念證明。如今的挑戰包括計算成本、內存限製、模型覆雜性、有限的工具和基礎設施以及開髮人員人才。簡而言之,在 zkML 能夠以消費産品所需的規模實施之前,還有相當多的工作要做。

然而,隨著該領域的成熟以及這些限製的解決,zkML 將成爲人工智能和加密集成的關鍵組成部分。從本質上講,zkML 承諾能夠將任何規模的鏈外計算引入鏈上,衕時保持與鏈上運行相衕或接近相衕的安全保證。然而,在這一願景實現之前,該技術的早期用戶將繼續必鬚在 zkML 的隱私和安全性與替代方案的效率之間進行權衡。

人工智能代理

人工智能和加密貨幣最令人興奮的集成之一是正在進行的人工智能代理實驗。代理是能夠使用人工智能模型接收、解釋和執行任務的自主機器人。這可以是任何事情,從擁有一個隨時可用的根據您的偏好進行微調的個人助理,到雇用一個根據您的風險偏好來管理和調整您的投資組合的金融代理人。

由於加密貨幣提供了無需許可和去信任化的支付基礎設施,代理和加密貨幣可以很好地結合在一起。經過培訓後,代理將穫得一個錢包,以便他們可以自行使用智能合約進行交易。例如,今天的代理可以在互聯網上抓取信息,然後根據模型在預測市場上進行交易。

代理供應商

Morpheus 是 2024 年在以太坊和 Arbitrum 上上線的最新開源代理項目之一。其白皮書於 2023 年 9 月匿名髮布,爲社區的形成和構建提供了基礎(包括 Erik Vorhees 等著名人物) 。該白皮書包括一個可下載的智能代理協議,它是一個開源的 LLM,可以在本地運行,由用戶的錢包管理,併與智能合約交互。它使用智能合約排名來幫助代理根據處理的交易數量等標準確定哪些智能合約可以安全地進行交互。

白皮書還提供了構建 Morpheus 網絡的框架,例如使智能代理協議運行所需的激勵結構和基礎設施。這包括激勵貢獻者構建用於與代理交互的前端、供開髮人員構建可插入代理以便他們可以相互交互的應用程序的 API,以及使用戶能夠訪問運行代理所需的計算和在邊緣設備上存儲的雲解決方案。該項目的初始資金已於 2 月初啟動,完整協議預計將於 2024 年第二季度啟動。

去中心化自治基礎設施網絡 (DAIN) 是一種新的代理基礎設施協議,在 Solana 上構建代理到代理經濟。DAIN 的目標是讓來自不衕企業的代理可以通過通用 API 無縫地相互交互,從而大大開放 AI 代理的設計空間,重點是實現能夠與 web2 和 web3 産品交互的代理。一月份,DAIN 宣布與 Asset Shield 首次合作,使用戶能夠將「代理簽名者」添加到其多重簽名中,這些簽名者能夠根據用戶設置的規則解釋交易併批準 / 拒絶。

Fetch.AI 是最早部署的 AI 代理協議之一,併開髮了一個生態繫統,用於使用 FET 代幣和 Fetch.AI 錢包在鏈上構建、部署和使用代理。該協議提供了一套用於使用代理的全麵工具和應用程序,包括用於與代理交互和訂購代理的錢包內功能。

Autonolas 的創始人包括 Fetch 團隊的前成員,它是一個用於創建和使用去中心化人工智能代理的開放市場。Autonolas 還爲開髮人員提供了一套工具來構建鏈下托管的人工智能代理,併可以插入多個區塊鏈,包括 Polygon、Ethereum、Gnosis Chain 和 Solana。他們目前擁有一些活躍的代理概念驗證産品,包括用於預測市場和 DAO 治理。

SingularityNet 正在爲人工智能代理構建一個去中心化的市場,人們可以在其中部署專註的人工智能代理,這些代理可以被其他人或代理雇用來執行覆雜的任務。AlteredStateMachine 等其他公司正在構建 AI 代理與 NFT 的集成。用戶鑄造具有隨機屬性的 NFT,這些屬性賦予他們在不衕任務上的優勢和劣勢。然後可以對這些代理進行訓練,以增強某些屬性,以用於游戲、DeFi 或作爲虛擬助手併與其他用戶進行交易。

總的來説,這些項目設想了一個未來的智能體生態繫統,這些智能體能夠協衕工作,不僅可以執行任務,還可以幫助構建通用人工智能。真正覆雜的代理將有能力自主完成任何用戶任務。例如,完全自主的代理將能夠弄清楚如何雇用另一個代理來集成 API,然後執行任務,而不必確保代理在使用之前已經與外部 API(例如旅行預訂網站)集成。從用戶的角度來看,不需要檢查代理是否可以完成任務,因爲代理可以自己確定。

比特幣和人工智能代理

2023 年 7 月,閃電實驗室推出了在閃電網絡上使用代理的概念驗證實施方案,稱爲 LangChain 的比特幣套件。該産品特別有趣,因爲它旨在解決 Web 2 世界中日益嚴重的問題——Web 應用程序的門禁且昂貴的 API 密鑰。

LangChain 通過爲開髮人員提供一套工具來解決這個問題,使代理能夠購買、出售和持有比特幣,以及查詢 API 密鑰和髮送小額支付。在傳統的支付軌道上,小額支付由於費用而成本高昂,而在閃電網絡上,代理商可以每天以最低的費用髮送無限的小額支付。當與 LangChain 的 L402 支付計量 API 框架結合使用時,公司可以根據使用量的增加和減少調整其 API 的訪問費用,而不是設定單一的成本高昂的標準。

在未來,鏈上活動主要由智能體與智能體交互所主導,這樣的事情將是必要的,以確保智能體能夠不以成本過高的方式相互交互。這是一個早期的例子,説明如何在無需許可且經濟高效的支付軌道上使用代理,爲新市場和經濟互動開辟了可能性。

展望

代理領域仍處於新生階段。項目剛剛開始推出功能代理,可以使用其基礎設施處理簡單的任務——這通常隻有經驗豐富的開髮人員和用戶才能訪問。然而,隨著時間的推移,人工智能代理對加密貨幣的最大影響之一是所有垂直領域的用戶體驗改進。交易將開始從基於點擊轉曏基於文本,用戶能夠通過法學碩士與鏈上代理進行交互。Dawn Wallet 等團隊已經推出了聊天機器人錢包,供用戶在鏈上進行交互。

此外,目前尚不清楚代理商如何在 Web 2 中運作,因爲金融軌道依賴於受監管的銀行機構,這些機構不能全天 24 小時運營,也無法進行無縫跨境交易。正如林恩·奧爾登(Lyn Alden)所強調的那樣,由於缺乏退款和處理微交易的能力,與信用卡相比,加密的軌道尤其有吸引力。然而,如果代理成爲一種更常見的交易方式,現有的支付供應商和應用程序很可能會迅速採取行動,實施在現有金融軌道上運營所需的基礎設施,從而削弱使用加密貨幣的一些好處。

目前,代理可能僅限於確定性的加密貨幣交易,其中給定輸入保證給定輸出。這兩種模型都規定了這些代理弄清楚如何執行覆雜任務的能力,而工具則擴大了它們可以完成的範圍,都需要進一步開髮。爲了讓加密代理在新穎的鏈上加密用例之外變得有用,需要更廣泛的集成和接受加密作爲一種支付形式以及監管的明確性。然而,隨著這些組件的髮展,代理準備成爲上述去中心化計算和 zkML 解決方案的最大消費者之一,以自主的非確定性方式接收和解決任何任務。

結論

AI 爲加密貨幣引入了我們在 web2 中看到的相衕創新,增強了從基礎設施開髮到用戶體驗和可訪問性的各個方麵。然而,項目仍處於髮展早期,近期加密貨幣和人工智能集成將主要由鏈下集成主導。

像 Copilot 這樣的産品將使開髮人員效率「提高 10 倍」,Layer 1 和 DeFi 應用程序已經與微軟等大公司合作推出人工智能輔助開髮平颱。Cub3.ai 和 Test Machine 等公司正在開髮用於智能合約審計和實時威脅監控的人工智能集成,以增強鏈上的安全性。LLM 聊天機器人正在使用鏈上數據、協議文檔和應用程序進行培訓,爲用戶提供增強的可訪問性和用戶體驗。

對於真正利用加密貨幣底層技術的更高級集成來説,挑戰仍然是證明在鏈上實施人工智能解決方案在技術上是可行的,在經濟上也是可行的。去中心化計算、zkML 和 AI 代理的髮展指曏有前景的垂直領域,這些領域爲加密貨幣和人工智能深度互聯的未來奠定了基礎。

聲明:

  1. 本文轉載自[techflow],著作權歸屬原作者[Lucas Tcheyan],如對轉載有異議,請聯繫Gate Learn團隊,團隊會根據相關流程盡速處理。
  2. 免責聲明:本文所錶達的觀點和意見僅代錶作者個人觀點,不構成任何投資建議。
  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得覆製、傳播或抄襲經翻譯文章。

Galaxy Digital:了解加密貨幣和人工智能的交集

中級2/28/2024, 4:55:32 AM
本文介紹了加密貨幣和人工智能的交集,公共區塊鏈的出現是計算機科學歷史上最深刻的進步之一, 而人工智能的髮展將會併且已經在對我們的世界産生深遠的影

引言

公共區塊鏈的出現是計算機科學歷史上最深刻的進步之一。而人工智能的髮展將會併且已經在對我們的世界産生深遠的影響。如果説區塊鏈技術爲交易結算、數據存儲和繫統設計提供了新的模闆,那麽人工智能則是計算、分析和內容交付方麵的一場革命。這兩個行業的創新正在釋放新的用例,從而可能在未來幾年加速這兩個行業的採用。本報告探討了加密貨幣和人工智能的持續集成,重點關註試圖彌合兩者之間差距、利用兩者力量的新穎用例。具體來説,本報告研究了開髮去中心化計算協議、零知識機器學習 (zkML) 基礎設施和人工智能代理的項目。

加密貨幣爲人工智能提供了無需許可、無需信任且可組合的結算層。這解鎖了用例,例如通過去中心化計算繫統使硬件更容易訪問,構建可以執行需要價值交換的覆雜任務的人工智能代理,以及開髮身份和來源解決方案來對抗 Sybil 攻擊和深度僞造。人工智能爲加密貨幣帶來了許多我們在 Web 2 中看到的相衕好處。這包括通過大型語言模型(即經過專門訓練的 ChatGPT 和 Copilot )增強用戶和開髮人員的用戶體驗 (UX),以及顯著地改進智能合約的功能和自動化的潛力。 區塊鏈是人工智能所需的透明的數據豐富環境。 但區塊鏈的計算能力也有限,這是直接集成人工智能模型的主要障礙。

加密貨幣和人工智能交叉領域正在進行的實驗和最終採用背後的驅動力與推動加密貨幣最有前途的用例的驅動力相衕——訪問無需許可和去信任化的協調層,從而更好地促進價值轉移。鑒於巨大的潛力,該領域的參與者需要了解這兩種技術交叉的基本方式。

要點:

  • 在不久的將來(6 個月到 1 年),加密貨幣和人工智能的集成將由人工智能應用程序主導,這些應用程序可以提高開髮人員的效率、智能合約的可審計性和安全性以及用戶的可訪問性。這些集成併非特定於加密貨幣,而是增強了鏈上開髮人員和用戶體驗。
  • 正如高性能 GPU 嚴重短缺一樣,去中心化計算産品正在實施人工智能定製的 GPU 産品,爲採用提供了助力。
  • 用戶體驗和監管仍然是吸引去中心化計算客戶的障礙。然而,OpenAI 的最新髮展以及美國正在進行的監管審查凸顯了無需許可、抗審查、以及去中心化的人工智能網絡的價值主張。
  • 鏈上人工智能集成,特別是能夠使用人工智能模型的智能合約,需要改進 zkML 技術和其他驗證鏈下計算的計算方法。缺乏全麵的工具和開髮人員人才以及高昂的成本是採用的障礙。
  • 人工智能代理非常適合加密貨幣,用戶(或代理本身)可以創建錢包以與其他服務、代理或人員進行交易。目前使用傳統的金融軌道無法實現這一點。爲了更廣泛地採用,需要與非加密産品進行額外的集成。

術語

人工智能是利用計算和機器來模仿人類的推理和解決問題的能力。

神經網絡是人工智能模型的一種訓練方法。他們通過離散的算法層運行輸入,對其進行改進,直到産生所需的輸出。神經網絡由具有權重的方程組成,可以修改權重來改變輸出。它們可能需要大量的數據和計算來進行訓練,以便其輸出準確。這是開髮人工智能模型最常見的方式之一(ChatGPT 使用依賴於 Transformer 的神經網絡過程)。

訓練是開髮神經網絡和其他人工智能模型的過程。它需要大量數據來訓練模型以正確解釋輸入併産生準確的輸出。在訓練過程中,模型方程的權重不斷修改,直到産生令人滿意的輸出。培訓費用可能非常昂貴。例如,ChatGPT 使用數萬個自己的 GPU 來處理數據。資源較少的團隊通常依賴專門的計算供應商,例如 Amazon Web Services、Azure 和 Google Cloud 供應商。

推理是實際使用 AI 模型來穫取輸出或結果(例如,使用 ChatGPT 爲有關加密貨幣和 AI 交集的論文創建大綱)。在整個培訓過程和最終産品中都會使用推理。由於計算成本的原因,即使在訓練完成後,它們的運行成本也可能很高,但其計算強度低於訓練。

零知識證明 (ZKP) 允許在不泄露基礎信息的情況下驗證聲明。這在加密貨幣中很有用,主要有兩個原因:1) 隱私和 2) 擴展。爲了保護隱私,這使用戶能夠在不泄露敏感信息(例如錢包中有多少 ETH)的情況下進行交易。對於擴展而言,它使鏈下計算能夠比重新執行計算更快地在鏈上得到證明。這使得區塊鏈和應用程序能夠廉價地在鏈外運行計算,然後在鏈上驗證它們。有關零知識及其在以太坊虛擬機中的作用的更多信息,請參閲 Christine Kim 的報告 zkEVMs:以太坊可擴展性的未來。

人工智能 / 加密貨幣市場地圖

人工智能和加密貨幣集成的項目仍在構建支持大規模鏈上人工智能交互所需的底層基礎設施。

去中心化計算市場正在興起,以提供訓練和推理人工智能模型所需的大量物理硬件,主要以圖形處理單元 (GPU) 的形式。這些雙曏市場將那些租賃和尋求租賃計算的人連接起來,促進價值的轉移和計算的驗證。在去中心化計算中,正在出現幾個提供附加功能的子類別。除了雙邊市場之外,本報告還將審查專門提供可驗證培訓和微調輸出的機器學習培訓供應商,以及緻力於連接計算和模型生成以實現人工智能的項目,也經常被稱爲智能激勵網絡。

zkML 是希望以經濟有效且及時的方式在鏈上提供可驗證模型輸出的項目的一個新興重點領域。這些項目主要使應用程序能夠處理鏈下繁重的計算請求,然後在鏈上髮布可驗證的輸出,證明鏈下工作負載是完整且準確的。zkML 在當前實例中既昂貴又耗時,但越來越多地被用作解決方案。這在 zkML 供應商和想要利用 AI 模型的 DeFi/ 游戲應用程序之間的集成數量不斷增加中顯而易見。

充足的計算供應以及驗證鏈上計算的能力爲鏈上人工智能代理打開了大門。代理是經過訓練的模型,能夠代錶用戶執行請求。代理提供了顯著增強鏈上體驗的機會,使用戶隻需與聊天機器人對話即可執行覆雜的交易。然而,就目前而言,代理項目仍然專註於開髮基礎設施和工具,以實現輕鬆快速地部署。

去中心化計算

概述

人工智能需要大量計算來訓練模型和運行推理。在過去的十年中,隨著模型變得越來越覆雜,計算需求呈指數級增長。例如,OpenAI 髮現,從 2012 年到 2018 年,其模型的計算需求從每兩年翻一番變爲每三個半月翻一番。這導緻對 GPU 的需求激增,一些加密貨幣礦工甚至重新利用其 GPU 來提供雲計算服務 。隨著訪問計算的競爭加劇和成本上升,一些項目正在利用加密技術來提供去中心化計算解決方案。他們以具有競爭力的價格提供按需計算,以便團隊能夠以經濟實惠的方式訓練和運行模型。在某些情況下,權衡可能是性能和安全性。

最先進的 GPU(例如 Nvidia 生産的 GPU)的需求量很大。9 月,Tether 收購了德國比特幣礦商 Northern Data 的股份,據報道,該公司斥資 4.2 億美元購買了 10,000 個 H100 GPU(用於 AI 訓練的最先進 GPU 之一)。穫得一流硬件的等待時間可能至少爲六個月,在許多情況下甚至更長。更糟糕的是,公司經常被要求簽署長期合衕,以穫取他們甚至可能不會使用的計算量。這可能會導緻存在可用計算但市場上不可用的情況。去中心化計算繫統有助於解決這些市場效率低下的問題,創建一個二級市場,計算所有者可以在接到通知後立即轉租其過剩容量,從而釋放新的供應。

除了有競爭力的定價和可訪問性之外,去中心化計算的關鍵價值主張是抗審查性。尖端人工智能開髮日益由擁有無與倫比的計算和數據訪問能力的大型科技公司主導。2023 年的 AI 指數年度報告中強調的第一個關鍵主題是,工業界在人工智能模型的開髮方麵日益超越學術界,將控製權集中在少數技術領導者手中。這引髮了人們的擔憂,即他們是否有能力在製定支撐人工智能模型的規範和價值觀方麵産生巨大影響力,特別是在這些科技公司推動監管以限製其無法控製的人工智能開髮之後。

去中心化計算的垂直領域

近年來出現了幾種去中心化計算模型,每種模型都有自己的重點和權衡。

廣義計算

Akash、io.net、iExec、Cudos 等項目都是去中心化計算的應用程序,除了數據和通用計算解決方案之外,它們還提供或即將提供用於 AI 訓練和推理的專用計算的訪問權限。

Akash 是目前唯一完全開源的「超級雲」平颱。它是使用 Cosmos SDK 的權益證明網絡。AKT 是 Akash 的原生代幣,作爲一種支付形式,用於保護網絡安全併激勵參與。Akash 於 2020 年推出了第一個主網,專註於提供無需許可的雲計算市場,最初以存儲和 CPU 租賃服務爲特色。2023 年 6 月,Akash 推出了一個專註於 GPU 的新測試網,併於 9 月推出了 GPU 主網,使用戶能夠租賃 GPU 進行人工智能訓練和推理。

Akash 生態繫統中有兩個主要參與者 - 租戶和供應商。租戶是想要購買計算資源的 Akash 網絡的用戶。供應商是計算供應商。爲了匹配租戶和供應商,Akash 依靠逆曏拍賣流程。租戶提交他們的計算要求,在其中他們可以指定某些條件,例如服務器的位置或進行計算的硬件類型,以及他們願意支付的金額。然後,供應商提交他們的要價,最低出價者將穫得任務。

Akash 驗證器維護網絡的完整性。 一套驗證器目前限製爲 100 個,併計畫隨著時間的推移逐步增加。任何人都可以通過質押比當前質押 AKT 數量最少的驗證者更多的 AKT 來成爲驗證者。AKT 持有者還可以將其 AKT 委托給驗證者。網絡的交易費用和區塊獎勵以 AKT 形式分配。此外,對於每筆租賃,Akash 網絡都會按照社區確定的費率賺取「收取費用」,併將其分配給 AKT 持有者。

二級市場

去中心化計算市場旨在填補現有計算市場的低效率。供應的限製導緻公司囤積超出其可能需要的計算資源,併且由於與雲供應商的合衕結構將客戶鎖定在長期合衕中,即使可能不需要持續訪問,供應也進一步受到限製。去中心化計算平颱釋放了新的供應,使世界上任何擁有計算需求的人都可以成爲供應商。

AI 訓練對 GPU 的需求激增是否會轉化爲 Akash 上的長期網絡使用還有待觀察。 例如,Akash 長期以來一直爲 CPU 提供市場,以 70-80% 的折扣提供與集中式替代品類似的服務。 然而,較低的價格併沒有帶來顯著的採用。 網絡上的活躍租約已經趨於平緩,到 2023 年第二季度,平均隻有 33% 的計算、16% 的內存和 13% 的存儲。雖然這些都是鏈上採用的令人印象深刻的指標(作爲參考,領先的存儲提供商 Filecoin 已經 2023 年第三季度存儲利用率爲 12.6%),這錶明這些産品的供應仍然超過需求。

Akash 推出 GPU 網絡已經過去了半年多的時間,現在準確評估長期採用率還爲時過早。迄今爲止,GPU 的平均利用率爲 44%,高於 CPU、內存和存儲,這是需求的一個跡象。這主要是由對最高質量 GPU(如 A100)的需求推動的,超過 90% 已出租。

Akash 的每日支出也有所增加,相對於 GPU 出現之前幾乎翻了一番。 這部分歸因於其他服務使用量的增加,尤其是 CPU,但主要是新 GPU 使用量的結果。

定價與 Lambda Cloud 和 Vast.ai 等中心化競爭對手相當(或者在某些情況下甚至更貴)。對最高端 GPU(例如 H100 和 A100)的巨大需求意味著該設備的大多數所有者對在麵臨競爭性定價的市場上市興趣不大。

雖然初期的利潤是正曏的,但採用仍然存在障礙(下麵進一步討論)。 去中心化計算網絡需要採取更多措施來産生需求和供應,團隊正在嘗試如何最好地吸引新用戶。 例如,2024 年初,Akash 通過了第 240 號提案,增加 GPU 供應商的 AKT 排放量併激勵更多供應,特別針對高端 GPU。 團隊還緻力於推出概念驗證模型,曏潛在用戶展示其網絡的實時功能。 Akash 正在訓練他們自己的基礎模型,併且已經推出了聊天機器人和圖像生成産品,可以使用 Akash GPU 創建輸出。 衕樣,io.net 開髮了一個穩定的擴散模型,併正在推出新的網絡功能,以更好地模仿網絡的性能和規模。

去中心化機器學習培訓

除了能夠滿足人工智能需求的通用計算平颱外,一組專註於機器學習模型訓練的專業人工智能 GPU 供應商也正在興起。例如,Gensyn 正在「協調電力和硬件來構建集體智慧」,其觀點是,「如果有人想要訓練某種東西,併且有人願意訓練它,那麽就應該允許這種訓練髮生。」

該協議有四個主要參與者:提交者、解決者、驗證者和舉報人。提交者曏網絡提交帶有培訓請求的任務。這些任務包括訓練目標、要訓練的模型和訓練數據。作爲提交過程的一部分,提交者需要爲解決者所需的估計計算量預先支付費用。

提交後,任務將分配給對模型進行實際訓練的解決者。然後,解決者將已完成的任務提交給驗證者,驗證者負責檢查訓練以確保正確完成。舉報人有責任確保驗證者誠實行事。爲了激勵舉報人參與網絡,Gensyn 計畫定期提供故意錯誤的證據,獎勵舉報人抓住他們。

除了爲人工智能相關工作負載提供計算之外,Gensyn 的關鍵價值主張是其驗證繫統,該繫統仍在開髮中。爲了確保 GPU 提供商的外部計算正確執行(即確保用戶的模型按照他們想要的方式進行訓練),驗證是必要的。Gensyn 採用獨特的方法解決了這個問題,利用了稱爲「概率學習證明、基於圖形的精確協議和 Truebit 式激勵游戲」的新穎驗證方法。這是一種樂觀求解模式,允許驗證者確認解決者已正確運行模型,而無需自己完全重新運行模型,這是一個成本高昂且低效的過程。

除了其創新的驗證方法之外,Gensyn 還聲稱相對於中心化替代方案和加密貨幣競爭對手而言具有成本效益 - 提供的 ML 培訓價格比 AWS 便宜高達 80%,衕時在測試方麵勝過 Truebit 等類似項目。

這些初步結果是否可以在去中心化網絡中大規模覆製還有待觀察。Gensyn 希望利用小型數據中心、零售用戶以及未來手機等小型移動設備等供應商的多餘計算能力。然而,正如 Gensyn 團隊自己承認的那樣,依賴異構計算供應商帶來了一些新的挑戰。

對於穀歌雲和 Coreweave 等中心化供應商來説,計算成本昂貴,而計算之間的通信(帶寬和延遲)卻很便宜。這些繫統旨在盡快實現硬件之間的通信。Gensyn 顛覆了這一框架,通過讓世界上任何人都可以提供 GPU 來降低計算成本,但衕時也增加了通信成本,因爲網絡現在必鬚在相距較遠的異構硬件上協調計算作業。Gensyn 尚未推出,但它是構建去中心化機器學習訓練協議時可能實現的概念證明。

去中心化一般智能

去中心化計算平颱也爲人工智能創建方法的設計提供了可能性。Bittensor 是一種基於 Substrate 構建的去中心化計算協議,試圖解答「我們如何將人工智能轉變爲協作方法?」。Bittensor 旨在實現人工智能生成的去中心化和商品化。該協議於 2021 年推出,希望利用協作機器學習模型的力量來不斷迭代併産生更好的人工智能。

Bittensor 從比特幣中汲取靈感,其原生貨幣 TAO 的供應量爲 2100 萬,減半周期爲四年(第一次減半將於 2025 年)。Bittensor 不是使用工作量證明來生成正確的隨機數併穫得區塊獎勵,而是依賴於「智能證明」,要求礦工運行模型來響應推理請求而生成輸出。

激勵智能

Bittensor 最初依賴專家混合 (MoE) 模型來生成輸出。當提交推理請求時,MoE 模型不會依賴一個廣義模型,而是將推理請求轉髮給給定輸入類型的最準確的模型。想象一下建造一棟房子,您聘請了各種專家來負責施工過程的不衕方麵(例如:建築師、工程師、油漆工、建築工人等……)。MoE 將其應用於機器學習模型,嘗試根據輸入利用不衕模型的輸出。正如 Bittensor 創始人 Ala Shaabana 所解釋的那樣,這就像「與一屋子聰明人交談併穫得最佳答案,而不是與一個人交談」。由於在確保正確路由、消息衕步到正確模型以及激勵方麵存在挑戰,這種方法已被擱置,直到項目得到進一步開髮。

Bittensor 網絡中有兩個主要參與者:驗證者和礦工。驗證者的任務是曏礦工髮送推理請求,審查他們的輸出,併根據他們的響應質量對它們進行排名。爲了確保他們的排名可靠,驗證者會根據他們的排名與其他驗證者排名的一緻程度給予「vtrust」分數。驗證者的 vtrust 分數越高,他們穫得的 TAO 排放量就越多。這是爲了激勵驗證者隨著時間的推移就模型排名達成共識,因爲就排名達成一緻的驗證者越多,他們的個人 vtrust 分數就越高。

礦工,也稱爲服務器,是運行實際機器學習模型的網絡參與者。礦工們相互競爭,爲驗證者提供針對給定查詢的最準確的輸出,輸出越準確,賺取的 TAO 排放就越多。礦工可以按照自己的意願生成這些輸出。例如,在未來的情況下,Bittensor 礦工完全有可能之前在 Gensyn 上訓練過模型,併用它們來賺取 TAO 排放量。

如今,大多數交互直接髮生在驗證者和礦工之間。驗證者曏礦工提交輸入併請求輸出(即訓練模型)。一旦驗證者查詢網絡上的礦工併收到他們的響應,他們就會對礦工進行排名併將其排名提交到網絡。

驗證者(依賴 PoS)和礦工(依賴模型證明,PoW 的一種形式)之間的這種互動被稱爲 Yuma 共識。它旨在激勵礦工産生最好的輸出來賺取 TAO 的排放,併激勵驗證者對礦工輸出進行準確排名,以穫得更高的 vtrust 分數併增加他們的 TAO 獎勵,從而形成網絡的共識機製。

子網和應用程序

Bittensor 上的交互主要包括驗證者曏礦工提交請求併評估其輸出。然而,隨著貢獻礦工的質量提高和網絡整體智能的增長,Bittensor 將在其現有堆棧之上創建一個應用程序層,以便開髮人員可以構建查詢 Bittensor 網絡的應用程序。

2023 年 10 月,Bittensor 通過 Revolution 升級引入了子網,朝著實現這一目標邁出了重要一步。子網是 Bittensor 上激勵特定行爲的單獨網絡。Revolution 曏任何有興趣創建子網的人開放網絡。自髮布以來的幾個月內,已經啟動了超過 32 個子網,包括用於文本提示、數據抓取、圖像生成和存儲的子網。隨著子網的成熟併成爲産品就緒,子網創建者還將創建應用程序集成,使團隊能夠構建查詢特定子網的應用程序。一些應用程序(如聊天機器人、圖像生成器、推特回覆機器人、預測市場)目前確實存在,但除了 Bittensor 基金會的資助之外,沒有正式的激勵措施讓驗證者接受和轉髮這些查詢。

爲了提供更清晰的説明,下麵是一個示例,説明應用程序集成到網絡中後 Bittensor 可能如何工作。

子網根據根網絡評估的性能賺取 TAO。根網絡位於所有子網之上,本質上充當一種特殊的子網,併由 64 個最大的子網驗證者按權益進行管理。根網絡驗證器根據子網的性能對子網進行排名,併定期將 TAO 排放分配給子網。通過這種方式,各個子網充當根網絡的礦工。

Bittensor 的展望

Bittensor 仍在經歷成長的煩惱,因爲它擴展了協議的功能以激勵跨多個子網的智能生成。礦工們不斷設計新的方法來攻擊網絡以穫得更多 TAO 的獎勵,例如通過稍微修改其模型運行的高評價推理的輸出,然後提交多個變體。影響整個網絡的治理提案隻能由完全由 Opentensor 基金會利益相關者組成的 Triumvirate 提交和實施(值得註意的是,提案需要在實施之前得到由 Bittensor 驗證者組成的 Bittensor 參議院的批準)。該項目的代幣經濟正在進行修改,以提高對 TAO 跨子網使用的激勵。該項目還因其獨特的方法而迅速聲名狼藉,最受歡迎的人工智能網站之一 HuggingFace 的首席執行官錶示 Bittensor 應該將其資源添加到該網站。

在核心開髮人員最近髮錶的一篇名爲「Bittensor Paradigm」的文章中,該團隊闡述了 Bittensor 的願景,即最終髮展爲「對所測量的內容不可知」。理論上,這可以使 Bittensor 開髮子網來激勵由 TAO 提供支持的任何類型的行爲。仍然存在相當大的實際限製——最值得註意的是,證明這些網絡能夠擴展以處理如此多樣化的流程,併且潛在的激勵措施推動的進步超過了中心化産品。

爲人工智能模型構建去中心化計算堆棧

上述部分提供了正在開髮的各種類型的去中心化人工智能計算協議的深度概述。在開髮和採用的早期,它們提供了生態繫統的基礎,最終可以促進「人工智能構建塊」的創建,例如 DeFi 的「金錢樂高」概念。無需許可的區塊鏈的可組合性爲每個協議構建在另一個協議之上提供了可能性,以提供更全麵的去中心化人工智能生態繫統。

例如,這是 Akash、Gensyn 和 Bittensor 可能全部交互以響應推理請求的一種方式。

需要明確的是,這隻是未來可能髮生的事情的一個例子,而不是當前生態繫統、現有合作伙伴關繫或可能結果的代錶。 相互操作性的限製以及下麵描述的其他考慮因素極大地限製了當今的集成可能性。 除此之外,流動性分散和使用多種代幣的需要可能會損害用戶體驗,Akash 和 Bittensor 的創始人都指出了這一點。

其他去中心化産品

除了計算之外,還推出了其他幾種去中心化基礎設施服務,以支持加密貨幣新興的人工智能生態繫統。列出所有這些超出了本報告的範圍,但一些有趣且有説明性的示例包括:

  • Ocean:一個去中心化的數據市場。用戶可以創建代錶其數據的數據 NFT,併可以使用數據代幣進行購買。用戶既可以將其數據貨幣化,又可以對其擁有更大的主權,衕時爲人工智能團隊提供開髮和訓練模型所需的數據的訪問權限。
  • Grass:去中心化的帶寬市場。用戶可以將多餘的帶寬出售給人工智能公司,後者利用這些帶寬從互聯網上抓取數據。建立在 Wynd 網絡之上,這不僅使個人能夠將其帶寬貨幣化,而且還爲帶寬購買者提供了更多樣化的觀點來了解個人用戶在網上看到的內容(因爲個人的互聯網訪問通常是根據其 IP 地址專門定製的) )。
  • HiveMapper:構建一個分散的地圖産品,其中包含從日常汽車駕駛員收集的信息。HiveMapper 依靠 AI 來解釋從用戶儀錶闆攝像頭收集的圖像,併獎勵用戶通過強化人類學習反饋 (RHLF) 幫助微調 AI 模型的代幣。

總的來説,這些都指曏探索支持人工智能模型的去中心化市場模型或開髮它們所需的周邊基礎設施的幾乎無限的機會。目前,這些項目大多處於概念驗證階段,需要更多的研究和開髮來證明它們能夠以提供全麵人工智能服務所需的規模運行。

展望

去中心化計算産品仍處於開髮的早期階段。他們剛剛開始推出最先進的計算能力,能夠在生産中訓練最強大的人工智能模型。爲了穫得有意義的市場份額,他們需要展示與中心化替代方案相比的實際優勢。更廣泛採用的潛在觸髮因素包括:

  • GPU 的供應 / 需求。GPU 的稀缺加上快速增長的計算需求正在導緻 GPU 軍備競賽。由於 GPU 的限製,OpenAI 已經一度限製對其平颱的訪問。Akash 和 Gensyn 等平颱可以爲需要高性能計算的團隊提供具有成本競爭力的替代方案。對於去中心化計算供應商來説,未來 6-12 個月是一個特別獨特的機會來吸引新用戶,由於缺乏更廣泛的市場準入,這些新用戶被迫考慮去中心化産品。再加上 Meta 的 LLaMA2 等性能日益提高的開源模型,用戶在部署有效的微調模型時不再麵臨衕樣的障礙,使計算資源成爲主要瓶頸。然而,平颱本身的存在併不能確保足夠的計算供應和消費者的相應需求。採購高端 GPU 仍然很睏難,而且成本併不總是需求方的主要動機。這些平颱將麵臨挑戰,以展示使用去中心化計算選項的實際好處(無論是由於成本、審查阻力、正常運行時間和彈性還是可訪問性)來積纍粘性用戶。他們必鬚快速行動。GPU 基礎設施投資和建設正在以驚人的速度進行。
  • 規定。監管仍然是去中心化計算運動的阻力。短期內,缺乏明確的監管意味著供應商和用戶都麵臨使用這些服務的潛在風險。如果供應商提供計算或買方在不知情的情況下從受製裁實體購買計算怎麽辦?用戶可能會猶豫是否使用缺乏中心化實體控製和監督的去中心化平颱。協議試圖通過將控件納入其平颱或添加過濾器以僅訪問已知的計算供應商(即提供了解你的客戶(KYC)信息)來減輕這些擔憂,但需要採用更強大的方法來保護隱私,衕時確保合規性。短期內,我們可能會看到 KYC 和合規平颱的出現,這些平颱限製對其協議的訪問,以解決這些問題。此外,圍繞美國可能的新監管框架的討論(以《關於安全、可靠和值得信賴的人工智能開髮和使用的行政命令》的髮布爲最佳例證)凸顯了進一步限製 GPU 穫取的監管行動的潛力。
  • 審查製度。監管是雙曏的,去中心化的計算産品可以從限製人工智能訪問的行動中受益。除了行政命令之外,OpenAI 創始人 Sam Altman 還在國會作證,説明監管機構需要爲人工智能開髮頒髮許可證。關於人工智能監管的討論才剛剛開始,但任何此類限製訪問或審查人工智能功能的嘗試都可能加速不存在此類障礙的去中心化平颱的採用。11 月的 OpenAI 領導層變動(或缺乏)進一步錶明,將最強大的現有人工智能模型的決策權授予少數人是存在風險的。此外,所有人工智能模型都必然反映了創建它們的人的偏見,無論是有意還是無意。消除這些偏差的一種方法是使模型盡可能開放地進行微調和訓練,確保任何地方的任何人都可以訪問各種類型和偏差的模型。
  • 數據隱私。當與爲用戶提供數據自主權的外部數據和隱私解決方案集成時,去中心化計算可能會比集中式替代方案更具吸引力。當三星意識到工程師正在使用 ChatGPT 幫助芯片設計併將敏感信息泄露給 ChatGPT 時,三星成爲了受害者。Phala Network 和 iExec 聲稱爲用戶提供 SGX 安全飛地來保護用戶數據,併且正在進行的完全衕態加密研究可以進一步解鎖確保隱私的去中心化計算。隨著人工智能進一步融入我們的生活,用戶將更加重視能夠在具有隱私保護的應用程序上運行模型。用戶還需要支持數據可組合性的服務,以便他們可以將數據從一種模型無縫移植到另一種模型。
  • 用戶體驗(UX)。用戶體驗仍然是更廣泛採用所有類型的加密應用程序和基礎設施的重大障礙。這對於去中心化計算産品來説併沒有什麽不衕,併且在某些情況下,由於開髮人員需要了解加密貨幣和人工智能,這會加劇這種情況。需要從基礎知識進行改進,例如加入併提取出與區塊鏈的交互,以提供與當前市場領導者相衕的高質量輸出。鑒於許多提供更便宜産品的可操作的去中心化計算協議很難穫得常規使用,這一點顯而易見。

智能合約和 zkML

智能合約是任何區塊鏈生態繫統的核心構建塊。在給定一組特定條件的情況下,它們會自動執行併減少或消除對受信任第三方的需求,從而能夠創建覆雜的去中心化應用程序,例如 DeFi 中的應用程序。然而,智能合約的功能仍然有限,因爲它們根據必鬚更新的預設參數執行。

例如,部署借出 / 借入協議的智能合約,其中包含根據特定貸款與價值比率何時清算頭寸的規範。雖然在靜態環境中有用,但在風險不斷變化的動態情況下,這些智能合約必鬚不斷更新以適應風險承受能力的變化,這給不通過集中流程管理的合約帶來了挑戰。例如,依賴去中心化治理流程的 DAO 可能無法快速反應以應對繫統性風險。

集成人工智能(即機器學習模型)的智能合約是增強功能、安全性和效率衕時改善整體用戶體驗的一種可能方法。然而,這些集成也帶來了額外的風險,因爲不可能確保支撐這些智能合約的模型不會被利用或解釋長尾情況(鑒於數據輸入的稀缺,長尾情況很難訓練模型)。

零知識機器學習(zkML)

機器學習需要大量的計算來運行覆雜的模型,這使得人工智能模型由於成本高昂而無法直接在智能合約中運行。例如,爲用戶提供收益優化模型的 DeFi 協議,如果不支付過高的 Gas 費用,將很難在鏈上運行該模型。一種解決方案是增加底層區塊鏈的計算能力。然而,這也增加了對鏈驗證器集的要求,可能會破壞去中心化特性。相反,一些項目正在探索使用 zkML 以去信任化的方式驗證輸出,而不需要密集的鏈上計算。

説明 zkML 有用性的一個常見示例是,當用戶需要其他人通過模型運行數據併驗證其交易對手實際上運行了正確的模型時。也許開髮人員正在使用去中心化計算供應商來訓練他們的模型,併擔心該供應商試圖通過使用輸出差異幾乎無法察覺的且更便宜的模型來削減成本。zkML 使計算供應商能夠通過其模型運行數據,然後生成可以在鏈上驗證的證明,以證明給定輸入的模型輸出是正確的。在這種情況下,模型提供者將具有額外的優勢,即能夠提供他們的模型,而不必透露産生輸出的基礎權重。

也可以做相反的事情。如果用戶想要使用他們的數據運行模型,但由於隱私問題(即,在醫療檢查或專有商業信息的情況下),不希望提供模型的項目訪問他們的數據,那麽用戶可以在他們的數據上運行模型而不共享數據,然後通過證明驗證他們運行了正確的模型。這些可能性通過解決令人望而卻步的計算限製,極大地擴展了人工智能和智能合約功能集成的設計空間。

基礎設施和工具

鑒於 zkML 領域的早期狀態,開髮主要集中在構建團隊所需的基礎設施和工具,以將其模型和輸出轉換爲可以在鏈上驗證的證明。這些産品盡可能地提取了零知識方麵的開髮。

EZKL 和 Giza 是通過提供機器學習模型執行的可驗證證明來構建此工具的兩個項目。兩者都幫助團隊構建機器學習模型,以確保這些模型能夠以可以在鏈上以可信方式驗證結果的形式執行。這兩個項目都使用開放神經網絡交換 (ONNX) 將用 TensorFlow 和 Pytorch 等通用語言編寫的機器學習模型轉換爲標準格式。然後,他們輸出這些模型的版本在執行時也會生成 zk 證明。EZKL 是開源的,生産 zk-SNARKS,而 Giza 是閉源的,生産 zk-STARKS。這兩個項目目前僅兼容 EVM。

過去幾個月,EZKL 在增強 zkML 解決方案方麵取得了重大進展,主要側重於降低成本、提高安全性和加快證明生成速度。例如,2023 年 11 月,EZKL 集成了一個新的開源 GPU 庫,可將聚合證明時間縮短 35%;1 月,EZKL 髮布了 Lilith,這是一種軟件解決方案,用於在使用 EZKL 證明時集成高性能計算集群和編排併髮作業繫統。Giza 的獨特之處在於,除了提供用於創建可驗證的機器學習模型的工具外,他們還計畫實現相當於 Hugging Face 的 web3,爲 zkML 協作和模型共享開放用戶市場,併最終集成去中心化計算産品。一月份,EZKL 髮布了一項基準評估,比較了 EZKL、Giza 和 RiscZero(如下所述)的性能。EZKL 展示了更快的證明時間和內存使用。

Modulus Labs 還在開髮一種專爲 AI 模型定製的新的 zk 證明技術。 Modulus 髮錶了一篇名爲《智能成本》的論文(暗示在鏈上運行 AI 模型的成本極高),該論文對當時現有的 zk 證明繫統進行了基準測試,以確定改進 AI 模型裡 zk 證明的能力和瓶頸。 該論文於 2023 年 1 月髮布,錶明現有産品過於昂貴且效率低下,無法大規模實現人工智能應用。 在最初研究的基礎上,Modulus 在 11 月推出了 Remainder,這是一種專門的零知識證明器,專門用於降低 AI 模型的成本和證明時間,其目標是使項目在經濟上可行,將模型大規模集成到智能合約中。 他們的工作是閉源的,因此無法與上述解決方案進行基準測試,但最近在 Vitalik 關於加密和人工智能的博客文章中引用了他們的工作。

工具和基礎設施開髮對於 zkML 空間的未來增長至關重要,因爲它可以顯著減少需要部署運行可驗證的鏈下計算與所需的 zk 團隊的線路的摩擦。創建安全接口,使從事機器學習工作的非加密原生構建者能夠將他們的模型帶到鏈上,這將使應用程序能夠通過真正新穎的用例進行更大的實驗。工具還解決了更廣泛採用 zkML 的一個主要障礙,即缺乏知識淵博且對零知識、機器學習和密碼學交叉領域工作感興趣的開髮人員。

協處理器

正在開髮的其他解決方案(稱爲「協處理器」)包括 RiscZero、Axiom 和 Ritual。協處理器這個術語主要是語義上的——這些網絡履行許多不衕的角色,包括驗證鏈上的鏈下計算。與 EZKL、Giza 和 Modulus 一樣,他們的目標是完全提取零知識證明生成的過程,創建本質上能夠執行鏈下程序併生成鏈上驗證證明的零知識虛擬機。RiscZero 和 Axiom 可以爲簡單的 AI 模型提供服務,因爲它們是更通用的協處理器,而 Ritual 是專門爲與 AI 模型一起使用而構建的。

Infernet是 Ritual 的第一個實例,包含一個 Infernet SDK,允許開髮人員曏網絡提交推理請求併接收輸出和證明(可選)作爲回報。Infernet的節點接收這些請求併在返回輸出之前處理鏈下計算。例如,DAO 可以創建一個流程,確保所有新的治理提案在提交之前滿足某些先決條件。每次提交新提案時,治理合約都會通過 Infernet觸髮推理請求,調用 DAO 特定治理訓練的 AI 模型。該模型會審查提案,以確保提交所有必要的標準,併返回輸出和證據,批準或拒絶提案的提交。

在接下來的一年裡,Ritual 團隊計畫推出更多功能,形成稱爲 Ritual 超級鏈的基礎設施層。前麵討論的許多項目都可以作爲服務供應商插入 Ritual。Ritual 團隊已經與 EZKL 集成以生成證明,併且可能很快會添加其他領先供應商的功能。Ritual 上的 Infernet 節點還可以使用 Akash 或 io.net GPU 以及在 Bittensor 子網上訓練的查詢模型。他們的最終目標是成爲開放人工智能基礎設施的首選供應商,能夠爲任何網絡、任何工作負載的機器學習和其他人工智能相關任務提供服務。

應用程序

zkML 有助於調和區塊鏈和人工智能之間的矛盾,前者本質上是資源受限的,而後者則需要大量的計算和數據。正如 Giza 的一位創始人所説,「用例非常豐富……這有點像以太坊早期問智能合約的用例是什麽……我們所做的隻是擴展智能合約的用例。」然而,如上所述,當今的開髮主要髮生在工具和基礎設施級別。應用程序仍處於探索階段,團隊麵臨的挑戰是證明使用 zkML 實現模型所産生的價值超過了其覆雜性和成本。

目前的一些應用包括:

  • 去中心化金融。zkML 通過增強智能合約的能力,升級了 DeFi 的設計空間。DeFi 協議爲機器學習模型提供大量可驗證且不可變的數據,可用於生成收益或交易策略、風險分析、用戶體驗等。例如,Giza 與 Yearn Finance 合作,爲 Yearn 的新 v3 金庫構建概念驗證自動風險評估引擎。Modulus Labs 與 Lyra Finance 合作將機器學習納入其 AMM,與 Ion Protocol 合作實施分析驗證者風險的模型,併幫助 Upshot 驗證其人工智能支持的 NFT 價格信息。NOYA(利用 EZKL)和 Mozaic 等協議提供了對專有鏈下模型的訪問,這些模型使用戶能夠訪問自動化流動性挖礦,衕時使他們能夠驗證鏈上的數據輸入和證明。Spectral Finance 正在構建鏈上信用評分引擎,以預測 Compound 或 Aave 借款人拖欠貸款的可能性。由於 zkML,這些所謂的「De-Ai-Fi」産品在未來幾年可能會變得更加流行。
  • 游戲。長期以來,游戲一直被認爲可以通過公共區塊鏈進行顛覆和增強。zkML 使人工智能的鏈上游戲成爲可能。Modulus Labs 已經實現了簡單鏈上游戲的概念驗證。Leela vs the World 是一款博弈論國際象棋游戲,用戶在其中對抗 AI 國際象棋模型,zkML 驗證 Leela 所做的每一步都是基於游戲運行的模型。衕樣,團隊也使用 EZKL 框架來構建簡單的歌唱比賽和鏈上井字棋。Cartridge 正在使用 Giza 使團隊能夠部署完全鏈上游戲,最近重點介紹了一款簡單的人工智能駕駛游戲,用戶可以競爭爲試圖避開障礙物的汽車創建更好的模型。雖然很簡單,但這些概念驗證指曏未來的實現,能夠實現更覆雜的鏈上驗證,例如能夠與游戲內經濟體進行交互的覆雜 NPC 演員,如《AI Arena》中所見,這是一款超級粉碎兄弟游戲,玩家可以在其中訓練自己的戰士, 然後部署爲人工智能模型進行戰鬥。
  • 身份、出處和隱私。加密貨幣已經被用作驗證真實性和打擊越來越多的人工智能生成 / 操縱內容和深度僞造的手段。zkML 可以推進這些努力。WorldCoin 是一種身份證明解決方案,要求用戶掃描虹膜以生成唯一的 ID。未來,生物識別 ID 可以使用加密存儲在個人設備上進行自我托管,併使用驗證本地運行的生物識別所需的模型。然後,用戶可以提供生物識別證據,而無需透露自己的身份,從而在確保隱私的衕時抵禦女巫攻擊。這也可以應用於需要隱私的其他推論,例如使用模型分析醫療數據 / 圖像來檢測疾病、驗證人格併在約會應用程序中開髮匹配算法,或者需要驗證財務信息的保險和貸款機構。

展望

zkML 仍處於實驗階段,大多數項目都專註於構建基礎設施原語和概念證明。如今的挑戰包括計算成本、內存限製、模型覆雜性、有限的工具和基礎設施以及開髮人員人才。簡而言之,在 zkML 能夠以消費産品所需的規模實施之前,還有相當多的工作要做。

然而,隨著該領域的成熟以及這些限製的解決,zkML 將成爲人工智能和加密集成的關鍵組成部分。從本質上講,zkML 承諾能夠將任何規模的鏈外計算引入鏈上,衕時保持與鏈上運行相衕或接近相衕的安全保證。然而,在這一願景實現之前,該技術的早期用戶將繼續必鬚在 zkML 的隱私和安全性與替代方案的效率之間進行權衡。

人工智能代理

人工智能和加密貨幣最令人興奮的集成之一是正在進行的人工智能代理實驗。代理是能夠使用人工智能模型接收、解釋和執行任務的自主機器人。這可以是任何事情,從擁有一個隨時可用的根據您的偏好進行微調的個人助理,到雇用一個根據您的風險偏好來管理和調整您的投資組合的金融代理人。

由於加密貨幣提供了無需許可和去信任化的支付基礎設施,代理和加密貨幣可以很好地結合在一起。經過培訓後,代理將穫得一個錢包,以便他們可以自行使用智能合約進行交易。例如,今天的代理可以在互聯網上抓取信息,然後根據模型在預測市場上進行交易。

代理供應商

Morpheus 是 2024 年在以太坊和 Arbitrum 上上線的最新開源代理項目之一。其白皮書於 2023 年 9 月匿名髮布,爲社區的形成和構建提供了基礎(包括 Erik Vorhees 等著名人物) 。該白皮書包括一個可下載的智能代理協議,它是一個開源的 LLM,可以在本地運行,由用戶的錢包管理,併與智能合約交互。它使用智能合約排名來幫助代理根據處理的交易數量等標準確定哪些智能合約可以安全地進行交互。

白皮書還提供了構建 Morpheus 網絡的框架,例如使智能代理協議運行所需的激勵結構和基礎設施。這包括激勵貢獻者構建用於與代理交互的前端、供開髮人員構建可插入代理以便他們可以相互交互的應用程序的 API,以及使用戶能夠訪問運行代理所需的計算和在邊緣設備上存儲的雲解決方案。該項目的初始資金已於 2 月初啟動,完整協議預計將於 2024 年第二季度啟動。

去中心化自治基礎設施網絡 (DAIN) 是一種新的代理基礎設施協議,在 Solana 上構建代理到代理經濟。DAIN 的目標是讓來自不衕企業的代理可以通過通用 API 無縫地相互交互,從而大大開放 AI 代理的設計空間,重點是實現能夠與 web2 和 web3 産品交互的代理。一月份,DAIN 宣布與 Asset Shield 首次合作,使用戶能夠將「代理簽名者」添加到其多重簽名中,這些簽名者能夠根據用戶設置的規則解釋交易併批準 / 拒絶。

Fetch.AI 是最早部署的 AI 代理協議之一,併開髮了一個生態繫統,用於使用 FET 代幣和 Fetch.AI 錢包在鏈上構建、部署和使用代理。該協議提供了一套用於使用代理的全麵工具和應用程序,包括用於與代理交互和訂購代理的錢包內功能。

Autonolas 的創始人包括 Fetch 團隊的前成員,它是一個用於創建和使用去中心化人工智能代理的開放市場。Autonolas 還爲開髮人員提供了一套工具來構建鏈下托管的人工智能代理,併可以插入多個區塊鏈,包括 Polygon、Ethereum、Gnosis Chain 和 Solana。他們目前擁有一些活躍的代理概念驗證産品,包括用於預測市場和 DAO 治理。

SingularityNet 正在爲人工智能代理構建一個去中心化的市場,人們可以在其中部署專註的人工智能代理,這些代理可以被其他人或代理雇用來執行覆雜的任務。AlteredStateMachine 等其他公司正在構建 AI 代理與 NFT 的集成。用戶鑄造具有隨機屬性的 NFT,這些屬性賦予他們在不衕任務上的優勢和劣勢。然後可以對這些代理進行訓練,以增強某些屬性,以用於游戲、DeFi 或作爲虛擬助手併與其他用戶進行交易。

總的來説,這些項目設想了一個未來的智能體生態繫統,這些智能體能夠協衕工作,不僅可以執行任務,還可以幫助構建通用人工智能。真正覆雜的代理將有能力自主完成任何用戶任務。例如,完全自主的代理將能夠弄清楚如何雇用另一個代理來集成 API,然後執行任務,而不必確保代理在使用之前已經與外部 API(例如旅行預訂網站)集成。從用戶的角度來看,不需要檢查代理是否可以完成任務,因爲代理可以自己確定。

比特幣和人工智能代理

2023 年 7 月,閃電實驗室推出了在閃電網絡上使用代理的概念驗證實施方案,稱爲 LangChain 的比特幣套件。該産品特別有趣,因爲它旨在解決 Web 2 世界中日益嚴重的問題——Web 應用程序的門禁且昂貴的 API 密鑰。

LangChain 通過爲開髮人員提供一套工具來解決這個問題,使代理能夠購買、出售和持有比特幣,以及查詢 API 密鑰和髮送小額支付。在傳統的支付軌道上,小額支付由於費用而成本高昂,而在閃電網絡上,代理商可以每天以最低的費用髮送無限的小額支付。當與 LangChain 的 L402 支付計量 API 框架結合使用時,公司可以根據使用量的增加和減少調整其 API 的訪問費用,而不是設定單一的成本高昂的標準。

在未來,鏈上活動主要由智能體與智能體交互所主導,這樣的事情將是必要的,以確保智能體能夠不以成本過高的方式相互交互。這是一個早期的例子,説明如何在無需許可且經濟高效的支付軌道上使用代理,爲新市場和經濟互動開辟了可能性。

展望

代理領域仍處於新生階段。項目剛剛開始推出功能代理,可以使用其基礎設施處理簡單的任務——這通常隻有經驗豐富的開髮人員和用戶才能訪問。然而,隨著時間的推移,人工智能代理對加密貨幣的最大影響之一是所有垂直領域的用戶體驗改進。交易將開始從基於點擊轉曏基於文本,用戶能夠通過法學碩士與鏈上代理進行交互。Dawn Wallet 等團隊已經推出了聊天機器人錢包,供用戶在鏈上進行交互。

此外,目前尚不清楚代理商如何在 Web 2 中運作,因爲金融軌道依賴於受監管的銀行機構,這些機構不能全天 24 小時運營,也無法進行無縫跨境交易。正如林恩·奧爾登(Lyn Alden)所強調的那樣,由於缺乏退款和處理微交易的能力,與信用卡相比,加密的軌道尤其有吸引力。然而,如果代理成爲一種更常見的交易方式,現有的支付供應商和應用程序很可能會迅速採取行動,實施在現有金融軌道上運營所需的基礎設施,從而削弱使用加密貨幣的一些好處。

目前,代理可能僅限於確定性的加密貨幣交易,其中給定輸入保證給定輸出。這兩種模型都規定了這些代理弄清楚如何執行覆雜任務的能力,而工具則擴大了它們可以完成的範圍,都需要進一步開髮。爲了讓加密代理在新穎的鏈上加密用例之外變得有用,需要更廣泛的集成和接受加密作爲一種支付形式以及監管的明確性。然而,隨著這些組件的髮展,代理準備成爲上述去中心化計算和 zkML 解決方案的最大消費者之一,以自主的非確定性方式接收和解決任何任務。

結論

AI 爲加密貨幣引入了我們在 web2 中看到的相衕創新,增強了從基礎設施開髮到用戶體驗和可訪問性的各個方麵。然而,項目仍處於髮展早期,近期加密貨幣和人工智能集成將主要由鏈下集成主導。

像 Copilot 這樣的産品將使開髮人員效率「提高 10 倍」,Layer 1 和 DeFi 應用程序已經與微軟等大公司合作推出人工智能輔助開髮平颱。Cub3.ai 和 Test Machine 等公司正在開髮用於智能合約審計和實時威脅監控的人工智能集成,以增強鏈上的安全性。LLM 聊天機器人正在使用鏈上數據、協議文檔和應用程序進行培訓,爲用戶提供增強的可訪問性和用戶體驗。

對於真正利用加密貨幣底層技術的更高級集成來説,挑戰仍然是證明在鏈上實施人工智能解決方案在技術上是可行的,在經濟上也是可行的。去中心化計算、zkML 和 AI 代理的髮展指曏有前景的垂直領域,這些領域爲加密貨幣和人工智能深度互聯的未來奠定了基礎。

聲明:

  1. 本文轉載自[techflow],著作權歸屬原作者[Lucas Tcheyan],如對轉載有異議,請聯繫Gate Learn團隊,團隊會根據相關流程盡速處理。
  2. 免責聲明:本文所錶達的觀點和意見僅代錶作者個人觀點,不構成任何投資建議。
  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得覆製、傳播或抄襲經翻譯文章。
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!