详解AI+Web3基础设施

中级4/23/2024, 8:04:42 AM
AI+Web3 产业的基础设施层的主要项目基本是以去中心化的计算网络为主要的叙事,以低成本为主要优势,以代币激励为主要方式扩展网络,服务 AI+Web3 客户为主要目标。

转发原文标题:AI+Web3未来发展之路(二):基础设施篇

基础设施是AI发展的确定性成长方向

1.爆发增长的AI算力需求

近年来,算力需求快速增长,尤其是在LLM大模型面世后,AI算力需求引爆了高性能算力市场。OpenAI数据显示,自2012年以来,用于训练最大AI模型的计算用量呈指数级增长,平均每3-4个月翻倍,其增长速度大大超过了摩尔定律。AI应用的需求增长导致了对计算硬件的需求快速增加,预计到2025年,AI应用对计算硬件的需求将增长约10%到15%。

受AI算力需求影响,GPU硬件厂商英伟达的数据中心收入持续增长,23年Q2的数据中心收入达到 $10.32B,比 23年Q1 增长 141%,比去年同期增长 171%。2024 财年第四季度中数据中心业务占据83%以上营收,同步增长409%,其中40%用于大模型的推理场景,显示出对于高性能算力的强大需求。

同时需要海量数据也对存储和硬件内存提出了要求,尤其是在模型训练阶段,需要大量的参数输入,需要存储大量数据。在 AI 服务器中应用的存储芯片主要包括:高带宽存储器 (HBM)、DRAM 和 SSD,针对 AI 服务器的工作场景需要提供更大的容量、更高的性能、更低的延迟和更高的响应速度。根据美光测算, AI 服务器中 DRAM 数量是传统服务器的 8 倍,NAND 是传统的 3 倍。

2.供需失衡推动高昂的算力成本

通常来说,算力主要应用在AI模型的训练、微调和推测阶段,尤其是在训练微调阶段,由于更大的数据参数输入和计算量,同时对并行计算的互联性要求更高,因此需要更性能、互联能力更强的GPU硬件,通常是高性能的GPU算力集群。随着大模型的发展,计算复杂度也直线上升,使得需要更多高端硬件来满足模型训练需求。

以GPT3为例,按1300万独立用户访问的情况来说,对应的芯片需求是3万多片A100GPU。那么初始投入成本将达到惊人的8亿美元,每日模型推理费用预估费用70万美元。

同时,据行业报道,2023年第四季度,NVIDIA GPU供应量在全球范围内都被严格限制,导致全球市场都出现了明显的供不应求。英伟达产能受限于台积电、HBM、CoWos封装等产能,H100的“严重缺货问题”至少会持续到2024年底。

因此高端GPU的需求上升和供应受阻两方面推动了当前GPU等硬件的高昂价格,尤其是类似英伟达这种占据产业链底层核心的公司,通过龙头垄断还能进一步获得价值红利。例如英伟达的H100 AI加速卡的物料成本约为3000美元,而在2023年中售价已经达到了3.5万美元左右,甚至在eBay上卖出了超过4w美元的价格。

3.AI基础设施占据产业链核心价值增长

Grand View Research的报告显示,全球云AI市场的规模在2023年估计为626.3亿美元,并预计到2030年将增长到6476亿美元,年复合增长率为39.6%。这一数据反映了云AI服务的增长潜力及其在整个AI产业链中所占的重要份额。

根据a16z的估算,AIGC市场的大量资金最终流向了基础设施公司。平均而言,应用程序公司将大约 20-40% 的收入用于推理和针对每个客户的微调。这通常直接支付给计算实例的云提供商或第三方模型提供商——反过来,第三方模型提供商将大约一半的收入花在云基础设施上。因此,有理由猜测当今AIGC总收入的 10-20% 流向了云提供商。

同时,更大一部分的算力需求在于大型AI模型的训练,例如各类LLM大模型,尤其是对于模型初创公司,80-90%的成本都用于AI算力使用。综合来看,AI计算基础设施(包括云计算和硬件)预计占据市场初期50%以上的价值。

去中心化AI计算

如上文所述,当前中心化AI计算的成本高企,很重要的一个原因是AI训练对高性能基础设施的需求增长。但是实际上市场上大量仍然存在大量的算力面临闲置的问题,出现了一部分的供需错配。其中主要原因是:

  • 受限于内存,模型复杂度与所需要的GPU数量并不是线性增长关系:当前的GPU具有算力优势,但是模型训练需要大量的参数存储在内存。例如对于GPT-3来说,为了训练 1750 亿个参数的模型,需要在内存中保存超过 1 TB 的数据——这超过了当今现有的任何 GPU,因此需要更多的GPU进行并行计算和存储,这又会导致GPU算力的闲置。比如从GPT3到GPT4,模型参数规模增加约10倍,但是所需要的GPU数量增加了24倍(且不考虑模型训练时间的增长)。据相关分析称,OpenAI在GPT-4的训练中使用了大约2.15e25的FLOPS,在大约25000个A100 GPU上进行了90到100天的训练,其算力利用率约为32%至36%。

面对以上问题,设计更加符合AI工作的高性能芯片或者专用ASIC芯片是目前很多开发者和大型企业在探索的方向,另一个角度则是综合利用现有的计算资源,建设分布式算力网络,通过算力的租赁、共享、调度等来降低算力的成本。此外,目前市场有很多闲置的消费级GPU和CPU,单体算力不强,但是在某些场景或者与现有高性能芯片一起配置也能过满足现有的计算需求,最重要的是供应充足,通过分布式网络调度能够进一步降低成本。

因此分布式算力成为了AI基础设施发展的一个方向。同时因为Web3与分布式具有相似的概念,去中心化算力网络也是当前Web3+AI基础设施的主要应用方向。目前市场上的Web3去中心化算力平台普遍能够提供相比较中心化云算力低80%-90%的价格。

存储虽然也为AI最重要的基础设施,但存储对大规模、易用性、低延迟等要求使得目前中心化的存储具有更大的优势。而分布式计算网络由于其显著的成本优势,则存在更加切实的市场,能够更大地享受到AI市场爆发带来的红利。

  • 模型推理和小模型训练是当前分布式算力的核心场景。分布式算力由于算力资源的分散,不可避免地增加GPU之间的通信问题,因此会降低算力性能。因此,分布式算力首先更加适合对通信要求少,可以支持并行的场景,例如AI大模型的推理阶段,以及参数量比较少的小模型,其受到的性能影响较小。事实上随着未来AI应用的发展,推理才是应用层的核心需求,大部分公司没有能力去做大模型的训练,因此分布式算力仍然具有长期潜力的市场。
  • 为大规模并行计算设计的高性能分布式训练框架也不断涌现。例如Pytorch、Ray、DeepSpeed等创新式的开源分布式计算框架为开发者使用分布式算力进行模型训练提供了更强的基础支持,使得分布式算力在未来AI市场的适用性会更强。

AI+Web3基础设施项目的叙事逻辑

我们看到,分布式AI基础设施需求强,且具有长期增长潜力,因此是易于叙事和受到资本青睐的领域。目前AI+Web3产业的基础设施层的主要项目基本是以去中心化的计算网络为主要的叙事,以低成本为主要优势,以代币激励为主要方式扩展网络,服务AI+Web3客户为主要目标。主要包括两个层面:

1.比较纯粹的去中心化云计算资源的共享和租赁平台:有很多早期的AI项目,例如Render Network、Akash Network等;

  • 算力资源为主要竞争优势:核心竞争优势和资源通常是能够接触到大量的算力提供商,快速建立其基础网络,同时提供易用性强的产品给客户使用。早期市场中很多做云算力的公司和矿工会更容易切入这个赛道。
  • 产品门槛较低,上线速度快:对于Render Network、Akash Network这种成熟产品来说,已经可以看到切实增长的数据,具有一定的领先优势。
  • 新进入者产品同质化:由于目前赛道热点和此类产品低门槛的特点,最近也进入了一大批做共享算力、算力租赁等叙事的项目,但是产品比较同质化,还需要看到更多的差异化竞争优势。
  • 偏向于服务简单计算需求的客户:例如Render Network主要服务渲染需求,Akash Nerwork的资源提供中CPU更多。简单的计算资源租赁多数满足简单的AI任务需求,无法满足复杂的AI训练、微调、推测等全生命周期需求。

2.提供去中心化计算+ML工作流服务:有很多最近获得高额融资的新兴项目,例如Gensyn, io.net, Ritual等;

  • 去中心化计算抬高估值地基。由于算力是AI发展的确定性叙事,因此具有算力基础的项目通常具有更加稳定和高潜力的商业模式,使得对比纯中间层项目具有更高的估值。
  • 中间层服务打出差异化优势。中间层的服务则是这些算力基础设施具有竞争优势的部分,例如服务AI链上链下计算同步的预言机和验证器,服务AI整体工作流的部署和管理工具等。AI工作流具有协作性、持续反馈、复杂度高等特点,在流程中的多个环节都需要应用到算力,因此一个更加具有易用性,高协作性,能够满足AI开发者复杂需求的中间层基础设施在当下是具有竞争力的,特别是在Web3领域中需要满足Web3开发者对于AI的需求。这样的服务更容易承接到潜在的AI应用市场,而不是仅仅支持简单的计算需求。
  • 通常需要在ML领域有专业运维经验的项目团队。能够提供上述中间层服务的团队通常需要对整个ML的工作流程有详细的了解,才能更好的满足开发者的全生命周期需求。尽管这类的服务通常会采用到很多现有的开源框架和工具,不一定具有强技术创新,但是仍然需要具有丰富经验和强大工程能力的团队,这也是项目的竞争优势。

通过提供比中心化云计算服务更优惠的价格,但配套和使用体验比较相近的服务,这类项目获得了很多头部资本的认可,但同时技术复杂度也更高,目前基本在叙事和开发阶段,还未有完善上线的产品。

代表项目

1.Render Network

Render Network 是一个基于区块链的全球渲染平台,提供分布式的GPU,为创作者提供更低成本,更高速的3D渲染服务,在创作者确认过渲染结果后,再由区块链网络向节点发送代币奖励。平台提供分布式GPU的调度和分配网络,按照节点的用量情况、声誉等进行作业的分配,最大化地提高计算的效率,减少资源闲置,降低成本。

Render Network的代币RNDR是平台中的支付型代币,创作者可以使用RNDR支付渲染服务,服务商则通过提供算力完成渲染作业而获得RNDR奖励。渲染服务的价格会根据当前网络中的用量情况等进行动态调节。

渲染是分布式算力架构运用相对合适且成熟的场景,因为可以将渲染任务分为多个子任务高度并行地执行,互相之前不需要过多的通信和交互,所以可以最大化避免分布式算力架构的弊端,同时充分利用广泛的GPU节点网络,有效降低成本。

因此,Render Network的用户需求也较为可观,自2017年创立以来,Render Network 用户在网络上渲染了超过1600万帧和近50万个场景,且渲染帧数作业和活跃节点数都呈增长的趋势。此外,Render Network 于2023 Q1 也推出了原生集成Stability AI 工具集,用户可以的该项功能引入Stable Diffusion作业,业务也不再局限于渲染作业而向AI领域扩展。

2.Gensyn.ai

Gensyn是一个用于深度学习计算的全球性的超级计算集群网络,基于波卡的L1协议,2023年获得了由 a16z 领投的4300万美元A轮融资。

Gensyn的叙事架构中不仅包含了基础设施的分布式算力集群,还包括上层的验证体系,证明在链外执行的大规模计算是按照链的要求执行的,即用区块链来验证,从而构建一个无需信任的机器学习网络。

分布式算力方面,Gensyn能够支持从多余容量的数据中心到带有潜在GPU的个人笔记本电脑,它将这些设备连接成一个单一的虚拟集群,开发者可以随需访问和点对点使用。Gensyn将创建一个价格由市场动态决定且向所有参与者开放的市场,可以使 ML 计算的单位成本达到公平均衡。

而验证体系是Gensyn更重要的概念,它希望网络能够验证机器学习任务是否按照请求正确完成,它创新了一种更加高效的验证方法,包含了概率性学习证明、基于图的精准定位协议和Truebit式激励游戏三大核心技术点,相比传统区块链中的重复验证方法更加高效。其网络中的参与者包括提交者、求解者、验证者和举报者,来完成整个验证流程。

按照Gensyn 协议在白皮书中的综合测试数据来看,目前其显著优势是:

  • 能够降低AI模型训练的成本:预计 Gensyn 协议上的 NVIDIA V100 等效计算的每小时成本约为 0.40 美元,比 AWS 按需计算便宜 80%。
  • 更加高效的无需信任的验证网络:按照白皮书中的测试,Gensyn 协议进行模型训练的时间开销,与 Truebit 式复制相比,性能提升了1,350%,与以太坊相比,性能提升了2,522,477%。

但同时,分布式算力相比较本地训练,由于通讯和网络问题,不可避免地增加了训练时间,测试数据中,Gensyn 协议为模型训练增加了约 46% 的时间开销。

3.Akash network

Akash network是一个分布式的云计算平台,结合不同的技术组件,让用户可以在去中心化的云环境中高效、灵活地部署和管理应用程序,简单地说,它提供用户租赁分布式计算资源。

Akash的底层是分布在全球的多个基础设施服务商,提供CPU、GPU、内存、存储资源,并通过上层的Kubernetes 集群将资源提供给用户进行租赁。而用户可以将应用程序部署为 Docker 容器,来使用更低成本的基础设施服务。同时,Akash 采用“反向拍卖”的方式,使得资源价格进一步降低。按照Akash官网的估算,其平台的服务成本比中心化服务器降低约80%以上。

4.io.net

io.net是一个去中心化计算网络,连接全球分布式的GPU,为AI的模型训练和推理等提供算力支持。io.net刚刚完成了3000万美元的A轮融资,估值达到了10亿美元。

io.net相比Render、Akash等,是一个更加健全、扩展性更强的去中心化计算网络,接入多个层面的开发者工具,其特点包括:

  • 聚合更多的算力资源:独立数据中心、加密矿工以及 Filecoin、Render 等加密项目的 GPU。
  • 核心支持AI需求:核心服务的功能包括批量推理和模型服务、并行训练、并行超参数调整和强化学习。
  • 更加健全的技术栈以支持更高效的云环境工作流:包括多种编排工具、ML框架(计算资源的分配、算法的执行以及模型训练和推理等操作)、数据存储解决方案、GPU监控和管理工具等。
  • 并行计算能力:集成Ray这一开源的分布式计算框架,拥抱 Ray 的原生并行性,轻松并行化 Python 函数,从而实现动态任务执行。其内存存储确保任务之间的快速数据共享,消除序列化延迟。此外,io.net不仅限于Python,还集成了 PyTorch 和 TensorFlow 等其他领先的 ML 框架,使其扩展性更强。

在价格上,io.net官网预计其价格将比中心化云计算服务降低约90%。

此外,io.net的代币IO coin未来主要用于生态内服务的支付和奖励,或者需求方也可以用类似Helium的模式将IO coin燃烧换成稳定币“IOSD积分”来进行支付。

声明:

  1. 本文转载自[万向区块链],原文标题“AI+Web3未来发展之路(二):基础设施篇”,著作权归属原作者[万向区块链],如对转载有异议,请联系Gate Learn团队,团队会根据相关流程尽速处理。

  2. 免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。

  3. 文章其他语言版本由Gate Learn团队翻译, 在未提及Gate.io的情况下不得复制、传播或抄袭经翻译文章。

详解AI+Web3基础设施

中级4/23/2024, 8:04:42 AM
AI+Web3 产业的基础设施层的主要项目基本是以去中心化的计算网络为主要的叙事,以低成本为主要优势,以代币激励为主要方式扩展网络,服务 AI+Web3 客户为主要目标。

转发原文标题:AI+Web3未来发展之路(二):基础设施篇

基础设施是AI发展的确定性成长方向

1.爆发增长的AI算力需求

近年来,算力需求快速增长,尤其是在LLM大模型面世后,AI算力需求引爆了高性能算力市场。OpenAI数据显示,自2012年以来,用于训练最大AI模型的计算用量呈指数级增长,平均每3-4个月翻倍,其增长速度大大超过了摩尔定律。AI应用的需求增长导致了对计算硬件的需求快速增加,预计到2025年,AI应用对计算硬件的需求将增长约10%到15%。

受AI算力需求影响,GPU硬件厂商英伟达的数据中心收入持续增长,23年Q2的数据中心收入达到 $10.32B,比 23年Q1 增长 141%,比去年同期增长 171%。2024 财年第四季度中数据中心业务占据83%以上营收,同步增长409%,其中40%用于大模型的推理场景,显示出对于高性能算力的强大需求。

同时需要海量数据也对存储和硬件内存提出了要求,尤其是在模型训练阶段,需要大量的参数输入,需要存储大量数据。在 AI 服务器中应用的存储芯片主要包括:高带宽存储器 (HBM)、DRAM 和 SSD,针对 AI 服务器的工作场景需要提供更大的容量、更高的性能、更低的延迟和更高的响应速度。根据美光测算, AI 服务器中 DRAM 数量是传统服务器的 8 倍,NAND 是传统的 3 倍。

2.供需失衡推动高昂的算力成本

通常来说,算力主要应用在AI模型的训练、微调和推测阶段,尤其是在训练微调阶段,由于更大的数据参数输入和计算量,同时对并行计算的互联性要求更高,因此需要更性能、互联能力更强的GPU硬件,通常是高性能的GPU算力集群。随着大模型的发展,计算复杂度也直线上升,使得需要更多高端硬件来满足模型训练需求。

以GPT3为例,按1300万独立用户访问的情况来说,对应的芯片需求是3万多片A100GPU。那么初始投入成本将达到惊人的8亿美元,每日模型推理费用预估费用70万美元。

同时,据行业报道,2023年第四季度,NVIDIA GPU供应量在全球范围内都被严格限制,导致全球市场都出现了明显的供不应求。英伟达产能受限于台积电、HBM、CoWos封装等产能,H100的“严重缺货问题”至少会持续到2024年底。

因此高端GPU的需求上升和供应受阻两方面推动了当前GPU等硬件的高昂价格,尤其是类似英伟达这种占据产业链底层核心的公司,通过龙头垄断还能进一步获得价值红利。例如英伟达的H100 AI加速卡的物料成本约为3000美元,而在2023年中售价已经达到了3.5万美元左右,甚至在eBay上卖出了超过4w美元的价格。

3.AI基础设施占据产业链核心价值增长

Grand View Research的报告显示,全球云AI市场的规模在2023年估计为626.3亿美元,并预计到2030年将增长到6476亿美元,年复合增长率为39.6%。这一数据反映了云AI服务的增长潜力及其在整个AI产业链中所占的重要份额。

根据a16z的估算,AIGC市场的大量资金最终流向了基础设施公司。平均而言,应用程序公司将大约 20-40% 的收入用于推理和针对每个客户的微调。这通常直接支付给计算实例的云提供商或第三方模型提供商——反过来,第三方模型提供商将大约一半的收入花在云基础设施上。因此,有理由猜测当今AIGC总收入的 10-20% 流向了云提供商。

同时,更大一部分的算力需求在于大型AI模型的训练,例如各类LLM大模型,尤其是对于模型初创公司,80-90%的成本都用于AI算力使用。综合来看,AI计算基础设施(包括云计算和硬件)预计占据市场初期50%以上的价值。

去中心化AI计算

如上文所述,当前中心化AI计算的成本高企,很重要的一个原因是AI训练对高性能基础设施的需求增长。但是实际上市场上大量仍然存在大量的算力面临闲置的问题,出现了一部分的供需错配。其中主要原因是:

  • 受限于内存,模型复杂度与所需要的GPU数量并不是线性增长关系:当前的GPU具有算力优势,但是模型训练需要大量的参数存储在内存。例如对于GPT-3来说,为了训练 1750 亿个参数的模型,需要在内存中保存超过 1 TB 的数据——这超过了当今现有的任何 GPU,因此需要更多的GPU进行并行计算和存储,这又会导致GPU算力的闲置。比如从GPT3到GPT4,模型参数规模增加约10倍,但是所需要的GPU数量增加了24倍(且不考虑模型训练时间的增长)。据相关分析称,OpenAI在GPT-4的训练中使用了大约2.15e25的FLOPS,在大约25000个A100 GPU上进行了90到100天的训练,其算力利用率约为32%至36%。

面对以上问题,设计更加符合AI工作的高性能芯片或者专用ASIC芯片是目前很多开发者和大型企业在探索的方向,另一个角度则是综合利用现有的计算资源,建设分布式算力网络,通过算力的租赁、共享、调度等来降低算力的成本。此外,目前市场有很多闲置的消费级GPU和CPU,单体算力不强,但是在某些场景或者与现有高性能芯片一起配置也能过满足现有的计算需求,最重要的是供应充足,通过分布式网络调度能够进一步降低成本。

因此分布式算力成为了AI基础设施发展的一个方向。同时因为Web3与分布式具有相似的概念,去中心化算力网络也是当前Web3+AI基础设施的主要应用方向。目前市场上的Web3去中心化算力平台普遍能够提供相比较中心化云算力低80%-90%的价格。

存储虽然也为AI最重要的基础设施,但存储对大规模、易用性、低延迟等要求使得目前中心化的存储具有更大的优势。而分布式计算网络由于其显著的成本优势,则存在更加切实的市场,能够更大地享受到AI市场爆发带来的红利。

  • 模型推理和小模型训练是当前分布式算力的核心场景。分布式算力由于算力资源的分散,不可避免地增加GPU之间的通信问题,因此会降低算力性能。因此,分布式算力首先更加适合对通信要求少,可以支持并行的场景,例如AI大模型的推理阶段,以及参数量比较少的小模型,其受到的性能影响较小。事实上随着未来AI应用的发展,推理才是应用层的核心需求,大部分公司没有能力去做大模型的训练,因此分布式算力仍然具有长期潜力的市场。
  • 为大规模并行计算设计的高性能分布式训练框架也不断涌现。例如Pytorch、Ray、DeepSpeed等创新式的开源分布式计算框架为开发者使用分布式算力进行模型训练提供了更强的基础支持,使得分布式算力在未来AI市场的适用性会更强。

AI+Web3基础设施项目的叙事逻辑

我们看到,分布式AI基础设施需求强,且具有长期增长潜力,因此是易于叙事和受到资本青睐的领域。目前AI+Web3产业的基础设施层的主要项目基本是以去中心化的计算网络为主要的叙事,以低成本为主要优势,以代币激励为主要方式扩展网络,服务AI+Web3客户为主要目标。主要包括两个层面:

1.比较纯粹的去中心化云计算资源的共享和租赁平台:有很多早期的AI项目,例如Render Network、Akash Network等;

  • 算力资源为主要竞争优势:核心竞争优势和资源通常是能够接触到大量的算力提供商,快速建立其基础网络,同时提供易用性强的产品给客户使用。早期市场中很多做云算力的公司和矿工会更容易切入这个赛道。
  • 产品门槛较低,上线速度快:对于Render Network、Akash Network这种成熟产品来说,已经可以看到切实增长的数据,具有一定的领先优势。
  • 新进入者产品同质化:由于目前赛道热点和此类产品低门槛的特点,最近也进入了一大批做共享算力、算力租赁等叙事的项目,但是产品比较同质化,还需要看到更多的差异化竞争优势。
  • 偏向于服务简单计算需求的客户:例如Render Network主要服务渲染需求,Akash Nerwork的资源提供中CPU更多。简单的计算资源租赁多数满足简单的AI任务需求,无法满足复杂的AI训练、微调、推测等全生命周期需求。

2.提供去中心化计算+ML工作流服务:有很多最近获得高额融资的新兴项目,例如Gensyn, io.net, Ritual等;

  • 去中心化计算抬高估值地基。由于算力是AI发展的确定性叙事,因此具有算力基础的项目通常具有更加稳定和高潜力的商业模式,使得对比纯中间层项目具有更高的估值。
  • 中间层服务打出差异化优势。中间层的服务则是这些算力基础设施具有竞争优势的部分,例如服务AI链上链下计算同步的预言机和验证器,服务AI整体工作流的部署和管理工具等。AI工作流具有协作性、持续反馈、复杂度高等特点,在流程中的多个环节都需要应用到算力,因此一个更加具有易用性,高协作性,能够满足AI开发者复杂需求的中间层基础设施在当下是具有竞争力的,特别是在Web3领域中需要满足Web3开发者对于AI的需求。这样的服务更容易承接到潜在的AI应用市场,而不是仅仅支持简单的计算需求。
  • 通常需要在ML领域有专业运维经验的项目团队。能够提供上述中间层服务的团队通常需要对整个ML的工作流程有详细的了解,才能更好的满足开发者的全生命周期需求。尽管这类的服务通常会采用到很多现有的开源框架和工具,不一定具有强技术创新,但是仍然需要具有丰富经验和强大工程能力的团队,这也是项目的竞争优势。

通过提供比中心化云计算服务更优惠的价格,但配套和使用体验比较相近的服务,这类项目获得了很多头部资本的认可,但同时技术复杂度也更高,目前基本在叙事和开发阶段,还未有完善上线的产品。

代表项目

1.Render Network

Render Network 是一个基于区块链的全球渲染平台,提供分布式的GPU,为创作者提供更低成本,更高速的3D渲染服务,在创作者确认过渲染结果后,再由区块链网络向节点发送代币奖励。平台提供分布式GPU的调度和分配网络,按照节点的用量情况、声誉等进行作业的分配,最大化地提高计算的效率,减少资源闲置,降低成本。

Render Network的代币RNDR是平台中的支付型代币,创作者可以使用RNDR支付渲染服务,服务商则通过提供算力完成渲染作业而获得RNDR奖励。渲染服务的价格会根据当前网络中的用量情况等进行动态调节。

渲染是分布式算力架构运用相对合适且成熟的场景,因为可以将渲染任务分为多个子任务高度并行地执行,互相之前不需要过多的通信和交互,所以可以最大化避免分布式算力架构的弊端,同时充分利用广泛的GPU节点网络,有效降低成本。

因此,Render Network的用户需求也较为可观,自2017年创立以来,Render Network 用户在网络上渲染了超过1600万帧和近50万个场景,且渲染帧数作业和活跃节点数都呈增长的趋势。此外,Render Network 于2023 Q1 也推出了原生集成Stability AI 工具集,用户可以的该项功能引入Stable Diffusion作业,业务也不再局限于渲染作业而向AI领域扩展。

2.Gensyn.ai

Gensyn是一个用于深度学习计算的全球性的超级计算集群网络,基于波卡的L1协议,2023年获得了由 a16z 领投的4300万美元A轮融资。

Gensyn的叙事架构中不仅包含了基础设施的分布式算力集群,还包括上层的验证体系,证明在链外执行的大规模计算是按照链的要求执行的,即用区块链来验证,从而构建一个无需信任的机器学习网络。

分布式算力方面,Gensyn能够支持从多余容量的数据中心到带有潜在GPU的个人笔记本电脑,它将这些设备连接成一个单一的虚拟集群,开发者可以随需访问和点对点使用。Gensyn将创建一个价格由市场动态决定且向所有参与者开放的市场,可以使 ML 计算的单位成本达到公平均衡。

而验证体系是Gensyn更重要的概念,它希望网络能够验证机器学习任务是否按照请求正确完成,它创新了一种更加高效的验证方法,包含了概率性学习证明、基于图的精准定位协议和Truebit式激励游戏三大核心技术点,相比传统区块链中的重复验证方法更加高效。其网络中的参与者包括提交者、求解者、验证者和举报者,来完成整个验证流程。

按照Gensyn 协议在白皮书中的综合测试数据来看,目前其显著优势是:

  • 能够降低AI模型训练的成本:预计 Gensyn 协议上的 NVIDIA V100 等效计算的每小时成本约为 0.40 美元,比 AWS 按需计算便宜 80%。
  • 更加高效的无需信任的验证网络:按照白皮书中的测试,Gensyn 协议进行模型训练的时间开销,与 Truebit 式复制相比,性能提升了1,350%,与以太坊相比,性能提升了2,522,477%。

但同时,分布式算力相比较本地训练,由于通讯和网络问题,不可避免地增加了训练时间,测试数据中,Gensyn 协议为模型训练增加了约 46% 的时间开销。

3.Akash network

Akash network是一个分布式的云计算平台,结合不同的技术组件,让用户可以在去中心化的云环境中高效、灵活地部署和管理应用程序,简单地说,它提供用户租赁分布式计算资源。

Akash的底层是分布在全球的多个基础设施服务商,提供CPU、GPU、内存、存储资源,并通过上层的Kubernetes 集群将资源提供给用户进行租赁。而用户可以将应用程序部署为 Docker 容器,来使用更低成本的基础设施服务。同时,Akash 采用“反向拍卖”的方式,使得资源价格进一步降低。按照Akash官网的估算,其平台的服务成本比中心化服务器降低约80%以上。

4.io.net

io.net是一个去中心化计算网络,连接全球分布式的GPU,为AI的模型训练和推理等提供算力支持。io.net刚刚完成了3000万美元的A轮融资,估值达到了10亿美元。

io.net相比Render、Akash等,是一个更加健全、扩展性更强的去中心化计算网络,接入多个层面的开发者工具,其特点包括:

  • 聚合更多的算力资源:独立数据中心、加密矿工以及 Filecoin、Render 等加密项目的 GPU。
  • 核心支持AI需求:核心服务的功能包括批量推理和模型服务、并行训练、并行超参数调整和强化学习。
  • 更加健全的技术栈以支持更高效的云环境工作流:包括多种编排工具、ML框架(计算资源的分配、算法的执行以及模型训练和推理等操作)、数据存储解决方案、GPU监控和管理工具等。
  • 并行计算能力:集成Ray这一开源的分布式计算框架,拥抱 Ray 的原生并行性,轻松并行化 Python 函数,从而实现动态任务执行。其内存存储确保任务之间的快速数据共享,消除序列化延迟。此外,io.net不仅限于Python,还集成了 PyTorch 和 TensorFlow 等其他领先的 ML 框架,使其扩展性更强。

在价格上,io.net官网预计其价格将比中心化云计算服务降低约90%。

此外,io.net的代币IO coin未来主要用于生态内服务的支付和奖励,或者需求方也可以用类似Helium的模式将IO coin燃烧换成稳定币“IOSD积分”来进行支付。

声明:

  1. 本文转载自[万向区块链],原文标题“AI+Web3未来发展之路(二):基础设施篇”,著作权归属原作者[万向区块链],如对转载有异议,请联系Gate Learn团队,团队会根据相关流程尽速处理。

  2. 免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。

  3. 文章其他语言版本由Gate Learn团队翻译, 在未提及Gate.io的情况下不得复制、传播或抄袭经翻译文章。

即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!