什么是 io.net?

中级Apr 17, 2024
本文将深入介绍基于公链 Solana 的去中心化算力网路 Io.net ,不仅试图缓解当前的资源短缺问题,而且支援 AI 技术的持续发展,我们将深入了解这些产品的核心功能,以及如何为用户提供更多的运算能力,并简化 GPU/CPU 资源的部署和管理,为人们提供了一个灵活、可扩展的算力解决方案。
什么是 io.net?

前言

在数位时代,计算能力已成为技术进步的关键要素。它界定了电脑在处理操作时所需的资源,包括记忆体、处理器速度和处理器数量,这种能力直接影响装置的效能和成本,尤其是在处理多个程式时更为显著。随着人工智慧和深度学习技术的普及,对于高效能的计算资源,例如 GPU,需求急剧增加,导致全球出现了供给紧缺的情况。

中央处理单元(CPU)扮演着举足轻重的角色,被视为电脑的核心。而图形处理单元(GPU)的作用同样不可小觑,它通过处理并行任务来提高计算效率。更强大的 CPU 能够更快速地处理操作,而 GPU 则为 CPU 提供了有效的支援,以满足日益增长的计算需求。

什么是 io.net

(来源: io.net, 2024.4.11)

io.net 是一个基于 Solana 的去中心化 DePIN 专案,专注于为 AI 和机器学习公司提供 GPU 计算能力,使计算更具可扩展性、可访问性和高效性。

现代的AI 模型越来越庞大,训练和推理已经不是一个仅仅是在单一装置上就能执行的简单任务,而是经常需要平行和分散式计算,利用跨多个系统、多核心的强大功能来优化运算效能,或拓展容纳更大的资料群集和模型,在这个过程中,协调作为算力资源的GPU 网路是关键。

团队背景与融资情况

团队背景

io.net 的核心团队创立时,最初的业务是量化交易。直到2022年6月之前,他们一直专注于开发机构级的量化交易系统,涵盖股票和加密资产,随着系统后端对计算能力的需求增加,团队开始探索去中心化计算的可能性。最终,他们专注于解决降低 GPU 算力服务成本的具体问题。

  • 创办人 & CEO:Ahmad Shadid

Ahmad Shadid 在 io.net 之前一直从事量化和金融工程相关的工作,同时还是以太坊基金的志愿者。

  • CMO & 首席战略官:Garrison Yang

Garrison Yang 在今年 3 月才正式加入 io.net,他此前是 Avalanche 的战略和增长 VP,毕业于加州大学圣巴巴拉分校。

  • 首席运营官:托里·格林

Tory Green 是 io.net 营运长,此前是 Hum Capital 营运长、Fox Mobile Group 企业发展与战略总监,毕业于斯坦福。

依照 io,net 的 Linkedin 资讯表示,团队总部位于美国纽约,在旧金山有分公司,目前团队人员规模在 50 人以上。

融资情况

在Hack VC 的领投下完成3,000 万美元的A 轮融资,其他参投方还包括:Multicoin Capital、Delphi Digital、Animoca Brands、OKX 、Aptos Labs 与Solana Labs 等知名机构,此外,Solana 创办人、Aptos 创办人、Animoca Brands 创办人等产业人士也都以个人身份参与了此轮融资。

值得一提的是,或许是因为收到了 Aptos 基金会的投资,原本在 Solana 上进行结算记帐的 BC8.AI 专案,已经转换到了同样的高效能 L1 Aptos 上进行。

解决算力资源不足的问题

由于近年 AI 发展对于运算晶片的需求大量提升,AI 应用程式的算力需求每 3 个月就会翻倍,每 18 个月就翻接近 10 倍。而受到疫情影响的供应链和产能仍然在恢复,全球陷入抢夺 GPU 的大战。而公有云端需要也通常能优先取得更多 GPU,让规模较小的企业、研究单位在取得算力资源面临不少挑战,像是:

  • 成本过高:要使用高阶的 GPU 非常昂贵,很容易一个月内就花费数十万美元用做训练和推理。
  • 品质不彰: 用户在面临 GPU 硬体品质、安全性等级、运算延迟和其他选项方面几乎没有选择,只能屈就现状。
  • 使用受限:用户使用 Goolge 的 AWS、GCP 或 Microsoft Azure 等云端服务时,存取通常需要数周时间,而且较高阶的 GPU 通常无法使用。

io.net 透过聚合未充分利用的运算资源(像是独立的资料运算中心、加密货币矿工、Filecoin、Render 等加密专案网路)的多余 GPU 来解决这个问题。这些运算资源集结为一条去中心化的运算网路,让工程师能够在可轻松访问、可客制化、成本较低的系统中获得大量运算能力。

(来源: io.net, 2024.4.11)

io.net 产品专为四个核心功能而建置

  • 批次推理和模型服务:可以透过将训练模型的架构和权重汇出到共享物件储存来并行对传入的批次资料执行推理。 io.net 让机器学习团队跨分散式 GPU 网路建立推理和模型服务工作流程。
  • 并行训练: CPU/GPU 记忆体限制和顺序处理工作流程在单一装置上训练模型时出现了巨大的瓶颈。 io.net 利用分散式运算库来编排和批次训练作业,以便可以使用资料和模型并行性在许多分散式设备上并行化。
  • 平行超参数调整:超参数调整实验本质上是并行的,io.net 利用具有高级超参数调整的分散式计算库来检查最佳结果、优化调度并简单地指定搜寻模式。
  • 强化学习: io.net 使用开源强化学习库,该库支援生产级、高度分散式的 RL 工作负载以及一组简单的 API。

io.net Products

IO Cloud

IO Cloud 管理分散的 GPU 丛集,提供灵活、可扩展的资源访问,无需昂贵的硬体投资和基础设施管理,利用去中心化节点网路,为机器学习工程师提供与任何云端提供者相同的体验。透过 IO-SDK 无缝集成,提供 AI 和 Python 应用程式解决方案,并简化 GPU / CPU 资源的部署和管理,并适应不断变化的需求。

亮点:

  • 全球覆盖:采用类似于 CDN 的方式,全球分布 GPU 资源,优化机器学习服务和推理。
  • 可扩展套件性与成本效益:致力于成为最具成本效率的 GPU 云平台,预计可将 AI/ML 专案成本降低至 90%。
  • 与 IO SDK 整合:通过无缝整合提升 AI 专案的效能,构建一个统一的高效能环境。
  • 独家功能:提供对 OpenAI ChatGPT 外挂的私有访问,简化训练丛集的部署。
  • 支援 RAY 框架:采用 RAY 分散式计算框架,用于可扩展套件的 Python 应用开发。
  • 加密挖矿创新:旨在通过支援 ML 和 AI 生态系统,为加密挖矿行业带来革命性创新。

2.IO Worker

IO.Worker 专为优化使用者在 WebApp 中的供应操作而设计,包括使用者帐户管理、即时活动监控、温度和功耗追踪、安装支援、钱包管理、安全性评估和盈利能力分析等功能。它通过弥合 AI 处理能力需求与未利用计算资源供应之间的差距,促进了更加经济高效和顺畅的 AI 学习过程。

亮点:

  • 工作者主页:提供用于即时监控连线装置的仪表板,支援删除和重新命名装置等功能。
  • 装置详情页:显示装置的全面分析,包括流量、连线状态和作业历史。
  • 新增装置页面:简化了装置连线流程,支援快速轻松地整合新装置。
  • 收益与奖励页面:追踪收益和作业历史,交易详情可在 Solscan 上查询。

3.IO Explorer

IO Explorer 的目的是提供一个了解网路内部运作的窗口,为使用者提供全面的统计数据和 GPU 云端各个方面的运作情况。正如 Solscan 或区块链浏览器赋予区块链交易可见性一样,IO Explorer 为 GPU 驱动的工作带来了相同程度的透明度,让使用者能够监控、分析并理解 GPU 云的详细资讯,确保对网路活动、统计资料和交易拥有完整的可视性,同时保护敏感资讯的隐私。

亮点:

  • 装置页面:显示连线到网路的装置的公开细节,提供即时资料和交易追踪。
  • 浏览器首页:提供供应量、经过验证的供应商、活跃硬体数量和即时市场定价的洞察。
  • Clusters 丛集页面:展示网路中部署的丛集的公开资讯,以及即时指标和预订详情。
  • 即时 Clusters 监控:提供 Clusters 状态、健康和效能的即时洞察,确保使用者获取最新资讯。

4.IO Architecture

作为Ray 的一个分支,IO-SDK 构成了Io.net 功能的基石,它支援任务并行执行及处理多语言环境,与主流机器学习(ML)框架的高度相容性使Io.net 能够灵活高效地满足多样化的计算需求。此技术配置,辅以一整套精细定义的技术体系,确保 Io.net 平台既能满足当前需求,又具备未来发展的适应能力。

多层架构设计:

  • 使用者介面层:为使用者提供视觉前端介面,包括公共网站、客户区域及 GPU 供应商区域,旨在提供直观且友好的使用者体验。
  • 安全层:确保系统的完整性与安全,融合了网路防护、使用者认证及活动日志记录等机制。
  • API 层:作为网站、供应商及内部管理的通讯枢纽,便于资料交换和各类操作的执行。
  • 后端层:构成系统核心,负责处理丛集 / GPU 管理、客户互动及自动扩展套件等运营任务。
  • 资料库层:负责资料的储存和管理,主储存负责结构化资料,而快取则用于临时资料的处理。
  • 任务层:管理非同步通讯和任务执行,保证资料处理和流转的高效性。
  • 基础设施层:构成系统基础,包含 GPU 资源池、编排工具及执行 / ML 任务处理,配备了强大的监控解决方案。

IO Tunnels

IO Tunnels 通过建立从客户端至远端伺服器的安全连线,使工程师能够绕过防火墙和 NAT,无需复杂配置即可实现远端访问。

工作流程:IO 工作者先与中间伺服器(即 io.net 伺服器)建立连线。随后,io.net 伺服器监听来自 IO 工作者和工程师机器的连线请求,通过逆向隧道技术实现资料交换。

(来源: io.net, 2024.4.11)

在 io.net 中的应用:

通过 io.net 伺服器,工程师可以简便地连线到 IO 工作者,无需面对网路配置的挑战,实现远端访问和管理。

优势:

  • 访问便捷性:直接连线 IO 工作者,消除网路障碍。
  • 安全性:确保通讯安全,保护资料隐私。
  • 可扩展套件性与灵活性:能够高效管理不同环境下的多个 IO 工作者。

IO Network

IO Network 利用网状 VPN 架构,为 antMiner 节点之间提供超低延迟通讯。

网状 VPN 网路特点:

去中心化连线:相较于传统的中心 – 辐射模型,网状 VPN 实现节点间直连,多路径资料传输增强了冗余性、容错能力和负载分配。

优势:

  • 对节点故障具有较强的抵抗力。
  • 可扩展套件性好,能降低延迟、优化流量分配。

对 io.net 的好处:

  • 直连降低通讯延迟,提升应用效能。
  • 无单点故障,保障网路即使在单个节点故障时也能持续运作。
  • 通过加大资料追踪和分析的难度,增强使用者隐私保护。
  • 新节点加入简便,不影响网路效能。
  • 实现节点间的资源共享和高效处理。


(来源: io.net, 2024.4.11)

去中心化计算平台比较

Akash、Render Network

Akash 和 Render Network 都是去中心化的运算网络,让使用者可以购买和出售运算资源。不同之处在于,Akash 是一个开放市场,提供 CPU、GPU 和储存资源,使用者可以设定价格和条件,而运算资源提供者竞标部署任务。相反,Render使用动态定价演算法,专注于 GPU 渲染服务,由硬体供应商提供资源,并根据市场条件调整价格。 Render 不是开放市场,而是使用多层定价演算法来匹配用户和服务的买家。

io.net、Bittensor

Io.net 专注于人工智慧和机器学习任务,利用去中心化运算网络,获取分散在各地的 GPU 运算能力,并与其他网路合作,如 Render,以处理AI和机器学习任务。其主要差异在于专注于 AI 与机器学习的任务以及强调 GPU 丛集的使用。

Bittensor 则是一个以人工智慧为重点的区块链项目,旨在创建一个去中心化的机器学习市场,让去中心化的人工智慧应用能够与中心化项目竞争。采用子网结构,专注于各种与人工智慧相关的任务,如文字提示词AI网路和图像生成人工智慧。矿工在 Bittensor 生态系统中提供运算资源和托管机器学习模型,为链下的人工智慧任务计算,并相互竞争为使用者提供最佳结果。

(来源: TokenInsight, 2024.4.11)

总结

io.net 正准备在充满潜力的 AI 计算市场中大放异彩,其背后不仅有成熟的技术团队,还有 Multicoin Capital、Solana Ventures、OKX Ventures、Aptos Labs、Delphi Digital 等知名实体的强力支援。同时作为首个也是唯一一个GPU DePIN,io.net 为机器学习和所有GPU 使用案例提供了一个连接计算能力提供者和用户的平台,展示了其在为机器学习团队提供分布式GPU 网络上的训练和推理工作流程中的强大功能和高效性。

作者: Allen
译者: Paine
文章审校: KOWEI、Piccolo、Elisa、Ashley、Joyce
* 投资有风险,入市须谨慎。本文不作为Gate.io提供的投资理财建议或其他任何类型的建议。
* 在未提及Gate.io的情况下,复制、传播或抄袭本文将违反《版权法》,Gate.io有权追究其法律责任。
即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!
立即注册