5月7日,Bithumb 新增两个 AI 项目 AIOZ 和 NEAR 的韩元交易对。 Near自然不用说,老牌L1, AIOZ Network 则稍显陌生,此前专注于存储与流媒体的 AIOZ Network,如今正凭借其自身业务积累的优势逐渐向 AI 即服务和算力共享的业务靠拢,并于近日发布了其去中心化 AI 项目 W3AI 的白皮书。
AI 赛道逐渐内卷,老项目又能给出哪些新玩法,从而在流动性和注意力都十分稀缺的市场中,获取一席之地?
由于该白皮书内容较为复杂,深潮 TechFlow 对内容进行了详尽研究,以帮助读者快速了解 AIOZ W3AI 项目的技术特点与实现。
AIOZ 并不是一个新项目,但是其转型 AI,顺理成章。
AIOZ Network 之前是一个具有 Ethereum 和 Cosmos 互操作性的 Layer-1 层网络,拥有 120000+ 全球节点共同驱动的 AIOZ DePIN 来提供计算资源,能够为 AI 的处理速度、快速迭代、可扩展性和网络安全性提供支持,也是项目能够转换叙事的资源倚仗。
其次,从外部环境上看,AI 的发展也面临集中式云计算解决方案难以处理大量数据,导致可扩展性受限、使用成本高昂等问题。况且由于最终数据控制权在集中式供应商而不是用户手中,人们难免产生对于数据隐私和安全方面的担忧。
此外,获取顶尖 AI 资源的门槛可能很高,限制了相当一批小型企业和个人的参与,阻碍了创新的发展。 边缘计算这一解决方案为数据源提供近端服务,其应用程序在边缘侧发起,产生更快的网络服务响应,由于数据在本地节点处理,不需要远距离传输到中心服务器,边缘计算自然减少了数据泄露的风险。 凭借 AIOZ DePIN 遍布全球的边缘算力节点,AIOZ 有了大规模进军AI领域的底气。
AIOZ Network 目前运行的节点数据
向 AI 赛道靠拢,AIOZ 一个关键的举措就是 W3AI —- 一个兼有基建与应用的双层架构。
双层架构是 AIOZ W3AI 项目的核心,它采用了一种创新的方式来解决 AI 计算在可扩展性、成本效率和用户隐私保护方面的基本问题。
这种架构设计将整个网络的操作分为基础设施层(W3AI Infrastructure)和 应用层(W3AI Application)两个主要层次,每个层次都有其独特的功能和角色,共同支持整个网络的高效运作。
1.AIOZ DePIN 遍布全球的人工节点
AIOZ W3AI 的基础在于其庞大的分布式人工边缘计算节点,全球的贡献其包括存储、CPU 和GPU 在内的计算资源,形成一个去中心化的动力源。多图拓扑结构(Multigraph topology)确保了 AIOZ DePIN 之间高效的通信线路,从而最大限度地降低通信成本,提高处理速度。 这些节点通过分布式计算方法协同工作,共同训练和执行 AI 模型。通过这种方式,AIOZ W3AI 平台有效地利用分散的算力资源,为 AI 应用降本增效,并增强数据隐私保护。这种分散式方法大大降低了服务器瓶颈的风险,并通过消除单点控制增强了用户隐私。
由 AIOZ 节点网络驱动的 W3AI 去中心化计算基础设施。紫色区域表示存储节点分布,蓝色区域表示计算节点分布。
2.数据处理和存储
通过 AIOZ W3S,数据被安全地存储在多个全球地理位置分散的节点上,增强数据安全性的同时也提高了数据处理的响应速度。
使用分布式文件系统 AIOZ IPFS 和加密技术保护存储在节点上的数据,防止未经授权的访问和数据泄露。
1.Web 3 AI 平台提供 AI 即服务
所谓 AI 即服务(AI as a Service,AIaaS),通俗来说就是将 AI 技术作为在线服务提供给用户的模式,是企业或个人无需昂贵的成本就可以享受 AI 技术带来的便利。
想象一下,当电商商家想了解用户购买历史、分析用户消费行为从而为提供个性化的购物推荐,就可以用 AI 技术来收集用户并加以分析生成相应的销售策略,这就是 AI 即服务在电商中的应用。
具体到产品形态上,W3AI 提供简化的 AI 训练工作流程和直观的 UI/UX,提供了用户界面和API,使开发者能够轻松接入 W3AI 服务,开发和部署 AI 模型等。这一层的设计关注用户体验和服务的可访问性。同时平台集成多种 AI 即服务,包括机器学习、深度学习和神经网络等,用户可以根据需要选择不同的服务和工具。
2.模型训练和推理
W3AI 平台支持在去中心化环境中进行模型的训练和推理。 W3AI 训练(AIOZ W3AI Infrastructure) 通过联邦学习(Decentralized Federated Learning)如同态加密(Homomorphic encryption)技术使得众多边缘计算节点 DePINs 可以在不需要共享自身数据的情况下合作训练共同的AI模型,提高模型训练性能的同时对数据的隐私保护也有兼顾。通过在边缘AIOZ DePIN上运行经过训练的模型,将AI带到数据源附近。 由 W3S 技术支持的 W3AI 推理 (AIOZ W3S Infrastructure) 支持用户可以上传自己的数据集进行模型训练,或者使用平台上已有的模型进行数据分析和预测。
3.去中心化的 W3AI 市场与激励机制
应用层还为用户提供了去中心化市场 AIOZ AI dApp Store 和 AI Model & Dataset Marketplace,个人用户和企业组织能够自由贡献、出售人工智能数据集和模型、构建和部署创新的人工智能应用程序并将个人的贡献成果转化为代币奖励。
AIOZ W3AI的双层架构
在架构完善的同时,双层架构运行之间需要处理的逻辑资源与任务数据也不会少,为此,W3AI 将人工智能化路由引入双层架构,动态优化每项任务,使整体系统运行效率更高。
在基础设施层,人工智能化路由计算需求和节点当前的负载情况,动态分配任务确保每个节点能根据能力和实时网络状况参与到适合的任务中;同时监测节点的健康状况,及时发现处理潜在的节点故障或性能瓶颈,避免单点故障影响整体效率。
在应用层,通过智能路由能够快速响应用户请求,实时调整数据流向、处理策略;同时可以根据用户具体的地理位置和需求为用户智能分配最合适的节点;面对大规模高并发任务,AI 路由架构会对任务进行智能调度优化,支撑应用层处理复杂的 AI 模型和大数据分析。
白皮书中还引用了大量复杂的公式计算来展示路由的具体实现,有兴趣的读者可以参阅白皮书文件。
人工智能路由为AIOZ DePIN 节点分配任务的传输路径,绿色表示有链接的节点,而蓝色表示由于低置信度而跳过链接的部分。
有了这些丰富的基建架构,W3AI 是如何展开工作流的? 从数据输入到结果输出,W3AI 的工作流程体现完整的去中心化运作模式:输出加密→任务拆分与分配→执行计算任务和储存→计算完成后收集在容器中→用户获得解密后的输出结果。
我们可以用一个简单的步骤来细化上述流程:
W3AI 的工作流架构
通过以上流程, W3AI 提高处理效率的同时兼顾了灵活可拓展的特性和数据的安全隐私性,还优化系统资源利用,减少人工干预,降低运营成本。
$AIOZ 是串起整个 AIOZ W3AI 生态重要的一环。因为 AI 即服务和共享算力业务的出现,其代币有了更多的使用场景和价值捕获。
$AIOZ 用来奖励那些提供算力和储存资源的用户,确保网络能够稳定运行。在平台交易市场中,用户可以用 $AIOZ 购买各种 AI 即服务,或买卖 AI 模型和数据集。同时持有代币的用户可以参与到网络的治理中,投票决定生态的下一步发展。
用户使用 $AIZO 进行交易费用的一部分用于AIOZ 网络运营和财务运转,确保平台的持续维护和发展。另一部分直接燃烧,帮助调节代币供应和缓解通货膨胀,这一精心设计的代币流动循环激励创新、奖励参与,并推动 AIOZ W3AI 生态系统的不断发展。
W3AI 生态系统内的代币流
作为转型 AI 的去中心化项目,AIOZ W3AI 拥有技术资源和运行机制上的天然优势, 在技术和概念上 W3AI 展示了相当的潜力,能够为用户提供更安全、更灵活高效的计算服务和有趣的生态体验。 同时需要注意的是,W3AI 也面临市场对中心化 AI 解决方案的认知和信任还不够成熟、系统高标准运行模式下运行成本可能过大的问题;
目前的白皮书,更像是项目在早期阶段制定的蓝图,为未来做好了准备但尚未实际落地与执行,能够有多少人用,是否还有其他的安全和技术问题,都有待市场检验。
不过,顺应叙事积极转型仍是 Web3 项目在业务高度相关时的一种正确姿态;新老项目不约而同卖力上演 AI 大戏,舞台下的加密玩家们是否能值回票价,时间自然会给出答案。
本文转载自[techflow],原文标题“解讀 AIOZ W3AI:共享算力與AI即服務的「雙層架構」,叙事轉換後會有哪些新玩法?”,著作权归属原作者[深潮 TechFlow ],如对转载有异议,请联系Gate Learn团队,团队会根据相关流程尽速处理。
免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。
文章其他语言版本由Gate Learn团队翻译, 在未提及Gate.io的情况下不得复制、传播或抄袭经翻译文章。
5月7日,Bithumb 新增两个 AI 项目 AIOZ 和 NEAR 的韩元交易对。 Near自然不用说,老牌L1, AIOZ Network 则稍显陌生,此前专注于存储与流媒体的 AIOZ Network,如今正凭借其自身业务积累的优势逐渐向 AI 即服务和算力共享的业务靠拢,并于近日发布了其去中心化 AI 项目 W3AI 的白皮书。
AI 赛道逐渐内卷,老项目又能给出哪些新玩法,从而在流动性和注意力都十分稀缺的市场中,获取一席之地?
由于该白皮书内容较为复杂,深潮 TechFlow 对内容进行了详尽研究,以帮助读者快速了解 AIOZ W3AI 项目的技术特点与实现。
AIOZ 并不是一个新项目,但是其转型 AI,顺理成章。
AIOZ Network 之前是一个具有 Ethereum 和 Cosmos 互操作性的 Layer-1 层网络,拥有 120000+ 全球节点共同驱动的 AIOZ DePIN 来提供计算资源,能够为 AI 的处理速度、快速迭代、可扩展性和网络安全性提供支持,也是项目能够转换叙事的资源倚仗。
其次,从外部环境上看,AI 的发展也面临集中式云计算解决方案难以处理大量数据,导致可扩展性受限、使用成本高昂等问题。况且由于最终数据控制权在集中式供应商而不是用户手中,人们难免产生对于数据隐私和安全方面的担忧。
此外,获取顶尖 AI 资源的门槛可能很高,限制了相当一批小型企业和个人的参与,阻碍了创新的发展。 边缘计算这一解决方案为数据源提供近端服务,其应用程序在边缘侧发起,产生更快的网络服务响应,由于数据在本地节点处理,不需要远距离传输到中心服务器,边缘计算自然减少了数据泄露的风险。 凭借 AIOZ DePIN 遍布全球的边缘算力节点,AIOZ 有了大规模进军AI领域的底气。
AIOZ Network 目前运行的节点数据
向 AI 赛道靠拢,AIOZ 一个关键的举措就是 W3AI —- 一个兼有基建与应用的双层架构。
双层架构是 AIOZ W3AI 项目的核心,它采用了一种创新的方式来解决 AI 计算在可扩展性、成本效率和用户隐私保护方面的基本问题。
这种架构设计将整个网络的操作分为基础设施层(W3AI Infrastructure)和 应用层(W3AI Application)两个主要层次,每个层次都有其独特的功能和角色,共同支持整个网络的高效运作。
1.AIOZ DePIN 遍布全球的人工节点
AIOZ W3AI 的基础在于其庞大的分布式人工边缘计算节点,全球的贡献其包括存储、CPU 和GPU 在内的计算资源,形成一个去中心化的动力源。多图拓扑结构(Multigraph topology)确保了 AIOZ DePIN 之间高效的通信线路,从而最大限度地降低通信成本,提高处理速度。 这些节点通过分布式计算方法协同工作,共同训练和执行 AI 模型。通过这种方式,AIOZ W3AI 平台有效地利用分散的算力资源,为 AI 应用降本增效,并增强数据隐私保护。这种分散式方法大大降低了服务器瓶颈的风险,并通过消除单点控制增强了用户隐私。
由 AIOZ 节点网络驱动的 W3AI 去中心化计算基础设施。紫色区域表示存储节点分布,蓝色区域表示计算节点分布。
2.数据处理和存储
通过 AIOZ W3S,数据被安全地存储在多个全球地理位置分散的节点上,增强数据安全性的同时也提高了数据处理的响应速度。
使用分布式文件系统 AIOZ IPFS 和加密技术保护存储在节点上的数据,防止未经授权的访问和数据泄露。
1.Web 3 AI 平台提供 AI 即服务
所谓 AI 即服务(AI as a Service,AIaaS),通俗来说就是将 AI 技术作为在线服务提供给用户的模式,是企业或个人无需昂贵的成本就可以享受 AI 技术带来的便利。
想象一下,当电商商家想了解用户购买历史、分析用户消费行为从而为提供个性化的购物推荐,就可以用 AI 技术来收集用户并加以分析生成相应的销售策略,这就是 AI 即服务在电商中的应用。
具体到产品形态上,W3AI 提供简化的 AI 训练工作流程和直观的 UI/UX,提供了用户界面和API,使开发者能够轻松接入 W3AI 服务,开发和部署 AI 模型等。这一层的设计关注用户体验和服务的可访问性。同时平台集成多种 AI 即服务,包括机器学习、深度学习和神经网络等,用户可以根据需要选择不同的服务和工具。
2.模型训练和推理
W3AI 平台支持在去中心化环境中进行模型的训练和推理。 W3AI 训练(AIOZ W3AI Infrastructure) 通过联邦学习(Decentralized Federated Learning)如同态加密(Homomorphic encryption)技术使得众多边缘计算节点 DePINs 可以在不需要共享自身数据的情况下合作训练共同的AI模型,提高模型训练性能的同时对数据的隐私保护也有兼顾。通过在边缘AIOZ DePIN上运行经过训练的模型,将AI带到数据源附近。 由 W3S 技术支持的 W3AI 推理 (AIOZ W3S Infrastructure) 支持用户可以上传自己的数据集进行模型训练,或者使用平台上已有的模型进行数据分析和预测。
3.去中心化的 W3AI 市场与激励机制
应用层还为用户提供了去中心化市场 AIOZ AI dApp Store 和 AI Model & Dataset Marketplace,个人用户和企业组织能够自由贡献、出售人工智能数据集和模型、构建和部署创新的人工智能应用程序并将个人的贡献成果转化为代币奖励。
AIOZ W3AI的双层架构
在架构完善的同时,双层架构运行之间需要处理的逻辑资源与任务数据也不会少,为此,W3AI 将人工智能化路由引入双层架构,动态优化每项任务,使整体系统运行效率更高。
在基础设施层,人工智能化路由计算需求和节点当前的负载情况,动态分配任务确保每个节点能根据能力和实时网络状况参与到适合的任务中;同时监测节点的健康状况,及时发现处理潜在的节点故障或性能瓶颈,避免单点故障影响整体效率。
在应用层,通过智能路由能够快速响应用户请求,实时调整数据流向、处理策略;同时可以根据用户具体的地理位置和需求为用户智能分配最合适的节点;面对大规模高并发任务,AI 路由架构会对任务进行智能调度优化,支撑应用层处理复杂的 AI 模型和大数据分析。
白皮书中还引用了大量复杂的公式计算来展示路由的具体实现,有兴趣的读者可以参阅白皮书文件。
人工智能路由为AIOZ DePIN 节点分配任务的传输路径,绿色表示有链接的节点,而蓝色表示由于低置信度而跳过链接的部分。
有了这些丰富的基建架构,W3AI 是如何展开工作流的? 从数据输入到结果输出,W3AI 的工作流程体现完整的去中心化运作模式:输出加密→任务拆分与分配→执行计算任务和储存→计算完成后收集在容器中→用户获得解密后的输出结果。
我们可以用一个简单的步骤来细化上述流程:
W3AI 的工作流架构
通过以上流程, W3AI 提高处理效率的同时兼顾了灵活可拓展的特性和数据的安全隐私性,还优化系统资源利用,减少人工干预,降低运营成本。
$AIOZ 是串起整个 AIOZ W3AI 生态重要的一环。因为 AI 即服务和共享算力业务的出现,其代币有了更多的使用场景和价值捕获。
$AIOZ 用来奖励那些提供算力和储存资源的用户,确保网络能够稳定运行。在平台交易市场中,用户可以用 $AIOZ 购买各种 AI 即服务,或买卖 AI 模型和数据集。同时持有代币的用户可以参与到网络的治理中,投票决定生态的下一步发展。
用户使用 $AIZO 进行交易费用的一部分用于AIOZ 网络运营和财务运转,确保平台的持续维护和发展。另一部分直接燃烧,帮助调节代币供应和缓解通货膨胀,这一精心设计的代币流动循环激励创新、奖励参与,并推动 AIOZ W3AI 生态系统的不断发展。
W3AI 生态系统内的代币流
作为转型 AI 的去中心化项目,AIOZ W3AI 拥有技术资源和运行机制上的天然优势, 在技术和概念上 W3AI 展示了相当的潜力,能够为用户提供更安全、更灵活高效的计算服务和有趣的生态体验。 同时需要注意的是,W3AI 也面临市场对中心化 AI 解决方案的认知和信任还不够成熟、系统高标准运行模式下运行成本可能过大的问题;
目前的白皮书,更像是项目在早期阶段制定的蓝图,为未来做好了准备但尚未实际落地与执行,能够有多少人用,是否还有其他的安全和技术问题,都有待市场检验。
不过,顺应叙事积极转型仍是 Web3 项目在业务高度相关时的一种正确姿态;新老项目不约而同卖力上演 AI 大戏,舞台下的加密玩家们是否能值回票价,时间自然会给出答案。
本文转载自[techflow],原文标题“解讀 AIOZ W3AI:共享算力與AI即服務的「雙層架構」,叙事轉換後會有哪些新玩法?”,著作权归属原作者[深潮 TechFlow ],如对转载有异议,请联系Gate Learn团队,团队会根据相关流程尽速处理。
免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。
文章其他语言版本由Gate Learn团队翻译, 在未提及Gate.io的情况下不得复制、传播或抄袭经翻译文章。