跳到主要内容

io.net Agent Cloud:当 AI 智能体开始购买自己的 GPU 时

· 阅读需 12 分钟
Dora Noda
Software Engineer

2026年3月25日,io.net 开启了一个悄然重新定义“去中心化计算”含义的开关。其全新的 Agent Cloud 不再需要人类在键盘前操作。AI 智能体(Agent)—— 而非工程师、采购团队或 DevOps —— 现在可以自主租用 GPU、运行工作负载、以稳定币结算账单,并拆除所有设施,而无需任何工单、KYC 表格或登录。

这是一个转折点,DePIN 行业已经为此徘徊了两年。加密货币挖矿式的“插上 3090 赚取被动收益”时代正在结束。取而代之的是一个市场,其中客户是软件,供应商是软件,整个谈判过程通过模型上下文协议(Model Context Protocol, MCP)调用和链上支付完成。io.net 刚刚成为第一个将这一未来完全产品化的网络 —— 并在这一过程中,迫使每个其他的 DePIN GPU 项目回答一个新问题:当买家是机器时,你的网络会是什么样子?

从 30,000 个 GPU 到买家侧的革命

io.net 并不是按原始容器数量计算最大的去中心化 GPU 网络。这个头衔属于 Aethir,它将 93 个国家的超过 435,000 个 GPU 容器连接给企业。io.net 的市场在 130 多个国家的 138 个地区列出了约 30,000 个 GPU —— 虽然规模较小,但地理分布更广,并以 Solana 进行结算。

2026年3月发生的变化不在于供应侧。而在于需求侧。到目前为止,每一个去中心化 GPU 市场 —— Akash、Render、Aethir、Fluence 以及 io.net 本身 —— 都假设用户是人类。开发者注册、链接钱包、选择 GPU 型号(SKU)、接受 EULA、配置 Docker、观察仪表板。每一步都是人类的节奏。

Agent Cloud 完全移除了人类。该平台提供了一个 MCP 库,让自主智能体可以:

  • 发现遍布 130 多个国家的可用 GPU 集群
  • 启动具有内置智能体记忆和状态的持久性计算环境
  • 无需 OAuth 流程、KYC 或企业入驻即可进行身份验证
  • 使用 USDC 或法币(自动转换为 IO)支付,预订费为 0.25%,直接使用 IO 结算则免除 2% 的撮合费
  • 根据自身工作负载信号调配资源
  • 通过内置的消息传递 API 与其他智能体进行跨智能体通信

成本差距是核心吸引力:io.net 宣传的 H100 和 H200 访问价格比传统供应商低 70%。但结构性的变化在于消除了摩擦。一个在未来 90 分钟内需要 8 张 A100 的智能体不需要提交采购申请。它直接调用一个函数。

为什么持久性计算比现货定价更重要

竞价 GPU 租赁 —— Akash 通过其逆向拍卖市场完善的模型,其 H100 每小时收费 1.20 美元至 1.80 美元,而 AWS 为 4.50 美元至 5.50 美元 —— 解决了定价问题。但它没有解决智能体的问题。

自主 AI 智能体具有批处理工作负载所不具备的残酷架构要求:状态连续性(State Continuity)。一个正在调查交易、编写代码或运行多步骤研究任务的智能体,不能容忍每隔几分钟就发生一次冷启动。它需要持久的记忆、持久的身份、以及与其工具和其他智能体之间的持久连接。

这正是 Agent Cloud 实际销售的东西。不是 GPU。而是 始终在线的智能体后端。这种定价模型 —— 针对持久性智能体工作负载按 GPU 小时计费,而非按批处理任务计费 —— 是对 Akash 竞价市场和 Render 帧渲染吞吐量模型的刻意偏离。它针对的是完全不同的客户:那些醒来、工作、休息一小时、再次醒来,并期望其工作记忆依然存在的智能体。

这一要求正是 Anthropic 在 2026年4月推出 Claude 托管智能体(Claude Managed Agents)的原因 —— 一个处理沙盒、状态管理、工具执行和错误恢复的托管平台。这也是 Coinbase 的 x402 协议存在的原因,它让智能体可以用稳定币支付 MCP 服务器访问费用。整个技术栈正汇聚在一个共识上:智能体需要像智能体一样的基础设施,而不是像 Web 应用一样的基础设施

io.net 的赌注是,这种栈的去中心化版本并非奢侈品。它是唯一能够扩展到数百万智能体而不受 AWS 账户批准、地区计算配额或企业采购周期瓶颈限制的版本。

瓜分 DePIN 计算市场的三种进入策略

Agent Cloud 的发布使去中心化计算市场的三个不同战略变得清晰 —— 每个战略都追逐不同的客户,有着不同的单位经济效益故事:

1. io.net —— 加密原生开发者生态系统和自主智能体。其卖点是无许可的 API 访问、MCP 原生集成、USDC 结算和零入驻摩擦。客户是 Web3 原生团队,或者越来越多地是 AI 智能体本身。2026年第二季度推出的激励动态引擎(Incentive Dynamic Engine, IDE)—— 它以美元计算稳定供应商支出,并根据实时收入动态调整代币供应 —— 旨在当智能体驱动的需求变得难以预测时,保持供应的理性。io.net 在 2026年初处理了超过 2000 万美元的计算租赁,仅 1 月份就执行了 21.7 万美元的 IO 回购 —— 环比增长 15%。

2. Aethir —— 企业采购预算。Aethir 在 2026年1月产生的月度 DePIN 收入超过了所有协议,甚至超过了 Render。它签署了一项 3.44 亿美元的计算储备协议,并报告了来自 B2B 合同的 1.66 亿美元 ARR。其客户是企业 CIO,他们希望以折扣价获得 H100 容量,但需要一个看起来和感觉上都像传统云的供应商 —— 发票结算、MSA、SLA、指定的客户经理。Aethir 的 435,000 多个 GPU 容器和零前期成本,定位在于那些比起无许可更看重可预测性的买家。

3. Akash —— 成本驱动的工作负载迁移。Akash 的逆向拍卖模型 —— 供应商竞争任务 —— 使价格在结构上低于超大规模云厂商。该网络实现了 428% 的同比增长,在进入 2026年时利用率超过 80%。其 Starcluster 计划(包括计划通过 Starbonds 收购约 7,200 个 NVIDIA GB200 GPU)正推动 Akash 迈向超大规模 AI 需求,同时保持其去中心化市场的完整。

Render 紧随这三者,每月处理 150 万个渲染帧,同时 2026年4月的 RNP-023 治理提案吸收了来自 Salad Network 的约 60,000 个 GPU —— 将 Render 扩展到 AI 推理领域,同时保持其创意计算的根基。

这四个协议不再是为同一美元而战。它们是在争夺 不同 的美元 —— 企业、智能体原生、成本驱动和创意领域 —— 只是恰好这些领域都需要 GPU。

推理时代的数学逻辑让 Agent Cloud 成为可能

以往关于去中心化计算的讨论总是以一个警告开始:训练过程对带宽、延迟和服务等级协议(SLAs)过于敏感,以至于无法离开超大规模运营商的数据中心。这一反对意见对于前沿模型训练依然成立。但对于实际的市场需求而言,它已变得不再重要。

到 2026 年,大约 70% 的 GPU 需求将来自推理,而非训练。推理工作负载——运行模型、支持智能体、执行工具调用——对去中心化网络架构现状的容忍度远高于训练。当工作负载具有突发性时,延迟波动是可以接受的。当智能体为全球用户提供服务时,地理分布反而成了一种优势。当工作是无状态或可设置检查点的,竞价容量(Spot capacity)也就足够了。

这种工作负载结构的转变,是 DePIN 计算能在推理成本上可靠地比 AWS 和 Azure 低 45–75% 的结构性原因。这也是 Agent Cloud 启动时机至关重要的原因。智能体在设计上就是推理密集型的。它们产生的是持续的小型调用,而不是偶尔的大型训练任务。它们需要在许多地方短时间内使用大量的 GPU。这正是去中心化网络为之而生的工作负载特征。

如果 Anthropic、OpenAI 和 Google 都标准化采用 MCP(模型上下文协议)——且截至 2026 年初,Linux 基金会已经统计到超过 10,000 个活跃的公共 MCP 服务器和每月数千万次的 SDK 下载——那么任何支持 MCP 的计算网络都将能够对接每一个智能体生态系统。io.net 押注:成为第一个交付完全 MCP 原生且可由智能体购买的计算层,其价值远超成为规模最大的网络。

io.net 仍需填补的信任差距

这个故事中诚实的矛盾点在于可靠性。AWS 和 Azure 销售的是由数十亿美元赔偿保证支撑的 99.9% 可用性 SLA。而 io.net 销售的是分布在 130 多个国家的 30,000 个 GPU,其质量因供应商而异。对于运行实验的爱好者来说,节省的成本远超风险。但对于处理客户资金的生产级智能体来说,这种权衡就变得更加困难。

激励动态引擎(Incentive Dynamic Engine)是解决方案的一部分——通过以美元标定供应商的收益,它使供应商的行为更具可预测性,从而反哺了可靠性。MCP 原生架构是另一部分:能够检测到供应商性能下降并在几秒钟内重定向到不同集群的智能体,使底层的波动对最终用户变得不再透明。

但根本的信任差距不会消失,除非:(a)去中心化网络积累了足够的运营历史来发布可信的可用性数据,或者(b)生产级 AI 智能体对计算波动变得足够宽容,使得 99.9% 不再是基准线。这两者正在并行发生,且都尚未完成。

2026 年现实的结果是市场的分层:企业级智能体工作负载留在 Aethir 或超大规模运营商处,而由独立开发者、自主交易智能体和 Web3 原生 AI 应用组成的长尾市场则迁移到 io.net Agent Cloud 及其最终的竞争对手那里。这个长尾市场规模巨大,且增长最快。

这对开发者意味着什么

如果你在 2026 年构建 AI 智能体,有三件事发生了实质性的改变:

  1. 计算资源采购不再是人为瓶颈。 你的智能体可以拥有自己的资金来源、自己的计算供应商、自己的扩展逻辑。为“人工干预”获取 GPU 而进行的架构设计是一个 Bug,而不是功能。

  2. 以稳定币计价的计算定价成为常态。 基础设施层的 USDC 结算意味着智能体可以持有国库、支付计算费用、与其他智能体结算,且永远不需要接触法币通道。这是让完全自主的智能体经济成为可能的最后一块拼图。

  3. MCP 成为集成界面。 无论你的技术栈是否去中心化,通往智能体寻址基础设施的路径都要经过 MCP。io.net 不是唯一意识到这一点的网络,但它是第一个将其置于 GPU 市场核心的网络。

赢得 DePIN 下一阶段竞争的协议不会是那些拥有最多 GPU 的协议。而是那些其 GPU 最容易被软件直接购买的协议。


BlockEden.xyz 为许多这些 AI 智能体生存和交易的 Solana、Sui、Aptos 以及 EVM 生态系统提供企业级 RPC 和索引基础设施。如果你正在构建需要可靠链上访问以及去中心化计算的智能体原生应用,请探索我们的 API 市场来连接数据层。

参考资料