跳到主要内容

Gensyn RL Swarm:可验证去中心化 AI 训练的首次实测

· 阅读需 14 分钟
Dora Noda
Software Engineer

在过去十年的大部分时间里,“训练前沿模型”一直是“拥有超大规模 GPU 集群”的代名词。Gensyn 刚刚发布了一个公共测试网,押注下一代 AI 将在完全不同的地方进行训练——即在通过以太坊 Rollup 进行协作的互联网连接节点群上,而 ETHGlobal 正拨出 50,000 美元的奖金,奖励那些能在其上构建智能体(Agents)的开发者。

问题不再是去中心化机器学习训练在技术上是否可行。RL Swarm 已经上线,任何人都可以克隆该代码库,而该架构自 2025 年 11 月以来一直在悄然推进。问题在于经济模型、验证机制和开发者的吸引力是否足以将训练工作负载从 AWS 和 Azure 数据中心中剥离出来,以及 2025 年 12 月结束的 $AI 代币销售是否真的对这一未来进行了正确定价。

为什么 “RL Swarm” 是去中心化训练的首次生产级测试

你听过的大多数“去中心化 AI”项目——如 Bittensor、io.net、Akash、Render——解决的都是相邻领域的问题。Bittensor 在子网之间协调竞争性的模型基准测试。io.net 和 Akash 是具有加密原生计费功能的 GPU 租赁市场。Render 分散了推理渲染工作。到目前为止,还没有一个系统能让不可信节点协作“训练”模型。

这正是 Gensyn 的 RL Swarm 所做的。它是 Gensyn 测试网第 0 阶段的基础:一个强化学习智能体在公共互联网上而非单个数据中心内进行协作的去中心化环境。每个参与节点都运行一个本地语言模型。这些节点进行多阶段强化学习(RL)推理博弈——与同行协作回答、评价和修订解决方案——每项贡献都会记录在 Gensyn 测试网的链上身份中。

这种架构转变在言语上微不足道,但在实践中却意义重大。Bittensor 激励矿工竞争最佳输出;Gensyn 则激励节点在训练共享产物上进行“协作”。这就是竞争性市场与真正的分布式训练运行之间的区别,也是为什么 RL Swarm 是首次对生产级去中心化机器学习训练网络的可靠尝试,而不仅仅是一个更精致的算力租赁层。

2025 年 11 月的发布增加了 CodeZero,这是一个基于相同点对点框架构建的协作编程环境。将这两次发布结合来看,它们勾勒出了一份路线图:RL Swarm 证明了协调原语对于推理有效,CodeZero 则将其扩展到结构化的工具使用。到 2026 年 5 月 6 日黑客松结束时,这两个环境都已上线,无需排队即可加入。

四层架构:执行、验证、通信、协调

在面向用户的测试网之下,Gensyn 是一个基于 OP Stack (Bedrock) 构建的定制化以太坊 Layer-2 Rollup。该协议将去中心化训练问题分解为四个层级,每个层级都解决了一个导致“仅仅通过互联网租赁 GPU”在历史上失败的具体原因。

执行 (Execution)。 大型模型无法容纳在单个消费级节点上,因此 Gensyn 将模型分解为分布在不同设备上的参数块,从而减轻单个节点的内存压力。更难的问题是确定性:不同硬件(如 Nvidia A100 与 H100)上的浮点运算可能会产生细微差异,这对于需要检测作弊的验证协议来说是致命的。Gensyn 的 RepOps 库固定了浮点运算的顺序,使得相同的输入在异构硬件上能产生位级一致的输出。可重现执行环境 (REE) 将 RepOps 封装在自定义的基于 MLIR 的编译器中,该编译器将模型编译为这些可重现的内核。

验证 (Verification)。 这是阻碍此前所有去中心化训练尝试的层级。如果一个节点声称它运行了一个训练步骤并提交了梯度,你如何在不亲自重新运行整个计算的情况下知道它是否诚实地完成了工作?Gensyn 的答案是 Verde 验证协议——一个轻量级的争议解决系统,它通过对训练轨迹进行二分查找来隔离证明者和验证者不一致的“单个步骤”,然后仅重新计算该操作。结合概率性学习证明(proof-of-learning),网络在无需支付完全重新执行成本的情况下获得了加密保证。这在概念上类似于 Truebit 的交互式验证模型,只是从通用计算移植到了机器学习特定的内核。

通信 (Communication)。 在带宽受限的公共互联网上协调训练需要抛弃传统教材。标准的数据中心原语——同步 all-reduce——假设拥有强大的 InfiniBand 通道。Gensyn 替换了三种自定义原语:NoLoCo 用低通信 Gossip 协议取代了 all-reduce,CheckFree 提供容错恢复而无需昂贵的定期检查点,SkipPipe 引入了一种梯度共享算法,最大限度地减少了集群中的消息跳数。每一项都是论文级的贡献;它们共同将“一堆连接家庭宽带的笔记本电脑”变成了一个功能齐全的训练集群。

协调 (Coordination)。 以太坊 L2 本身就是经济引擎。它识别参与者、结算代币化奖励,并在无许可的 Rollup 上执行支付。这也是 $AI 代币存在的地方,训练运行的每一项贡献最终都在这里结算。

理解这一技术栈最清晰的方式是将其视为对云 GPU 模型的刻意反转。AWS 和 Azure 将工程精力花在原始吞吐量上,并基于合同建立信任。Gensyn 则将工程精力花在可重现性和争议解决上,并且不对线路另一端的运营商做任何信任假设。

Gensyn 与 Bittensor、io.net 和 Render 的区别

一旦架构确定,竞争格局也就清晰了。有三个项目经常与 Gensyn 被同时提及,但它们解决的是不同的问题。

  • Bittensor (TAO,市值约 26.4 亿美元) 是一个竞争性基准测试网络。子网(Subnet)定义任务,矿工输出结果,验证者进行排名,TAO 代币流向得分最高的人。它非常擅长激励模型质量,但它并不协调跨节点的单一共享训练运行。Gensyn 的集群式(swarm-based)训练在结构上是协作的;而 Bittensor 的子网模式在结构上是对抗性的。
  • io.net 和 Akash 是 GPU 算力市场。它们允许拥有闲置硬件的运营商将时间出售给愿意付费的人。至关重要的是,这两个协议都不验证买家的工作负载是否被正确执行——那是买家的问题,通常通过运行自己的训练栈并信任收据来解决。Gensyn 的 Verde + REE 组合正是这些市场所缺失的层。
  • Render Network 分散推理渲染工作,主要针对图形领域。其经济模式更接近 io.net 而非 Gensyn:租用算力,获取输出,信任运营商。Render 的 Dispersed 子网是一个相邻产品,而非竞争对手。

Gensyn 以第 368 位的排名推出了其代币,市值约为 7160 万美元——仅为 Bittensor 的一小部分。这个差距就是核心论点:如果可验证的协作训练是一个真实的类别,而不仅仅是算力租赁的复杂版本,那么这个价差就是一个切入点。如果不是,这个价差就是市场对一个“科研项目”的正确定价。

$AI 代币销售:100 万至 10 亿美元估值范围内的 3% 英式拍卖

2025 年 12 月 15 日,随着 Gensyn 在 Sonar 上开启 $AI 代币销售,经济模型变得真实起来。结构异常透明:针对 3 亿枚代币(占 100 亿枚总供应量的 3%)进行英式拍卖,设定了 100 万美元的 FDV(完全稀释估值)下限和 10 亿美元的 FDV 上限。竞拍者在每枚代币 0.0001 美元至 0.1 美元之间选择最高出价,最低竞标额为 100 美元。出价以以太坊主网上的 USDC 或 USDT 结算;代币在 Gensyn Network L2 上领取。

完整的分配方案揭示了 Gensyn 想要成为什么样的项目:

分配项目百分比
社区金库40.4%
投资者29.6%
团队25.0%
社区销售3.0%
其他2.0%

40% 的社区金库加上 3% 的公开销售,使其治理姿态更接近 Optimism 风格,而非典型的 DePIN 启动。团队和投资者份额(合计 54.6%,a16z 领投了最近一轮私募,估值上限与公开销售上限相同,均为 10 亿美元)虽然较高,但并不极端。

此次销售最有趣的设计选择是测试网激励:2% 的额外奖励池作为代币乘数发放给经过验证的测试网参与者,根据其参与程度以及竞标金额进行缩放。这是一个温和但真实的信号,表明 Gensyn 相比于最大化公开销售价格,更在意向实际贡献者进行分发。美国买家接受 12 个月的锁定期;非美国买家可以选择类似的锁定期以换取 10% 的额外奖金乘数。

这场拍卖所定价的是一场赌注——赌去中心化训练的单位经济效益比类似的 AWS 或 Azure H100 集群(按需费率约为 3 美元/小时)便宜 60-80%,且闲置的消费级和专业级 GPU 足够丰富,能够吸收可观的训练需求。这一赌注是否正确,将由 2026 年网络上出现的实际工作负载来回答,而非拍卖价格。

ETHGlobal Open Agents:生产信号

将这一项目从“有趣的基础设施项目”转变为“开发者真正开始在上面构建的东西”的新闻是 ETHGlobal Open Agents,运行时间为 2026 年 4 月 24 日至 5 月 6 日。Gensyn 是赞助商,提供了超过 50,000 美元的奖金,其中包括 5,000 美元的“最佳代理交换层 (AXL) 应用”奖项。每位获胜者都将进入 Gensyn 基金会资助计划的快速通道。

这很重要,原因有二。

首先,黑客松是那些尚未意识到自己需要新基础设施的开发者发现它的方式。同样的策略催生了早期的 Optimism、Base 和 Sui 生态系统。5 万美元的奖金池虽然不是足以撬动市场的金额,但它是一个足够强大的诱饵,能让几百名 ETHGlobal 级别的开发者首次接触到 RL Swarm 和 AXL API。黑客松结束后,肯定会有一部分开发者继续构建。

其次,奖项类别揭示了 Gensyn 心目中的杀手级应用。Agent eXchange Layer(代理交换层)是核心框架——自主代理相互发现、交换算力、按需相互训练和微调。如果 Gensyn 押注未来是单体基础模型训练,那么奖项就会强调这一点。相反,他们强调代理基础设施,这与更广泛的 2026 年叙事相吻合:能够相互支付劳动报酬的代理需要一个底座,将最昂贵的工作——模型训练和微调——外包给一个可验证的网络。

诚实的警示

值得明确指出的是,截至 2026 年 5 月,RL Swarm 还 不是 什么。

目前在运行的测试网上还没有官方运行的集群 (swarms)。参与者可以加入社区拥有的集群,这正是无许可网络中常见的引导 (bootstrap) 问题:协议是开放的,但实际的高价值协同训练任务尚未大规模开展。在严肃的实验室或开源集体在网络上进行真正的模型训练之前,测试网仍然是一个概念验证 (PoC),而非生产系统。

验证成本也仍然是一个悬而未决的问题。Verde 的二分查找争议解决机制比重新运行整个训练任务要便宜得多,但它并非免费,而且其在前沿规模(数千亿参数,数周训练时间)下的开销尚未得到证实。硬件确定性——RepOps 在 A100 和 H100 之间产生位对位一致 (bitwise-identical) 的输出——虽然优雅,但增加了竞争对手中心化技术栈所没有的编译器开销。

此外,成本节约论(比 AWS H100 抢占式实例便宜 60-80%)的前提是,闲置的消费级和专业级 GPU 的长尾流量足够密集,可以替代超大规模云服务商的容量。对于 7B 到 70B 参数的微调任务来说,这是合理的。但对于真正的前沿规模预训练,这目前还不现实,而 Gensyn 也很坦诚,没有对此做出过度承诺。

这对基础设施构建者意味着什么

对于思考未来 12 个月该把精力花在哪里的开发者来说,最有效的切入点是:Gensyn 开启了一个以前不存在的新型 API 范畴——以编程方式、可验证地访问训练网络。到目前为止,“让模型执行特定任务”的选择只有:(a) 调用 OpenAI 或 Anthropic 等托管 API,或者 (b) 租用 GPU 并自行运行训练。Gensyn 提出了第三种选择——将训练任务提交给可验证的集群并获得加密保证——这清晰地映射到了 ETHGlobal 正在激励的智能体 (Agent) 经济中。

如果这第三种选择可行,它将成为一种原语。需要为利基任务微调小型专家模型的智能体将不想租用和运营 GPU。它们会希望发布一个训练意图,以稳定币或 $AI 进行支付,并获取生成的权重。Gensyn 的赌注在于,随着这种模式的扩散,使之成为可能的协议层——L2 Rollup、验证系统、集群协调原语——将积累巨大的价值。

BlockEden.xyz 为 Web3 开发者在 25 条以上的链上所依赖的索引、RPC 和分析基础设施提供支持。随着像 Gensyn 这样可验证的 AI 训练网络走向成熟,其底层的核心数据和协调层将变得愈发重要。探索我们的 API 市场,在专为 Web3 智能体化、AI 原生时代设计的基础设施上进行构建。

来源