跳到主要内容

3 篇博文 含有标签「去中心化计算」

去中心化计算和云

查看所有标签

JAM Chain:波卡(Polkadot)迈向去中心化全球计算机的范式转变

· 阅读需 50 分钟
Dora Noda
Software Engineer

波卡(Polkadot)的 JAM (Join-Accumulate Machine) Chain 代表了自以太坊推出以来最重要的区块链架构创新,从根本上重新构想了去中心化计算的运作方式。由 Gavin Wood 博士于 2024 年 4 月通过 JAM 灰皮书(JAM Gray Paper)引入,JAM 将波卡从一个平行链专用的中继链转变为一个通用的、无需许可的“大多一致的无需信任超级计算机”,能够实现 42 倍更高的数据可用性(850 MB/s)和 340 万+ TPS 的理论容量。该协议通过在动态分片边界内实现同步可组合性,同时保持 350+ 个核心的并行执行,解决了当前区块链系统普遍存在的持续分区问题。与以太坊以 L2 为中心的 Rollup 策略或 Cosmos 的主权区域模型不同,JAM 将分片执行与一致状态直接构建到共识层中,使用基于 RISC-V 的新型波卡虚拟机(PVM)和无交易架构,所有计算都通过 Refine→Accumulate 管道进行。有 43 个实施团队正在竞争 1000 万 DOT 的奖金,多个客户端预计在 2025 年 8 月前实现 100% 的一致性,主网部署目标定于 2026 年初,JAM 有望实现以太坊 2.0 最初愿景所承诺的:在不牺牲可组合性或安全性的前提下实现原生可扩展执行。

计算模型:JAM 如何大规模处理工作

JAM 引入了一种全新的计算范式,称为 CoreJAM(Collect, Refine, Join, Accumulate),它将区块链执行分解为不同的阶段,以优化并行化和效率。JAM 的名称来源于链上部分——Join 和 Accumulate,而 Collect 和 Refine 则在链下进行。这种架构建立了两个协同工作的主要执行环境:用于重度并行计算的核心内执行和用于状态集成的链上执行。

Refine 阶段(核心内执行),工作项在多个验证人核心上进行无状态并行处理,每个核心在 6 秒的时间槽内处理高达 15 MB 的输入数据,并产生最大 90 KB 的压缩输出——一个惊人的 166 倍压缩比。此阶段为每个核心提供 6 秒的 PVM 执行时间,是当前波卡平行链验证函数(PVF)2 秒限制的三倍。Refine 函数完全在链下执行计算密集型工作,其唯一有状态操作是预映像查找(preimage lookups),从而实现了大规模并行化而没有状态争用。

Refine 之后,Accumulate 阶段(链上执行)通过有状态操作将工作结果集成到链状态中,每个输出的执行时间限制在大约 10 毫秒。此函数在所有验证人上运行,可以读取任何服务的存储,写入其自己的键值存储,在服务之间转移资金,创建新服务,升级代码,并请求预映像可用性。执行预算的鲜明对比——链下 6 秒对链上 10 毫秒——反映了 JAM 的基本洞察:通过将昂贵的计算推到链下并并行化,系统将宝贵的链上时间仅用于必要的状​​态转换。

JAM 中的服务定义了第三个入口点,称为 onTransfer,它处理异步服务间通信。此消息系统使服务能够非阻塞地进行交互,消息发送后不立即返回结果。该设计预期未来将通过辅助核心分配额外的 Gas 以实现复杂的跨服务交互。

这种双重执行模型实现了 Wood 所描述的半一致性:在同一区块中调度到同一核心的服务同步交互(一致子集),而不同核心上的服务异步通信(整体不一致)。一致和不一致执行之间的边界保持流动且受经济驱动,而非协议强制,允许频繁通信的服务在核心上共存以实现同步行为,同时保持系统范围的可扩展性。这代表了解决困扰先前区块链架构的“规模-同步性”矛盾的突破。

从中继链到基于服务的计算的架构转型

JAM 从根本上重新构想了波卡的架构,从高度特定于平行链的设计转向了极简的通用计算基底。当前的波卡中继链直接在协议中封装了平行链,硬性限制大约 50 个插槽,需要通过拍卖获取,花费数百万 DOT,并通过固定的验证路径执行所有平行链逻辑。JAM 用服务取代了这一点——无需许可、封装的执行环境,任何人都可以部署,无需治理批准或拍卖,仅受加密经济因素(DOT 存款)限制。

架构理念的转变是深刻的:从可升级的中继链到具有可升级服务的固定协议。波卡 1.0 维护了一个高度可升级的中继链,随着时间的推移积累了复杂性,而 JAM 固定了核心协议参数(区块头编码、哈希方案、QUIC 网络协议、时间参数),以实现积极优化并简化多重实现。质押、治理和核心时间分配等应用层功能存在于服务中,这些服务可以独立升级,而无需触及核心协议。这种不可升级的链架构显著降低了复杂性,同时在最关键的应用层保留了灵活性。

在 JAM 的模型中,平行链成为众多服务类型之一。所有波卡 1.1 平行链功能将整合到一个“平行链”或“核心链”服务中,确保完全向后兼容并提供硬编码保证。当中继链升级时,现有平行链会自动过渡到在 JAM 上运行,无需任何代码更改。服务模型将平行链的功能推广到任意执行模式:直接部署在核心上的智能合约、CorePlay 等基于 Actor 的框架、ZK-Rollup、数据可用性服务,以及尚未构想的全新执行模型。

状态管理模型也发生了显著转变。当前波卡在区块头中使用后验状态根(posterior state roots)——区块在完整计算完成后才进行分发。JAM 采用前验状态根(prior state roots),滞后一个区块,从而实现流水线化:轻量级计算(约占工作量的 5%)立即执行,区块在重度累积任务完成前分发,下一个区块在当前区块执行完成前开始处理。这种架构选择意味着 JAM 利用完整的 6 秒区块时间进行计算,每个区块实现 3 到 3.5 秒的有效计算时间,而当前波卡则低于 2 秒。

JAM 从 WebAssembly 到基于 RISC-V 的波卡虚拟机(PVM)的转变代表了另一个根本性转变。RISC-V 仅有 47 条基本指令,提供了卓越的确定性、在传统硬件上的出色执行速度、易于转译为 x86/x64/ARM、官方 LLVM 工具链支持以及内存中堆栈的自然延续处理。关键在于,与 WebAssembly 的计量开销相比,PVM 提供了“免费计量”,而基于寄存器的架构(相对于 WASM 基于堆栈的设计)避免了 NP 完全的寄存器分配问题。这使得支持 RISC-V 的延续能够为可扩展多核编码建立新标准,允许程序在区块边界之间暂停和恢复——这对于 JAM 的异步并行化架构至关重要。

技术规范:性能目标和验证人要求

JAM 旨在实现卓越的性能指标,使其在区块链计算能力方面实现代际飞跃。该系统目标是 850 MB/s 的数据可用性——比异步支持改进前的普通波卡提高 42 倍,并且比以太坊的 1.3 MB/s 高出几个数量级。这转化为所有核心的聚合吞吐量约为 2.3 Gbps,每个核心在 6 秒的时间槽内处理 5 MB 的输入

交易吞吐量容量显著扩展:基于 850 MB/s 数据可用性目标,理论最大值为 340 万+ TPS。实际压力测试验证了这些预测——Kusama 在 2025 年 8 月在仅 23% 的负载容量下达到了 143,000 TPS,而波卡的“Spammening”压力测试在 2024 年达到了 623,000 TPS。凭借 JAM 的额外优化和扩展核心数量(目标 350 个核心并具有弹性扩展),在生产环境中实现 100 万+ TPS 的阈值成为可能。

根据灰皮书的估计,当完全运行时,计算能力达到每秒 1500 亿 Gas,反映了所有核心的总 PVM 执行量。共识机制通过 GRANDPA 保持 6 秒的区块时间,并在大约 18 秒(约 3 个区块)内实现确定性最终性。SAFROLE 是 JAM 基于 SNARK 的区块生产算法,通过使用 zkSNARKs 和 RingVRF 进行匿名验证人选择,并提前两个周期使用票证作为区块生产的匿名入口,提供几乎无分叉的操作。

验证人硬件要求对专业运营商来说仍然可及,但需要大量资源:

  • CPU:最低 8 个物理核心 @ 3.4 GHz(优先考虑单线程性能)
  • RAM:最低 128 GB
  • 存储:最低 2 TB NVMe SSD(优先考虑延迟而非吞吐量),预计每月增长 50 GB
  • 网络:最低 500 Mbit/s 对称连接(首选 1 Gbit/s),以处理大量服务并确保拥塞控制
  • 操作系统:基于 Linux(内核 5.16 或更高版本)
  • 正常运行时间:要求 99%+ 以避免罚没惩罚

验证人集合由 1,023 个验证人组成——与当前波卡数量相同——所有验证人无论其质押量如何,都获得相同的区块奖励。这种平等的奖励分配激励质押分散到各个验证人,而不是集中在少数大型运营商手中,从而促进去中心化。最低质押要求是动态的;历史上,进入活跃验证人集合需要大约 175 万 DOT 的总质押(自质押加上提名),尽管最低提名意向为 250 DOT28 天的解绑期与当前波卡保持不变。

JAM 的网络层过渡到 QUIC 协议,用于所有 1000 多个验证人之间的直接点对点连接,避免了传统网络堆栈的套接字耗尽问题。由于 JAM 本质上是无交易的(没有内存池或 Gossip 协议),系统采用网格扩散进行广播:验证人以逻辑网格排列,消息按行然后按列传播,与完整的 Gossip 协议相比,显著降低了带宽要求。

JAM Toaster 测试环境展示了支持开发的巨大基础设施规模:位于里斯本波卡宫设施的 1,023 个节点,拥有 12,276 个核心16 TB RAM,位列全球超级计算机前 500-1000 名。这种全规模测试基础设施解决了历史上的局限性,即小型测试网络无法模拟大规模网络动态,而生产网络缺乏全面的监控能力。

经济模型:DOT 代币经济学和基于核心时间的定价

JAM 保持 DOT 作为唯一的原生代币,不创建新代币,从而保持了与波卡经济模型的连续性,同时引入了重大的结构性变化。经济架构的核心是无需许可的服务部署,任何人都可以上传和执行代码,并支付与所用资源相称的费用。服务对代码、数据或状态没有预设限制——容量由加密经济因素决定,特别是作为经济抵押品存入的 DOT 数量。

代币经济学在 2025 年经历了重大转型,公投 1710 实施了 21 亿 DOT 的供应上限和阶梯式通胀计划。从 2026 年 3 月开始,年度代币排放量将每两年减半,创建了一个类似比特币的稀缺模型。当前年通胀率为 7.56%(低于最初的 10%),预计到 2040 年总供应量将达到约 19.1 亿 DOT,而根据旧模型则为 34 亿。这种通缩压力旨在支持长期价值积累,同时为网络安全维持足够的奖励。

费用结构从平行链拍卖过渡到基于核心时间的定价,用灵活的选项取代了波卡 1.0 复杂的插槽拍卖机制:

**批量核心时间(Bulk Coretime)**提供每月订阅,以持续访问计算核心,使需要保证吞吐量的项目能够进行可预测的预算。按需核心时间(On-Demand Coretime)为零星使用提供即用即付的访问,与数百万美元的平行链插槽拍卖相比,大大降低了进入门槛。这种敏捷核心时间模型允许购买计算资源,持续时间从几秒到几年不等,优化了资本效率。

JAM 引入了一种新颖的混合资源消耗模型,其中工作包可以结合计算密集型任务和数据密集型操作。通过将具有不同资源需求的服务配对——例如,零知识证明验证(计算密集型)与数据可用性(存储密集型)——系统优化了验证人硬件利用率并降低了总体成本。经济激励自然地促使排序器(sequencers)批量处理相关工作项,并将频繁通信的服务共同定位在同一核心上。

无交易架构完全消除了传统的交易费用结构。用户不再向带有 Gas 费的内存池提交交易,所有操作都在链下经过 Refine 阶段,然后结果才集成到链上。这种根本不同的经济模型收取的是核心时间采购和工作包处理的费用,而不是每笔交易的 Gas 费,费用由 Refine 和 Accumulate 阶段消耗的计算和数据资源决定。

验证人经济学延续了波卡的提名权益证明(NPoS),每个周期所有活跃验证人获得相同的区块奖励,无论质押规模如何。验证人设定自己的佣金率,在分配给提名人之前从总奖励中扣除。收入来源包括区块奖励(主要)、活跃参与的周期点数奖励、用户小费(100% 归验证人)以及提名人的佣金。当前质押统计数据显示,参与率为 58%8.25045 亿 DOT 质押在 600 个活跃验证人中。

服务将代币余额直接与代码和状态关联,从而实现了在纯可升级链中不易实现的经济模型调整。这一创新允许服务持有和管理 DOT,创建可以支付自身运营、实施新颖代币经济机制或充当用户资金托管人的经济参与者——所有这些都无需信任中介。

经济安全模型依赖于经济验证人(ELV)——一种犬儒式 Rollup 机制,其中随机选择的验证人重新执行工作以验证正确性。这种方法被证明比零知识证明在确保计算正确性方面成本效益高约 4000 倍,利用了波卡成熟的加密经济安全模型。当工作结果存在争议时,判断机制可以暂停最终性长达 1 小时,同时验证人达成共识,即使在对抗条件下也能保持安全保证。

开发状态:实现、测试网和主网路线图

截至 2025 年 10 月,JAM 开发已达到关键阶段,43 个活跃实施团队分属五种语言类别,正在竞争 1000 万 DOT + 10 万 KSM 的奖金池(价值 6000 万至 1 亿美元)。这种前所未有的实现者多样性旨在将专业知识传播到单个团队之外,通过客户端多样性确保协议弹性,并通过独立实现识别规范模糊性。

多个实现已在 2025 年 8 月前达到 100% 的 JAM 一致性,包括 JAM DUNA (Go)、JamZig (Zig)、Jamzilla (Go)、JavaJAM (Java)、SpaceJam (Rust)、Vinwolf (Rust)、Jamixir (Elixir) 和 Boka (Swift)。JAM 一致性仪表板提供实时性能基准、模糊测试结果和实现比较,从而透明地评估每个客户端的成熟度。Parity 用 Rust 实现的 PolkaJAM 目前在性能指标方面处于领先地位。

JAM 灰皮书已通过多次修订:v0.7.0 于 2025 年 6 月 25 日发布,包含 PVM 执行和聚合调度器的详细伪代码,随后 v0.7.1 于 2025 年 7 月 26 日发布,纳入了社区反馈。灰皮书效仿以太坊黄皮书的方法,提供正式的数学规范,支持多个独立实现,而不是依赖单个参考客户端。

测试网活动在 2025 年加速,里斯本的 JAM 体验活动(5 月 9 日至 11 日)标志着一次重要的公共测试网启动派对,国际开发者参加。最小可行 Rollup 测试网于 2025 年 6 月启动,允许开发者在实时网络环境中测试基本的 JAM 功能。多个实现团队持续运行私有测试网,Parity 发布了实验性的 PolkaJAM 二进制文件,使开发者能够创建自己的 JAM 测试网进行实验。

JAM 实现者奖金根据每个实现路径(验证节点、非 PVM 验证节点或轻节点)的五个里程碑来构建奖励:

里程碑 1 (IMPORTER):10 万 DOT + 1000 KSM,用于通过状态转换一致性测试并导入区块。提交于 2025 年 6 月开放,波卡理事会(Polkadot Fellowship)审查提交。里程碑 2 (AUTHORER):额外 10 万 DOT + 1000 KSM,用于包括区块生产、网络和链下组件在内的完全一致性。里程碑 3 (HALF-SPEED):10 万 DOT + 1000 KSM,用于达到 Kusama 级别的性能,并获得 JAM Toaster 的访问权限进行全规模测试。里程碑 4 (FULL-SPEED):10 万 DOT + 1000 KSM,用于 Polkadot 主网级别的性能,并获得免费的专业外部安全审计。里程碑 5 (SECURE):最后 10 万 DOT + 1000 KSM,用于通过完整的安全审计,且无重大漏洞。

语言多样性涵盖了传统企业语言(A 组的 Java、Kotlin、C#、Go)、原生高性能语言(B 组的 C、C++、Rust、Swift、Zig)、简洁脚本语言(C 组的 Python、JavaScript、TypeScript)以及注重正确性的语言(D 组的 OCaml、Elixir、Julia、Haskell)。Z 组为 Brainfuck 或 Whitespace 等深奥语言的实现提供最高 5000 KSM,展示了社区的趣味精神,同时也证明了规范的清晰性。

主网部署时间表遵循雄心勃勃的计划:

  • 2025 年末:最终灰皮书修订(v0.8.0、v0.9.0,接近 v1.0),持续的里程碑提交和审查,扩大测试网参与
  • 2026 年第一季度:在通过 OpenGov 公投获得治理批准后,波卡网络上的 JAM 主网升级目标
  • 2026 年:CoreChain 阶段 1 部署,官方公共 JAM 测试网,波卡网络全面过渡到 JAM 架构

部署策略涉及一次全面的升级,而不是迭代增量更改,从而能够精确限制升级后的操作,并最大程度地减少因持续破坏性更改而导致的开发者开销。这种方法将所有破坏性更改整合到一次过渡中,避免了困扰波卡 1.0 演进的复杂性累积。然而,治理批准仍然是强制性的——JAM 需要通过波卡的去中心化链上治理和 DOT 代币持有者投票。2024 年 5 月公投 682 获得近乎一致的批准(超过 3100 万 DOT 支持)的先例表明社区的强大支持,尽管最终主网部署需要单独的治理批准。

实际应用已经开始出现。Acala Network 于 2025 年 8 月宣布推出 JAMVerse,使用基于 Swift 的 B 类 JAM 客户端(Boka)构建第一个 JAM 原生 DApp 链。他们的路线图包括将核心 DeFi 服务(Swap、Staking、LDOT)迁移到 JAM 以实现亚区块延迟操作,开发 JAM-XCM 适配器以保持与 Substrate 平行链的互操作性,并演示由同步可组合性实现的跨链闪电贷。Unique Network 的 Quartz 正在过渡到 JAM 架构的内部测试环境,计划于 2025 年 10 月完成。

生态系统影响:向后兼容性和迁移策略

JAM 的设计优先考虑与现有波卡平行链的完全向后兼容性,确保过渡能够增强而非扰乱生态系统。官方文档证实“提案的一部分将包括工具和硬编码的兼容性保证”,Web3 基金会保证“即使在 JAM 之后,平行链仍将是第一类公民”。当 JAM 启动时,中继链升级,平行链将自动成为在 JAM 之上运行的服务,无需任何代码更改

平行链服务(或称 CoreChains 或 ChainService)将所有波卡 1.1 平行链功能整合到一个 JAM 服务中。现有的基于 Substrate 的平行链将通过此兼容层继续运行,功能行为不变——“目前在波卡上运行的任何平行链的功能都不会受到影响。”从平行链团队的角度来看,“技术栈看起来没有太大不同。它们将继续由验证人验证”,并采用类似的开发工作流程。

三种迁移路径使团队能够按照自己的节奏采用 JAM 功能:

选项 A:不迁移 允许平行链团队像以前一样继续运营,无需任何努力。平行链服务处理所有兼容性问题,保持当前的性能特征和开发工作流程。此默认路径适用于对现有功能满意或倾向于推迟 JAM 特定功能直到技术成熟的团队。

选项 B:部分迁移 允许混合方法,团队继续作为传统平行链运营,同时将特定功能部署为 JAM 原生服务。例如,一个 DeFi 平行链可以保持其主链操作不变,同时在 JAM 核心上直接部署一个用于隐私功能的 ZK-Rollup 服务或一个用于价格馈送的预言机服务。这种逐步过渡允许测试新功能而无需完全承诺,在保持向后兼容性的同时选择性地访问高级功能。

选项 C:完全迁移 涉及使用 JAM 的服务模型进行重建,具有不同的 Refine、Accumulate 和 onTransfer 入口点。此路径提供了最大的灵活性——无需许可的部署、通过 Accords 实现的同步可组合性、CorePlay 基于 Actor 的框架以及直接访问 JAM 的新型执行模型。Acala 的 JAMVerse 便是这种方法的典范:构建一个完整的 JAM 原生实现,同时在过渡期间保持遗留平行链的运行。完全迁移需要大量的开发工作,但能释放 JAM 的全部潜力。

迁移支持基础设施包括 Acala 文档中提到的 Omicode 迁移工具,该工具“无需修改运行时逻辑即可实现向 JAM 的平稳迁移”——显然是现有 Substrate 平行链的兼容层。波卡 SDK 仍与 JAM 兼容,尽管平行链验证函数(PVF)的目标从 WebAssembly 重新定位到 PVM。由于 PVM 代表了对 RISC-V 的微小修改(RISC-V 已经是官方 LLVM 目标),编译到 WASM 的现有代码库通常只需最少的更改即可重新编译到 PVM。

从 WASM 到 PVM 的过渡提供了多项优势:免费计量消除了执行期间的 Gas 开销,基于寄存器的架构避免了 WASM 基于堆栈设计中固有的 NP 完全寄存器分配问题,自然的延续支持使程序能够在区块边界之间暂停和恢复,以及在传统硬件上的卓越执行速度提供了无需基础设施更改的性能改进。Substrate FRAME 模块继续在平行链服务中工作,尽管 JAM 的计量系统通常消除了 Substrate 开发中频繁基准测试的要求。

XCM(跨共识消息格式)演进确保了整个过渡期间的互操作性。在 JAM 中,完整的 XCMP(跨链消息传递)成为强制性的——当前 HRMP(水平中继路由消息传递)将所有消息数据存储在中继链上,有效载荷限制为 4 KB,而 JAM 的 XCMP 仅将消息头放在链上,链下数据传输无限制。此架构要求源于 Refine 和 Accumulate 阶段之间严格的数据传输限制,从而在没有中继链瓶颈的情况下实现实际的数据有效载荷。

JAM-XCM 适配器在过渡期间保持 JAM 服务和 Substrate 平行链之间的互操作性。2025 年发布的 XCM v5 改进包括多跳交易、多链费用支付、更少的所需签名和更好的错误预防——所有这些都旨在在 Polkadot 到 JAM 的过渡中无缝工作。Accords 引入了同步 XCM 功能,实现了无需基于储备的中介即可在链之间进行直接代币传送等信任最小化交互。

用于质押、国库和协议升级的治理机制迁移到服务中,而不是封装在核心协议中。这种关注点分离简化了 JAM 链本身,同时在可升级的服务代码中保留了所有必要的功能。包括质押奖励分配、核心时间市场和治理投票在内的应用层功能都存在于服务中,这些服务可以通过自己的升级机制独立演进,而无需协议层更改。

验证人过渡仍然简单——运营商将需要运行 JAM 兼容客户端而不是当前的波卡客户端,但验证人生产区块、验证交易(现在是工作包)和维护共识的职责保持不变。共识从 BABE+GRANDPA 转向 SAFROLE+GRANDPA 主要影响客户端实现内部,而不是操作程序。保持 99%+ 正常运行时间、及时响应验证请求并参与共识的验证人将继续像当前波卡一样,每个周期获得平等的奖励。

开发者体验:从智能合约到服务及更远

JAM 通过消除进入壁垒,同时扩展能力选项,从根本上改变了开发者体验。波卡 1.0 迫使团队在智能合约(能力有限,部署简单)或平行链(能力全面,基于拍卖访问)之间做出选择,而 JAM 为两者以及新型执行模型提供了灵活而丰富的环境

无需许可的服务部署模型类似于以太坊上的智能合约部署——开发者可以将代码部署为服务,无需治理批准或插槽拍卖,只需通过核心时间采购支付所用资源的费用。这大大降低了财务门槛:没有数百万美元的拍卖出价,没有两年期的插槽承诺,没有复杂的众贷机制。服务通过 DOT 存款在经济上扩展,这些存款通过加密经济方式限制资源消耗,而不是通过政治或金融看门人。

ink! 智能合约在 JAM 生态系统中继续蓬勃发展,有可能通过专用服务直接部署在 JAM 核心上,从而无需中间平行链托管。工具仍然成熟:用于编译的 cargo-contract、用于实验的 ink! playground、用于开发的 rustfmt 和 rust-analyzer、用于合约验证的 Chainlens 浏览器以及集成测试框架。从概念验证到生产的毕业路径仍然清晰:从 ink! 合约开始快速迭代,验证产品市场契合度,然后在性能要求需要时迁移到 JAM 服务或平行链——在此过程中重用 Rust 代码、测试和前端组件。

三个服务入口点定义了 JAM 编程模型,要求开发者以不同的方式思考计算:

Refine 函数处理无状态计算,将 Rollup 输入转换为输出。它在每个 6 秒的时间槽内接受多达 15 MB 的工作项,执行长达 6 秒的 PVM Gas,并产生最大 90 KB 的压缩结果。Refine 在链下并行运行于验证人子集,只有预映像查找可用于数据访问。此函数执行计算密集型工作——处理交易、验证证明、转换数据——完全与全局状态隔离。

Accumulate 函数通过有状态操作将 Refine 输出集成到服务状态中,每个输出的执行时间限制在大约 10 毫秒。它可以读取任何服务的存储(实现跨服务查询),写入其自己的键值存储,在服务之间转移资金,创建新服务,升级其自己的代码,并请求预映像可用性。Accumulate 在所有验证人上同步运行,因此成本高昂但默认安全。这种不对称性——Refine 6 秒对 Accumulate 10 毫秒——强制执行架构纪律:将计算推到链下,保持状态更新最小化。

onTransfer 函数通过异步消息传递处理服务间通信。服务可以发送消息而无需等待响应,从而实现松散耦合,同时避免阻塞。未来的增强功能可能允许为复杂的跨服务交互分配额外的 Gas,或通过 Accords 处理同步模式。

CorePlay 代表了一个实验性的基于 Actor 的框架,展示了 JAM 的独特能力。直接部署在核心上的 Actor 可以使用正常的同步编程模式——标准的 fn main() 风格代码和 async/await 语法。当同一核心上的 Actor 相互调用时,执行同步进行。当调用不同核心上的 Actor 时,PVM 延续会自动暂停执行,序列化状态,并在稍后的区块中结果到达时恢复。这种抽象使多区块异步执行对开发者来说看起来是同步的,大大简化了分布式应用逻辑。

开发者工具改进包括通过无需许可的服务创建实现更简单的部署,通过 JAM 的计量 PVM 执行减少基准测试要求,透明且可预测的核心时间定价(避免以太坊式的费用波动),以及为里程碑 3+ 实现者提供 JAM Toaster 访问权限,提供完整的 1023 节点网络模拟以进行真实的性能测试。多语言支持——团队使用 Rust、Go、Swift、Zig、Elixir、OCaml 等——证明了规范的清晰性,并使开发者能够选择熟悉的工具链。

同步可组合性改变了多链应用的可能性。当前波卡平行链通过 XCM 异步通信,要求应用处理延迟响应、超时和回滚场景。JAM 的 Accords 通过同步执行保证,实现了管理服务之间交互协议的多实例智能合约。例如,Acala 的路线图演示了“在以太坊上发起闪电贷,并通过单次同步调用在多个链上执行套利”——这种原子性在碎片化的区块链生态系统中以前是不可能的。

从 Substrate 模块到 JAM 服务的转变减少了治理摩擦——Substrate 模块需要链上治理批准才能部署和更新,而 JAM 服务像智能合约一样无需许可即可部署。开发者保留 Substrate SDK 兼容性,并可以继续使用 FRAME 进行平行链服务,但 JAM 原生服务可以在没有模块升级协调开销的情况下访问简化的开发模型。

文档和教育资源在 2025 年显著扩展,JAM 2025 世界巡演覆盖 2 大洲 9 个城市,吸引了 1300 多名开发者。技术文档包括全面的灰皮书、波卡 Wiki JAM 部分、官方开发者指南和社区创建的教程。Web3 基金会的去中心化未来计划资助 JAM 教育倡议,而实现者奖金为制作高质量文档和开发者工具创造了经济激励。

战略愿景:通过架构创新解决区块链三难困境

Gavin Wood 对 JAM 的愿景解决了区块链的根本限制——他所指的规模-同步性矛盾,即系统必须在规模和一致性之间做出选择。比特币和以太坊 L1 等单片链实现了高同步性和可组合性,但无法超越单节点计算限制。以太坊 L2、波卡平行链和 Cosmos 区域等分片系统通过分区实现规模,但牺牲了一致性,迫使应用程序进入孤立的筒仓,只能进行异步的跨分片通信。

JAM 试图通过部分一致性超越这种虚假二分法——一个“在关键时期保证一致性”,同时通过并行化保持可扩展性的系统。在同一区块中调度到同一核心的服务同步交互,创建一致子集。不同核心上的服务异步通信,实现并行执行。关键在于,分片边界保持流动且受经济驱动,而非协议强制。排序器有激励共同定位频繁通信的服务,开发者可以在需要时优化同步交互,而无需全局系统同步。

战略目标集中于创建一个**“大多一致的无需信任超级计算机”**,它结合了三个历史上不兼容的属性:

类似于以太坊的无需许可的智能合约环境,使任何人无需权威批准或经济门槛即可部署代码。服务的创建和升级无需治理投票、拍卖获胜或插槽承诺。这种开放性通过消除制度障碍、实现快速实验以及培育服务竞争市场而非政治分配资源来推动创新。

波卡开创的通过可扩展节点网络并行化的安全侧链计算通过完整的 1023 个验证人集合为所有服务提供共享安全性。与具有独立安全性的 Cosmos 区域或具有不同信任假设的以太坊 L2 不同,每个 JAM 服务从第一天起就继承了相同的安全保证。跨核心的并行执行实现了计算扩展,而不会碎片化安全性——增加服务不会稀释安全性,而是增加了系统总吞吐量。

在一致执行边界内的同步可组合性释放了网络效应。DeFi 协议可以原子地跨服务组合,用于闪电贷、套利和清算。NFT 市场可以原子地捆绑来自多个链的资产。游戏应用程序可以同步与 DeFi 原语交互,用于游戏内经济。这种可组合性——历史上仅限于单片链——在可扩展的并行化环境中变得可用。

Wood 对 JAM 的长期定位超越了区块链,扩展到通用计算。“去中心化全球计算机”的标语故意呼应了以太坊的早期描述,但其架构基础支持了这种大规模的隐喻。以太坊的“世界计算机”很快达到了可扩展性限制,需要 L2 实用主义,而 JAM 通过 Refine-Accumulate 范式和 PVM 的延续支持,将计算扩展构建到其基础中。

从波卡 1.0 到 JAM 的演进反映了“更少主观性”的理念——从特定领域到通用,从封装的平行链到任意服务,从可升级的协议复杂性到具有可升级应用程序的固定简单性。这种架构极简主义实现了在不断演进的系统中不可能实现的优化机会:固定参数允许积极的网络拓扑优化,已知时序实现精确的调度算法,不可变规范实现硬件加速而无过时风险。

五个驱动因素推动了 JAM 的设计:

通过去中心化实现的弹性需要 1000 多个独立的验证人运营商来维护所有服务的安全。JAM 的设计保留了波卡开创性的 NPoS,验证人获得平等的奖励,防止质押集中,同时保持强大的拜占庭容错能力。

通用性实现任意计算,超越区块链特定用例。PVM 接受任何 RISC-V 代码,支持从 Rust 和 C++ 到更奇特的实现语言。服务可以实现区块链、智能合约平台、ZK-Rollup、数据可用性层、预言机、存储网络或全新的计算模式。

实现“或多或少无限扩展”的性能来自水平并行化——增加核心可以扩展吞吐量而没有架构限制。850 MB/s 的目标代表了启动容量;弹性扩展和经济核心时间市场允许在需求增加时增加容量,而无需协议更改。

在需要时提供同步交互的一致性解决了困扰分片系统的可组合性问题。Accords 实现了服务之间信任最小化的协议强制,同步跨链代币转移以及以前在碎片化生态系统中不可能实现的原子多服务操作。

可访问性降低了门槛,使基础设施民主化。用即用即付的核心时间、无需许可的服务部署和灵活的资源分配取代数百万美元的平行链拍卖,使所有规模的项目——从独立开发者到企业团队——都能访问世界一流的基础设施。

竞争格局:JAM 与其他 Layer 0 和 Layer 1 方法的比较

JAM 相对于以太坊路线图的定位揭示了根本不同的扩展理念。以太坊追求以 L2 为中心的模块化,其中 L1 提供数据可用性和结算,而执行迁移到 Arbitrum、Optimism、Base 和 zkSync 等乐观和 ZK-Rollup。Proto-danksharding (EIP-4844) 增加了 blob 交易,提供临时数据可用性,并计划通过完整的 danksharding 将容量增加 100 倍。Proposer-Builder Separation (PBS) 和宣布的 Beam Chain 共识层重新设计继续优化 L1 的狭窄角色。

这种策略造成了持续的分区:L2 仍然是孤立的生态系统,流动性碎片化,信任假设各异,乐观 Rollup 有 7 天的提款期,排序器中心化风险,以及 L1 拥堵期间的费用波动会波及所有 L2。可组合性在每个 L2 内部运行顺畅,但跨 L2 交互会退回到带有桥接风险的异步消息传递。以太坊社区在以太坊 2.0 最初的分片愿景被证明过于复杂后接受了 L2 实用主义——但这种实用主义接受了作为固有权衡的根本限制。

JAM 追求以太坊 2.0 最初承诺的:将分片执行与一致状态原生构建到共识层中。以太坊将执行移到链下到 L2,而 JAM 通过 Refine-Accumulate 模型将并行执行构建到 L1 共识中。以太坊接受了碎片化的 L2 生态系统,而 JAM 通过服务和 Accords 提供统一的安全性和协议级可组合性。架构上的赌注根本不同——以太坊押注于专业的 L2 创新,JAM 押注于通用的 L1 可扩展性。

性能目标说明了其雄心:以太坊在 L1 上每秒处理大约 15 笔交易,每个区块数据可用性为 1.3 MB,而 L2s 共同处理数千 TPS,具有不同的安全假设。JAM 目标是 850 MB/s 的数据可用性(大约是以太坊 L1 的 650 倍)和 340 万+ TPS 的理论容量,具有统一的安全性。计算模型也存在根本差异——以太坊的顺序 EVM 执行与 JAM 的并行 350 核处理代表了解决扩展问题的根本不同方法。

带有跨链通信(IBC)协议的 Cosmos 代表了另一种 Layer 0 愿景,优先考虑主权而非共享安全性。Cosmos 区域是独立的主权区块链,拥有自己的验证人集合、治理和安全模型。IBC 通过轻客户端验证实现无需信任的通信——链独立验证对手方状态,而不依赖共享验证人或安全池。

这种主权优先的理念赋予每个区域完全的自治权:自定义共识机制、专业经济模型和独立的治理决策,无需协调开销。然而,主权也伴随着成本——新区域必须独立引导验证人集合和安全性,面临碎片化的安全性(对一个区域的攻击不会损害其他区域,但也意味着各区域的安全级别不同),并体验真正的异步通信,没有同步可组合性选项。

JAM 采取了相反的方法:安全优先,共享验证。所有 1023 个验证人从启动开始就保护每个服务,消除了引导挑战并提供统一的安全保证。服务牺牲了主权——它们在 JAM 的执行模型内运行并依赖共享验证人集合——但获得了即时安全性、协议级可组合性和更低的运营开销。哲学上的差异很深:Cosmos 优化主权独立性,JAM 优化一致集成。

Avalanche 子网提供了另一种比较架构,其中子网是主权 Layer 1 区块链,验证人选择验证。主网络验证人(需要 2000 AVAX 质押)可以额外验证他们选择的任何子网,从而为每个子网启用自定义验证人集合。这种水平安全模型(更多子网 = 更多验证人集合)与 JAM 的垂直安全模型(所有服务共享完整的验证人集合)形成对比。

子网架构实现了应用程序特定优化——游戏子网可以具有高吞吐量和低最终性,DeFi 子网可以优先考虑安全性和去中心化,企业子网可以实现许可验证人。Avalanche 的 Snowman 共识在子网内提供亚秒级最终性。然而,子网仍然大部分是隔离的:Avalanche Warp Messaging (AWM) 提供基本的跨子网通信,但没有 JAM 的 Accords 所实现的协议级可组合性或同步执行。

性能定位显示 Avalanche 强调亚秒级最终性(大约 1 秒,而 JAM 为 18 秒),但子网之间的安全性更加碎片化,而不是 JAM 的每个服务统一的 1023 个验证人。状态架构也存在根本差异:Avalanche 子网维护完全隔离的状态机,而 JAM 服务共享一个累积层,可以在调度到同一核心时实现跨服务读取和同步交互。

外部互操作性协议如 LayerZero、Wormhole、Chainlink CCIP 和 Axelar 服务于与 JAM 原生 XCMP 不同的目的。这些协议在完全不同的区块链生态系统之间进行桥接——以太坊到 Solana 到比特币到 Cosmos——依赖外部验证人、预言机或中继网络来确保安全。LayerZero 使用 Oracle + Relayer 模型,在 50 多个链上锁定了超过 60 亿美元的总价值。Wormhole 雇佣了 19 个守护者,验证了 10 亿多条消息,完全稀释估值为 107 亿美元。

JAM 的 XCMP 在不同的层级运行:生态系统内部通信,使用原生协议验证人而不是外部安全假设。JAM 中的服务不需要外部桥接即可交互——它们共享相同的验证人集合、共识机制和安全保证。这实现了外部桥接不可能实现的无需信任交互:同步调用、原子多服务操作、保证消息传递和协议级最终性。

战略定位表明共存而非竞争:JAM 使用 XCMP 进行内部通信,同时可能集成 LayerZero、Wormhole 或类似协议进行外部链连接。JAM 服务可以封装外部协议,用于桥接到以太坊、Solana、比特币或 Cosmos,提供两全其美的连接性——无需信任的内部操作与实用的外部桥接。

研究基础:学术严谨性和计算机科学的新颖贡献

JAM 灰皮书奠定了协议的学术基础,效仿以太坊黄皮书,提供正式的数学规范,支持多个独立实现。该文档于 2024 年 4 月发布 v0.1 版,并持续完善——2025 年 6 月的 v0.7.0 版增加了详细的 PVM 伪代码,2025 年 7 月的 v0.7.1 版纳入了社区反馈——预计到 2026 年初将接近 v1.0。这种通过社区审查的迭代规范开发与学术同行评审并行,提高了清晰度并发现了模糊之处。

灰皮书的摘要凝练了 JAM 的理论贡献:“我们提出了 Jam 的全面而正式的定义,Jam 是一种结合了 Polkadot 和 Ethereum 元素的协议。在一个单一的连贯模型中,Jam 提供了一个全局单例的无需许可对象环境——非常类似于以太坊开创的智能合约环境——并与通过可扩展节点网络并行化的安全侧链计算相结合,这是 Polkadot 开创的命题。”这种看似不兼容属性的综合——以太坊的无需许可可组合性与 Polkadot 的并行共享安全性——代表了 JAM 解决的核心理论挑战。

RISC-V 的选择作为 PVM 的基础反映了严格的计算机架构分析。RISC-V 源于加州大学伯克利分校的研究,是一种开源指令集架构,优先考虑简单性和可扩展性。与 x86 或 ARM 中数百条指令相比,RISC-V 只有 47 条基本指令,最大限度地减少了实现复杂性,同时保持了计算完整性。基于寄存器的架构避免了 WebAssembly 等基于堆栈的虚拟机中固有的 NP 完全寄存器分配问题,从而实现了更快的编译和更可预测的性能。

JAM 的 PVM 对标准 RISC-V 进行了最小的修改,主要增加了确定性内存管理和 Gas 计量,同时保留了与现有 RISC-V 工具链的兼容性。这种设计保守主义使得能够利用数十年的计算机架构研究和生产级编译器(LLVM),而不是构建自定义编译器基础设施。编译到 RISC-V 的语言——Rust、C、C++、Go 和许多其他语言——无需区块链特定的编译器修改即可自动与 JAM 兼容。

PVM 中的延续支持代表了一项重要的理论贡献。延续——暂停执行、序列化状态并在以后恢复的能力——实现了多区块异步计算,而无需复杂的手动状态管理。传统的区块链虚拟机缺乏延续支持,迫使开发者手动分块计算、持久化中间状态并在交易之间重建上下文。PVM 的内存中堆栈设计和确定性执行实现了一流的延续支持,极大地简化了长时间运行或跨区块的计算。

Refine-Accumulate 二元论在概念上映射到 Google 为分布式计算开创的 MapReduce 编程模型。Refine 作为 Map 阶段——在分布式工作者(验证人核心)之间进行尴尬的并行、无状态的输入到输出转换。Accumulate 作为 Reduce 阶段——将转换后的结果顺序集成到统一状态中。这种计算机科学模式在传统分布式系统中被证明在大规模上有效,优雅地适应了区块链的信任最小化环境,其中密码学验证取代了中心化协调。

SAFROLE 共识机制建立在数十年的分布式系统研究之上。该算法从 SASSAFRAS(Semi-Anonymous Sortition of Staked Assignees for Fixed-time Rhythmic Assignment of Slots)演变而来,为 JAM 的特定要求进行了简化,同时保留了关键属性:通过匿名验证人选择实现无分叉区块生产,通过基于 zkSNARK 的匿名性抵御有针对性的 DoS 攻击,直到区块生产,以及实现精确资源调度的确定性时序。

密码学基础结合了环形可验证随机函数(RingVRF)用于匿名证明验证人集合成员资格,以及 zkSNARKs 用于高效验证。提前两个周期的票证系统——验证人在区块生产前两个周期提交票证——在保持匿名保证的同时防止了各种攻击。这代表了现代密码学原语在解决实际共识挑战方面的优雅应用。

经济验证人(ELV)作为 ZK 证明验证的替代方案,提供了一种新颖的安全与成本权衡分析。JAM 的文档声称 ELV 在确保计算正确性方面比零知识证明成本效益高约 4000 倍。该模型依赖于加密经济安全性:随机选择的验证人重新执行工作以验证正确性,不正确的结果会触发争议和潜在的罚没。这种“乐观”方法,即除非受到质疑,否则假定正确性,类似于乐观 Rollup,但在协议级别运行,并在验证人审计后立即实现最终性。

未来可能会在混合安全模型中结合 ELV 和 ZK 证明:ELV 用于加密经济保证足以满足的有界安全性,ZK 证明用于需要数学确定性的无界安全性。这种灵活性使应用程序能够选择符合其要求和经济约束的安全模型,而不是强制采用一刀切的方法。

JAM 的新颖理论贡献包括:

无交易区块链范式挑战了区块链架构的一个基本假设。比特币、以太坊以及几乎所有后续链都围绕交易组织——内存池中竞争区块包含的签名用户操作。JAM 完全消除了交易:所有状态更改都通过包含工作项的工作包进行,这些工作项经过 Refine 和 Accumulate 阶段。这种根本不同的模型引发了关于 MEV(最大可提取价值)、抗审查性和用户体验的有趣研究问题,学术界尚未完全探索。

部分一致性共识代表了完全一致(单片链)和完全不一致(隔离分片)系统之间的新颖定位。JAM 在服务共同定位在核心上的关键 6 秒窗口内保证一致性,同时接受跨核心的异步性。驱动一致性模式的经济机制——排序器优化工作包组合以最大化吞吐量和最小化延迟——创造了一个有趣的博弈论问题。理性的经济参与者如何跨核心组织服务?会出现什么样的均衡?这些问题有待经验验证。

Accords 作为多实例智能合约管理独立服务之间的交互协议,引入了一种新颖的信任最小化原语。Accords 不依赖桥接或中继器进行跨服务通信,而是在 JAM 共识级别强制执行协议,同时将执行分布在服务边界之外。这种抽象实现了信任最小化模式,如直接代币传送、原子多服务操作和同步跨服务调用——这些理论能力需要经验验证其安全属性和经济可行性。

混合资源消耗优化创造了一个有趣的调度和经济问题。服务具有不同的资源配置文件——有些是计算密集型(ZK 证明验证),有些是数据密集型(可用性服务),还有一些是平衡的。最佳验证人资源利用率要求在工作包中配对互补服务。会出现什么样的机制来协调这种配对?互补服务捆绑市场如何发展?这代表了区块链经济学研究中未探索的领域。

通过前验状态根而不是后验状态根的流水线化实现了重叠的区块处理,但引入了处理争议的复杂性。如果区块 N 的重度 Accumulate 工作负载在区块 N+1 开始处理后发生,验证人如何处理差异?允许长达 1 小时最终性暂停以解决争议的判断机制提供了答案,但这种设计选择的安全影响值得正式分析。

形式化验证工作正在进行中,Runtime Verification 正在为 PVM 开发 K Framework 语义。K Framework 为定义编程语言和虚拟机语义提供了数学严谨性,从而能够对正确性属性进行形式化证明。可交付成果包括参考规范、调试器和属性测试工具。这种数学严谨性在航空航天和军事软件中很常见,但在区块链开发中相对罕见——代表了该领域向形式化方法的成熟。

综合:JAM 在区块链演进中的地位及其对 Web3 的影响

JAM 代表了十多年来区块链可扩展性研究的巅峰,试图构建前几代承诺但未能实现的功能。比特币引入了去中心化共识,但无法扩展到每秒 7 笔交易以上。以太坊增加了可编程性,但遇到了类似的吞吐量限制。以太坊 2.0 的最初愿景提出了原生分片和 64 条分片链,但被证明过于复杂,转而采用以 L2 为中心的实用主义。波卡开创了平行链的共享安全性,但有固定的 50 条链限制和基于拍卖的访问。

JAM 综合了这些尝试的经验教训:保持去中心化和安全性(比特币的教训),实现任意计算(以太坊的教训),通过并行化进行扩展(以太坊 2.0 的尝试),提供共享安全性(波卡的创新),增加同步可组合性(缺失的部分),并降低进入壁垒(可访问性)。

理论优雅与实际复杂性之间的权衡仍然是 JAM 的核心风险。该协议的设计在理论上是连贯的——Refine-Accumulate 二元论、PVM 延续、SAFROLE 共识、部分一致性执行都逻辑地结合在一起。但理论上的健全性并不能保证实际成功。以太坊从原生分片转向 L2 并非由于理论上的不可能,而是由于实现、测试和协调方面的实际复杂性。

JAM 的单一全面升级策略放大了其优点和缺点。成功将同时带来所有改进——42 倍数据可用性、无需许可的服务、同步可组合性、RISC-V 性能——在一次协调部署中。失败或延迟将影响整个升级,而不是交付增量改进。43 个独立的实现团队、广泛的测试网阶段和 JAM Toaster 全规模测试旨在减轻风险,但协调 1023 个验证人进行重大架构转换在区块链历史上仍然是前所未有的。

从平行链拍卖到核心时间市场的经济模型转型代表了一种在规模上未经测试的机制。虽然波卡的敏捷核心时间已于 2024 年上线,但 JAM 基于服务的模型和无需许可的部署创造了全新的经济动态。核心时间市场将如何为不同服务类型定价?流动性会集中在特定核心吗?排序器如何优化工作包组合?这些问题在主网部署之前缺乏经验答案。

开发者采纳取决于 JAM 的新型编程模型——Refine/Accumulate/onTransfer 入口点、无状态然后有状态执行、基于延续的异步——是否提供足够的价值来证明学习曲线的合理性。以太坊的成功部分源于 EVM 对开发者的熟悉度,尽管效率低下。JAM 的 PVM 提供了卓越的性能,但需要围绕工作包和服务重新思考应用程序架构。无需许可的部署和消除拍卖大大降低了财务门槛,但思维模式的转变可能比财务上的挑战更大。

随着 JAM 的部署,竞争动态也在演变。以太坊 L2 具有显著的网络效应、流动性和开发者心智份额。Solana 以更简单的编程模型提供卓越的性能。Cosmos 提供了某些项目高度重视的主权。JAM 不仅要提供技术能力,还要吸引生态系统参与者——开发者、用户、资本——这些使区块链网络变得有价值。波卡现有的生态系统提供了基础,但要扩展到现有参与者之外,需要引人注目的迁移价值主张。

JAM 引入的研究贡献无论商业成功与否都具有价值。无交易区块链架构、部分一致性共识、用于信任最小化跨服务协议的 Accords、混合资源消耗优化以及 PVM 基于延续的执行模型都代表了推动区块链计算机科学发展的新颖方法。即使 JAM 本身未能获得主导市场地位,这些创新也将为未来的协议设计提供信息,并扩展区块链可扩展性的解决方案空间。

如果 JAM 实现了性能目标,对 Web3 的长期影响将包括去中心化应用程序架构方式的根本转变。当前“部署到区块链”(以太坊 L1、Solana、Avalanche)或“构建自己的区块链”(Cosmos、波卡平行链)的范式增加了一个中间选项:“部署为服务”,具有即时共享安全性、灵活的资源分配以及与更广泛生态系统的可组合性。这可以通过消除基础设施顾虑来加速创新——团队专注于应用程序逻辑,而 JAM 处理共识、安全性和可扩展性。

如果 JAM 实现了性能目标,去中心化全球计算机的愿景在架构上变得可行。在 850 MB/s 数据可用性、每秒 1500 亿 Gas 和 340 万+ TPS 容量下,计算吞吐量接近传统重要应用程序可以迁移到去中心化基础设施的水平。并非适用于所有用例——对延迟敏感的应用程序仍然面临根本性的光速限制,隐私要求可能与透明执行冲突——但对于协调问题、金融基础设施、供应链跟踪、数字身份和许多其他应用程序,去中心化计算在大规模上变得技术上可行。

JAM 在未来 2-5 年的成功指标将包括:部署的服务数量(衡量生态系统扩展)、生产中实现的实际吞吐量和数据可用性(验证性能声明)、核心时间市场的经济可持续性(证明经济模型有效)、开发者采纳指标(GitHub 活动、文档流量、教育项目参与)以及安全记录(没有重大漏洞或共识失败)。

最终的问题仍然是 JAM 是否代表了区块链设计空间的增量改进——比替代方案更好,但在能力上没有根本不同——还是代际飞跃,能够实现当前基础设施上不可能实现的全新应用类别。其架构基础——部分一致性执行、PVM 延续、Refine-Accumulate 二元论、Accords——表明后者是可能的。潜力能否转化为现实取决于执行质量、生态系统建设和超越纯技术优点的市场时机因素。

对于 Web3 研究人员来说,JAM 提供了一个丰富的实验平台,用于研究新颖的共识机制、执行架构、经济协调机制和安全模型。未来几年将产生经验数据,测试关于部分一致性共识、无交易架构和服务型区块链组织的理论预测。无论商业结果如何,所获得的知识都将为未来几十年的区块链协议设计提供信息。

去中心化 AI 推理市场:Bittensor、Gensyn 与 Cuckoo AI

· 阅读需 79 分钟
Dora Noda
Software Engineer

引言

去中心化 AI 推理/训练市场旨在以无需信任的方式利用全球计算资源和社区模型。像 BittensorGensynCuckoo Network (Cuckoo AI) 这样的项目展示了区块链技术如何为开放的 AI 市场提供动力。每个平台都将关键的 AI 资产——计算能力、机器学习模型,有时还包括数据——代币化为链上经济单位。在下文中,我们将深入探讨支撑这些网络的技术架构、它们如何将资源代币化、它们的治理和激励结构、跟踪模型所有权的方法、收入分成机制,以及由此产生的攻击面(例如女巫攻击、合谋、搭便车、投毒)。文末的对比表格总结了 Bittensor、Gensyn 和 Cuckoo AI 在所有关键维度上的表现。

技术架构

Bittensor:基于子网的去中心化“神经互联网”

Bittensor 构建在一个自定义的 Layer-1 区块链(Subtensor 链,基于 Substrate)之上,该区块链协调着一个由分布在多个专业子网中的 AI 模型节点组成的网络。每个子网都是一个独立的迷你网络,专注于特定的 AI 任务(例如,一个子网用于语言生成,另一个用于图像生成等)。Bittensor 的参与者扮演着不同的角色:

  • 矿工 – 他们在自己的硬件上运行机器学习模型,并为子网的任务提供推理答案(甚至执行训练)。本质上,矿工是一个托管 AI 模型的节点,负责回答查询。
  • 验证者 – 他们用提示查询矿工的模型,并评估响应的质量,从而判断哪些矿工贡献了有价值的结果。验证者有效地对矿工的表现进行评分。
  • 子网所有者 – 他们创建和定义子网,设定该子网中执行任务和进行验证的规则。例如,子网所有者可以指定一个子网用于某个特定的数据集或模态,并定义验证程序。
  • 委托人 – 不运行节点的代币持有者可以将其 Bittensor 代币 (TAO) 委托(质押)给矿工或验证者,以支持表现最佳者并赚取一部分奖励(类似于权益证明网络中的质押)。

Bittensor 的共识机制是新颖的:它不使用传统的区块验证,而是采用 Yuma 共识,这是一种“智能证明”的形式。在 Yuma 共识中,验证者对矿工的评估在链上聚合,以确定奖励分配。每 12 秒一个区块,网络会铸造新的 TAO 代币,并根据验证者对哪些矿工提供了有用工作的共识进行分配。验证者的分数通过一种权益加权的中位数方案进行组合:离群的意见被剔除,诚实的多数意见占主导。这意味着,如果大多数验证者都认为某个矿工是高质量的,那么该矿工将获得丰厚的奖励;如果一个验证者的意见与其他验证者相差甚远(可能是由于合谋或错误),该验证者将因赚取较少奖励而受到惩罚。通过这种方式,Bittensor 的区块链协调了一个矿工-验证者反馈循环:矿工竞争产生最佳的 AI 输出,验证者则策划和排名这些输出,双方都能根据其增加的价值按比例赚取代币。这种架构通常被描述为“去中心化的神经网络”或“全球大脑”,其中模型相互学习信号并共同进化。值得注意的是,Bittensor 最近升级了其链以支持 EVM 兼容性(用于智能合约),并引入了 dTAO,一个子网特定代币和质押系统(稍后解释),以进一步去中心化资源分配的控制。

Gensyn:无需信任的分布式计算协议

Gensyn 从分布式计算协议的角度切入去中心化 AI,专注于机器学习。其架构连接了拥有 AI 任务(如训练模型或运行推理作业)的开发者(提交者)与全球拥有闲置 GPU/TPU 资源的计算提供者(解决者)。最初,Gensyn 计划建立一个 Substrate L1 链,但后来转向在以太坊上构建一个 rollup,以获得更强的安全性和流动性。因此,Gensyn 网络是一个以太坊 Layer-2(一个以太坊 rollup),负责协调作业发布和支付,而计算则在提供者的硬件上离线进行。

Gensyn 设计的一个核心创新是其链下工作验证系统。Gensyn 结合使用**乐观验证(欺诈证明)**和密码学技术,以确保当解决者声称已运行训练/推理任务时,结果是正确的。实际上,该协议涉及多个参与者角色:

  • 提交者 – 请求作业的一方(例如,需要训练模型的人)。他们支付网络费用,并提供模型/数据或任务规范。
  • 解决者 – 竞标并在其硬件上执行机器学习任务的节点。他们会按要求训练模型或运行推理,然后提交结果和计算证明。
  • 验证者/挑战者 – 可以审计或抽查解决者工作的节点。Gensyn 实现了一种类似 Truebit 的方案,默认情况下接受解决者的结果,但如果验证者怀疑计算不正确,可以在一个时间窗口内提出挑战。在挑战中,会使用一种交互式的“二分查找”来遍历计算步骤(一种欺诈证明协议),以精确定位任何差异。这使得链上只需执行计算中最小的关键部分即可解决争议,而无需重新进行整个昂贵的任务。

至关重要的是,Gensyn 的设计旨在避免朴素方法带来的巨大冗余。Gensyn 的**“学习证明”方法不让许多节点都重复相同的机器学习作业(这会破坏成本节约),而是使用训练元数据来验证学习取得了进展。例如,解决者可能会提供中间模型权重的加密哈希或检查点,以及一个简洁的证明,表明这些权重根据训练更新取得了进展。这种概率性的学习证明可以比重新运行整个训练便宜得多地进行检查,从而实现无需完全复制的无需信任验证。只有当验证者检测到异常时,才会触发更繁重的链上计算作为最后手段。与暴力验证相比,这种方法大大减少了开销,使去中心化机器学习训练变得更加可行。因此,Gensyn 的架构非常强调加密经济博弈设计**:解决者需要质押或提供保证金,如果他们作弊(提交错误结果),他们将失去那笔质押金,而抓住他们的诚实验证者将获得这笔钱。通过将区块链协调(用于支付和争议解决)与链下计算和巧妙的验证相结合,Gensyn 创建了一个机器学习计算市场,可以利用任何地方的闲置 GPU,同时保持无需信任。其结果是一个超大规模的“计算协议”,任何开发者都可以按需访问经济实惠的、全球分布式的训练能力。

Cuckoo AI:全栈式去中心化 AI 服务平台

Cuckoo Network(或 Cuckoo AI)采用了一种更加垂直整合的方法,旨在提供端到端的去中心化 AI 服务,而不仅仅是原始计算能力。Cuckoo 构建了自己的区块链(最初是在 Arbitrum Orbit 上称为 Cuckoo Chain 的 Layer-1,这是一个与以太坊兼容的 rollup 框架)来协调一切:它不仅将作业与 GPU 匹配,还在一个系统中托管 AI 应用程序并处理支付。其设计是全栈式的:它将区块链计算AI 应用这三个层次整合在一个平台内。

Cuckoo 的参与者分为四组:

  • AI 应用构建者(协调者) – 这些是将 AI 模型或服务部署到 Cuckoo 上的开发者。例如,一个开发者可能会托管一个 Stable Diffusion 图像生成器或一个 LLM 聊天机器人作为服务。他们运行协调者节点,负责管理他们的服务:接受用户请求,将其拆分为任务,并将这些任务分配给矿工。协调者质押原生代币($CAI)以加入网络并获得利用矿工的权利。他们实际上充当了连接用户和 GPU 提供者的第二层协调者。
  • GPU/CPU 矿工(任务节点) – 这些是资源提供者。矿工运行 Cuckoo 任务客户端,并贡献他们的硬件来为 AI 应用执行推理任务。例如,一个矿工可能会被协调者分配一个图像生成请求(带有给定的模型和提示),并使用他们的 GPU 计算结果。矿工也必须质押 $CAI 以确保承诺和良好行为。他们为正确完成的每个任务赚取代币奖励。
  • 终端用户 – AI 应用程序的消费者。他们通过 Cuckoo 的门户网站或 API 进行交互(例如,通过 CooVerse 生成艺术作品或与 AI 人物聊天)。用户可以为每次使用支付加密货币,或者可能贡献自己的计算能力(或质押)来抵消使用成本。一个重要的方面是抗审查性:如果一个协调者(服务提供者)被封锁或宕机,用户可以切换到另一个提供相同应用程序的协调者,因为在去中心化网络中,多个协调者可以托管相似的模型。
  • 质押者(委托人) – 不运行 AI 服务或挖矿硬件的社区成员仍然可以通过在运行这些服务的人身上质押 $CAI 来参与。通过用他们的质押投票给受信任的协调者或矿工,他们帮助建立声誉,并作为回报获得一部分网络奖励。这种设计构建了一个 Web3 声誉层:好的参与者吸引更多的质押(从而获得信任和奖励),而坏的参与者则失去质押和声誉。甚至终端用户在某些情况下也可以质押,使他们与网络的成功保持一致。

Cuckoo 链(目前正从一个独立的链过渡到一个共享安全的 rollup)跟踪所有这些交互。当用户调用一个 AI 服务时,协调者节点为矿工创建链上任务分配。矿工在链下执行任务并将结果返回给协调者,协调者验证它们(例如,检查输出的图像或文本不是乱码)并将最终结果交付给用户。区块链处理支付结算:对于每个任务,协调者的智能合约以 $CAI 支付给矿工(通常将微支付聚合成每日支付)。Cuckoo 强调无需信任和透明度——所有参与者都质押代币,所有任务的分配和完成都被记录下来,因此作弊行为会因失去质押的威胁和性能的公开可见性而受到抑制。网络的模块化设计意味着可以轻松添加新的 AI 模型或用例:虽然它以文本到图像生成作为概念验证开始,但其架构足够通用,可以支持其他 AI 工作负载(例如,语言模型推理、音频转录等)。

Cuckoo 架构的一个显著特点是,它最初推出了自己的 Layer-1 区块链,以最大化 AI 交易的吞吐量(在测试期间达到每日 30 万笔交易的峰值)。这允许为 AI 任务调度进行自定义优化。然而,团队发现维护一个独立的 L1 成本高昂且复杂,截至 2025 年中期,他们决定弃用自定义链并迁移到以太坊上的 rollup/AVS(主动验证服务)模型。这意味着 Cuckoo 将从以太坊或像 Arbitrum 这样的 L2 继承安全性,而不是运行自己的共识,但将继续在该共享安全层上运营其去中心化 AI 市场。这一改变旨在提高经济安全性(利用以太坊的稳健性),并让 Cuckoo 团队专注于产品而非底层的链维护。总而言之,Cuckoo 的架构创建了一个去中心化的 AI 服务平台,任何人都可以在其中接入硬件或部署 AI 模型服务,全球用户可以以更低的成本和更少对大型科技基础设施的依赖来访问 AI 应用。

资产代币化机制

这些网络的一个共同主题是将计算、模型和数据转换为可以在链上交易或货币化的资产或经济单位。然而,每个项目都以不同的方式专注于将这些资源代币化:

  • 计算能力: 所有三个平台都将计算工作转化为奖励代币。在 Bittensor 中,有用的计算(由矿工完成的推理或训练)通过验证者评分量化,并在每个区块中以 TAO 代币进行奖励。本质上,Bittensor“衡量”贡献的智能,并铸造 TAO 作为代表该贡献的商品。Gensyn 明确将计算视为一种商品——其协议创建了一个市场,其中 GPU 时间是产品,价格由代币的供需决定。开发者使用代币购买计算,提供者通过出售其硬件周期来赚取代币。Gensyn 团队指出,任何数字资源(计算、数据、算法)都可以以类似的无需信任的市场方式进行表示和交易。Cuckoo 通过 ERC-20 代币 $CAI 将计算代币化,作为完成任务的支付。GPU 提供者基本上通过进行 AI 推理工作来“挖掘”CAI。Cuckoo 的系统创建了任务的链上记录,因此可以将每个完成的 GPU 任务视为一个以代币支付的原子工作单元。这三个平台的前提都是,原本闲置或无法访问的计算能力变成了一种代币化的、流动的资产——无论是通过协议级别的代币发行(如 Bittensor 和早期的 Cuckoo)还是通过计算作业的买卖订单开放市场(如 Gensyn)。

  • AI 模型: 将 AI 模型表示为链上资产(例如 NFT 或代币)仍处于初级阶段。Bittensor 将模型本身代币化——模型仍然由矿工在链下拥有。相反,Bittensor 通过奖励表现良好的模型来间接为模型定价。实际上,模型的“智能”被转化为 TAO 收益,但没有一个 NFT 代表模型权重或允许他人使用该模型。Gensyn 的重点是计算交易,而不是明确为模型创建代币。在 Gensyn 中,模型通常由开发者在链下提供(可能是开源或专有的),由解决者训练,然后返回——没有内置机制来创建一个拥有该模型或其 IP 的代币。(也就是说,如果各方选择,Gensyn 市场可能可以促进模型工件或检查点的交易,但协议本身将模型视为计算的内容,而不是代币化资产。)Cuckoo 介于两者之间:它提到了“AI 代理”和集成到网络中的模型,但目前没有代表每个模型的非同质化代币。相反,模型由应用构建者部署,然后通过网络提供服务。该模型的使用权被隐式代币化,因为当模型被使用时(通过部署它的协调者),它可以赚取 $CAI。所有三个平台都承认模型代币化的概念——例如,通过代币让社区拥有模型——但实际实现有限。作为一个行业,将 AI 模型代币化(例如,作为具有所有权和利润分享的 NFT)仍在探索中。Bittensor 的模型相互交换价值的方法是一种*“模型市场”*的形式,但没有为每个模型明确的代币。Cuckoo 团队指出,去中心化的模型所有权有望降低与中心化 AI 相比的门槛,但这需要有效的方法来验证链上的模型输出和使用情况。总而言之,计算能力现在被立即代币化(为完成的工作支付代币是直接的),而模型则是间接或有抱负地被代币化(因其输出而获得奖励,可能由质押或声誉代表,但尚未在这些平台上被视为可转让的 NFT)。

  • 数据: 数据代币化仍然是最困难的。Bittensor、Gensyn 或 Cuckoo 都没有完全集成的通用链上数据市场(其中数据集以可强制执行的使用权进行交易)。Bittensor 节点可能会在各种数据集上进行训练,但这些数据集不是链上系统的一部分。Gensyn 可能允许开发者提供一个用于训练的数据集,但协议不会将该数据代币化——它只是在链下提供给解决者使用。Cuckoo 同样不将用户数据代币化;它主要以短暂的方式处理数据(如用户提示或输出)以进行推理任务。Cuckoo 的博客明确指出,“去中心化数据仍然难以代币化”,尽管它是一种关键资源。数据是敏感的(隐私和所有权问题),并且难以用当前的区块链技术处理。因此,虽然计算正在商品化,模型也开始如此,但数据在很大程度上仍然停留在链下,除非是特殊情况(这三个项目之外的一些项目正在试验数据联盟和数据贡献的代币奖励,但这超出了我们当前的范围)。总而言之,计算能力在这些网络中现在是一种链上商品,模型通过代币进行估值,但尚未作为资产单独代币化,而数据代币化仍然是一个悬而未决的问题(除了承认其重要性之外)。

治理与激励

一个稳健的治理和激励设计对于这些去中心化 AI 网络自主、公平地运作至关重要。在这里,我们审视每个平台如何自我治理(谁做决策,如何进行升级或参数更改),以及它们如何通过代币经济学来协调参与者的激励。

  • Bittensor 治理: 在早期阶段,Bittensor 的开发和子网参数主要由核心团队和主子网上的一组 64 个“根”验证者控制。这是一个中心化点——少数强大的验证者对奖励分配有巨大的影响力,导致了一些人所说的*“寡头投票系统”*。为了解决这个问题,Bittensor 在 2025 年引入了 dTAO(去中心化 TAO)治理。dTAO 系统将资源分配转变为市场驱动和社区控制。具体来说,TAO 持有者可以将其代币质押到子网特定的流动性池中(本质上,他们“投票”决定哪些子网应该获得更多的网络发行),并收到代表这些子网池所有权的 alpha 代币。吸引更多质押的子网将拥有更高的 alpha 代币价格,并获得每日 TAO 发行的更大份额,而不受欢迎或表现不佳的子网将看到资本(以及发行)流失。这就形成了一个反馈循环:如果一个子网产生有价值的 AI 服务,更多的人会向其质押 TAO(寻求奖励),这使得该子网有更多的 TAO 来奖励其参与者,从而促进增长。如果一个子网停滞不前,质押者会撤回到更有利可图的子网。实际上,TAO 持有者通过财务信号集体治理网络的焦点,表明哪些 AI 领域值得更多资源。这是一种通过代币权重进行的链上治理形式,与经济成果保持一致。除了资源分配,重大的协议升级或参数更改可能仍需通过治理提案,由 TAO 持有者投票(Bittensor 有一个由 Bittensor 基金会和选举产生的理事会管理的链上提案和公投机制,类似于 Polkadot 的治理)。随着时间的推移,可以预期 Bittensor 的治理将变得越来越去中心化,基金会会逐渐退后,由社区(通过 TAO 质押)来决定通货膨胀率、新子网批准等事项。向 dTAO 的过渡是朝着这个方向迈出的一大步,用一个激励一致的代币利益相关者市场取代了中心化的决策者。

  • Bittensor 激励: Bittensor 的激励结构与其共识紧密相连。每个区块(12 秒),会新铸造 1 个 TAO,并根据每个子网贡献者的表现进行分配。每个子网的区块奖励默认分配为41% 给矿工,41% 给验证者,18% 给子网所有者。这确保了所有角色都得到奖励:矿工因进行推理工作而获得报酬,验证者因其评估工作而获得报酬,而子网所有者(可能为该子网引导了数据/任务)则因提供“市场”或任务设计而获得剩余收益。这些百分比在协议中是固定的,旨在使每个人的激励都朝着高质量的 AI 输出方向发展。Yuma 共识机制通过根据质量分数加权奖励来进一步完善激励——提供更好答案的矿工(根据验证者共识)将获得那 41% 的更高部分,而紧密遵循诚实共识的验证者将获得验证者部分的更多份额。表现不佳者在经济上被淘汰。此外,委托人(质押者)支持矿工或验证者,通常会收到该节点收益的一部分(节点通常会设定一个佣金,将其余部分分给委托人,类似于 PoS 网络中的质押)。这使得被动的 TAO 持有者能够支持最佳贡献者并获得收益,进一步加强了精英管理。因此,Bittensor 的代币 (TAO) 是一种实用代币:它用于新矿工的注册(矿工必须花费少量 TAO 加入,以对抗女巫垃圾邮件),并且可以质押以增加影响力或通过委托赚取收益。它也被设想为一种支付代币,如果外部用户想从 Bittensor 网络消费服务(例如,支付 TAO 来查询 Bittensor 上的语言模型),尽管内部奖励机制迄今为止一直是主要的“经济体”。总体的激励理念是奖励“有价值的智能”——即帮助产生良好 AI 成果的模型——并创造一个不断提高网络中模型质量的竞争。

  • Gensyn 治理: Gensyn 的治理模型旨在随着网络的成熟从核心团队控制演变为社区控制。最初,Gensyn 将有一个Gensyn 基金会和一个选举产生的理事会,负责监督协议升级和财库决策。预计该理事会最初将由核心团队成员和早期社区领袖组成。Gensyn 计划为其原生代币(通常称为 GENS)进行代币生成事件 (TGE),之后治理权将越来越多地通过链上投票掌握在代币持有者手中。基金会的角色是代表协议的利益,并确保向完全去中心化的平稳过渡。实际上,Gensyn 可能会有链上提案机制,其中对参数的更改(例如,验证博弈的长度、费率)或升级由社区投票决定。因为 Gensyn 正在作为以太坊 rollup 实现,治理也可能与以太坊的安全性相关联(例如,使用 rollup 合约的升级密钥,最终移交给代币持有者的 DAO)。Gensyn 白皮书的去中心化与治理部分强调,该协议最终必须是全球拥有的,这与“机器智能网络”应属于其用户和贡献者的理念相一致。总而言之,Gensyn 的治理始于半中心化,但其架构旨在成为一个 DAO,其中 GENS 代币持有者(可能按质押或参与度加权)共同做出决策。

  • Gensyn 激励: Gensyn 中的经济激励是直接的市场动态,辅以加密经济安全。开发者(客户)用 Gensyn 代币支付机器学习任务,而解决者通过正确完成这些任务来赚取代币。计算周期的价格由公开市场决定——据推测,开发者可以发布带有赏金的任务,解决者可以竞标或在价格符合其期望时直接接受。这确保了只要有闲置 GPU 的供应,竞争就会将成本推低至一个公平的水平(Gensyn 团队预计与云价格相比成本可降低高达 80%,因为网络在全球范围内寻找最便宜的可用硬件)。另一方面,解决者有赚取代币的激励;他们原本可能闲置的硬件现在可以产生收入。为了确保质量,Gensyn 要求解决者在接受工作时质押抵押品——如果他们作弊或产生不正确的结果并被抓住,他们将失去那笔质押(它可能被罚没并奖励给诚实的验证者)。验证者的激励来自于有机会在抓住欺诈性解决者时获得**“大奖”奖励**,类似于 Truebit 的设计,即定期奖励成功识别不正确计算的验证者。这使得解决者保持诚实,并激励一些节点充当监督者。在最优情况下(没有作弊),解决者只赚取任务费用,而验证者角色大多处于闲置状态(或者参与的解决者之一可能兼任其他人的验证者)。因此,Gensyn 的代币既是购买计算的燃料货币,也是保障协议安全的质押抵押品。白皮书提到一个带有非永久性代币的测试网,并且早期测试网参与者将在 TGE 时获得真实代币奖励。这表明 Gensyn 分配了一些代币供应用于引导——奖励早期采用者、测试解决者和社区成员。从长远来看,来自真实工作的费用应该能够维持网络。也可能有一个小的协议费(每个任务支付的一定百分比)进入财库或被销毁;这个细节尚未确认,但许多市场协议都包含一个费用来资助开发或代币回购和销毁。总而言之,Gensyn 的激励围绕着诚实完成机器学习工作:完成工作,获得报酬;试图作弊,失去质押;验证他人,抓住作弊者则获得奖励。这创建了一个旨在实现可靠分布式计算的自我监管经济体系。

  • Cuckoo 治理: Cuckoo Network 从第一天起就将治理融入其生态系统,尽管它仍处于发展阶段。CAI代币除了其效用角色外,明确是一种治理代币。Cuckoo的理念是,GPU节点运营商、应用开发者甚至终端用户都应该在网络的演变中有发言权——这反映了其社区驱动的愿景。实际上,重要决策(如协议升级或经济变化)将由代币加权投票决定,大概是通过DAO机制。例如,Cuckoo可以就改变奖励分配或采用新功能进行链上投票,而CAI 代币除了其效用角色外,明确是一种治理代币。Cuckoo 的理念是,GPU 节点运营商、应用开发者甚至终端用户都应该在网络的演变中有发言权——这反映了其社区驱动的愿景。实际上,重要决策(如协议升级或经济变化)将由代币加权投票决定,大概是通过 DAO 机制。例如,Cuckoo 可以就改变奖励分配或采用新功能进行链上投票,而 CAI 持有者(包括矿工、开发者和用户)将进行投票。链上投票已经被用作声誉系统:Cuckoo 要求每个角色都质押代币,然后社区成员可以投票(或许通过委托质押或通过治理模块)决定哪些协调者或矿工是值得信赖的。这会影响声誉分数,并可能影响任务调度(例如,获得更多投票的协调者可能会吸引更多用户,或者获得更多投票的矿工可能会被分配更多任务)。这是治理和激励的结合——使用治理代币来建立信任。Cuckoo 基金会或核心团队迄今为止一直在指导项目的方向(例如,最近决定弃用 L1 链),但他们的博客表明了向去中心化所有权迈进的承诺。他们认识到运行自己的链会产生高昂的开销,转向 rollup 将允许更开放的开发和与现有生态系统的整合。很可能一旦在一个共享层(如以太坊)上,Cuckoo 将为升级实施一个更传统的 DAO,社区使用 CAI 进行投票。

  • Cuckoo 激励: Cuckoo 的激励设计有两个阶段:初始的引导阶段,有固定的代币分配;以及未来的状态,有基于使用的收入分成。在启动时,Cuckoo 进行了 10 亿 CAI 代币的**“公平启动”**分配。51% 的供应量留给社区,分配如下:

  • 挖矿奖励: 总供应量的 30% 用于支付 GPU 矿工执行 AI 任务。

  • 质押奖励: 总供应量的 11% 用于那些质押并帮助保护网络的人。

  • 空投: 5% 给早期用户和社区成员作为采用激励。

  • (另外 5% 用于开发者资助,以鼓励在 Cuckoo 上构建。)

这种大规模的分配意味着在网络早期,即使实际用户需求很低,矿工和质押者也能从发行池中获得奖励。事实上,Cuckoo 的初始阶段以高 APY 收益为特色,用于质押和挖矿,这成功地吸引了参与者,但也吸引了只为代币而来的“收益农民”。团队注意到,一旦奖励率下降,许多用户就离开了,这表明这些激励措施与真正的使用无关。吸取了这一教训,Cuckoo 正在转向一个奖励与真实 AI 工作负载直接相关的模型。在未来(部分已经实现),当终端用户为 AI 推理付费时,那笔付款(以 CAI 或可能转换为 CAI 的其他接受的代币)将在贡献者之间分配:

  • GPU 矿工将因其提供的计算而获得大部分份额。
  • **协调者(应用开发者)**将作为提供模型和处理请求的服务提供商获得一部分。
  • 质押者委托给这些矿工或协调者的人可能会获得一小部分或通胀奖励,以继续激励支持可靠的节点。
  • 网络/财库可能会保留一笔费用用于持续开发或资助未来的激励措施(或者费用可能为零/名义上的,以最大化用户的可负担性)。

本质上,Cuckoo 正在向收入分成模型迈进:如果 Cuckoo 上的一个 AI 应用产生收益,这些收益将以公平的方式分配给该服务的所有贡献者。这使得激励措施保持一致,参与者从实际使用中受益,而不仅仅是通货膨胀。网络已经要求所有方质押 CAI——这意味着矿工和协调者不仅获得固定的奖励,还可能获得基于质押的奖励(例如,如果许多用户在他们身上质押,或者如果他们自己质押更多,协调者可能会获得更高的奖励,类似于权益证明验证者的收益方式)。在用户激励方面,Cuckoo 还引入了空投门户和水龙头(一些用户利用了这些)来播种初始活动。展望未来,用户可能会通过使用服务的代币返利或通过参与策划的治理奖励(例如,为评级输出或贡献数据赚取少量代币)来获得激励。底线是 Cuckoo 的代币($CAI)是多用途的:它是链上的燃料/费用代币(所有交易和支付都使用它),它用于质押和投票,并且是完成工作的奖励单位。Cuckoo 明确提到,它希望将代币奖励与服务级 KPI(关键绩效指标)挂钩——例如,正常运行时间、查询吞吐量、用户满意度——以避免纯粹的投机性激励。这反映了代币经济从简单的流动性挖矿向更可持续、实用驱动的模型的成熟。

模型所有权与 IP 归属

处理 AI 模型的知识产权 (IP) 和所有权是去中心化 AI 网络的一个复杂方面。每个平台都采取了略有不同的立场,总的来说,这是一个不断发展的领域,目前还没有完整的解决方案:

  • Bittensor: Bittensor 中的模型由矿工节点提供,这些矿工保留对其模型权重的完全控制(这些权重从未在链上发布)。除了模型在某个钱包地址上运行这一事实外,Bittensor 并没有明确跟踪谁“拥有”一个模型。如果一个矿工离开,他们的模型也随之离开。因此,Bittensor 中的 IP 归属是链下的:如果一个矿工使用专有模型,链上没有任何东西可以强制执行甚至知道这一点。Bittensor 的理念鼓励开放贡献(许多矿工可能会使用像 GPT-J 或其他开源模型),网络奖励的是这些模型的性能。可以说,Bittensor 为模型创建了一个声誉分数(通过验证者排名),这是一种承认模型价值的形式,但模型本身的权利并未被代币化或分发。值得注意的是,Bittensor 中的子网所有者可以被视为拥有一部分 IP:他们定义一个任务(可能包括一个数据集或方法)。子网所有者在创建子网时会铸造一个 NFT(称为子网 UID),该 NFT 使他们有权获得该子网 18% 的奖励。这有效地将创建模型市场(即子网)代币化,而不是模型实例。如果将子网的定义(比如一个带有特定数据集的语音识别任务)视为 IP,那么它至少被记录和奖励了。但是,矿工训练的单个模型权重——没有这些权重的链上所有权记录。归属以支付给该矿工地址的奖励形式出现。Bittensor 目前没有实现一个系统,例如,多个人可以共同拥有一个模型并获得自动的收入分成——运行模型的人(矿工)获得奖励,而他们是否遵守所用模型的任何 IP 许可是他们链下的事情。

  • Gensyn: 在 Gensyn 中,模型所有权是直接的,因为提交者(想要训练模型的人)提供模型架构和数据,训练后,他们会收到最终的模型工件。执行工作的解决者对模型没有权利;他们就像为服务付费的承包商。因此,Gensyn 的协议假设了传统的 IP 模型:如果你对提交的模型和数据拥有合法权利,那么在训练后你仍然拥有它们——计算网络不声称任何所有权。Gensyn 确实提到,市场也可以像交易任何其他资源一样交易算法和数据。这暗示了一种情景,即有人可以在网络中提供一个模型或算法供使用,可能需要付费,从而将该模型的访问权代币化。例如,一个模型创建者可能会将其预训练模型放在 Gensyn 上,并允许他人在网络上对其进行微调,并收取费用(这实际上将模型 IP 货币化)。虽然协议不强制执行许可条款,但可以编码支付要求:一个智能合约可以要求支付费用以向解决者解锁模型权重。然而,这些都是推测性的用例——Gensyn 的主要设计是关于促成训练作业。至于归属,如果多方对一个模型做出贡献(比如一方提供数据,另一方提供计算),这很可能由他们在开始使用 Gensyn 之前建立的任何合同或协议来处理(例如,一个智能合约可以在数据提供者和计算提供者之间分配支付)。Gensyn 本身除了记录哪些地址为该工作支付了费用之外,不会在链上跟踪“这个模型是由 X、Y、Z 构建的”。总而言之,Gensyn 中的模型 IP 仍然属于提交者,任何归属或许可都必须通过协议之外的法律协议或在其之上构建的自定义智能合约来处理。

  • Cuckoo: 在 Cuckoo 的生态系统中,模型创建者(AI 应用构建者)是一等参与者——他们部署 AI 服务。如果一个应用构建者微调了一个语言模型或开发了一个自定义模型并将其托管在 Cuckoo 上,那么该模型基本上是他们的财产,他们充当服务所有者。Cuckoo 不会夺取任何所有权;相反,它为他们提供了将使用货币化的基础设施。例如,如果一个开发者部署了一个聊天机器人 AI,用户可以与之互动,开发者(以及矿工)可以从每次互动中赚取 CAI。因此,该平台将使用收入归属于模型创建者,但不会明确发布模型权重或将其变成 NFT。事实上,为了在矿工的 GPU 上运行模型,协调者节点可能需要以某种形式将模型(或运行时)发送给矿工。这就提出了 IP 问题:恶意的矿工是否可以复制模型权重并分发它们?在去中心化网络中,如果使用专有模型,这种风险是存在的。Cuckoo 目前的重点是相当开放的模型(Stable Diffusion、LLaMA 衍生的模型等)和建立社区,所以我们还没有看到通过智能合约强制执行 IP 权利。该平台未来可能会集成像加密模型执行或安全区域之类的工具来保护 IP,但文档中没有提到具体内容。它确实跟踪的是谁为每个任务提供了模型服务——因为协调者是一个链上身份,其模型的所有使用都归于他们,他们会自动获得他们的奖励份额。如果要将模型转交或出售给其他人,实际上他们会转移协调者节点的控制权(如果协调者角色被代币化,甚至可能只是给他们私钥或 NFT)。目前,模型的社区所有权(通过代币份额)尚未实现,但 Cuckoo 的愿景暗示了去中心化的社区驱动 AI,所以他们可能会探索让人们集体资助或治理一个 AI 模型。在这些网络中,模型的代币化超越个人所有权仍然是一个开放领域——它被认为是一个目标(让社区而不是公司拥有 AI 模型),但实际上它需要解决上述 IP 和验证挑战的方案。

总而言之,在 Bittensor、Gensyn 和 Cuckoo 中,模型所有权是通过传统方式在链下处理的:运行或提交模型的人或实体实际上是所有者。这些网络以经济奖励的形式提供归属(为模型的贡献者的 IP 或努力支付报酬)。这三者都还没有在智能合约层面内置模型使用的许可或版税强制执行。归属通过声誉和奖励来实现:例如,Bittensor 的最佳模型获得高声誉分数(这是公开记录)和更多的 TAO,这是对其创建者的隐性认可。随着时间的推移,我们可能会看到像NFT 绑定的模型权重去中心化许可这样的功能来更好地跟踪 IP,但目前的优先事项是让网络运作并激励贡献。所有人都同意,验证模型来源和输出是实现真正的模型资产市场的关键,这方面的研究正在进行中。

收入分成结构

所有三个平台都必须决定,当多方合作产生有价值的 AI 输出时,如何分配经济蛋糕。当一个 AI 服务被使用或代币被发行时,谁得到报酬,以及多少?每个平台都有一个独特的收入分成模型:

  • Bittensor: 如激励部分所述,Bittensor 的收入分配是在区块级别由协议定义的:每个区块的 TAO 发行中,41% 给矿工,41% 给验证者,18% 给子网所有者。这实际上是为每个子网产生的价值内置的收入分成。子网所有者的份额(18%)就像是为“模型/任务设计”或为引导该子网生态系统而收取的版税。矿工和验证者获得相等的份额,确保了没有验证,矿工就得不到奖励(反之亦然)——它们是共生的,各自获得铸造奖励的相等部分。如果我们考虑一个外部用户支付 TAO 来查询一个模型,Bittensor 白皮书设想这笔支付也会在回答的矿工和帮助审查答案的验证者之间类似地分配(具体分配比例可以由协议或市场力量决定)。此外,委托人质押在矿工/验证者身上,实际上是合作伙伴——通常,矿工/验证者会将其赚取的 TAO 的一部分与他们的委托人分享(这是可配置的,但通常大部分给委托人)。所以,如果一个矿工从一个区块中赚取了 1 TAO,根据质押情况,这可能会在他们的委托人和他们自己之间以 80/20 的比例分配。这意味着即使非运营商也能根据他们的支持按比例获得网络收入的一部分。随着 dTAO 的引入,又增加了一层分享:那些质押到子网池中的人会得到 alpha 代币,这使他们有权获得该子网发行的一部分(就像收益农场)。实际上,任何人都可以通过持有 alpha 代币来分享特定子网的成功,并获得矿工/验证者奖励的一部分(alpha 代币会随着子网吸引更多使用和发行而升值)。总而言之,Bittensor 的收入分成是由代码固定的,适用于主要角色,并通过社交/质押安排进一步分享。这是一个相对透明、基于规则的分配——每个区块,参与者都确切地知道 1 TAO 是如何分配的,从而知道他们每次贡献的“收益”。这种清晰度是 Bittensor 有时被比作 AI 领域的比特币的原因之一——一个确定性的货币发行,参与者的奖励是数学上设定的。

  • Gensyn: Gensyn 中的收入分成更加动态和市场驱动,因为任务是单独定价的。当一个提交者创建一个工作时,他们会附上一个他们愿意支付的奖励(比如 X 个代币)。完成工作的解决者会得到那个 X(减去任何网络费用)。如果涉及到验证者,通常有一个规则,比如:如果没有检测到欺诈,解决者保留全部支付;如果检测到欺诈,解决者将被罚没——失去部分或全部质押——而被罚没的金额将作为奖励给予验证者。所以验证者不是从每个任务中赚钱,只有当他们抓住一个坏结果时才赚钱(加上可能参与的少量基准费用,取决于实现方式)。这里没有内置的向模型所有者支付的概念,因为假设提交者要么是模型所有者,要么有权使用该模型。可以想象一种情景,提交者正在微调别人的预训练模型,一部分支付会给原始模型创建者——但这必须在协议之外处理(例如,通过协议或一个单独的智能合约来相应地分配代币支付)。Gensyn 的协议级分享本质上是客户 -> 解决者 (-> 验证者)代币模型可能包括一些分配给协议财库或基金会;例如,每个任务支付的一小部分可能会进入一个财库,用于资助开发或保险池(这在现有文档中没有明确说明,但许多协议都这样做)。此外,在早期,Gensyn 可能会通过通货膨胀来补贴解决者:测试网用户在 TGE 时被承诺奖励,这实际上是来自初始代币分配的收入分成(早期解决者和支持者因帮助引导而获得一部分代币,类似于空投或挖矿奖励)。随着时间的推移,随着真实工作的增多,通胀奖励会逐渐减少,解决者的收入将主要来自用户支付。Gensyn 的方法可以总结为一个按服务收费的收入模型:网络促成需要完成工作的人向完成工作的人直接支付,验证者和可能的代币质押者只有在他们在保障该服务中发挥作用时才分得一杯羹。

  • Cuckoo: Cuckoo 的收入分成已经演变。最初,因为没有太多付费的终端用户,收入分成基本上是通货膨胀分享:来自代币供应的 30% 挖矿和 11% 质押分配意味着矿工和质押者分享网络公平启动池发行的代币。实际上,Cuckoo 运行着像每日 CAI 支付这样的机制,按完成的任务比例支付给矿工。这些支付主要来自挖矿奖励分配(这是保留的固定供应的一部分)。这类似于许多 Layer-1 区块链向矿工/验证者分配区块奖励的方式——它与外部用户的实际使用无关,更多的是为了激励参与和增长。然而,正如他们在 2025 年 7 月的博客中所强调的,这导致了由代币农场而不是真实需求激励的使用。Cuckoo 的下一阶段是一个基于服务费的真正收入分成模型。在这个模型中,当一个终端用户使用,比如说,图像生成服务并支付 1 美元(以加密货币计算)时,那 1 美元价值的代币可能会这样分配:0.70 给完成 GPU 工作的矿工,0.20 给提供模型和接口的应用开发者(协调者),0.10 给质押者或网络财库。(注意:确切的比例是假设的;Cuckoo 尚未公开指定它们,但这说明了概念。)这样,所有为提供服务做出贡献的人都能分得一杯羹。这类似于,例如,共享出行经济,但用于 AI:车辆(GPU 矿工)获得大部分,司机或平台(构建模型服务的协调者)获得一部分,也许平台的治理/质押者获得少量费用。Cuckoo 提到*“收入分成模型和代币奖励直接与使用指标挂钩”*,这表明如果某个特定的服务或节点处理大量流量,其运营商和支持者将赚得更多。他们正在摆脱仅仅锁定代币就能获得固定收益的模式(这在他们最初的质押 APY 中是这样的)。具体来说:如果你在一个最终为非常受欢迎的 AI 应用提供动力的协调者上质押,你可以赚取该应用费用的一部分——这是一个真正的将质押作为对效用投资的场景,而不仅仅是为了通货膨,胀而质押。这使得每个人的激励都朝着吸引为 AI 服务付费的真实用户方向发展,这反过来又将价值反馈给代币持有者。值得注意的是,Cuckoo 的链也有交易费用(gas),所以生产区块的矿工(最初 GPU 矿工也为 Cuckoo 链上的区块生产做出了贡献)也得到了 gas 费用。随着链的关闭和向 rollup 的迁移,gas 费用可能会很小(或者在以太坊上),所以主要收入变成了 AI 服务费用本身。总而言之,Cuckoo 正在从一个补贴驱动的模型(网络从其代币池中支付参与者)过渡到一个需求驱动的模型(参与者从实际用户支付中赚钱)。代币仍将在质押和治理中发挥作用,但矿工和应用开发者的日常收入应越来越多地来自购买 AI 服务的用户。这个模型在长期内更具可持续性,并与 Web2 SaaS 的收入分成密切相似,但通过智能合约和代币实现透明度。

攻击面与漏洞

去中心化 AI 引入了一些激励和安全挑战。我们现在分析关键的攻击向量——女巫攻击、合谋、搭便车以及数据/模型投毒——以及每个平台如何减轻或仍然容易受到这些攻击:

  • 女巫攻击(虚假身份):在一个开放网络中,攻击者可能会创建许多身份(节点)以获得不成比例的奖励或影响力。

  • Bittensor:女巫攻击的抵抗主要来自于进入成本。要在 Bittensor 上注册一个新的矿工或验证者,必须花费或质押 TAO——这可能是一种销毁或保证金要求。这意味着创建 N 个虚假节点会产生 N 倍的成本,使得大规模的女巫攻击变得昂贵。此外,Bittensor 的共识将影响力与质押和性能挂钩;一个没有质押或性能不佳的女巫几乎赚不到钱。攻击者必须投入巨资,并且让他们的女巫节点实际贡献有用的工作才能获得任何显著的奖励(这不是典型的女巫策略)。也就是说,如果一个攻击者确实拥有大量资本,他们可以获得大部分 TAO 并注册许多验证者或矿工——实际上是一种财富女巫。这与 51% 攻击情景重叠:如果单个实体控制了一个子网中超过 50% 的质押 TAO,他们就可以严重影响共识。Bittensor 引入 dTAO 在这里有所帮助:它将影响力分散到各个子网,并要求社区质押支持子网才能发展,这使得单个实体更难控制一切。尽管如此,资金雄厚的对手发起的财富女巫攻击仍然是一个担忧——Arxiv 的分析明确指出,目前的质押相当集中,因此多数攻击的门槛并不像期望的那么高。为了缓解这种情况,有人提出了像每个钱包的质押上限(例如,将有效质押上限设在第 88 百分位数,以防止一个钱包独大)之类的建议。总而言之,Bittensor 依靠质押加权身份(你不能在没有相应质押的情况下廉价地生成身份)来处理女巫攻击;除了在资源非常丰富的攻击者面前,它相当有效。

  • Gensyn:Gensyn 中的女巫攻击将表现为攻击者启动许多解决者或验证者节点来操纵系统。Gensyn 的防御纯粹是经济和密码学的——身份本身不重要,但完成工作或提供抵押品很重要。如果一个攻击者创建了 100 个虚假的解决者节点,但他们没有工作或没有质押,他们什么也得不到。要赢得任务,一个女巫节点必须有竞争力地出价,并拥有完成工作的硬件。如果他们以低于成本的价格出价而没有能力,他们会失败并失去质押。同样,攻击者可以创建许多验证者身份,希望被选中进行验证(如果协议随机选择验证者)。但如果数量太多,网络或工作发布者可能会限制活跃验证者的数量。此外,验证者可能需要执行计算来检查它,这是昂贵的;拥有许多虚假的验证者并没有帮助,除非你真的能验证结果。在 Gensyn 中,一个更相关的女巫攻击角度是,如果攻击者试图用虚假的工作或响应填满网络以浪费他人的时间。这可以通过要求提交者也提供押金来缓解(发布虚假工作的恶意提交者会失去他们的支付或押金)。总的来说,Gensyn 使用必需的质押/保证金随机选择验证意味着攻击者除非也带来相应的资源,否则通过拥有多个身份获得的收益甚微。这变成了一种成本高昂的攻击,而不是廉价的攻击。乐观安全模型假设至少有一个诚实的验证者——女巫必须压倒并成为所有验证者才能持续作弊,这又回到了拥有大部分质押或计算能力的问题。因此,Gensyn 的女巫抵抗能力与乐观 rollup 相当:只要有一个诚实的参与者,女巫就很难轻易造成系统性损害。

  • Cuckoo:Cuckoo 中防止女巫攻击依赖于质押和社区审查。Cuckoo 中的每个角色(矿工、协调者,甚至在某些情况下的用户)都需要质押 $CAI。这立即提高了女巫身份的成本——一个制造 100 个虚假矿工的攻击者需要为每个矿工获取并锁定质押。此外,Cuckoo 的设计有一个人为/社区因素:新节点需要通过链上投票来获得声誉。一个没有声誉的新节点女巫大军不太可能被分配到很多任务或被用户信任。特别是协调者必须吸引用户;一个没有记录的虚假协调者不会得到使用。对于矿工,协调者可以在 Cuckoo Scan 上看到他们的性能统计数据(成功任务等),并且会偏爱可靠的矿工。Cuckoo 的矿工数量也相对较少(在 beta 测试中一度只有 40 个 GPU),所以任何大量节点的奇怪涌入都会很明显。潜在的弱点是,如果攻击者也操纵声誉系统——例如,他们在自己的女巫节点上质押大量 CAI,使它们看起来信誉良好,或者创建虚假的“用户”账户来为自己点赞。这在理论上是可能的,但由于这一切都是代币策划的,这样做需要花费代币(你基本上是用自己的质押在自己的节点上投票)。Cuckoo 团队也可以在观察到女巫行为时调整质押和奖励参数(特别是现在它正在成为一个更中心化的 rollup 服务;他们可以暂停或罚没不良行为者)。总而言之,女巫通过要求投入(质押)需要社区批准来得到控制。没有人可以仅仅带着数百个虚假的 GPU 进来就 reaping 奖励,而无需大量投资,而诚实的参与者可以更好地将这些投资用于真实的硬件和质押。

  • 合谋: 这里我们考虑多个参与者合谋操纵系统——例如,Bittensor 中的验证者和矿工合谋,或 Gensyn 中的解决者和验证者合谋等。

  • Bittensor:合谋已被确定为一个真正的问题。在最初的设计中,少数验证者可以合谋总是支持某些矿工或他们自己,从而不公平地扭曲奖励分配(这在根子网中被观察为权力集中)。Yuma 共识提供了一些防御:通过取验证者分数的中位数并惩罚偏离者,它防止了一个小的合谋团体大幅提升一个目标,除非他们是多数。换句话说,如果 10 个验证者中有 3 个合谋给一个矿工一个超高的分数,但其他 7 个没有,那么合谋者的离群分数会被剔除,矿工的奖励将基于中位数分数(所以合谋未能显著帮助)。然而,如果合谋者构成了超过 50% 的验证者(或验证者中超过 50% 的质押),他们实际上就是共识——他们可以就虚假的高分达成一致,中位数将反映他们的观点。这是经典的 51% 攻击情景。不幸的是,Arxiv 的研究发现,在一些 Bittensor 子网中,仅占参与者数量 1-2% 的联盟就控制了大部分质押,这是由于代币高度集中。这意味着少数大户的合谋是一个可信的威胁。Bittensor 通过 dTAO 追求的缓解措施是民主化影响力:通过让任何 TAO 持有者将质押导向子网,它稀释了封闭验证者团体的权力。此外,像凹形质押(对超大质押的收益递减)和质押上限等提案旨在打破单个合谋实体聚集过多投票权的能力。Bittensor 的安全假设现在类似于权益证明:没有单个实体(或卡特尔)控制超过 50% 的活跃质押。只要这一点成立,合谋就是有限的,因为诚实的验证者会覆盖不良评分,合谋的子网所有者也不能任意提升自己的奖励。最后,关于子网所有者和验证者之间的合谋(例如,一个子网所有者贿赂验证者以高评价其子网的矿工),dTAO 消除了直接的验证者控制,代之以代币持有者的决策。与“市场”合谋更难,除非你买断代币供应——在这种情况下,这就不再是合谋,而是接管。所以 Bittensor 的主要反合谋技术是算法共识(中位数裁剪)广泛的代币分配

  • Gensyn:Gensyn 中的合谋可能涉及一个解决者和一个验证者(或多个验证者)合谋欺骗系统。例如,一个解决者可以产生一个虚假的结果,而一个合谋的验证者可以故意不挑战它(或者如果协议要求验证者签署,甚至证明它是正确的)。为了缓解这种情况,Gensyn 的安全模型要求至少有一个诚实的验证者。如果所有验证者都与解决者合谋,那么一个坏结果就不会受到挑战。Gensyn 通过鼓励许多独立的验证者(任何人都可以验证)以及博弈论来解决这个问题,即一个验证者可以通过脱离合谋并提出挑战来获得巨大的奖励(因为他们会得到解决者的质押)。本质上,即使有一群人同意合谋,每个成员都有动机背叛并为自己索取赏金——这是一个经典的囚徒困境设置。希望这能使合谋团体保持小规模或无效。另一个潜在的合谋是多个解决者之间合谋抬高价格或垄断任务。然而,由于开发者可以选择在哪里发布任务(而且任务不是可以轻易垄断的相同单位),解决者在价格上的合谋很难在全球范围内协调——任何不合谋的解决者都可以以更低的价格赢得工作。开放的市场动态对抗了定价合谋,假设至少有一些竞争参与者。另一个角度:验证者合谋刁难解决者——例如,验证者错误地指控诚实的解决者以窃取他们的质押。Gensyn 的欺诈证明是二元的和链上的;当链上重新计算发现没有错误时,一个错误的指控会失败,并且据推测,恶意的验证者会因此失去一些东西(也许是押金或声誉)。所以,试图破坏解决者的验证者合谋会被协议的验证过程抓住。总而言之,只要任何合谋集合中至少有一方有动机保持诚实,Gensyn 的架构就是稳健的——这是乐观验证的一个特性,类似于要求比特币中至少有一个诚实的矿工最终揭露欺诈。如果一个攻击者可以控制一个任务中的所有验证者和解决者(比如网络的大多数),理论上合谋是可能的,但那时他们就可以直接作弊而不需要合谋。加密经济激励的安排使得维持合谋变得不理性。

  • Cuckoo:Cuckoo 中的合谋可能以几种方式发生:

  1. 一个协调者与矿工合谋——例如,一个协调者可以总是将任务分配给一组友好的矿工并分享奖励,而忽略其他诚实的矿工。由于协调者在任务调度上有自由裁量权,这可能会发生。然而,如果友好的矿工表现不佳,终端用户可能会注意到服务缓慢或质量差而离开,所以协调者没有动机纯粹为了偏袒而损害质量。如果合谋是为了操纵奖励(比如,提交虚假任务给矿工代币),这将在链上被检测到(大量任务可能具有相同的输入或没有实际用户)并可能受到惩罚。Cuckoo 的链上透明度意味着任何不寻常的模式都可能被社区或核心团队标记。此外,因为所有参与者都质押,一个合谋的协调者-矿工团伙如果被发现滥用系统,将面临失去质押的风险(例如,如果治理决定因欺诈而罚没他们)。
  2. 矿工之间合谋——他们可能会分享信息或形成一个卡特尔,比如说,在声誉上互相投票,或者都拒绝为一个特定的协调者服务以索取更高的费用。这些情况不太可能发生:声誉投票是由质押者(包括用户)完成的,而不是矿工自己互相投票。而拒绝服务只会促使协调者寻找其他矿工或发出警报。鉴于目前规模相对较小,任何合谋都很难隐藏。
  3. 合谋操纵治理——大的 CAI 持有者可以合谋通过对他们有利的提案(比如设定过高的费用或重定向财库)。这在任何代币治理中都是一个风险。最好的缓解措施是广泛分配代币(Cuckoo 的公平启动将 51% 分给了社区)并有活跃的社区监督。此外,由于 Cuckoo 从 L1 转型,直接的链上治理可能会受到限制,直到他们在新的链上重新安顿下来;团队在此期间可能会保留一个多签控制,这讽刺地防止了恶意外部人员的合谋,但代价是暂时的中心化。 总的来说,Cuckoo 依靠透明度和质押来处理合谋。在某种程度上,信任协调者会表现良好,因为他们想在竞争环境中吸引用户。如果合谋导致服务质量下降或明显的奖励操纵,利益相关者可以投票淘汰或停止质押不良行为者,网络可以罚没或阻止他们。相当开放的性质(任何人只要质押就可以成为协调者或矿工)意味着合谋需要大规模的协调努力,而这将是显而易见的。它不像 Bittensor 或 Gensyn 那样在数学上被阻止,但经济质押和社区治理的结合提供了一种制衡。
  • 搭便车(搭便车问题):这指的是参与者试图在不贡献同等价值的情况下获得奖励——例如,一个实际上不进行评估但仍然赚钱的验证者,或者一个复制他人答案而不是自己计算的矿工,或者在不提供有用输入的情况下刷奖励的用户。

  • Bittensor:Bittensor 中一个已知的搭便车问题是懒惰验证者的**“权重复制”。一个验证者可以简单地复制多数意见(或其他验证者的分数),而不是独立评估矿工。通过这样做,他们避免了运行 AI 查询的成本,但如果他们提交的分数看起来与共识一致,他们仍然可以获得奖励。Bittensor 通过衡量每个验证者的共识一致性信息贡献来对抗这一点。如果一个验证者总是只是复制他人,他们可能与共识一致(所以他们不会受到重罚),但他们没有增加任何独特的价值。协议开发者已经讨论过给那些提供准确但不纯粹冗余评估的验证者更高的奖励。像噪声注入**(故意给验证者略有不同的查询)这样的技术可以迫使他们实际工作而不是复制——尽管尚不清楚这是否已实现。Arxiv 建议使用性能加权发行和复合评分方法来更好地将验证者的努力与奖励联系起来。至于矿工,一种可能的搭便车行为是,如果一个矿工查询其他矿工并转发答案(一种抄袭形式)。Bittensor 的设计(带有去中心化查询)可能允许一个矿工的模型通过自己的树突调用其他模型。如果一个矿工只是转发别人的答案,一个好的验证者可能会发现这一点,因为答案可能与该矿工声称的模型能力不一致。这在算法上很难检测,但一个从不计算原始结果的矿工最终应该在某些查询上得分很低并失去声誉。另一个搭便车情景是委托人在不做 AI 工作的情况下获得奖励。这是有意的(为了让代币持有者参与),所以不是攻击——但它确实意味着一些代币发行给了只质押的人。Bittensor 将此解释为协调激励,而不是浪费奖励。简而言之,Bittensor 承认验证者搭便车问题,并正在调整激励措施(比如给予验证者信任分数,以提升那些不偏离或复制的人)。他们的解决方案本质上是更明确地奖励努力和正确性,以便什么都不做或盲目复制随着时间的推移会产生更少的 TAO。

  • Gensyn:在 Gensyn 中,搭便车者会发现很难赚钱,因为一个人必须要么提供计算,要么抓住作弊者才能获得代币。一个解决者不能“伪造”工作——他们必须提交一个有效的证明,否则就有被罚没的风险。没有机制可以在不完成任务的情况下获得报酬。一个验证者理论上可以坐等他人抓住欺诈——但那样他们什么也得不到(因为只有提出欺诈证明的人才能获得奖励)。如果太多的验证者试图搭便车(不实际重新计算任务),那么一个欺诈性的解决者可能会溜走,因为没有人在检查。Gensyn 的激励设计通过大奖奖励来解决这个问题:只需要一个活跃的验证者抓住一个作弊者就能获得一大笔报酬,所以至少有一个人总是在工作是理性的。其他人不做工作不会损害网络,只是没用;他们也得不到奖励。所以系统自然会过滤掉搭便车者:只有那些真正验证的验证者才能在长期内获利(其他人将资源花在节点上却一无所获,或者很少有机会偶然获得奖励)。协议也可能随机化哪个验证者有机会挑战,以阻止所有验证者都假设“别人会做的”。由于任务是单独支付的,除了临时的测试网激励外,没有类似于“不工作就有质押奖励”的情况。一个值得关注的领域是多任务优化:一个解决者可能会试图在任务之间重用工作,或者秘密地将其外包给更便宜的人(比如使用中心化的云)——但这并不是真正有害的搭便车;如果他们按时交付正确的结果,他们是如何做到的并不重要。这更像是套利而不是攻击。总而言之,Gensyn 的机制设计几乎没有给搭便车者留下获利的空间,因为每个分发的代币都对应着一个完成的工作或一个被惩罚的作弊行为。

  • Cuckoo:Cuckoo 的初始阶段无意中创造了一个搭便车问题:空投和高收益质押吸引了只为刷代币而来的用户。这些用户会通过水龙头循环代币或操纵空投任务(例如,不断使用免费的测试提示或创建许多账户来领取奖励),而没有为网络的长期价值做出贡献。Cuckoo 认识到这是一个问题——本质上,人们“使用”网络不是为了 AI 输出,而是为了投机性奖励。决定结束 L1 链并重新聚焦,部分原因是为了摆脱这些激励错位。通过将未来的代币奖励与实际使用挂钩(即,你赚钱是因为服务实际上被付费客户使用),搭便车的吸引力就减小了。还有一个矿工端的搭便车情景:一个矿工可以加入,被分配任务,然后以某种方式不执行它们但仍然声称奖励。然而,协调者正在验证结果——如果一个矿工不返回输出或返回坏的输出,协调者不会将其计为已完成的任务,所以矿工不会得到报酬。矿工也可能试图挑选容易的任务而放弃困难的任务(例如,如果一些提示较慢,矿工可能会断开连接以避免它们)。这可能是一个问题,但协调者可以注意到矿工的可靠性。如果一个矿工经常掉线,协调者可以停止向他们分配任务或罚没他们的质押(如果存在这样的机制或干脆不奖励他们)。用户搭便车——由于许多 AI 服务都有免费试用,用户可以滥发请求以获得输出而不付费(如果有补贴的模型)。这与其说是协议层面的问题,不如说是服务层面的问题;每个协调者可以决定如何处理免费使用(例如,要求少量支付或限流)。因为 Cuckoo 最初提供了一些免费服务(比如免费的 AI 图像生成以吸引用户),一些人利用了这一点,但这是预期的增长营销的一部分。随着这些促销活动的结束,用户将不得不付费,因此没有免费的午餐可以利用。总的来说,Cuckoo 的新策略是将代币分配与真实效用挂钩,这明确旨在消除“为了做无意义的循环而挖矿”的搭便车问题。

  • 数据或模型投毒: 这指的是恶意引入不良数据或行为,使得 AI 模型退化或输出被操纵,以及贡献有害或有偏见内容的问题。

  • Bittensor:Bittensor 中的数据投毒意味着一个矿工故意给出不正确或有害的答案,或者验证者故意将好的答案评估为坏的。如果一个矿工持续输出垃圾或恶意内容,验证者会给出低分,该矿工将赚得很少并最终退出——经济激励是提供质量,所以“投毒”他人对攻击者没有好处(除非他们的目标纯粹是自费破坏)。一个恶意的矿工能毒害别人吗?在 Bittensor 中,矿工不直接互相训练(至少在设计上不是——没有一个可以被毒害的全局模型在更新)。每个矿工的模型是独立的。他们确实在某种意义上学习,即一个矿工可以从他人那里获取有趣的样本来微调自己,但这完全是可选的,取决于每个人。如果一个恶意行为者滥发无意义的答案,诚实的验证者会过滤掉这些(他们会给它低分),所以它不会显著影响任何诚实矿工的训练过程(此外,一个矿工可能会使用高分同行的知识,而不是低分的)。所以经典的数据投毒(注入不良训练数据以破坏模型)在 Bittensor 当前的设置中是最小的。更相关的风险是模型响应操纵:例如,一个矿工输出微妙的偏见或危险内容,而这对验证者来说并不明显。然而,由于验证者也是人类设计的或至少是算法代理,公然的毒性或错误很可能被发现(一些子网甚至可能有 AI 验证者检查不安全内容)。最坏的情况是,如果一个攻击者以某种方式拥有大多数验证者和矿工合谋将某个不正确的输出推为“正确”——他们就可以偏袒网络对响应的共识(比如所有合谋的验证者都支持一个恶意答案)。但要让外部用户因此受到伤害,他们必须实际查询网络并信任输出。Bittensor 仍处于一个构建能力的阶段,尚未被终端用户广泛用于关键查询。到那时,希望它将有内容过滤和验证者的多样性来减轻这种风险。在验证者方面,一个恶意的验证者可以提供有毒的评估——例如,持续地给某个诚实的矿工低分以消除竞争。如果有足够的质押,他们可能会成功地将该矿工挤出(如果该矿工的奖励下降到他们离开的程度)。这是对激励机制的攻击。同样,如果他们不是多数,中位数裁剪将挫败一个离群的验证者。如果他们多数,这就与合谋/51% 的情景合并了——任何多数都可以重写规则。解决方案又回到了去中心化:防止任何一个实体占主导地位。总而言之,Bittensor 的设计通过其评分系统固有地惩罚有毒的数据/模型贡献——不良贡献获得低权重,从而获得低奖励。没有一个永久的模型库可以被毒害;一切都是动态的并持续评估。这提供了弹性:网络可以随着不良行为者的贡献被验证者过滤掉而逐渐“忘记”或忽略他们。

  • Gensyn:如果一个解决者想毒害一个正在训练的模型(比如在训练期间引入后门或偏见),他们可以尝试秘密地这样做。Gensyn 协议会验证训练是否按照指定的算法进行(随机梯度下降步骤等),但它不一定能检测到解决者是否引入了一个微妙的后门触发器,而这个触发器在正常的验证指标中不会出现。这是一个更阴险的问题——它不是计算的失败,而是在训练的允许自由度内的操纵(比如将权重调整向一个触发短语)。检测这一点是机器学习安全领域的一个活跃研究问题。Gensyn 除了提交者可以在他们选择的测试集上评估最终模型这一事实外,没有特殊的模型投毒机制。一个精明的提交者应该总是测试返回的模型;如果他们发现它在某些输入上失败或有奇怪的行为,他们可能会对结果提出异议或拒绝支付。也许协议可以允许提交者指定某些接受标准(比如“模型必须在这个秘密测试集上达到至少 X 的准确率”),如果解决者的结果失败,解决者就得不到全额支付。这将阻止投毒,因为攻击者无法满足评估标准。然而,如果毒药不影响正常测试的准确性,它可能会溜走。Gensyn 中的验证者只检查计算完整性,而不是模型质量,所以他们不会发现故意的过拟合或木马,只要训练日志看起来有效。所以,这仍然是一个任务层面的信任问题:提交者必须要么相信解决者不会毒害模型,要么使用像集成多个来自不同解决者的训练结果这样的方法来稀释任何单个解决者的影响。另一个角度是数据投毒:如果提交者提供训练数据,一个恶意的解决者可以忽略这些数据,而在别的东西上训练或添加垃圾数据。但这可能会降低准确性,提交者会在输出模型的性能中注意到这一点。解决者将因此得不到全额支付(因为据推测他们想达到一个性能目标)。所以降低性能的投毒对解决者的奖励是自取灭亡的。只有性能中性但恶意的毒药(后门)才是真正的危险,而这超出了典型区块链验证的范围——这是一个机器学习安全挑战。Gensyn 最好的缓解措施可能是社会性的:使用知名的信誉良好的模型,进行多次训练运行,使用开源工具。在推理任务上(如果 Gensyn 也用于推理工作),一个合谋的解决者可以返回不正确的输出,从而偏袒某个答案。但如果验证者运行相同的模型,他们会发现错误的输出,所以这与其说是投毒,不如说是作弊,欺诈证明可以解决这个问题。总而言之,Gensyn 保障过程,而不是意图。它确保训练/推理是正确完成的,但不能保证结果是好的或没有隐藏的恶意。这仍然是一个悬而未决的问题,Gensyn 的白皮书可能还没有完全解决这个问题(很少有能解决的)。

  • Cuckoo:由于 Cuckoo 目前专注于推理(服务现有模型),数据/模型投毒的风险相对局限于输出操纵内容投毒。一个恶意的矿工可能会试图篡改他们被给予运行的模型——例如,如果提供了一个 Stable Diffusion 检查点,他们可以用一个不同的模型替换它,这个模型可能会在每张图片中插入一些微妙的水印或广告。然而,协调者(模型所有者)通常会发送带有输出格式期望的任务;如果一个矿工持续返回不符合规格的输出,协调者会标记并禁止该矿工。此外,矿工在不显著影响其输出的情况下很难修改模型。另一种情景是,如果 Cuckoo 引入社区训练的模型:那么矿工或数据提供者可能会试图毒害训练数据(例如,输入大量错误的标签或有偏见的文本)。Cuckoo 将需要实施对众包数据的验证或对贡献者进行加权。这还不是一个功能,但团队对个性化 AI 的兴趣(比如他们提到的 AI 生活教练或学习应用)意味着他们最终可能会处理用户提供的训练数据,这将需要仔细的检查。在内容安全方面,由于 Cuckoo 矿工执行推理,人们可能会担心他们会输出有害内容,即使模型通常不会。但矿工没有动机任意改变输出——他们为正确的计算获得报酬,而不是创造力。如果说有什么的话,一个恶意的矿工可能会为了节省时间而跳过完整的计算(例如,返回一张模糊的图片或一个通用的响应)。协调者或用户会看到这一点并给该矿工差评(并且很可能不会为该任务付费)。隐私是另一个方面:一个恶意的矿工可能会泄露或记录用户数据(比如用户输入了敏感的文本或图片)。这不是投毒,而是对机密性的攻击。Cuckoo 的隐私立场是,它正在探索保护隐私的方法(生态系统中提到一个保护隐私的 VPN 表明了未来的重点)。他们可以结合像安全区域或分割推理这样的技术来保护数据不被矿工看到。尚未实现,但这是一个已知的考虑因素。 最后,Cuckoo 的博客强调有效验证模型输出并确保安全的去中心化模型操作是使模型代币化可行的关键。这表明他们意识到,要真正去中心化 AI,必须防范像有毒输出或功能失常的模型这样的事情。可能他们打算结合使用加密经济激励(对不良行为者进行质押罚没)和用户评级系统(用户可以标记不良输出,那些矿工会失去声誉)。声誉系统在这里可以发挥作用:如果一个矿工返回哪怕一个明显恶意或不正确的结果,用户/协调者可以给他们差评,严重影响他们未来的赚钱能力。知道这一点,矿工就有动力保持一贯的正确性,而不是掺入任何毒药。 本质上,Cuckoo 依赖于信任但验证:它更传统,如果有人行为不端,你识别并移除他们(以失去质押作为惩罚)。它还没有针对微妙模型投毒的专门防御措施,但有特定的应用所有者(协调者)负责的结构增加了一层监督——这些所有者会有动力确保没有任何东西损害他们模型的完整性,因为他们自己的收入和声誉都依赖于此。

总而言之,虽然去中心化 AI 网络引入了新的攻击面,但它们也部署了一系列密码学、博弈论和社区治理的防御措施女巫抵抗主要通过要求参与者投入经济质押来处理。合谋抵抗来自于激励的一致性(诚实行为更有利可图)和限制小合谋团体影响的共识机制。防止搭便车是通过将奖励与实际有用的工作紧密联系,并惩罚或淘汰那些没有贡献的人来实现的。投毒及相关攻击仍然具有挑战性,但系统通过持续评估和罚没或驱逐恶意行为者的能力来减轻公然的案例。这些平台正在积极研究和迭代这些设计——正如 Bittensor 对 Yuma 和 dTAO 的持续调整,以及 Cuckoo 在代币经济学上的转变所证明的那样——以确保一个安全、自我维持的去中心化 AI 生态系统。

对比评估

为了突出 Bittensor、Gensyn 和 Cuckoo AI 的异同,下表从关键维度对它们进行了并排比较:

维度Bittensor (TAO)GensynCuckoo AI (CAI)
技术栈自定义 L1 (基于 Substrate 的 Subtensor 链),拥有 93+ 个专业 AI 子网。近期升级后,在其自有链上实现 EVM 兼容。基于以太坊的 rollup (最初计划为 L1,现为 ETH rollup)。链下计算,链上验证。作为 Arbitrum Orbit Layer-2 链 (EVM rollup) 启动。全栈平台 (自有链 + 计算 + 应用 UI)。正从自定义 L1 迁移到以太坊共享安全 (rollup/AVS)。
主要焦点去中心化 AI 网络,由模型组成的“神经互联网”。节点为跨任务(LLM、视觉等)的集体模型推理和训练做出贡献。去中心化的 ML 计算市场。重点是通过全球 GPU 进行链下模型训练和推理,并通过区块链验证工作。去中心化 AI 服务平台。专注于使用分布式 GPU 矿工进行模型服务/推理(例如生成艺术、LLM API)。将终端用户应用与后端 GPU 市场集成。
关键角色子网所有者: 定义子网中的任务和验证(赚取 18% 奖励)。
矿工: 运行 AI 模型(推理/训练),提供答案。
验证者: 提出查询并对矿工的输出进行评分(策划质量)。
委托人: 将 TAO 质押给矿工/验证者以增强其影响力并赚取份额。
提交者(开发者): 发布 ML 作业(附带模型/数据)和支付。
解决者: 在其硬件上计算任务,提交结果。
验证者(观察者): 检查解决者的结果;如果错误,可通过欺诈证明提出挑战。
(没有明确的“所有者”角色,因为提交者提供模型;治理角色通过代币持有者实现)。
AI 应用构建者(协调者): 部署 AI 模型服务,质押 CAI,管理分配给矿工的任务。
矿工(GPU/CPU 提供者): 质押 CAI,执行分配的推理任务,返回结果。
终端用户: 使用 AI 应用(用加密货币支付或贡献资源)。
质押者(委托人): 在协调者/矿工上质押,参与治理投票,赚取奖励份额。
共识与验证Yuma 共识: 自定义的“智能证明”——验证者对 AI 输出的评分被聚合(权益加权中位数)以确定矿工奖励。底层链共识类似于 PoS (Substrate) 用于区块,但区块有效性取决于每个周期的 AI 共识。能抵抗高达 50% 的离群评分和合谋。乐观验证(类 Truebit): 假设解决者的结果是正确的,除非有验证者提出挑战。使用交互式链上欺诈证明来精确定位任何不正确的步骤。同时也在实施计算的密码学证明(学习证明)以在不重新执行的情况下验证训练进度。以太坊为交易提供基础共识。权益证明链 + 协调者任务验证: Cuckoo 链使用 PoS 验证者进行区块生产(最初,矿工也帮助保护区块)。AI 任务结果由协调者节点验证(他们根据预期的模型行为检查矿工输出)。尚无专门的加密证明——依赖于质押和声誉(其无需信任的程度在于,不当行为会导致罚没或被差评,而不是自动的数学证明检测)。正在向以太坊共识(rollup)过渡以保障账本安全。
代币与效用TAO 代币: Subtensor 上的原生货币。用于质押(注册和影响共识所需)、交易费/支付(例如支付 AI 查询)以及作为贡献的奖励(挖矿/验证)。TAO 有持续的通货膨胀(每 12 秒一个区块 1 TAO),这驱动了奖励机制。也用于治理(dTAO 质押到子网)。Gensyn 代币(ERC-20,名称待定): 协议的支付单位(开发者用它支付给解决者)。作为质押抵押品(解决者/验证者绑定代币,因过错被罚没)。将用于治理(通过 Gensyn 基金会的 DAO 对协议升级进行投票)。供应细节尚未公布;可能有一部分用于激励早期采用(测试网等)。CAI 代币(ERC-20): Cuckoo 链的原生代币(10 亿固定供应)。多用途:Cuckoo 链上交易的燃料费,网络角色的质押(矿工、协调者必须锁定 CAI),协议决策的治理投票,以及贡献的奖励(挖矿/质押奖励来自初始分配)。也具有 meme 吸引力(社区代币方面)。
资产代币化计算:是——AI 计算工作通过 TAO 奖励被代币化(可将 TAO 视为智能的“燃料”)。模型:间接——模型根据性能赚取 TAO,但模型/权重本身不是链上资产(没有模型的 NFT)。子网所有权被代币化(子网所有者 NFT + alpha 代币)以代表模型市场的份额。数据:未代币化(数据在链下;Bittensor 专注于模型输出而非数据集)。计算:是——闲置计算成为链上商品,在作业市场中用代币交易。模型:不明确——模型由开发者在链下提供,结果返回;没有内置的模型代币(尽管如果各方设置,协议可以促进许可)。数据:否——数据集在提交者和解决者之间在链下处理(可以加密或保护,但不表示为链上资产)。Gensyn 的愿景包括可能像计算一样交易算法或数据,但核心实现以计算为中心。计算:是——GPU 时间通过每日 CAI 支付和任务赏金被代币化。网络将计算能力视为矿工“出售”以换取 CAI 的资源。模型:部分——平台将模型作为服务集成;然而,模型本身并未铸造成 NFT。模型的价值体现在协调者从使用它的用户那里赚取 CAI 的能力上。未来计划暗示社区拥有的模型,但目前模型 IP 在链下(由运行协调者的人拥有)。数据:没有通用的数据代币化。用户输入/输出是短暂的。(Cuckoo 与 Beancount 等应用合作,但数据并未在链上由代币表示。)
治理去中心化,代币持有者驱动 (dTAO): 最初有 64 个选举产生的验证者运行根共识;现在治理是开放的——TAO 持有者向子网质押以引导发行(基于市场的资源分配)。协议升级和变更通过链上提案决定(TAO 投票,由 Bittensor 基金会/理事会协助)。目标是完全由社区治理,基金会逐渐交出控制权。渐进式去中心化: Gensyn 基金会 + 选举产生的理事会管理早期决策。代币发行后,治理将过渡到一个 DAO,代币持有者对提案进行投票(类似于许多 DeFi 项目)。以太坊的共享安全环境意味着重大变更涉及社区和潜在的 Layer-1 治理。治理范围包括经济参数、合约升级(需经安全审计)。尚未上线,但在白皮书中为主网上线后规划。社区与基金会混合: Cuckoo 以“公平启动”理念启动(没有为内部人员预挖)。计划建立一个社区 DAO,由 CAI 对关键决策和协议升级进行投票。实际上,核心团队(Cuckoo Network 开发者)主导了重大决策(如链的弃用),但他们透明地分享理由并将其定位为为社区利益的演变。链上治理功能(提案、投票)很可能在新的 rollup 就位后推出。质押也通过声誉系统非正式地赋予治理影响力(对受信任节点的权益加权投票)。
激励模型与贡献挂钩的通胀奖励: 每个区块约 1 TAO 根据表现分配给参与者。质量越高 = 奖励越多。矿工和验证者持续获得收益(逐块),加上委托人也获得一份。终端用户也使用 TAO 支付服务(为代币创造需求方)。代币经济旨在鼓励长期参与(质押)和模型的不断改进,类似于比特币的矿工,但“挖掘 AI”。潜在问题(质押集中导致奖励错位)正在通过激励调整来解决。市场驱动,按结果付费: 没有持续的通胀收益(除了可能的早期激励);解决者只有在成功完成工作时才获得报酬。验证者只有在抓住欺诈时才获得报酬(大奖激励)。这创造了一个直接的经济体:开发者的支出 = 提供者的收入。代币价值与实际的计算需求挂钩。为了引导,Gensyn 可能会在启动时奖励测试网用户(一次性分配),但在稳定状态下,它是基于使用的。这使得激励与网络效用紧密结合(如果 AI 作业增加,代币使用增加,所有持有者都受益)。混合型(从通胀转向使用费): 最初,来自 51% 社区池的挖矿和质押分配奖励 GPU 矿工(供应量的 30%)和质押者(11%),无论外部使用情况如何——这是为了启动网络效应。随着时间的推移,特别是在 L1 弃用后,重点转向收入分成:矿工和应用开发者从实际用户支付中赚钱(例如,分摊图像生成的费用)。质押者的收益将来自真实使用的一部分,或进行调整以鼓励只支持生产性节点。所以早期的激励是“发展网络”(高 APY、空投),后来是“网络只有在真正有用时才会增长”(来自客户的收入)。这种过渡旨在淘汰搭便车者并确保可持续性。
安全与攻击缓解女巫攻击: 昂贵的注册(TAO 质押)阻止了女巫。合谋: 中位数共识能抵抗高达 50% 质押的合谋;dTAO 通过赋予代币持有者投票权打破了验证者寡头。不诚实: 偏离共识的验证者会失去奖励份额(激励诚实评分)。如果质押高度集中,51% 攻击是可能的——研究建议增加质押上限和性能罚没来缓解。模型攻击: 差或恶意的模型输出会因低分而受到惩罚。没有单点故障——网络是全球去中心化的(TAO 矿工遍布世界,伪匿名)。女巫攻击: 参与需要经济质押;没有质押/工作的虚假节点一无所获。验证: 至少需要一个诚实的验证者——如果是这样,任何错误的结果都会被发现并受到惩罚。使用加密经济激励使作弊得不偿失(解决者失去押金,验证者获得)。合谋: 只要不是所有方都合谋,就是安全的——一个诚实者通过揭露欺诈打破了该计划。信任: 不依赖于对硬件或公司的信任,只依赖于经济博弈论和密码学。攻击: 难以审查或 DoS,因为任务是分布式的;攻击者需要出价高于诚实节点或持续击败欺诈证明(没有多数控制不太可能)。然而,微妙的模型后门可能会逃避检测,这是一个已知的挑战(通过用户测试和未来可能超越正确执行的审计来缓解)。总体安全性类似于用于计算的乐观 rollup。女巫攻击: 所有参与者都必须质押 CAI,提高了女巫的门槛。加上一个声誉系统(质押 + 投票)意味着没有声誉的女巫身份不会得到任务。节点不当行为: 协调者可以放弃表现不佳或可疑的矿工;质押者可以撤回支持。协议可以对已证实的欺诈进行质押罚没(L1 有共识的罚没条件;类似的可适用于任务欺诈)。合谋: 部分基于信任——依赖于公开竞争和社区监督来防止合谋占主导。由于任务和支付在链上是公开的,公然的合谋可以被识别并通过社会或治理方式惩罚。用户保护: 如果一个提供商被审查或损坏,用户可以切换提供商,确保没有单点控制。投毒/内容: 设计上,矿工按原样运行提供的模型;如果他们恶意改变输出,他们会失去声誉和奖励。该系统押注于理性行为者:因为每个人都有质押价值和未来的赚钱潜力,他们没有动机进行会破坏网络信任的攻击(从他们 L1 实验中关于将激励与效用对齐的沉重教训中得到加强)。

表格: Bittensor、Gensyn 和 Cuckoo AI 在架构、焦点、角色、共识、代币、资产代币化、治理、激励和安全方面的功能比较。

0G 的去中心化 AI 操作系统能否真正推动 AI 在链上大规模运行?

· 阅读需 13 分钟

背景

ChatGPT文心一言 (ERNIE Bot) 等大语言模型的推动下,AI 领域正处于飞速发展之中。然而,AI 不仅仅是聊天机器人和生成式文本;它还包括从 AlphaGo 的围棋胜利到 MidJourney 等图像生成工具的一切。许多开发者追求的终极目标是通用人工智能,即 AGI (Artificial General Intelligence) —— 通俗地被称为能够像人类智能一样进行学习、感知、决策和执行复杂任务的 AI “智能体” (Agent)。

然而,AI 和 AI Agent 应用都是极度 数据密集型 的。它们依赖海量数据集进行训练和推理。传统上,这些数据在中心化基础设施上存储和处理。随着区块链的出现,一种被称为 DeAI (去中心化 AI) 的新方法应运而生。DeAI 尝试利用去中心化网络进行数据存储、共享和验证,以克服传统中心化 AI 方案的弊端。

0G Labs 在 DeAI 基础设施领域脱颖而出,旨在构建一个被称为 0G去中心化 AI 操作系统

什么是 0G Labs?

在传统计算中,操作系统 (OS) 负责管理硬件和软件资源 —— 比如 Microsoft Windows、Linux、macOS、iOS 或 Android。操作系统抽象了底层硬件的复杂性,使最终用户和开发者能够更轻松地与计算机交互。

以此类推,0G OS 渴望在 Web3 中发挥类似的作用:

  • 管理 去中心化存储、计算和数据可用性。
  • 简化 链上 AI 应用程序的部署。

为什么要分去中心化? 传统的 AI 系统在中心化的孤岛中存储和处理数据,引发了对数据透明度、用户隐私以及数据提供者公平报酬的担忧。0G 的方法使用去中心化存储、加密证明和开放激励模型来降低这些风险。

名称 “0G” 代表 “Zero Gravity”(零重力)。团队设想了一个数据交换和计算感觉“无重量”的环境 —— 从 AI 训练到推理再到数据可用性,一切都在链上无缝进行。

0G 基金会 于 2024 年 10 月正式成立,负责推动这一倡议。其使命是将 AI 变成一种公共物品 —— 一种人人可及、可验证且开放的资源。

0G 操作系统的核心组件

从根本上说,0G 是一个专为支持链上 AI 应用而设计的模块化架构。它的 三大核心支柱 是:

  1. 0G Storage —— 一个去中心化存储网络。
  2. 0G DA (Data Availability) —— 一个确保数据完整性的专门数据可用性层。
  3. 0G Compute Network —— 用于 AI 推理(及未来的训练)的去中心化计算资源管理和结算系统。

这些支柱在名为 0G Chain 的 Layer1 网络 下协同工作,该网络负责共识和结算。

根据 0G 白皮书(“0G: Towards Data Availability 2.0”),0G Storage 和 0G DA 层都构建在 0G Chain 之上。开发者可以启动多个自定义的 PoS 共识网络,每个网络都作为 0G DA 和 0G Storage 框架的一部分运行。这种模块化方法意味着随着系统负载的增加,0G 可以动态添加新的验证者集或专门节点进行扩展。

0G Storage

0G Storage 是一个面向大规模数据的去中心化存储系统。它使用具有内置激励机制的分布式节点来存储用户数据。至关重要的是,它使用 纠删码 (Erasure Coding, EC) 将数据分割成 较小的、冗余的“数据块” (chunks),并将这些数据块分布在不同的存储节点上。如果某个节点发生故障,仍可以从冗余块中重建数据。

支持的数据类型

0G Storage 兼顾了 结构化非结构化 数据。

  1. 结构化数据 存储在 键值对 (KV) 层,适用于动态且频繁更新的信息(如数据库、协作文档等)。
  2. 非结构化数据 存储在 日志 (Log) 层,该层按时间顺序追加数据条目。这一层类似于针对大规模、仅追加工作负载而优化的文件系统。

通过在日志层之上堆叠 KV 层,0G Storage 可以服务于多样化的 AI 应用需求 —— 从存储大型模型权重(非结构化)到动态的用户数据或实时指标(结构化)。

PoRA 共识

PoRA (Proof of Random Access,随机存取证明) 确保存储节点确实持有它们声称存储的数据块。其工作原理如下:

  • 存储矿工会定期受到 挑战,要求生成他们存储的特定随机数据块的加密哈希。
  • 他们必须通过生成一个有效的哈希(类似于类 PoW 的解题过程)来响应,该哈希源自其本地存储的数据副本。

为了公平竞争,系统将挖矿竞争限制在 8 TB 的分段内。大型矿工可以将其硬件细分为多个 8 TB 的分区,而小型矿工则在单个 8 TB 边界内竞争。

激励设计

0G Storage 中的数据被分为 8 GB 的“定价分段”。每个分段都有一个 捐赠池 和一个 奖励池。希望存储数据的用户支付 0G 代币 (ZG) 费用,这部分费用为节点奖励提供资金。

  • 基础奖励: 当存储节点提交有效的 PoRA 证明时,它会获得该分段的即时区块奖励。
  • 持续奖励: 随着时间的推移,捐赠池会将其中的一部分(目前每年约 4%)释放到奖励池中,激励节点 永久 存储数据。存储特定分段的节点越少,每个节点能赚取的份额就越大。

用户只需支付 一次 永久存储费用,但必须设置高于系统最小值的捐赠费。捐赠越高,矿工复制用户数据的可能性就越大。

版税机制: 0G Storage 还包含一种“版税”或“数据共享”机制。早期存储提供商会为每个数据块创建“版税记录”。如果新节点想要存储相同的数据块,原始节点可以共享它。当新节点稍后证明已存储(通过 PoRA)时,原始数据提供者将收到持续的版税。数据被复制得越广泛,早期提供者的总奖励就越高。

与 Filecoin 和 Arweave 的比较

相似之处:

  • 三者都激励去中心化的数据存储。
  • 0G Storage 和 Arweave 都旨在实现 永久 存储。
  • 数据分块和冗余是标准方法。

关键区别:

  • 原生集成: 0G Storage 不是一个独立的区块链;它直接与 0G Chain 集成,主要支持以 AI 为核心的用例。
  • 结构化数据: 0G 支持基于 KV 的结构化数据以及非结构化数据,这对于许多需要频繁读写访问的 AI 工作负载至关重要。
  • 成本: 0G 声称永久存储费用为 10–11 美元/TB,据报道比 Arweave 更便宜。
  • 性能焦点: 专为满足 AI 吞吐量需求而设计,而 Filecoin 或 Arweave 是更通用的去中心化存储网络。

0G DA (数据可用性层)

数据可用性 确保每个网络参与者都可以完全验证和检索交易数据。如果数据不完整或被扣留,区块链的信任假设就会崩溃。

在 0G 系统中,数据被分块并存储在链下。系统记录这些数据块的默克尔树根 (Merkle roots),而 DA 节点必须对这些块进行 采样,以确保它们与默克尔根和纠删码承诺相匹配。只有这样,数据才被视为“可用”并被追加到链的共识状态中。

DA 节点选择与激励

  • DA 节点必须 质押 ZG 才能参与。
  • 它们通过可验证随机函数 (VRF) 被随机分配到不同的 法定人数 (quorums) 中。
  • 每个节点只验证数据的 子集。如果一个法定人数中 2/3 的成员确认数据可用且正确,他们会签署一个证明,该证明被聚合后提交给 0G 共识网络。
  • 奖励分配也通过定期采样进行。只有存储了随机采样数据块的节点才有资格获得该轮奖励。

与 Celestia 和 EigenLayer 的比较

0G DA 借鉴了 Celestia(数据可用性采样)和 EigenLayer(再质押)的思想,但旨在提供 更高的吞吐量。Celestia 的吞吐量目前在 10 MB/s 左右,区块时间约为 12 秒。同时,EigenDA 主要服务于 Layer2 解决方案,实现起来可能较为复杂。0G 设想实现 GB/s 级别的吞吐量,这更适合数据摄取量可能超过 50–100 GB/s 的大规模 AI 工作负载。

0G 计算网络

0G 计算网络 (0G Compute Network) 作为去中心化计算层。它的发展分为几个阶段:

  • 第一阶段: 专注于 AI 推理的结算。
  • 网络在去中心化市场中撮合“AI 模型买家”(用户)和计算提供商(卖家)。提供商在智能合约中注册其服务和价格。用户预存资金到合约中,消费服务,合约负责调解支付。
  • 随着时间的推移,团队希望扩展到完整的 链上 AI 训练,尽管这更为复杂。

批处理: 提供商可以批量处理用户请求以减少链上开销,从而提高效率并降低成本。

0G Chain

0G Chain 是一个 Layer1 网络,作为 0G 模块化架构的基础。它支撑着:

  • 0G Storage(通过智能合约)
  • 0G DA(数据可用性证明)
  • 0G Compute(结算机制)

根据官方文档,0G Chain 与 EVM 兼容,这使得需要高级数据存储、可用性或计算的 dApp 能够轻松集成。

0G 共识网络

0G 的共识机制颇为独特。它不是一个单一的单体共识层,而是可以在 0G 下启动 多个独立的共识网络 来处理不同的工作负载。这些网络共享相同的质押基础:

  • 共享质押 (Shared Staking): 验证者在以太坊上质押 ZG。如果验证者有不当行为,其在以太坊上质押的 ZG 可以被罚没 (slashed)。
  • 可扩展性: 可以启动新的共识网络以实现水平扩展。

奖励机制: 当验证者在 0G 环境中完成区块最终确认时,他们会获得代币。然而,他们在 0G Chain 上赚取的代币在本地环境中会被 销毁,而验证者的以太坊账户中会 铸造 出等量的代币,从而确保流动性和安全性的单一来源。

0G 代币 (ZG)

ZG 是一种 ERC-20 代币,代表了 0G 经济的支柱。它通过以太坊上的 智能合约 进行铸造、销毁和流通。具体而言:

  • 用户使用 ZG 支付存储、数据可用性和计算资源的费用。
  • 矿工和验证者通过证明存储或验证数据赚取 ZG。
  • 共享质押将安全模型关联回以太坊。

核心模块总结

0G OS 将存储、DA、计算和链这四个组件合并为一个相互连接的模块化堆栈。该系统的设计目标是 可扩展性,每一层都可以水平扩展。团队宣传其具有 “无限”吞吐量 的潜力,这对于大规模 AI 任务至关重要。

0G 生态系统

尽管 0G 生态系统 相对较新,但已经包含了关键的集成合作伙伴:

  1. 基础设施与工具:

    • Union、Brevis、Gevulot 等 ZK 解决方案
    • Axelar 等 跨链 解决方案
    • EigenLayer、Babylon、PingPong 等 再质押 (Restaking) 协议
    • IoNet、exaBits 等 去中心化 GPU 提供商
    • Hemera、Redstone 等 预言机 (Oracle) 解决方案
    • 以太坊 blob 数据的 索引 工具
  2. 使用 0G 进行数据存储和 DA 的项目:

    • 用于 L2 / L3 集成的 Polygon、Optimism (OP)、Arbitrum、Manta
    • 用于 Web3 基础设施的 Nodekit、AltLayer
    • 用于链上游戏的 Blade Games、Shrapnel

供应侧

ZK跨链 框架将 0G 连接到外部网络。再质押解决方案(如 EigenLayer、Babylon)加强了安全性,并可能吸引流动性。GPU 网络加速了纠删码(erasure coding)。预言机解决方案提供离线数据或参考 AI 模型定价。

需求侧

AI 代理 (AI Agents) 可以利用 0G 进行数据存储和推理。L2 和 L3 可以集成 0G 的 DA 以提高吞吐量。游戏 和其他需要稳健数据解决方案的 dApp 可以在 0G 上存储资产、日志或评分系统。一些项目已经与该项目建立了合作伙伴关系,这表明了早期的生态系统牵引力。

路线图与风险因素

0G 旨在使 AI 成为一种 公共事业 (public utility),任何人都可以访问和验证。团队渴望实现 GB/s 级别的 DA 吞吐量——这对于可能需要 50–100 GB/s 数据传输的实时 AI 训练至关重要。

联合创始人兼首席执行官 Michael Heinrich 表示,AI 的爆发式增长使得及时的迭代变得至关重要。AI 创新的速度很快;0G 自身的开发进度必须跟上。

潜在的权衡:

  • 当前对 共享质押 (shared staking) 的依赖可能是一个中间方案。最终,0G 计划引入一个可水平扩展的共识层,该层可以增量增强(类似于启动新的 AWS 节点)。
  • 市场竞争: 去中心化存储、数据可用性和计算领域存在许多专门的解决方案。0G 的全方位(all-in-one)方法必须保持竞争力。
  • 采用与生态系统增长: 如果没有强大的开发者牵引力,所承诺的“无限吞吐量”仍将停留在理论阶段。
  • 激励措施的可持续性: 节点的持续动力取决于真实的用户需求和平衡的代币经济。

结论

0G 尝试将去中心化存储、数据可用性和计算统一到支持链上 AI 的单个“操作系统”中。通过瞄准 GB/s 吞吐量,团队寻求突破目前阻碍大规模 AI 迁移到链上的性能瓶颈。如果成功,0G 可以通过提供 可扩展、集成且对开发者友好 的基础设施,显著加速 Web3 AI 浪潮。

尽管如此,仍有许多悬而未决的问题。“无限吞吐量”的可行性取决于 0G 的模块化共识和激励结构是否能够无缝扩展。外部因素——市场需求、节点正常运行时间、开发者采用率——也将决定 0G 的持久力。尽管如此,0G 解决 AI 数据瓶颈的方法是新颖且雄心勃勃的,预示着链上 AI 的一个充满希望的新范式。