跳到主要内容

57 篇博文 含有标签「去中心化计算」

去中心化计算和云

查看所有标签

ERC-8004 : 可能让以太坊成为 AI 代理操作系统的标准

· 阅读需 10 分钟
Dora Noda
Software Engineer

24 小时内出现了 8 个独立实现。这就是以太坊基金会在 2025 年 8 月发布 ERC-8004 “无信任代理 (Trustless Agents)” 时发生的情况。相比之下,促成 ICO 热潮的标准 ERC-20 花了几个月才看到首批实现。支撑 CryptoKitties 的 ERC-721 则等待了六个月才获得广泛采用。ERC-8004 却在一夜之间爆发。

原因何在?AI 代理终于有了一种在不信任任何人的情况下相互信任的方法。

问题所在:AI 代理无法协同

AI 代理市场的代币市值已突破 77 亿美元,日交易量接近 17 亿美元。据 Bitget 首席执行官 Gracy Chen 预测,到 2025 年底,该领域可能会达到 600 亿美元。但存在一个根本性问题:这些代理是孤立运行的。

当一个 AI 交易代理需要代码审计时,它如何找到一个值得信赖的审计代理?当一个 DeFi 优化器想要聘请专业的收益策略师时,它如何验证该策略师不会窃取其资金?到目前为止,答案一直是中心化中介——这违背了去中心化系统的初衷。

传统的协同需要中间人:平台运营商、声誉聚合器、支付处理器。每个中介都会引入费用、审查风险和单点故障。对于全天候在全球市场运行的自主代理来说,这些摩擦点是不可接受的。

ERC-8004 通过直接在以太坊上创建无信任协调层解决了这个问题。

架构:三个注册表,一个信任层

ERC-8004 引入了三个轻量级的链上注册表,作为自主代理交互的主干。该标准由 MetaMask 的 Marco De Rossi、以太坊基金会的 Davide Crapis、谷歌的 Jordan Ellis 和 Coinbase 的 Erik Reppel 共同起草——这是一个代表钱包基础设施、协议开发、云计算和交易所运营的联盟。

身份注册表 (The Identity Registry) 使用 ERC-721 标准为每个代理提供唯一的链上身份。每个代理都会获得一个便携、抗审查的标识符,映射到其域名和以太坊地址。这为自主代理创建了一个全球命名空间——可以将其视为机器经济的 DNS。

声誉注册表 (The Reputation Registry) 提供了一个用于发布和检索反馈信号的标准接口。该注册表不是在链上存储复杂的声誉评分(这会非常昂贵且不灵活),而是处理代理之间的反馈授权。评分范围为 0-100,带有可选标签和指向链下详细反馈的链接。该协议支持 x402 支付证明,以验证只有付费客户才能留下评论,从而防止垃圾信息和欺诈性反馈。

验证注册表 (The Validation Registry) 提供了通过加密经济质押机制请求和记录独立验证者检查的挂钩 (hooks)。如果一个代理声称它可以优化收益,验证者可以质押代币来验证该声明——并因准确评估获得奖励,或因错误评估面临削减 (slashing)。

这种架构的天才之处在于它将什么留在了链下。复杂的代理逻辑、详细的声誉历史和复杂的验证算法都存在于区块链之外。只有核心的信任锚点——身份证明、授权记录和验证承诺——才会上链。

代理将如何实际使用它

想象一下这个场景:一个持有 1000 万美元 DeFi 仓位的资产管理代理需要跨三个协议进行重新平衡。它向身份注册表查询专业策略代理,通过声誉注册表的声誉评分进行筛选,最终选择了一个拥有 500 多个正面反馈且信任评分为 94/100 的代理。

在委托任何资金之前,组合代理会请求独立验证。三个各质押了 5 万美元的验证者代理在模拟中重新执行拟定的策略。三者都确认了预期结果。只有到那时,组合代理才会授权交易。

这整个过程——发现、声誉检查、验证和授权——都在几秒钟内完成,无需人工干预,也无需任何中心化协调者。

用例远不止交易:

  • 代码审计:安全代理可以建立可验证的漏洞发现记录,并由其他质押其发现的审计人员进行验证。
  • DAO 治理:提案代理可以展示成功的治理参与历史,声誉根据之前投票的结果进行加权。
  • 医疗 AI:诊断代理可以维护由授权医疗机构验证的隐私保护凭证。
  • 去中心化市场:服务代理可以积累跨平台的声誉,无论他们在哪个市场上运行,这些声誉都会跟随他们。

以太坊基金会的 AI 豪赌

以太坊基金会并没有将 ERC-8004 的成功寄托于运气。2025 年 8 月,它成立了 dAI 团队,专门负责推广该标准并构建配套基础设施。该团队由核心开发者 Davide Crapis 领导,有两个优先事项:使 AI 智能体能够在没有中间商的情况下进行支付和协调,并构建一个避免依赖少数大公司的去中心化 AI 栈。

这代表了一项战略博弈,即以太坊可以成为机器经济的协调层,而不仅仅是人类交易的结算层。在 ERC-8004 发布后的 24 小时内,社交媒体上出现了超过 10,000 次自发提及。

这一时机是经过深思熟虑的。NEAR Protocol 已将自己标榜为“AI 区块链”,开发了像 Shade Agents 这样的框架,允许自主机器人跨链运行,同时保持数据隐私。Solana 正在通过各种 DeFi 集成推进智能体基础设施。成为 AI 经济基础层的竞争正在加剧。

以太坊的优势在于网络效应:最大的开发者生态系统、最深的流动性以及最广泛的智能合约兼容性。ERC-8004 旨在将这些优势转化为在智能体协调方面的主导地位。

x402 连接:智能体如何互相支付

ERC-8004 并非孤立存在。它旨在与 x402 集成,这是由 Coinbase 及其合作伙伴开发的 HTTP 支付协议,旨在实现机器对机器(M2M)的微支付。这种组合为智能体经济创建了一个完整的技术栈。

x402 重新启用了长期未使用的 HTTP 402 “Payment Required”(需要付款)状态码。当智能体请求服务时,提供者可以返回支付条款。发起请求的智能体将自动协商并结算支付(使用稳定币、ETH 或其他代币),无需人工干预。

谷歌与 Coinbase 合作开发的代理支付协议(AP2)进一步扩展了这一功能。AP2 在咨询了包括 Salesforce、美国运通(American Express)和 Etsy 在内的 60 多家公司后宣布,为基于智能体的支付提供安全和信任基础设施。A2A x402 扩展则专门针对智能体之间生产级的加密支付。

开源项目 Agent-8004-x402 展示了这些标准如何结合。交易智能体可以通过 ERC-8004 的身份注册表发现交易对手,验证其声誉,请求对其策略进行验证,然后通过 x402 结算交易——这一切都是自主完成的。

可能出现的风险

该标准并非没有风险。智能体私钥或智能合约中的安全漏洞可能是灾难性的。身份注册表中的漏洞可能导致智能体身份冒用。声誉注册表中的缺陷可能导致声誉操纵。验证注册表的质押机制可能会被协调一致的攻击者利用。

监管不确定性也是一大威胁。关于责任归属、问责制以及智能体执行合约的可执行性等问题在很大程度上尚未解决。如果 AI 智能体造成经济损失,谁该负责?智能体的开发者?部署它的用户?还是批准其策略的验证者?

此外还存在集中化风险。如果 ERC-8004 取得成功,少数高声誉的智能体可能会主导生态系统。拥有强大反馈历史的早期参与者可能会为新智能体设置准入门槛,从而可能重现该标准旨在解决的中心化问题。

以太坊基金会已经意识到了这些担忧。该标准包含了一些条款,如声誉衰减(这样非活跃智能体就不会保持虚高的分数)、验证者轮换(防止单一验证者组主导)以及身份恢复机制(防止密钥泄露导致智能体身份永久损毁)。

470 亿美元的机遇

全球 AI 智能体市场在 2024 年达到 51 亿美元,预计到 2030 年将达到 471 亿美元。Token Metrics 预测,到 2025 年底,AI 智能体可能占 DeFi 交易量的 15-20%,到 2026 年底,集成 AI 的协议 TVL 范围将达到 2000-3000 亿美元。

一旦 ERC-8004 等标准得到广泛采用,用于智能体身份和执行合约的 Gas 使用量预计将每季度增长 30-40%。这创造了一个反馈循环:更多的智能体意味着更多的协调,更多的协调意味着更多的链上活动,更多的活动意味着更高的网络收入。

对于以太坊来说,ERC-8004 既是机遇也是必然。如果智能体成为重要的经济参与者(所有迹象都表明它们会),那么捕捉到它们协调层的区块链将占据机器经济中超额的份额。

未来展望

ERC-8004 仍处于审查阶段,但部署已经开始。实验正在以太坊主网以及 Taiko 和 Base 等 Layer-2 网络上运行。2026 年 1 月,多个加密和 AI 平台开始讨论将 ERC-8004 作为智能体市场的关键基石。

该标准可能会包含在以太坊 2026 年的硬分叉中——可能是 Glamsterdam (Gloas-Amsterdam) 或 Hegota (Heze-Bogota)。完全集成将意味着在协议层面为智能体身份、声誉和验证提供原生支持。

24 小时内出现 8 个实现并非偶然。这反映出市场一直在等待这种基础设施。AI 智能体已经存在。它们拥有资金。它们需要协调。ERC-8004 为它们提供了一种除了数学之外无需信任任何人的协调方式。


随着 AI 智能体成为区块链生态系统的重要参与者,支撑它们的基础设施变得至关重要。BlockEden.xyz 提供覆盖 20 多个区块链的企业级 API 服务,确保构建智能体应用的开发者拥有所需的可靠基础设施。探索我们的 API 市场,构建未来的自主系统。

Web3 社交图谱之战:为何 Farcaster 和 Lens 正在进行不同的较量

· 阅读需 13 分钟
Dora Noda
Software Engineer

2025 年 1 月,Farcaster 联合创始人 Dan Romero 做出了一个令人震惊的坦白:“我们尝试了 4.5 年将社交放在首位,但它并没有奏效。”这个曾经拥有 80,000 日活跃用户并融资 1.8 亿美元的平台正完全从社交媒体转型——转向钱包。

与此同时,Lens Protocol 刚刚完成了区块链历史上规模最大的数据迁移之一,将其 650,000 个用户配置文件和 125GB 的社交图谱数据迁移到了自己的 Layer 2 链上。两个协议。对去中心化社交未来的两种截然不同的赌注。以及一个价值 100 亿美元的市场正拭目以待谁能最终胜出。

根据 Chainalysis 的数据,SocialFi 领域在 2025 年同比增长了 300%,达到 50 亿美元。但在这些亮眼的数据背后,隐藏着一个关于技术权衡、用户留存失败以及去中心化社交网络是否能与 Web2 巨头竞争的根本性问题的更复杂故事。

Farcaster vs Lens Protocol:一场价值 24 亿美元的 Web3 社交图谱之战

· 阅读需 14 分钟
Dora Noda
Software Engineer

Web3 承诺让用户拥有自己的社交图谱。五年后,这一承诺正受到两个协议的考验,它们针对同一问题采取了截然不同的方法:估值 10 亿美元、日活跃用户 6 万的 Farcaster,以及刚在自己的 ZK 驱动链上发布、获得 3100 万美元新融资的 Lens Protocol。

赌注再高不过了。去中心化社交网络市场预计将从 2025 年的 185 亿美元爆发式增长到 2035 年的 1416 亿美元。SocialFi 代币已经占据了 24 亿美元的市值。赢得这场战斗的人不仅夺取了社交媒体——他们还夺取了 Web3 本身的身份层。

但这里有一个令人不安的事实:这两个协议都没有突破主流采用。Farcaster 的月活跃用户在 2025 年底下滑至 2 万以下之前,曾达到 8 万的高峰。Lens 拥有强大的基础设施,但在吸引其技术所应得的消费者关注方面举步维艰。

这是两个竞相拥有 Web3 社交层的协议的故事——以及一个根本性问题:去中心化社交媒体是否能与它试图取代的巨头竞争。

Nillion 的盲计算革命:在不查看数据的情况下处理数据

· 阅读需 11 分钟
Dora Noda
Software Engineer

如果你可以对最敏感的医疗记录进行 AI 推理,而 AI 实际上从未“看到”它正在处理的数据,会怎么样?这并非科幻小说 —— 这是盲计算(blind computing)的核心承诺。Nillion 已经从 Hack VC、HashKey Capital 和 Distributed Global 等投资者那里筹集了 5000 万美元,旨在使其成为互联网处理敏感信息的默认方式。

隐私计算市场预计将从 2025 年的 56 亿美元爆发式增长到 2035 年的超过 460 亿美元。但与以往需要信任他人处理数据的隐私解决方案不同,盲计算彻底消除了信任问题。你的数据即使在处理过程中也始终保持加密状态。

Render Network 6500 万帧里程碑:好莱坞 GPU 支柱如何成为 AI 的秘密武器

· 阅读需 11 分钟
Dora Noda
Software Engineer

《西部世界》(Westworld)在 HBO 的视觉特效成本每集大约 1000 万美元。一部漫威电影在视觉特效(VFX)上的花费可能高达 2 亿美元。而在洛杉矶的某个角落,一家名为 OTOY 的初创公司找到了将这些成本降低 70% 的方法——随后他们走得更远,构建了一个去中心化的 GPU 网络,如今该网络正同时为好莱坞大片和 AI 革命提供动力。

Render Network 悄然完成了超过 6500 万帧的渲染,仅在 2025 年就销毁了 530,000 个代币(比 2024 年增长了 279%),目前处理的 AI 推理任务已占其计算能力的 40%。最初作为 3D 艺术家的工具,现已演变成更具雄心的蓝图:一个面向 AI 时代、可替代 AWS 和 Google Cloud 的去中心化方案。

5000 亿美元的终极追问:为什么去中心化 AI 基础设施是 2026 年的潜力机遇

· 阅读需 12 分钟
Dora Noda
Software Engineer

当特朗普总统在 2025 年 1 月宣布耗资 5000 亿美元的星门项目(Stargate Project)时——这是历史上规模最大的单笔 AI 基础设施投资——大多数加密货币投资者不以为意。中心化数据中心。科技巨头合作。没什么新鲜的。

他们完全没看懂。

星门项目不仅仅是在建设 AI 基础设施。它正在创造一条需求曲线,使去中心化 AI 算力不仅可行,而且变得至关重要。当超大规模云服务商(hyperscalers)正挣扎着要在 2029 年前部署 1000 万千瓦的算力容量时,一个由超过 43.5 万个 GPU 容器组成的并行网络已经上线,正以降低 86% 的成本提供相同的服务。

AI 与加密货币的融合并非只是个叙事。这是一个价值 330 亿美元的市场,就在你阅读本文时,它的规模正在翻倍。

Walrus Protocol:Sui 的 1.4 亿美元存储博弈将如何重塑 Web3 数据层

· 阅读需 10 分钟
Dora Noda
Software Engineer

当 Mysten Labs 宣布其 Walrus 协议于 2025 年 3 月从 Standard Crypto、a16z 和 Franklin Templeton 获得 1.4 亿美元融资时,它发出了一个明确的信号:去中心化存储战争正在进入一个新阶段。但在一个已经充斥着 Filecoin 的企业雄心和 Arweave 永久存储承诺的格局中,是什么让 Walrus 与众不同,足以在运营首日之前支撑起 20 亿美元的估值?

答案在于对去中心化存储运作方式的根本性重新思考。

无人解决的存储难题

去中心化存储一直是 Web3 长期以来未能解决的难题。用户希望拥有 AWS 的可靠性以及区块链的抗审查性,但现有的解决方案被迫做出了痛苦的权衡。

Filecoin 是最大的参与者,其市值在 2025 年间大幅波动,它要求用户与供应商协商存储协议。当这些协议到期时,你的数据可能会消失。该网络 2025 年第三季度的利用率达到了 36% —— 比上一季度的 32% 有所提高 —— 但在大规模效率方面仍存在疑问。

Arweave 以其“一次付费,永久存储”的模式提供永久存储,但这种永久性是有代价的。在等量容量下,在 Arweave 上存储数据的成本可能是 Filecoin 的 20 倍。对于处理数 TB 用户数据的应用程序来说,这种经济模型根本行不通。

与此同时,IPFS 实际上并不是存储——它是一种协议。如果没有“固定(pinning)”服务来保持你的数据存活,当节点从缓存中丢弃内容时,内容就会消失。这就像是在一个可能会随时搬迁的地基上盖房子。

Walrus 走进了这个碎片化的领域,而它的秘密武器是数学。

RedStuff:工程领域的重大突破

Walrus 的核心是 RedStuff,这是一种二维纠删码(erasure coding)协议,代表了分布式系统工程领域的真正创新。要理解为什么这很重要,请考虑传统去中心化存储如何处理冗余。

全量复制(在多个节点上存储多个完整的副本)虽然简单但非常浪费。为了防止多达三分之一的节点可能是恶意的拜占庭故障,你需要大量的重复备份,从而推高了成本。

一维纠删码(如 Reed-Solomon 编码)将文件拆分为带有用于重构的校验数据的碎片。这种方式效率更高,但有一个致命弱点:恢复单个丢失的碎片需要下载相当于整个原始文件的数据。在节点变动频繁的动态网络中,这会产生带宽瓶颈,从而严重影响性能。

RedStuff 通过基于矩阵的编码解决了这个问题,它创建了主要的和次要的“切片(slivers)”。当一个节点发生故障时,剩余的节点可以通过仅下载丢失的部分(而不是整个 blob 对象)来重构缺失的数据。恢复带宽的规模为 O(|blob|/n) 而不是 O(|blob|),这种差异在大规模应用时变得异常巨大。

该协议仅需 4.5 倍的复制即可实现安全性,而原始方法则需要 10-30 倍。根据 Walrus 团队自己的分析,这意味着在同等数据可用性的情况下,存储成本比 Filecoin 低约 80%,比 Arweave 低 99%。

也许最重要的是,RedStuff 是第一个在异步网络中支持存储证明(storage challenges)的协议。这可以防止攻击者利用网络延迟在没有实际存储数据的情况下通过验证——这是困扰早期系统的一个漏洞。

1.4 亿美元的信任票

2025 年 3 月结束的这轮融资说明了一切。Standard Crypto 领投,a16z 的加密货币部门、Electric Capital 和 Franklin Templeton Digital Assets 参投。Franklin Templeton 的参与尤为引人注目——当全球最大的资产管理公司之一支持区块链基础设施时,这标志着超越典型加密风投领域的机构信心。

代币销售对 Walrus 的 WAL 代币总供应量的估值为 20 亿美元(完全稀释估值)。作为参考,Filecoin 在运行多年并建立了成熟生态系统的情况下,其市值经历了剧烈波动,在 2025 年 10 月大幅下跌后才有所回升。市场正在押注 Walrus 的技术优势将转化为实质性的应用。

WAL 的代币经济学反映了从早期项目中吸取的教训。50 亿的总供应量包括 10% 的用户激励分配,其中初始空投占 4%,6% 留作未来分配。通缩机制通过部分销毁来惩罚短期质押转移,而对性能不佳的存储节点的罚没(slashing)惩罚则保护了网络的完整性。

代币解锁经过精心设计:投资者的份额直到 2026 年 3 月(即主网上线一整年后)才开始解锁,从而减少了关键早期采用阶段的抛售压力。

现实世界的落地应用

自 2025 年 3 月 27 日主网上线以来,Walrus 已吸引了 120 多个项目,并完全在去中心化基础设施上托管了 11 个网站。这并非虚无缥缈的宣传——而是真正的生产环境应用。

知名的 Web3 媒体机构 Decrypt 已开始在 Walrus 上存储内容。Sui 最大的 NFT 市场 TradePort 则利用该协议处理动态 NFT 元数据,实现了静态存储方案无法做到的可组合、可升级数字资产。

使用场景已超出简单的文件存储。Walrus 可以作为 Rollups 的低成本数据可用性层(DA),排序器上传交易,执行器只需临时重构交易即可进行处理。这使 Walrus 成为主导近期发展的模块化区块链理论的关键基础设施。

AI 应用代表了另一个前沿领域。干净的训练数据集、模型权重和正确训练的证明都可以通过验证溯源进行存储——这对于正在应对数据真实性和模型审计问题的行业来说至关重要。

存储大战格局

根据 Fundamental Business Insights 的数据,Walrus 进入的市场预计到 2034 年将达到 65.3 亿美元,年增长率超过 21%。这一增长是由日益增长的数据隐私担忧、上升的网络威胁以及推动组织转向中心化云存储替代方案的监管压力所驱动的。

其竞争定位看起来非常有利。Filecoin 凭借其基于交易的模型瞄准企业级工作负载。Arweave 占据了档案、法律文件和文化保存的永久存储市场。Storj 提供 S3 兼容的对象存储,并采用固定定价(截至 2025 年初为每月每 GB 0.004 美元)。

Walrus 为高可用、高性价比的存储开辟了空间,桥接了链上和链下世界。它与 Sui 的集成为开发者提供了自然的流程,但存储层在技术上是链无关的——构建在 Ethereum、Solana 或其他链上的应用程序都可以接入进行链下存储。

去中心化存储的潜在市场总额(TAM)仍仅占更广泛的云存储行业的一小部分,后者在 2025 年的价值为 2550 亿美元,预计到 2032 年将达到 7740 亿美元。即便只捕捉到这一迁移过程中很小的百分比,也将代表巨大的增长。

技术架构深挖

Walrus 的架构将控制和元数据(运行在 Sui 上)与存储层本身分离。这种划分允许该协议利用 Sui 的快速最终性进行协调,同时保持存储的不可知性。

当用户存储一个 Blob 时,数据会经过 RedStuff 编码,拆分为 slivers(分片),分布在该纪元(epoch)的存储节点中。每个节点都承诺存储并提供分配给它的 slivers。经济激励通过质押对齐——节点必须维持抵押品,如果性能不佳或数据不可用,这些抵押品可能会被罚没(slashed)。

数据弹性非常出色:即使三分之二的存储节点宕机或变为恶意节点,Walrus 仍能恢复信息。这种拜占庭容错能力超过了大多数生产系统的要求。

该协议结合了认证数据结构,以防御企图破坏网络的恶意客户端。结合异步存储挑战系统,这创建了一个强大的安全模型,足以抵御曾令早期去中心化存储系统陷入困境的攻击向量。

潜在挑战

如果不审视风险,技术分析就不完整。Walrus 面临着多项挑战:

来自现有玩家的竞争:Filecoin 拥有多年的生态系统建设和企业关系。Arweave 在永久存储领域拥有品牌知名度。取代老牌玩家不仅需要更好的技术,还需要更好的分发渠道。

对 Sui 的依赖:虽然存储层在技术上是链无关的,但与 Sui 的紧密集成意味着 Walrus 的命运部分与该生态系统的成功捆绑在一起。如果 Sui 未能实现主流采用,Walrus 将失去其主要的开发者渠道。

实践中的代币经济学:通缩机制和质押惩罚在理论上看起来很好,但现实世界的行为往往偏离理论模型。2026 年 3 月的投资者解锁将是 WAL 价格稳定性的第一次重大考验。

监管不确定性:去中心化存储在各司法管辖区都处于监管灰色地带。监管机构如何对待数据可用性层——尤其是那些可能存储敏感内容的层——仍不明朗。

最终结论

Walrus 代表了这一迫切需要创新的领域的真正技术突破。RedStuff 的二维纠删码并非营销噱头——它是一项有发表的研究论文支持的重大架构进步。

来自可靠投资者的 1.4 亿美元融资、快速的生态系统采用以及深思熟虑的代币经济学表明,该项目具有超越典型加密货币炒作周期的持久力。它能否从根深蒂固的竞争对手手中夺取显著的市场份额仍有待观察,但发起严峻挑战的各要素已经就位。

对于需要可靠、实惠、去中心化数据存储的开发者来说,Walrus 值得认真评估。存储大战迎来了一位新竞争者,而这位竞争者带着更先进的数学武器。


正在 Sui 上构建应用,或为你的 Web3 应用程序寻找去中心化存储解决方案?BlockEden.xyz 提供企业级 RPC 基础设施和 API 服务,可与新兴生态系统无缝集成。探索我们的 API 市场,使用专为去中心化未来设计的基础设施为你的下一个项目赋能。

JAM Chain:波卡(Polkadot)迈向去中心化全球计算机的范式转变

· 阅读需 50 分钟
Dora Noda
Software Engineer

波卡(Polkadot)的 JAM (Join-Accumulate Machine) Chain 代表了自以太坊推出以来最重要的区块链架构创新,从根本上重新构想了去中心化计算的运作方式。由 Gavin Wood 博士于 2024 年 4 月通过 JAM 灰皮书(JAM Gray Paper)引入,JAM 将波卡从一个平行链专用的中继链转变为一个通用的、无需许可的“大多一致的无需信任超级计算机”,能够实现 42 倍更高的数据可用性(850 MB/s)和 340 万+ TPS 的理论容量。该协议通过在动态分片边界内实现同步可组合性,同时保持 350+ 个核心的并行执行,解决了当前区块链系统普遍存在的持续分区问题。与以太坊以 L2 为中心的 Rollup 策略或 Cosmos 的主权区域模型不同,JAM 将分片执行与一致状态直接构建到共识层中,使用基于 RISC-V 的新型波卡虚拟机(PVM)和无交易架构,所有计算都通过 Refine→Accumulate 管道进行。有 43 个实施团队正在竞争 1000 万 DOT 的奖金,多个客户端预计在 2025 年 8 月前实现 100% 的一致性,主网部署目标定于 2026 年初,JAM 有望实现以太坊 2.0 最初愿景所承诺的:在不牺牲可组合性或安全性的前提下实现原生可扩展执行。

计算模型:JAM 如何大规模处理工作

JAM 引入了一种全新的计算范式,称为 CoreJAM(Collect, Refine, Join, Accumulate),它将区块链执行分解为不同的阶段,以优化并行化和效率。JAM 的名称来源于链上部分——Join 和 Accumulate,而 Collect 和 Refine 则在链下进行。这种架构建立了两个协同工作的主要执行环境:用于重度并行计算的核心内执行和用于状态集成的链上执行。

Refine 阶段(核心内执行),工作项在多个验证人核心上进行无状态并行处理,每个核心在 6 秒的时间槽内处理高达 15 MB 的输入数据,并产生最大 90 KB 的压缩输出——一个惊人的 166 倍压缩比。此阶段为每个核心提供 6 秒的 PVM 执行时间,是当前波卡平行链验证函数(PVF)2 秒限制的三倍。Refine 函数完全在链下执行计算密集型工作,其唯一有状态操作是预映像查找(preimage lookups),从而实现了大规模并行化而没有状态争用。

Refine 之后,Accumulate 阶段(链上执行)通过有状态操作将工作结果集成到链状态中,每个输出的执行时间限制在大约 10 毫秒。此函数在所有验证人上运行,可以读取任何服务的存储,写入其自己的键值存储,在服务之间转移资金,创建新服务,升级代码,并请求预映像可用性。执行预算的鲜明对比——链下 6 秒对链上 10 毫秒——反映了 JAM 的基本洞察:通过将昂贵的计算推到链下并并行化,系统将宝贵的链上时间仅用于必要的状​​态转换。

JAM 中的服务定义了第三个入口点,称为 onTransfer,它处理异步服务间通信。此消息系统使服务能够非阻塞地进行交互,消息发送后不立即返回结果。该设计预期未来将通过辅助核心分配额外的 Gas 以实现复杂的跨服务交互。

这种双重执行模型实现了 Wood 所描述的半一致性:在同一区块中调度到同一核心的服务同步交互(一致子集),而不同核心上的服务异步通信(整体不一致)。一致和不一致执行之间的边界保持流动且受经济驱动,而非协议强制,允许频繁通信的服务在核心上共存以实现同步行为,同时保持系统范围的可扩展性。这代表了解决困扰先前区块链架构的“规模-同步性”矛盾的突破。

从中继链到基于服务的计算的架构转型

JAM 从根本上重新构想了波卡的架构,从高度特定于平行链的设计转向了极简的通用计算基底。当前的波卡中继链直接在协议中封装了平行链,硬性限制大约 50 个插槽,需要通过拍卖获取,花费数百万 DOT,并通过固定的验证路径执行所有平行链逻辑。JAM 用服务取代了这一点——无需许可、封装的执行环境,任何人都可以部署,无需治理批准或拍卖,仅受加密经济因素(DOT 存款)限制。

架构理念的转变是深刻的:从可升级的中继链到具有可升级服务的固定协议。波卡 1.0 维护了一个高度可升级的中继链,随着时间的推移积累了复杂性,而 JAM 固定了核心协议参数(区块头编码、哈希方案、QUIC 网络协议、时间参数),以实现积极优化并简化多重实现。质押、治理和核心时间分配等应用层功能存在于服务中,这些服务可以独立升级,而无需触及核心协议。这种不可升级的链架构显著降低了复杂性,同时在最关键的应用层保留了灵活性。

在 JAM 的模型中,平行链成为众多服务类型之一。所有波卡 1.1 平行链功能将整合到一个“平行链”或“核心链”服务中,确保完全向后兼容并提供硬编码保证。当中继链升级时,现有平行链会自动过渡到在 JAM 上运行,无需任何代码更改。服务模型将平行链的功能推广到任意执行模式:直接部署在核心上的智能合约、CorePlay 等基于 Actor 的框架、ZK-Rollup、数据可用性服务,以及尚未构想的全新执行模型。

状态管理模型也发生了显著转变。当前波卡在区块头中使用后验状态根(posterior state roots)——区块在完整计算完成后才进行分发。JAM 采用前验状态根(prior state roots),滞后一个区块,从而实现流水线化:轻量级计算(约占工作量的 5%)立即执行,区块在重度累积任务完成前分发,下一个区块在当前区块执行完成前开始处理。这种架构选择意味着 JAM 利用完整的 6 秒区块时间进行计算,每个区块实现 3 到 3.5 秒的有效计算时间,而当前波卡则低于 2 秒。

JAM 从 WebAssembly 到基于 RISC-V 的波卡虚拟机(PVM)的转变代表了另一个根本性转变。RISC-V 仅有 47 条基本指令,提供了卓越的确定性、在传统硬件上的出色执行速度、易于转译为 x86/x64/ARM、官方 LLVM 工具链支持以及内存中堆栈的自然延续处理。关键在于,与 WebAssembly 的计量开销相比,PVM 提供了“免费计量”,而基于寄存器的架构(相对于 WASM 基于堆栈的设计)避免了 NP 完全的寄存器分配问题。这使得支持 RISC-V 的延续能够为可扩展多核编码建立新标准,允许程序在区块边界之间暂停和恢复——这对于 JAM 的异步并行化架构至关重要。

技术规范:性能目标和验证人要求

JAM 旨在实现卓越的性能指标,使其在区块链计算能力方面实现代际飞跃。该系统目标是 850 MB/s 的数据可用性——比异步支持改进前的普通波卡提高 42 倍,并且比以太坊的 1.3 MB/s 高出几个数量级。这转化为所有核心的聚合吞吐量约为 2.3 Gbps,每个核心在 6 秒的时间槽内处理 5 MB 的输入

交易吞吐量容量显著扩展:基于 850 MB/s 数据可用性目标,理论最大值为 340 万+ TPS。实际压力测试验证了这些预测——Kusama 在 2025 年 8 月在仅 23% 的负载容量下达到了 143,000 TPS,而波卡的“Spammening”压力测试在 2024 年达到了 623,000 TPS。凭借 JAM 的额外优化和扩展核心数量(目标 350 个核心并具有弹性扩展),在生产环境中实现 100 万+ TPS 的阈值成为可能。

根据灰皮书的估计,当完全运行时,计算能力达到每秒 1500 亿 Gas,反映了所有核心的总 PVM 执行量。共识机制通过 GRANDPA 保持 6 秒的区块时间,并在大约 18 秒(约 3 个区块)内实现确定性最终性。SAFROLE 是 JAM 基于 SNARK 的区块生产算法,通过使用 zkSNARKs 和 RingVRF 进行匿名验证人选择,并提前两个周期使用票证作为区块生产的匿名入口,提供几乎无分叉的操作。

验证人硬件要求对专业运营商来说仍然可及,但需要大量资源:

  • CPU:最低 8 个物理核心 @ 3.4 GHz(优先考虑单线程性能)
  • RAM:最低 128 GB
  • 存储:最低 2 TB NVMe SSD(优先考虑延迟而非吞吐量),预计每月增长 50 GB
  • 网络:最低 500 Mbit/s 对称连接(首选 1 Gbit/s),以处理大量服务并确保拥塞控制
  • 操作系统:基于 Linux(内核 5.16 或更高版本)
  • 正常运行时间:要求 99%+ 以避免罚没惩罚

验证人集合由 1,023 个验证人组成——与当前波卡数量相同——所有验证人无论其质押量如何,都获得相同的区块奖励。这种平等的奖励分配激励质押分散到各个验证人,而不是集中在少数大型运营商手中,从而促进去中心化。最低质押要求是动态的;历史上,进入活跃验证人集合需要大约 175 万 DOT 的总质押(自质押加上提名),尽管最低提名意向为 250 DOT28 天的解绑期与当前波卡保持不变。

JAM 的网络层过渡到 QUIC 协议,用于所有 1000 多个验证人之间的直接点对点连接,避免了传统网络堆栈的套接字耗尽问题。由于 JAM 本质上是无交易的(没有内存池或 Gossip 协议),系统采用网格扩散进行广播:验证人以逻辑网格排列,消息按行然后按列传播,与完整的 Gossip 协议相比,显著降低了带宽要求。

JAM Toaster 测试环境展示了支持开发的巨大基础设施规模:位于里斯本波卡宫设施的 1,023 个节点,拥有 12,276 个核心16 TB RAM,位列全球超级计算机前 500-1000 名。这种全规模测试基础设施解决了历史上的局限性,即小型测试网络无法模拟大规模网络动态,而生产网络缺乏全面的监控能力。

经济模型:DOT 代币经济学和基于核心时间的定价

JAM 保持 DOT 作为唯一的原生代币,不创建新代币,从而保持了与波卡经济模型的连续性,同时引入了重大的结构性变化。经济架构的核心是无需许可的服务部署,任何人都可以上传和执行代码,并支付与所用资源相称的费用。服务对代码、数据或状态没有预设限制——容量由加密经济因素决定,特别是作为经济抵押品存入的 DOT 数量。

代币经济学在 2025 年经历了重大转型,公投 1710 实施了 21 亿 DOT 的供应上限和阶梯式通胀计划。从 2026 年 3 月开始,年度代币排放量将每两年减半,创建了一个类似比特币的稀缺模型。当前年通胀率为 7.56%(低于最初的 10%),预计到 2040 年总供应量将达到约 19.1 亿 DOT,而根据旧模型则为 34 亿。这种通缩压力旨在支持长期价值积累,同时为网络安全维持足够的奖励。

费用结构从平行链拍卖过渡到基于核心时间的定价,用灵活的选项取代了波卡 1.0 复杂的插槽拍卖机制:

**批量核心时间(Bulk Coretime)**提供每月订阅,以持续访问计算核心,使需要保证吞吐量的项目能够进行可预测的预算。按需核心时间(On-Demand Coretime)为零星使用提供即用即付的访问,与数百万美元的平行链插槽拍卖相比,大大降低了进入门槛。这种敏捷核心时间模型允许购买计算资源,持续时间从几秒到几年不等,优化了资本效率。

JAM 引入了一种新颖的混合资源消耗模型,其中工作包可以结合计算密集型任务和数据密集型操作。通过将具有不同资源需求的服务配对——例如,零知识证明验证(计算密集型)与数据可用性(存储密集型)——系统优化了验证人硬件利用率并降低了总体成本。经济激励自然地促使排序器(sequencers)批量处理相关工作项,并将频繁通信的服务共同定位在同一核心上。

无交易架构完全消除了传统的交易费用结构。用户不再向带有 Gas 费的内存池提交交易,所有操作都在链下经过 Refine 阶段,然后结果才集成到链上。这种根本不同的经济模型收取的是核心时间采购和工作包处理的费用,而不是每笔交易的 Gas 费,费用由 Refine 和 Accumulate 阶段消耗的计算和数据资源决定。

验证人经济学延续了波卡的提名权益证明(NPoS),每个周期所有活跃验证人获得相同的区块奖励,无论质押规模如何。验证人设定自己的佣金率,在分配给提名人之前从总奖励中扣除。收入来源包括区块奖励(主要)、活跃参与的周期点数奖励、用户小费(100% 归验证人)以及提名人的佣金。当前质押统计数据显示,参与率为 58%8.25045 亿 DOT 质押在 600 个活跃验证人中。

服务将代币余额直接与代码和状态关联,从而实现了在纯可升级链中不易实现的经济模型调整。这一创新允许服务持有和管理 DOT,创建可以支付自身运营、实施新颖代币经济机制或充当用户资金托管人的经济参与者——所有这些都无需信任中介。

经济安全模型依赖于经济验证人(ELV)——一种犬儒式 Rollup 机制,其中随机选择的验证人重新执行工作以验证正确性。这种方法被证明比零知识证明在确保计算正确性方面成本效益高约 4000 倍,利用了波卡成熟的加密经济安全模型。当工作结果存在争议时,判断机制可以暂停最终性长达 1 小时,同时验证人达成共识,即使在对抗条件下也能保持安全保证。

开发状态:实现、测试网和主网路线图

截至 2025 年 10 月,JAM 开发已达到关键阶段,43 个活跃实施团队分属五种语言类别,正在竞争 1000 万 DOT + 10 万 KSM 的奖金池(价值 6000 万至 1 亿美元)。这种前所未有的实现者多样性旨在将专业知识传播到单个团队之外,通过客户端多样性确保协议弹性,并通过独立实现识别规范模糊性。

多个实现已在 2025 年 8 月前达到 100% 的 JAM 一致性,包括 JAM DUNA (Go)、JamZig (Zig)、Jamzilla (Go)、JavaJAM (Java)、SpaceJam (Rust)、Vinwolf (Rust)、Jamixir (Elixir) 和 Boka (Swift)。JAM 一致性仪表板提供实时性能基准、模糊测试结果和实现比较,从而透明地评估每个客户端的成熟度。Parity 用 Rust 实现的 PolkaJAM 目前在性能指标方面处于领先地位。

JAM 灰皮书已通过多次修订:v0.7.0 于 2025 年 6 月 25 日发布,包含 PVM 执行和聚合调度器的详细伪代码,随后 v0.7.1 于 2025 年 7 月 26 日发布,纳入了社区反馈。灰皮书效仿以太坊黄皮书的方法,提供正式的数学规范,支持多个独立实现,而不是依赖单个参考客户端。

测试网活动在 2025 年加速,里斯本的 JAM 体验活动(5 月 9 日至 11 日)标志着一次重要的公共测试网启动派对,国际开发者参加。最小可行 Rollup 测试网于 2025 年 6 月启动,允许开发者在实时网络环境中测试基本的 JAM 功能。多个实现团队持续运行私有测试网,Parity 发布了实验性的 PolkaJAM 二进制文件,使开发者能够创建自己的 JAM 测试网进行实验。

JAM 实现者奖金根据每个实现路径(验证节点、非 PVM 验证节点或轻节点)的五个里程碑来构建奖励:

里程碑 1 (IMPORTER):10 万 DOT + 1000 KSM,用于通过状态转换一致性测试并导入区块。提交于 2025 年 6 月开放,波卡理事会(Polkadot Fellowship)审查提交。里程碑 2 (AUTHORER):额外 10 万 DOT + 1000 KSM,用于包括区块生产、网络和链下组件在内的完全一致性。里程碑 3 (HALF-SPEED):10 万 DOT + 1000 KSM,用于达到 Kusama 级别的性能,并获得 JAM Toaster 的访问权限进行全规模测试。里程碑 4 (FULL-SPEED):10 万 DOT + 1000 KSM,用于 Polkadot 主网级别的性能,并获得免费的专业外部安全审计。里程碑 5 (SECURE):最后 10 万 DOT + 1000 KSM,用于通过完整的安全审计,且无重大漏洞。

语言多样性涵盖了传统企业语言(A 组的 Java、Kotlin、C#、Go)、原生高性能语言(B 组的 C、C++、Rust、Swift、Zig)、简洁脚本语言(C 组的 Python、JavaScript、TypeScript)以及注重正确性的语言(D 组的 OCaml、Elixir、Julia、Haskell)。Z 组为 Brainfuck 或 Whitespace 等深奥语言的实现提供最高 5000 KSM,展示了社区的趣味精神,同时也证明了规范的清晰性。

主网部署时间表遵循雄心勃勃的计划:

  • 2025 年末:最终灰皮书修订(v0.8.0、v0.9.0,接近 v1.0),持续的里程碑提交和审查,扩大测试网参与
  • 2026 年第一季度:在通过 OpenGov 公投获得治理批准后,波卡网络上的 JAM 主网升级目标
  • 2026 年:CoreChain 阶段 1 部署,官方公共 JAM 测试网,波卡网络全面过渡到 JAM 架构

部署策略涉及一次全面的升级,而不是迭代增量更改,从而能够精确限制升级后的操作,并最大程度地减少因持续破坏性更改而导致的开发者开销。这种方法将所有破坏性更改整合到一次过渡中,避免了困扰波卡 1.0 演进的复杂性累积。然而,治理批准仍然是强制性的——JAM 需要通过波卡的去中心化链上治理和 DOT 代币持有者投票。2024 年 5 月公投 682 获得近乎一致的批准(超过 3100 万 DOT 支持)的先例表明社区的强大支持,尽管最终主网部署需要单独的治理批准。

实际应用已经开始出现。Acala Network 于 2025 年 8 月宣布推出 JAMVerse,使用基于 Swift 的 B 类 JAM 客户端(Boka)构建第一个 JAM 原生 DApp 链。他们的路线图包括将核心 DeFi 服务(Swap、Staking、LDOT)迁移到 JAM 以实现亚区块延迟操作,开发 JAM-XCM 适配器以保持与 Substrate 平行链的互操作性,并演示由同步可组合性实现的跨链闪电贷。Unique Network 的 Quartz 正在过渡到 JAM 架构的内部测试环境,计划于 2025 年 10 月完成。

生态系统影响:向后兼容性和迁移策略

JAM 的设计优先考虑与现有波卡平行链的完全向后兼容性,确保过渡能够增强而非扰乱生态系统。官方文档证实“提案的一部分将包括工具和硬编码的兼容性保证”,Web3 基金会保证“即使在 JAM 之后,平行链仍将是第一类公民”。当 JAM 启动时,中继链升级,平行链将自动成为在 JAM 之上运行的服务,无需任何代码更改

平行链服务(或称 CoreChains 或 ChainService)将所有波卡 1.1 平行链功能整合到一个 JAM 服务中。现有的基于 Substrate 的平行链将通过此兼容层继续运行,功能行为不变——“目前在波卡上运行的任何平行链的功能都不会受到影响。”从平行链团队的角度来看,“技术栈看起来没有太大不同。它们将继续由验证人验证”,并采用类似的开发工作流程。

三种迁移路径使团队能够按照自己的节奏采用 JAM 功能:

选项 A:不迁移 允许平行链团队像以前一样继续运营,无需任何努力。平行链服务处理所有兼容性问题,保持当前的性能特征和开发工作流程。此默认路径适用于对现有功能满意或倾向于推迟 JAM 特定功能直到技术成熟的团队。

选项 B:部分迁移 允许混合方法,团队继续作为传统平行链运营,同时将特定功能部署为 JAM 原生服务。例如,一个 DeFi 平行链可以保持其主链操作不变,同时在 JAM 核心上直接部署一个用于隐私功能的 ZK-Rollup 服务或一个用于价格馈送的预言机服务。这种逐步过渡允许测试新功能而无需完全承诺,在保持向后兼容性的同时选择性地访问高级功能。

选项 C:完全迁移 涉及使用 JAM 的服务模型进行重建,具有不同的 Refine、Accumulate 和 onTransfer 入口点。此路径提供了最大的灵活性——无需许可的部署、通过 Accords 实现的同步可组合性、CorePlay 基于 Actor 的框架以及直接访问 JAM 的新型执行模型。Acala 的 JAMVerse 便是这种方法的典范:构建一个完整的 JAM 原生实现,同时在过渡期间保持遗留平行链的运行。完全迁移需要大量的开发工作,但能释放 JAM 的全部潜力。

迁移支持基础设施包括 Acala 文档中提到的 Omicode 迁移工具,该工具“无需修改运行时逻辑即可实现向 JAM 的平稳迁移”——显然是现有 Substrate 平行链的兼容层。波卡 SDK 仍与 JAM 兼容,尽管平行链验证函数(PVF)的目标从 WebAssembly 重新定位到 PVM。由于 PVM 代表了对 RISC-V 的微小修改(RISC-V 已经是官方 LLVM 目标),编译到 WASM 的现有代码库通常只需最少的更改即可重新编译到 PVM。

从 WASM 到 PVM 的过渡提供了多项优势:免费计量消除了执行期间的 Gas 开销,基于寄存器的架构避免了 WASM 基于堆栈设计中固有的 NP 完全寄存器分配问题,自然的延续支持使程序能够在区块边界之间暂停和恢复,以及在传统硬件上的卓越执行速度提供了无需基础设施更改的性能改进。Substrate FRAME 模块继续在平行链服务中工作,尽管 JAM 的计量系统通常消除了 Substrate 开发中频繁基准测试的要求。

XCM(跨共识消息格式)演进确保了整个过渡期间的互操作性。在 JAM 中,完整的 XCMP(跨链消息传递)成为强制性的——当前 HRMP(水平中继路由消息传递)将所有消息数据存储在中继链上,有效载荷限制为 4 KB,而 JAM 的 XCMP 仅将消息头放在链上,链下数据传输无限制。此架构要求源于 Refine 和 Accumulate 阶段之间严格的数据传输限制,从而在没有中继链瓶颈的情况下实现实际的数据有效载荷。

JAM-XCM 适配器在过渡期间保持 JAM 服务和 Substrate 平行链之间的互操作性。2025 年发布的 XCM v5 改进包括多跳交易、多链费用支付、更少的所需签名和更好的错误预防——所有这些都旨在在 Polkadot 到 JAM 的过渡中无缝工作。Accords 引入了同步 XCM 功能,实现了无需基于储备的中介即可在链之间进行直接代币传送等信任最小化交互。

用于质押、国库和协议升级的治理机制迁移到服务中,而不是封装在核心协议中。这种关注点分离简化了 JAM 链本身,同时在可升级的服务代码中保留了所有必要的功能。包括质押奖励分配、核心时间市场和治理投票在内的应用层功能都存在于服务中,这些服务可以通过自己的升级机制独立演进,而无需协议层更改。

验证人过渡仍然简单——运营商将需要运行 JAM 兼容客户端而不是当前的波卡客户端,但验证人生产区块、验证交易(现在是工作包)和维护共识的职责保持不变。共识从 BABE+GRANDPA 转向 SAFROLE+GRANDPA 主要影响客户端实现内部,而不是操作程序。保持 99%+ 正常运行时间、及时响应验证请求并参与共识的验证人将继续像当前波卡一样,每个周期获得平等的奖励。

开发者体验:从智能合约到服务及更远

JAM 通过消除进入壁垒,同时扩展能力选项,从根本上改变了开发者体验。波卡 1.0 迫使团队在智能合约(能力有限,部署简单)或平行链(能力全面,基于拍卖访问)之间做出选择,而 JAM 为两者以及新型执行模型提供了灵活而丰富的环境

无需许可的服务部署模型类似于以太坊上的智能合约部署——开发者可以将代码部署为服务,无需治理批准或插槽拍卖,只需通过核心时间采购支付所用资源的费用。这大大降低了财务门槛:没有数百万美元的拍卖出价,没有两年期的插槽承诺,没有复杂的众贷机制。服务通过 DOT 存款在经济上扩展,这些存款通过加密经济方式限制资源消耗,而不是通过政治或金融看门人。

ink! 智能合约在 JAM 生态系统中继续蓬勃发展,有可能通过专用服务直接部署在 JAM 核心上,从而无需中间平行链托管。工具仍然成熟:用于编译的 cargo-contract、用于实验的 ink! playground、用于开发的 rustfmt 和 rust-analyzer、用于合约验证的 Chainlens 浏览器以及集成测试框架。从概念验证到生产的毕业路径仍然清晰:从 ink! 合约开始快速迭代,验证产品市场契合度,然后在性能要求需要时迁移到 JAM 服务或平行链——在此过程中重用 Rust 代码、测试和前端组件。

三个服务入口点定义了 JAM 编程模型,要求开发者以不同的方式思考计算:

Refine 函数处理无状态计算,将 Rollup 输入转换为输出。它在每个 6 秒的时间槽内接受多达 15 MB 的工作项,执行长达 6 秒的 PVM Gas,并产生最大 90 KB 的压缩结果。Refine 在链下并行运行于验证人子集,只有预映像查找可用于数据访问。此函数执行计算密集型工作——处理交易、验证证明、转换数据——完全与全局状态隔离。

Accumulate 函数通过有状态操作将 Refine 输出集成到服务状态中,每个输出的执行时间限制在大约 10 毫秒。它可以读取任何服务的存储(实现跨服务查询),写入其自己的键值存储,在服务之间转移资金,创建新服务,升级其自己的代码,并请求预映像可用性。Accumulate 在所有验证人上同步运行,因此成本高昂但默认安全。这种不对称性——Refine 6 秒对 Accumulate 10 毫秒——强制执行架构纪律:将计算推到链下,保持状态更新最小化。

onTransfer 函数通过异步消息传递处理服务间通信。服务可以发送消息而无需等待响应,从而实现松散耦合,同时避免阻塞。未来的增强功能可能允许为复杂的跨服务交互分配额外的 Gas,或通过 Accords 处理同步模式。

CorePlay 代表了一个实验性的基于 Actor 的框架,展示了 JAM 的独特能力。直接部署在核心上的 Actor 可以使用正常的同步编程模式——标准的 fn main() 风格代码和 async/await 语法。当同一核心上的 Actor 相互调用时,执行同步进行。当调用不同核心上的 Actor 时,PVM 延续会自动暂停执行,序列化状态,并在稍后的区块中结果到达时恢复。这种抽象使多区块异步执行对开发者来说看起来是同步的,大大简化了分布式应用逻辑。

开发者工具改进包括通过无需许可的服务创建实现更简单的部署,通过 JAM 的计量 PVM 执行减少基准测试要求,透明且可预测的核心时间定价(避免以太坊式的费用波动),以及为里程碑 3+ 实现者提供 JAM Toaster 访问权限,提供完整的 1023 节点网络模拟以进行真实的性能测试。多语言支持——团队使用 Rust、Go、Swift、Zig、Elixir、OCaml 等——证明了规范的清晰性,并使开发者能够选择熟悉的工具链。

同步可组合性改变了多链应用的可能性。当前波卡平行链通过 XCM 异步通信,要求应用处理延迟响应、超时和回滚场景。JAM 的 Accords 通过同步执行保证,实现了管理服务之间交互协议的多实例智能合约。例如,Acala 的路线图演示了“在以太坊上发起闪电贷,并通过单次同步调用在多个链上执行套利”——这种原子性在碎片化的区块链生态系统中以前是不可能的。

从 Substrate 模块到 JAM 服务的转变减少了治理摩擦——Substrate 模块需要链上治理批准才能部署和更新,而 JAM 服务像智能合约一样无需许可即可部署。开发者保留 Substrate SDK 兼容性,并可以继续使用 FRAME 进行平行链服务,但 JAM 原生服务可以在没有模块升级协调开销的情况下访问简化的开发模型。

文档和教育资源在 2025 年显著扩展,JAM 2025 世界巡演覆盖 2 大洲 9 个城市,吸引了 1300 多名开发者。技术文档包括全面的灰皮书、波卡 Wiki JAM 部分、官方开发者指南和社区创建的教程。Web3 基金会的去中心化未来计划资助 JAM 教育倡议,而实现者奖金为制作高质量文档和开发者工具创造了经济激励。

战略愿景:通过架构创新解决区块链三难困境

Gavin Wood 对 JAM 的愿景解决了区块链的根本限制——他所指的规模-同步性矛盾,即系统必须在规模和一致性之间做出选择。比特币和以太坊 L1 等单片链实现了高同步性和可组合性,但无法超越单节点计算限制。以太坊 L2、波卡平行链和 Cosmos 区域等分片系统通过分区实现规模,但牺牲了一致性,迫使应用程序进入孤立的筒仓,只能进行异步的跨分片通信。

JAM 试图通过部分一致性超越这种虚假二分法——一个“在关键时期保证一致性”,同时通过并行化保持可扩展性的系统。在同一区块中调度到同一核心的服务同步交互,创建一致子集。不同核心上的服务异步通信,实现并行执行。关键在于,分片边界保持流动且受经济驱动,而非协议强制。排序器有激励共同定位频繁通信的服务,开发者可以在需要时优化同步交互,而无需全局系统同步。

战略目标集中于创建一个**“大多一致的无需信任超级计算机”**,它结合了三个历史上不兼容的属性:

类似于以太坊的无需许可的智能合约环境,使任何人无需权威批准或经济门槛即可部署代码。服务的创建和升级无需治理投票、拍卖获胜或插槽承诺。这种开放性通过消除制度障碍、实现快速实验以及培育服务竞争市场而非政治分配资源来推动创新。

波卡开创的通过可扩展节点网络并行化的安全侧链计算通过完整的 1023 个验证人集合为所有服务提供共享安全性。与具有独立安全性的 Cosmos 区域或具有不同信任假设的以太坊 L2 不同,每个 JAM 服务从第一天起就继承了相同的安全保证。跨核心的并行执行实现了计算扩展,而不会碎片化安全性——增加服务不会稀释安全性,而是增加了系统总吞吐量。

在一致执行边界内的同步可组合性释放了网络效应。DeFi 协议可以原子地跨服务组合,用于闪电贷、套利和清算。NFT 市场可以原子地捆绑来自多个链的资产。游戏应用程序可以同步与 DeFi 原语交互,用于游戏内经济。这种可组合性——历史上仅限于单片链——在可扩展的并行化环境中变得可用。

Wood 对 JAM 的长期定位超越了区块链,扩展到通用计算。“去中心化全球计算机”的标语故意呼应了以太坊的早期描述,但其架构基础支持了这种大规模的隐喻。以太坊的“世界计算机”很快达到了可扩展性限制,需要 L2 实用主义,而 JAM 通过 Refine-Accumulate 范式和 PVM 的延续支持,将计算扩展构建到其基础中。

从波卡 1.0 到 JAM 的演进反映了“更少主观性”的理念——从特定领域到通用,从封装的平行链到任意服务,从可升级的协议复杂性到具有可升级应用程序的固定简单性。这种架构极简主义实现了在不断演进的系统中不可能实现的优化机会:固定参数允许积极的网络拓扑优化,已知时序实现精确的调度算法,不可变规范实现硬件加速而无过时风险。

五个驱动因素推动了 JAM 的设计:

通过去中心化实现的弹性需要 1000 多个独立的验证人运营商来维护所有服务的安全。JAM 的设计保留了波卡开创性的 NPoS,验证人获得平等的奖励,防止质押集中,同时保持强大的拜占庭容错能力。

通用性实现任意计算,超越区块链特定用例。PVM 接受任何 RISC-V 代码,支持从 Rust 和 C++ 到更奇特的实现语言。服务可以实现区块链、智能合约平台、ZK-Rollup、数据可用性层、预言机、存储网络或全新的计算模式。

实现“或多或少无限扩展”的性能来自水平并行化——增加核心可以扩展吞吐量而没有架构限制。850 MB/s 的目标代表了启动容量;弹性扩展和经济核心时间市场允许在需求增加时增加容量,而无需协议更改。

在需要时提供同步交互的一致性解决了困扰分片系统的可组合性问题。Accords 实现了服务之间信任最小化的协议强制,同步跨链代币转移以及以前在碎片化生态系统中不可能实现的原子多服务操作。

可访问性降低了门槛,使基础设施民主化。用即用即付的核心时间、无需许可的服务部署和灵活的资源分配取代数百万美元的平行链拍卖,使所有规模的项目——从独立开发者到企业团队——都能访问世界一流的基础设施。

竞争格局:JAM 与其他 Layer 0 和 Layer 1 方法的比较

JAM 相对于以太坊路线图的定位揭示了根本不同的扩展理念。以太坊追求以 L2 为中心的模块化,其中 L1 提供数据可用性和结算,而执行迁移到 Arbitrum、Optimism、Base 和 zkSync 等乐观和 ZK-Rollup。Proto-danksharding (EIP-4844) 增加了 blob 交易,提供临时数据可用性,并计划通过完整的 danksharding 将容量增加 100 倍。Proposer-Builder Separation (PBS) 和宣布的 Beam Chain 共识层重新设计继续优化 L1 的狭窄角色。

这种策略造成了持续的分区:L2 仍然是孤立的生态系统,流动性碎片化,信任假设各异,乐观 Rollup 有 7 天的提款期,排序器中心化风险,以及 L1 拥堵期间的费用波动会波及所有 L2。可组合性在每个 L2 内部运行顺畅,但跨 L2 交互会退回到带有桥接风险的异步消息传递。以太坊社区在以太坊 2.0 最初的分片愿景被证明过于复杂后接受了 L2 实用主义——但这种实用主义接受了作为固有权衡的根本限制。

JAM 追求以太坊 2.0 最初承诺的:将分片执行与一致状态原生构建到共识层中。以太坊将执行移到链下到 L2,而 JAM 通过 Refine-Accumulate 模型将并行执行构建到 L1 共识中。以太坊接受了碎片化的 L2 生态系统,而 JAM 通过服务和 Accords 提供统一的安全性和协议级可组合性。架构上的赌注根本不同——以太坊押注于专业的 L2 创新,JAM 押注于通用的 L1 可扩展性。

性能目标说明了其雄心:以太坊在 L1 上每秒处理大约 15 笔交易,每个区块数据可用性为 1.3 MB,而 L2s 共同处理数千 TPS,具有不同的安全假设。JAM 目标是 850 MB/s 的数据可用性(大约是以太坊 L1 的 650 倍)和 340 万+ TPS 的理论容量,具有统一的安全性。计算模型也存在根本差异——以太坊的顺序 EVM 执行与 JAM 的并行 350 核处理代表了解决扩展问题的根本不同方法。

带有跨链通信(IBC)协议的 Cosmos 代表了另一种 Layer 0 愿景,优先考虑主权而非共享安全性。Cosmos 区域是独立的主权区块链,拥有自己的验证人集合、治理和安全模型。IBC 通过轻客户端验证实现无需信任的通信——链独立验证对手方状态,而不依赖共享验证人或安全池。

这种主权优先的理念赋予每个区域完全的自治权:自定义共识机制、专业经济模型和独立的治理决策,无需协调开销。然而,主权也伴随着成本——新区域必须独立引导验证人集合和安全性,面临碎片化的安全性(对一个区域的攻击不会损害其他区域,但也意味着各区域的安全级别不同),并体验真正的异步通信,没有同步可组合性选项。

JAM 采取了相反的方法:安全优先,共享验证。所有 1023 个验证人从启动开始就保护每个服务,消除了引导挑战并提供统一的安全保证。服务牺牲了主权——它们在 JAM 的执行模型内运行并依赖共享验证人集合——但获得了即时安全性、协议级可组合性和更低的运营开销。哲学上的差异很深:Cosmos 优化主权独立性,JAM 优化一致集成。

Avalanche 子网提供了另一种比较架构,其中子网是主权 Layer 1 区块链,验证人选择验证。主网络验证人(需要 2000 AVAX 质押)可以额外验证他们选择的任何子网,从而为每个子网启用自定义验证人集合。这种水平安全模型(更多子网 = 更多验证人集合)与 JAM 的垂直安全模型(所有服务共享完整的验证人集合)形成对比。

子网架构实现了应用程序特定优化——游戏子网可以具有高吞吐量和低最终性,DeFi 子网可以优先考虑安全性和去中心化,企业子网可以实现许可验证人。Avalanche 的 Snowman 共识在子网内提供亚秒级最终性。然而,子网仍然大部分是隔离的:Avalanche Warp Messaging (AWM) 提供基本的跨子网通信,但没有 JAM 的 Accords 所实现的协议级可组合性或同步执行。

性能定位显示 Avalanche 强调亚秒级最终性(大约 1 秒,而 JAM 为 18 秒),但子网之间的安全性更加碎片化,而不是 JAM 的每个服务统一的 1023 个验证人。状态架构也存在根本差异:Avalanche 子网维护完全隔离的状态机,而 JAM 服务共享一个累积层,可以在调度到同一核心时实现跨服务读取和同步交互。

外部互操作性协议如 LayerZero、Wormhole、Chainlink CCIP 和 Axelar 服务于与 JAM 原生 XCMP 不同的目的。这些协议在完全不同的区块链生态系统之间进行桥接——以太坊到 Solana 到比特币到 Cosmos——依赖外部验证人、预言机或中继网络来确保安全。LayerZero 使用 Oracle + Relayer 模型,在 50 多个链上锁定了超过 60 亿美元的总价值。Wormhole 雇佣了 19 个守护者,验证了 10 亿多条消息,完全稀释估值为 107 亿美元。

JAM 的 XCMP 在不同的层级运行:生态系统内部通信,使用原生协议验证人而不是外部安全假设。JAM 中的服务不需要外部桥接即可交互——它们共享相同的验证人集合、共识机制和安全保证。这实现了外部桥接不可能实现的无需信任交互:同步调用、原子多服务操作、保证消息传递和协议级最终性。

战略定位表明共存而非竞争:JAM 使用 XCMP 进行内部通信,同时可能集成 LayerZero、Wormhole 或类似协议进行外部链连接。JAM 服务可以封装外部协议,用于桥接到以太坊、Solana、比特币或 Cosmos,提供两全其美的连接性——无需信任的内部操作与实用的外部桥接。

研究基础:学术严谨性和计算机科学的新颖贡献

JAM 灰皮书奠定了协议的学术基础,效仿以太坊黄皮书,提供正式的数学规范,支持多个独立实现。该文档于 2024 年 4 月发布 v0.1 版,并持续完善——2025 年 6 月的 v0.7.0 版增加了详细的 PVM 伪代码,2025 年 7 月的 v0.7.1 版纳入了社区反馈——预计到 2026 年初将接近 v1.0。这种通过社区审查的迭代规范开发与学术同行评审并行,提高了清晰度并发现了模糊之处。

灰皮书的摘要凝练了 JAM 的理论贡献:“我们提出了 Jam 的全面而正式的定义,Jam 是一种结合了 Polkadot 和 Ethereum 元素的协议。在一个单一的连贯模型中,Jam 提供了一个全局单例的无需许可对象环境——非常类似于以太坊开创的智能合约环境——并与通过可扩展节点网络并行化的安全侧链计算相结合,这是 Polkadot 开创的命题。”这种看似不兼容属性的综合——以太坊的无需许可可组合性与 Polkadot 的并行共享安全性——代表了 JAM 解决的核心理论挑战。

RISC-V 的选择作为 PVM 的基础反映了严格的计算机架构分析。RISC-V 源于加州大学伯克利分校的研究,是一种开源指令集架构,优先考虑简单性和可扩展性。与 x86 或 ARM 中数百条指令相比,RISC-V 只有 47 条基本指令,最大限度地减少了实现复杂性,同时保持了计算完整性。基于寄存器的架构避免了 WebAssembly 等基于堆栈的虚拟机中固有的 NP 完全寄存器分配问题,从而实现了更快的编译和更可预测的性能。

JAM 的 PVM 对标准 RISC-V 进行了最小的修改,主要增加了确定性内存管理和 Gas 计量,同时保留了与现有 RISC-V 工具链的兼容性。这种设计保守主义使得能够利用数十年的计算机架构研究和生产级编译器(LLVM),而不是构建自定义编译器基础设施。编译到 RISC-V 的语言——Rust、C、C++、Go 和许多其他语言——无需区块链特定的编译器修改即可自动与 JAM 兼容。

PVM 中的延续支持代表了一项重要的理论贡献。延续——暂停执行、序列化状态并在以后恢复的能力——实现了多区块异步计算,而无需复杂的手动状态管理。传统的区块链虚拟机缺乏延续支持,迫使开发者手动分块计算、持久化中间状态并在交易之间重建上下文。PVM 的内存中堆栈设计和确定性执行实现了一流的延续支持,极大地简化了长时间运行或跨区块的计算。

Refine-Accumulate 二元论在概念上映射到 Google 为分布式计算开创的 MapReduce 编程模型。Refine 作为 Map 阶段——在分布式工作者(验证人核心)之间进行尴尬的并行、无状态的输入到输出转换。Accumulate 作为 Reduce 阶段——将转换后的结果顺序集成到统一状态中。这种计算机科学模式在传统分布式系统中被证明在大规模上有效,优雅地适应了区块链的信任最小化环境,其中密码学验证取代了中心化协调。

SAFROLE 共识机制建立在数十年的分布式系统研究之上。该算法从 SASSAFRAS(Semi-Anonymous Sortition of Staked Assignees for Fixed-time Rhythmic Assignment of Slots)演变而来,为 JAM 的特定要求进行了简化,同时保留了关键属性:通过匿名验证人选择实现无分叉区块生产,通过基于 zkSNARK 的匿名性抵御有针对性的 DoS 攻击,直到区块生产,以及实现精确资源调度的确定性时序。

密码学基础结合了环形可验证随机函数(RingVRF)用于匿名证明验证人集合成员资格,以及 zkSNARKs 用于高效验证。提前两个周期的票证系统——验证人在区块生产前两个周期提交票证——在保持匿名保证的同时防止了各种攻击。这代表了现代密码学原语在解决实际共识挑战方面的优雅应用。

经济验证人(ELV)作为 ZK 证明验证的替代方案,提供了一种新颖的安全与成本权衡分析。JAM 的文档声称 ELV 在确保计算正确性方面比零知识证明成本效益高约 4000 倍。该模型依赖于加密经济安全性:随机选择的验证人重新执行工作以验证正确性,不正确的结果会触发争议和潜在的罚没。这种“乐观”方法,即除非受到质疑,否则假定正确性,类似于乐观 Rollup,但在协议级别运行,并在验证人审计后立即实现最终性。

未来可能会在混合安全模型中结合 ELV 和 ZK 证明:ELV 用于加密经济保证足以满足的有界安全性,ZK 证明用于需要数学确定性的无界安全性。这种灵活性使应用程序能够选择符合其要求和经济约束的安全模型,而不是强制采用一刀切的方法。

JAM 的新颖理论贡献包括:

无交易区块链范式挑战了区块链架构的一个基本假设。比特币、以太坊以及几乎所有后续链都围绕交易组织——内存池中竞争区块包含的签名用户操作。JAM 完全消除了交易:所有状态更改都通过包含工作项的工作包进行,这些工作项经过 Refine 和 Accumulate 阶段。这种根本不同的模型引发了关于 MEV(最大可提取价值)、抗审查性和用户体验的有趣研究问题,学术界尚未完全探索。

部分一致性共识代表了完全一致(单片链)和完全不一致(隔离分片)系统之间的新颖定位。JAM 在服务共同定位在核心上的关键 6 秒窗口内保证一致性,同时接受跨核心的异步性。驱动一致性模式的经济机制——排序器优化工作包组合以最大化吞吐量和最小化延迟——创造了一个有趣的博弈论问题。理性的经济参与者如何跨核心组织服务?会出现什么样的均衡?这些问题有待经验验证。

Accords 作为多实例智能合约管理独立服务之间的交互协议,引入了一种新颖的信任最小化原语。Accords 不依赖桥接或中继器进行跨服务通信,而是在 JAM 共识级别强制执行协议,同时将执行分布在服务边界之外。这种抽象实现了信任最小化模式,如直接代币传送、原子多服务操作和同步跨服务调用——这些理论能力需要经验验证其安全属性和经济可行性。

混合资源消耗优化创造了一个有趣的调度和经济问题。服务具有不同的资源配置文件——有些是计算密集型(ZK 证明验证),有些是数据密集型(可用性服务),还有一些是平衡的。最佳验证人资源利用率要求在工作包中配对互补服务。会出现什么样的机制来协调这种配对?互补服务捆绑市场如何发展?这代表了区块链经济学研究中未探索的领域。

通过前验状态根而不是后验状态根的流水线化实现了重叠的区块处理,但引入了处理争议的复杂性。如果区块 N 的重度 Accumulate 工作负载在区块 N+1 开始处理后发生,验证人如何处理差异?允许长达 1 小时最终性暂停以解决争议的判断机制提供了答案,但这种设计选择的安全影响值得正式分析。

形式化验证工作正在进行中,Runtime Verification 正在为 PVM 开发 K Framework 语义。K Framework 为定义编程语言和虚拟机语义提供了数学严谨性,从而能够对正确性属性进行形式化证明。可交付成果包括参考规范、调试器和属性测试工具。这种数学严谨性在航空航天和军事软件中很常见,但在区块链开发中相对罕见——代表了该领域向形式化方法的成熟。

综合:JAM 在区块链演进中的地位及其对 Web3 的影响

JAM 代表了十多年来区块链可扩展性研究的巅峰,试图构建前几代承诺但未能实现的功能。比特币引入了去中心化共识,但无法扩展到每秒 7 笔交易以上。以太坊增加了可编程性,但遇到了类似的吞吐量限制。以太坊 2.0 的最初愿景提出了原生分片和 64 条分片链,但被证明过于复杂,转而采用以 L2 为中心的实用主义。波卡开创了平行链的共享安全性,但有固定的 50 条链限制和基于拍卖的访问。

JAM 综合了这些尝试的经验教训:保持去中心化和安全性(比特币的教训),实现任意计算(以太坊的教训),通过并行化进行扩展(以太坊 2.0 的尝试),提供共享安全性(波卡的创新),增加同步可组合性(缺失的部分),并降低进入壁垒(可访问性)。

理论优雅与实际复杂性之间的权衡仍然是 JAM 的核心风险。该协议的设计在理论上是连贯的——Refine-Accumulate 二元论、PVM 延续、SAFROLE 共识、部分一致性执行都逻辑地结合在一起。但理论上的健全性并不能保证实际成功。以太坊从原生分片转向 L2 并非由于理论上的不可能,而是由于实现、测试和协调方面的实际复杂性。

JAM 的单一全面升级策略放大了其优点和缺点。成功将同时带来所有改进——42 倍数据可用性、无需许可的服务、同步可组合性、RISC-V 性能——在一次协调部署中。失败或延迟将影响整个升级,而不是交付增量改进。43 个独立的实现团队、广泛的测试网阶段和 JAM Toaster 全规模测试旨在减轻风险,但协调 1023 个验证人进行重大架构转换在区块链历史上仍然是前所未有的。

从平行链拍卖到核心时间市场的经济模型转型代表了一种在规模上未经测试的机制。虽然波卡的敏捷核心时间已于 2024 年上线,但 JAM 基于服务的模型和无需许可的部署创造了全新的经济动态。核心时间市场将如何为不同服务类型定价?流动性会集中在特定核心吗?排序器如何优化工作包组合?这些问题在主网部署之前缺乏经验答案。

开发者采纳取决于 JAM 的新型编程模型——Refine/Accumulate/onTransfer 入口点、无状态然后有状态执行、基于延续的异步——是否提供足够的价值来证明学习曲线的合理性。以太坊的成功部分源于 EVM 对开发者的熟悉度,尽管效率低下。JAM 的 PVM 提供了卓越的性能,但需要围绕工作包和服务重新思考应用程序架构。无需许可的部署和消除拍卖大大降低了财务门槛,但思维模式的转变可能比财务上的挑战更大。

随着 JAM 的部署,竞争动态也在演变。以太坊 L2 具有显著的网络效应、流动性和开发者心智份额。Solana 以更简单的编程模型提供卓越的性能。Cosmos 提供了某些项目高度重视的主权。JAM 不仅要提供技术能力,还要吸引生态系统参与者——开发者、用户、资本——这些使区块链网络变得有价值。波卡现有的生态系统提供了基础,但要扩展到现有参与者之外,需要引人注目的迁移价值主张。

JAM 引入的研究贡献无论商业成功与否都具有价值。无交易区块链架构、部分一致性共识、用于信任最小化跨服务协议的 Accords、混合资源消耗优化以及 PVM 基于延续的执行模型都代表了推动区块链计算机科学发展的新颖方法。即使 JAM 本身未能获得主导市场地位,这些创新也将为未来的协议设计提供信息,并扩展区块链可扩展性的解决方案空间。

如果 JAM 实现了性能目标,对 Web3 的长期影响将包括去中心化应用程序架构方式的根本转变。当前“部署到区块链”(以太坊 L1、Solana、Avalanche)或“构建自己的区块链”(Cosmos、波卡平行链)的范式增加了一个中间选项:“部署为服务”,具有即时共享安全性、灵活的资源分配以及与更广泛生态系统的可组合性。这可以通过消除基础设施顾虑来加速创新——团队专注于应用程序逻辑,而 JAM 处理共识、安全性和可扩展性。

如果 JAM 实现了性能目标,去中心化全球计算机的愿景在架构上变得可行。在 850 MB/s 数据可用性、每秒 1500 亿 Gas 和 340 万+ TPS 容量下,计算吞吐量接近传统重要应用程序可以迁移到去中心化基础设施的水平。并非适用于所有用例——对延迟敏感的应用程序仍然面临根本性的光速限制,隐私要求可能与透明执行冲突——但对于协调问题、金融基础设施、供应链跟踪、数字身份和许多其他应用程序,去中心化计算在大规模上变得技术上可行。

JAM 在未来 2-5 年的成功指标将包括:部署的服务数量(衡量生态系统扩展)、生产中实现的实际吞吐量和数据可用性(验证性能声明)、核心时间市场的经济可持续性(证明经济模型有效)、开发者采纳指标(GitHub 活动、文档流量、教育项目参与)以及安全记录(没有重大漏洞或共识失败)。

最终的问题仍然是 JAM 是否代表了区块链设计空间的增量改进——比替代方案更好,但在能力上没有根本不同——还是代际飞跃,能够实现当前基础设施上不可能实现的全新应用类别。其架构基础——部分一致性执行、PVM 延续、Refine-Accumulate 二元论、Accords——表明后者是可能的。潜力能否转化为现实取决于执行质量、生态系统建设和超越纯技术优点的市场时机因素。

对于 Web3 研究人员来说,JAM 提供了一个丰富的实验平台,用于研究新颖的共识机制、执行架构、经济协调机制和安全模型。未来几年将产生经验数据,测试关于部分一致性共识、无交易架构和服务型区块链组织的理论预测。无论商业结果如何,所获得的知识都将为未来几十年的区块链协议设计提供信息。

Pump.fun 的公平启动悖论:为何在公平机制下仍有 98.6% 的项目失败

· 阅读需 10 分钟
Dora Noda
Software Engineer

当 “公平发射(fair launch)” 变成亏钱最公平的方式时,会发生什么?Pump.fun 承诺通过消除预售和内部份额分配来使 Memecoin 的创建民主化 —— 然而在该平台上发行的代币中,有 98.6% 最终变成了骗局。这并非系统漏洞,而可能正是其商业模式。

在瞬息万变的 Solana Memecoin 世界中,Pump.fun 既具有革命性,也具有警示意义。自首次亮相以来,该平台已处理了超过 300 万次代币发行,平均每分钟发行 7 个新代币。但问题在于:这些代币中只有 1.4% 能 “毕业” 进入主流交易市场,且平均寿命仅为 12 天。

一个旨在平衡竞争环境的平台,是如何沦为散户投资者的坟场的?而 Moonshot 和 SunPump 等新兴替代方案又如何改变了这一现状?

Bonding Curve(联合曲线)的承诺:数学上的公平,现实中的混乱

Pump.fun 创新的核心在于 Bonding Curve(联合曲线)—— 这是一种根据供需自动调节代币价格的数学定价机制。与需要前期流动性或复杂做市安排的传统代币发行不同,联合曲线通过智能合约实现了即时价格发现。

该公式看似简单:随着更多买家铸造代币,价格会沿着预定义的曲线(线性、指数型或 S 型)上涨;当卖家赎回代币时,价格则会下跌。这种机制消除了对外部做市商的需求,并为新发行项目创造了即时流动性。

Pump.fun 的具体实现要求代币市值达到约 69,000 美元才能 “毕业” —— 届时联合曲线任务完成,流动性将转移到 Solana 领先的去中心化交易所 Raydium。作为一项安全措施,平台会销毁流动性池(LP)代币,从理论上防止创建者通过抽走流动性来跑路(rug-pull)。

理论上如此。

98.6% 的难题:当公平发射遭遇掠夺性现实

研究机构 Solidus Labs 给出了令人震惊的结论:在 Pump.fun 上发行的代币中,有 98.6% 最终变成了骗局。这意味着每 1,000 个项目中,就有 986 个项目的创建者要么卷款跑路,要么向毫无戒心的买家抛售代币。

造成的经济损失是惊人的。虽然 Pump.fun 产生了 9.356 亿美元的平台收入,但据称用户损失在 40 亿至 55 亿美元之间。该平台的费用结构确保了它能从每笔交易中获利 —— 无论该代币是成功,还是成为 Memecoin 坟场中的又一个统计数字。

存活统计数据描绘了一幅更加惨淡的画面:

  • 在过去 3 个月发行的代币中,有 98% 已经归零
  • 平均寿命:12 天
  • 仅有 1.4% 的代币能 “毕业” 到 Raydium
  • 在毕业的项目中,仅 12 个代币(0.00009%)就占据了总市值的 55% 以上

在 Pump.fun 上,每 24 小时就有 10,417 个代币发行,同时有 9,912 个代币失效。该平台已成为一个高速运转的跑步机,新项目诞生和死亡的速度超过了大多数投资者处理信息的速度。

机器人入侵:被自动化劫持的公平发射

当机器人主导代币创建时,“公平发射” 的承诺便分崩离析。Coinbase 高管 Conor Grogan 透露,在 Pump.fun 等平台上,少数机器人贡献了绝大多数的代币发行量

最近的数据揭示了其规模:在 LetsBONK.fun(一个类似的 Memecoin 平台)上,13 个钱包在短短 24 小时内就发行了 4,200 多个代币。头部账户每三分钟就会部署一个新代币,制造人为的暴涨来套牢散户投资者。

这些自动化网络利用了联合曲线创造的 “快手得” 动态机制。虽然数学公式平等地对待所有买家,但拥有卓越执行速度和市场情报的机器人总能抢跑(front-run)散户参与者。结果呢?一个本该是 “公平发射” 的系统,竞争环境却极其不平等。

法律清算:5 亿美元诉讼与生存风险

这场金融屠杀并非无人关注。2023 年 1 月提起的一项 5 亿美元诉讼对 Pump.fun 的商业模式构成了生存威胁。法律挑战认为,该平台未能阻止骗局 —— 尽管从中获利丰厚 —— 这构成了过失或共谋。

时机再糟糕不过了。2026 年 7 月 12 日,目前锁定的 PUMP 代币总供应量的 41% 将进入流通。这一大规模解锁事件赋予了创始人和早期投资者出售的权利,在法律和声誉压力日益增加的关键时刻,这可能会让市场充斥着大量供应。

该平台面临着一个根本性问题:98.6% 的骗局率真的是不可避免的吗?还是说 Pump.fun 仅仅是因为缺乏动力去解决一个能带来稳定交易费的问题?

公平发射的演变:替代方案正在做出哪些改变

Memecoin 发射平台生态系统正在针对 Pump.fun 的失败进行演变。Moonshot 和 SunPump 代表了解决 “公平发射” 悖论的不同方法。

Moonshot:通缩机制作为安全保障

Moonshot 由 DexScreener 构建,采用了类似的无预售公平启动原则,但增加了关键的安全防护措施:

  1. 更高的迁移门槛:代币在迁移到 Raydium 之前必须达到 500 SOL(约 73,000 美元的市值),略高于 Pump.fun 的门槛。

  2. 自动代币销毁:当一个代币“毕业”(达到迁移门槛)时,Moonshot 会自动销毁 1.5 亿至 2 亿个代币,以产生通缩压力。从理论上讲,这种稀缺机制会提升长期价值。

  3. 流动性锁定:所有流动性通过销毁 LP 代币进行锁定,与 Pump.fun 相比,这为防止抽地毯(rug-pulls)提供了更强的保护。

这种通缩方法代表了一种哲学转变:不再仅仅依赖联合曲线(bonding curve),Moonshot 将代币经济学激励直接植入了启动过程。

SunPump:公平启动走向多链

SunPump 于 2024 年 8 月推出,将联合曲线模型引入了波场 (TRON) 网络。该平台镜像了 Pump.fun 的核心机制——无预售、无团队配额、联合曲线定价——同时受益于波场网络较低的交易手续费。

这种多链扩张凸显了一个关键趋势:公平启动机制是与平台无关的。问题不在于联合曲线是否有效,而在于如何防止它们被恶意行为者武器化。

反机器人创新:2026 年的前沿

在整个启动平台生态系统中,正在涌现出对抗机器人主导地位的新机制:

  • 反狙击保护:内置功能可防止机器人在启动后的第一个区块中买光供应量。
  • 声誉系统:参与者的历史记录决定代币分配的优先级,倾向于真实的社区成员而非女巫攻击者。
  • 联合曲线成熟度门槛:流动性迁移仅在特定的时间点和交易量里程碑后发生,而不仅仅是市值门槛。

这些创新承认了一个严峻的事实:当自动化和信息不对称占据主导地位时,数学上的公平并不能保证现实世界中的公平。

基础设施问题:BlockEden.xyz 位处何方?

对于在这个混乱生态中构建的开发者来说,基础设施的可靠性变得至关重要。无论是发布下一个迷因币(memecoin),还是构建用于在代币洪流中导航的分析工具,接入强大的 Solana RPC 基础设施是决定胜负的关键。

主导 Pump.fun 的机器人网络依赖于毫秒级的执行和实时的区块链数据。散户投资者和独立开发者需要同等的接入能力来竞争——或者至少避免成为他人的退出流动性。

BlockEden.xyz 提供企业级的 Solana RPC 基础设施,具有亚秒级延迟和 99.9% 的运行时间。对于在迷因币领域探索的开发者——无论是创建启动平台、交易机器人还是分析仪表盘——可靠的节点接入不是可选项,而是必需项。探索我们的 Solana API 服务,在旨在紧跟区块链最快生态系统步伐的基础设施上进行构建。

未解决的悖论:接下来会发生什么?

Pump.fun 的故事揭示了加密领域的一个根本性张力:去中心化和无许可创造了机会,但也促成了大规模的掠夺行为。公平启动机制解决了一个问题(内部人士权限),同时创造了另一个问题(机器人主导和诈骗激增)。

该平台 9.35 亿美元的收入证明了对民主化代币创建的需求。而 40 亿至 55 亿美元的用户损失证明了当前模型对大多数参与者来说是不可持续的。

随着生态系统的演变,出现了三种潜在的未来:

  1. 监管介入:5 亿美元的诉讼可能会迫使平台实施诈骗预防措施,即使这与无许可的理想相冲突。

  2. 技术创新:反机器人机制、声誉系统和增强的代币经济学可能会创造出真正更公平的启动方式。

  3. 市场成熟:投资者变得更加精明,机器人操作者榨取的价值减少,只有高质量的项目才能吸引资金——这是生态系统规模的优胜劣汰。

迷因币赌场短期内不会关闭。但它最终是成为一个可持续的生态系统,还是成为一个永久的坟场,取决于是否能解决其核心悖论:让“公平启动”真正变得公平。

来源