跳到主要内容

33 篇博文 含有标签「可扩展性」

区块链扩容解决方案和性能

查看所有标签

Layer 2 整合之战:Base 与 Arbitrum 如何夺取以太坊 77% 的未来

· 阅读需 17 分钟
Dora Noda
Software Engineer

当 Vitalik Buterin 在 2026 年 2 月宣布以太坊以 Rollup 为中心的路线图“不再有意义”时,他并不是在批评 Layer 2 技术——他是在承认一个已经显而易见数月的残酷市场事实:大多数 Layer 2 Rollup 已经消亡,只是它们自己还没意识到。

Base(占据 Layer 2 DeFi TVL 的 46.58%)和 Arbitrum(30.86%)现在控制了 Layer 2 生态系统总锁仓量的 77% 以上。Optimism 又贡献了约 6%,使得前三名占据了 83% 的市场主导地位。对于剩下的 50 多个还在争夺残羹剩饭的 Rollup 来说,数学逻辑是无情的:没有差异化,没有用户,没有可持续的经济模型,灭绝不是一种可能——而是已经注定的。

数据揭示生存现状

The Block 的 2026 年 Layer 2 展望描绘了一幅极端整合的图景。Base 在 2025 年成为了 TVL、用户和活跃度方面的明确领导者。与此同时,大多数新的 Layer 2 在激励周期结束后出现了使用量崩塌,这表明积分驱动的 TVL 投资并不是真实需求——它是租来的注意力,一旦奖励停止就会烟消云散。

交易量实时展示了这种统治地位。Base 经常在日交易量上领先,每月处理超过 5,000 万笔交易,而 Arbitrum 为 4,000 万笔。在成熟的 DeFi 协议、游戏和 DEX 活动的推动下,Arbitrum 每天仍处理 150 万笔交易。Optimism 以 80 万笔日交易量紧随其后,尽管它展现出了增长势头。

日活跃用户方面,Base 拥有超过 100 万个活跃地址——这一指标反映了 Coinbase 将散户用户直接引导至其 Layer 2 的能力。Arbitrum 保持着约 250,000-300,000 的日活跃用户,主要集中在 DeFi 资深用户和早期迁移的协议中。Optimism 在 OP Mainnet 上平均每天有 82,130 个活跃地址,周活跃用户达到 422,170 个(增长 38.2%)。

赢家和输家之间的鸿沟是巨大的。前三大 Layer 2 占据了 80% 以上的活动,而其他数十个 Layer 2 加起来也无法突破两位数的百分比。许多新兴的 Layer 2 遵循了完全相同的轨迹:在代币生成事件(TGE)之前出现激励驱动的活动激增,随后随着流动性和用户迁移到成熟生态系统,在 TGE 后迅速下降。这是 Layer 2 版本的“拉高出货”(pump-and-dump),只不过这些团队真心相信他们的 Rollup 是与众不同的。

第一阶段欺诈证明:至关重要的安全门槛

2026 年 1 月,Arbitrum One、OP Mainnet 和 Base 在 L2BEAT 的 Rollup 分级中达到了“第一阶段”(Stage 1)状态——这一里程碑听起来很专业,但它代表了 Layer 2 安全运行方式的根本转变。

第一阶段意味着这些 Rollup 现在通过了“离场测试”:即使存在恶意运营者,甚至即使安全委员会消失,用户也可以退出。这是通过无许可欺诈证明实现的,它允许任何人在链上挑战无效的状态转换。如果运营者试图窃取资金或审查提款,验证者可以提交欺诈证明,撤销恶意交易并惩罚攻击者。

Arbitrum 的 BoLD(受限流动性延迟)系统允许任何人参与验证链状态并提交挑战,消除了中心化验证者的瓶颈。BoLD 已在 Arbitrum One、Arbitrum Nova 和 Arbitrum Sepolia 上线,使其成为首批实现完全无许可欺诈证明的主要 Rollup 之一。

Optimism 和 Base(运行在 OP Stack 上)已经实施了无许可欺诈证明,允许任何参与者挑战状态根。欺诈证明过程的去中心化消除了困扰早期乐观 Rollup(Optimistic Rollups)的单点故障问题,即在早期只有白名单验证者才能对欺诈交易提出异议。

重要意义:第一阶段的 Rollup 不再需要信任多签(multisig)或治理委员会来防止盗窃。如果 Arbitrum 的团队明天消失,该链将继续运行,用户仍然可以提取资金。对于大多数仍处于“第零阶段”(Stage 0)的 Layer 2 来说并非如此——它们仍然是中心化的、由多签控制的网络,退出取决于运营者的诚信。

对于评估 Layer 2 的企业和机构来说,第一阶段是基本要求。你不能在要求用户信任 9 分之 5 多签的同时推销去中心化基础设施。到 2026 年年中仍未达到第一阶段的 Rollup 面临着信誉危机:如果你已经上线超过 2 年仍然无法实现安全去中心化,你的借口是什么?

Layer 2 大灭绝事件

Vitalik 在 2026 年 2 月的声明不仅是哲学上的——它是有链上数据支持的现实检查。他认为,以太坊 Layer 1 的扩展速度超过了预期,更低的费用和更高的容量减少了对泛滥的通用 Rollup 的需求。如果以太坊主网通过 PeerDAS 和数据可用性采样可以处理超过 10,000 TPS,为什么用户要分散在数十个相同的 Layer 2 中?

答案是:他们不会。Layer 2 空间正在收缩为两类:

  1. 商品化 Rollup:在费用和吞吐量上进行竞争(Base、Arbitrum、Optimism、Polygon zkEVM)
  2. 专业化 Layer 2:具有根本不同的执行模型(zkSync 为企业提供的 Prividium、Immutable X 用于游戏、dYdX 用于衍生品)

介于两者之间的一切——没有分发渠道、没有独特功能、除了“我们也是 Layer 2”之外没有存在理由的通用 EVM Rollup——都面临灭绝。

数十个 Rollup 在 2024-2025 年间推出,使用了近乎相同的技术栈:OP Stack 或 Arbitrum Orbit 的分叉、乐观或 ZK 欺诈证明、通用的 EVM 执行。它们在积分计划和空投承诺上展开竞争,而不是产品差异化。当代币生成事件结束、激励枯竭时,用户集体流失。TVL 在几周内萎缩了 70-90%。日交易量跌至三位数。

这种模式重复得如此频繁,以至于成了一个梗:“激励测试网 → 积分耕作 → TGE → 幽灵链”。

**以太坊域名服务(ENS)**在 Vitalik 发表评论后,于 2026 年 2 月放弃了其计划中的 Layer 2 推出,认为推出一条独立链的复杂性和碎片化不再能抵消边际扩展收益。如果 ENS——这个最成熟的以太坊应用之一——都无法证明 Rollup 的合理性,那么更新、差异化程度更低的链还有什么希望呢?

Base 的 Coinbase 优势:分发即护城河

Base 的主导地位并非纯粹源于技术 —— 而是分发。Coinbase 可以直接将数百万零售用户引入 Base,而无需让他们意识到自己已经离开了以太坊主网。当 Coinbase 钱包默认设置为 Base,当 Coinbase Commerce 在 Base 上进行结算,当 Coinbase 超过 1.1 亿的验证用户收到“尝试使用 Base 以降低费用”的提示时,飞轮旋转的速度将超过任何激励计划所能匹配的速度。

Base 在 2025 年处理了超过 100 万的日活跃地址,这是其他 L2 望尘莫及的。这些用户群并不是投机性空投猎人(mercenary airdrop farmers) —— 他们是信任 Coinbase 并遵循提示的零售加密用户。他们并不关心去中心化阶段或欺诈证明机制。他们只关心交易费用只需几分钱并且能够即时结算。

Coinbase 还受益于其他 L2 所缺乏的监管明确性。作为一个上市的、受监管的实体,Coinbase 可以直接与银行、金融科技公司和企业合作,而这些机构通常不会接触伪匿名(pseudonymous)的 Rollup 团队。当 Stripe 集成稳定币支付时,它优先选择了 Base。当 PayPal 探索区块链结算时,Base 也在讨论之列。这不仅仅是加密货币 —— 这是大规模的传统金融(TradFi)引入。

潜在问题:Base 继承了 Coinbase 的中心化属性。如果 Coinbase 决定审查交易、调整费用或修改协议规则,用户的追诉权有限。第一阶段(Stage 1)安全性有所帮助,但实际情况是,Base 的成功取决于 Coinbase 作为一个值得信赖的运营方。对于 DeFi 纯粹主义者来说,这是一个原则性问题。对于主流用户来说,这是一个特性 —— 他们想要带有“辅助轮”的加密货币,而 Base 满足了这一点。

Arbitrum 的 DeFi 堡垒:为什么流动性比用户更重要

Arbitrum 走了一条不同的道路:它没有直接招揽零售用户,而是早期捕获了 DeFi 的核心协议。GMX、Camelot、Radiant Capital、Sushi、Gains Network —— Arbitrum 成为了衍生品、永续合约和高成交量交易的默认链。这创造了一个几乎无法撼动的流动性飞轮。

Arbitrum 在 DeFi 中的 TVL 主导地位(30.86%)不仅关乎资金 —— 更关乎网络效应。交易者会去流动性最深的地方。做市商会部署在交易量最高的地方。协议会在用户已经进行交易的地方进行集成。一旦这个飞轮旋转起来,竞争对手需要 10 倍好的技术或激励措施才能将用户拉走。

Arbitrum 还通过与 Treasure DAO、Trident 等合作伙伴在游戏和 NFT 领域进行了大量投资。2026 年启动的 2.15 亿美元游戏催化剂计划针对的是需要高吞吐量和低费用的 Web3 游戏 —— 这些用例是 Layer 1 以太坊无法竞争的,且与 Base 的零售重点不完全契合。

与 Base 不同,Arbitrum 没有企业母公司引流用户。它通过先吸引开发者,再吸引用户的方式有机增长。这使得增长速度较慢,但粘性更高。迁移到 Arbitrum 的项目通常会留下来,因为他们的用户、流动性和集成已经在那儿了。

面临的挑战:Arbitrum 的 DeFi 护城河正受到 Solana 的攻击,后者为同样的高频交易用例提供了更快的最终性和更低的费用。如果衍生品交易者和做市商认为以太坊的安全性保障不值得这些成本,Arbitrum 的 TVL 流向竞争性 L1 的速度可能会超过新 DeFi 协议取代它的速度。

zkSync 的企业级转型:当零售端受挫,转向银行

zkSync 进行了所有主要 L2 中最大胆的转型。在多年针对零售 DeFi 用户并与 Arbitrum 和 Optimism 竞争之后,zkSync 在 2026 年 1 月宣布,其主要重点将通过 Prividium(一个基于 ZK Stack 构建的保护隐私、带权限的企业层)转向机构金融。

Prividium 通过保护隐私、锚定以太坊的企业网络将去中心化基础设施与机构需求连接起来。德意志银行(Deutsche Bank)和瑞银集团(UBS)是首批合作伙伴,共同探索链上基金管理、跨境批发支付、抵押资产流动和代币化资产结算 —— 所有这些都具备企业级的隐私和合规性。

价值主张:银行在获得区块链效率和透明度的同时,无需在公共链上暴露敏感的交易数据。Prividium 使用零知识证明来验证交易,而无需透露金额、参与方或资产类型。它符合 MiCA(欧盟加密监管),支持权限访问控制,并将安全性锚定在以太坊主网。

zkSync 的路线图优先考虑了 Atlas(15,000 TPS)和 Fusaka(30,000 TPS)升级,并得到了 Vitalik Buterin 的认可,将 ZK Stack 定位为公共 Rollup 和私人企业链的基础设施。$ZK 代币通过 Token Assembly 获得实用性,该议会将 Prividium 的收入与生态系统增长联系起来。

风险:zkSync 押注企业级采用将抵消其不断下降的零售市场份额。如果德意志银行和瑞银的部署取得成功,zkSync 将捕获一个 Base 和 Arbitrum 尚未触及的蓝海市场。如果企业对链上结算犹豫不决,或者监管机构拒绝基于区块链的金融,zkSync 的转型将变成死胡同,并同时失去零售 DeFi 和机构收入。

导致 Rollup 走向消亡的因素:三种失败模式

回顾 L2 的“坟墓”,我们可以总结出 Rollup 失败的三种模式:

1. 缺乏分发能力。 即使构建了一个技术上更优越的 Rollup,如果没有人使用,也毫无意义。开发者不会在“幽灵链”上部署应用,用户也不会向没有应用的 Rollup 跨链。冷启动问题非常残酷,大多数团队都低估了启动一个双边市场所需投入的资本和精力。

2. 激励枯竭。 积分计划在失效之前确实有效。依赖流动性挖矿、追溯性空投和收益农场来启动 TVL 的团队会发现,一旦奖励停止,投机资本就会立刻撤离。可持续发展的 Rollup 需要的是有机需求,而不是租赁来的流动性。

3. 缺乏差异化。 如果你的 Rollup 唯一的卖点是“我们比 Arbitrum 更便宜”,那么你正在进行一场走向终点的价格战。以太坊主网正在变得更便宜,Arbitrum 正在变得更快,Base 拥有 Coinbase。你的护城河是什么?如果答案是“我们拥有一个伟大的社区”,那么你已经离失败不远了——只是你还没承认而已。

到 2026 年还能存活下来的 Rollup 必定已经彻底解决了上述问题中的至少一个。其余的将逐渐沦为“僵尸链”:技术上仍在运行,但在经济上已无足轻重;它们运行着每天仅处理少量交易的验证者,等待着一场永远不会到来的优雅关停,因为根本没有人关心到要去“关灯”。

企业级 Rollup 浪潮:机构即分发

2025 年标志着“企业级 Rollup”的兴起——大型机构开始推出或采用 L2 基础设施,通常标准化使用 OP Stack。Kraken 推出了 INK,Uniswap 发布了 UniChain,索尼(Sony)推出了用于游戏和媒体的 Soneium,Robinhood 则集成了 Arbitrum 作为准 L2 结算通道。

这一趋势在 2026 年继续延续,企业意识到他们可以根据特定需求部署定制化的 Rollup:许可访问、自定义费用结构、合规挂钩以及与遗留系统的直接集成。这些并不是与 Base 或 Arbitrum 竞争的公有链——它们是恰好使用了 Rollup 技术并向以太坊结算以保证安全性的私有基础设施。

这意味着:Layer 2 的总数可能会增加,但真正重要的“公有” L2 数量却在萎缩。大多数企业级 Rollup 不会出现在 TVL 排名、用户统计或 DeFi 活动中。它们是不可见的基础设施,而这正是其核心意义所在。

对于在公有 L2 上构建的开发者来说,这创造了一个更清晰的竞争格局。你不再是与每一个 Rollup 竞争——你是在与 Base 的分发能力、Arbitrum 的流动性以及 Optimism 的 OP Stack 生态系统竞争。除此之外的其他项目大多只是噪音。

2026 年的格局:三大平台主导的未来

到年底,Layer 2 生态系统可能会围绕三个主导平台进行整合,每个平台服务于不同的市场:

Base 占据了散户和主流采用。对于通用型竞争对手来说,Coinbase 的分发优势是无法逾越的。任何针对普通用户的项目都应该默认选择 Base,除非有必须不选的理由。

Arbitrum 占据了 DeFi 和高频应用。流动性护城河和开发者生态系统使其成为衍生品、永续合约和复杂金融协议的首选。如果 2.15 亿美元的催化剂计划取得成效,游戏和 NFT 仍将是其增长引擎。

zkSync/Prividium 占据了企业和机构金融。如果德意志银行(Deutsche Bank)和瑞银(UBS)的试点取得成功,zkSync 将捕获公有 L2 因合规和隐私要求而无法触及的市场。

Optimism 作为 OP Stack 提供商而存活——与其说它是一条独立链,不如说它是驱动 Base、企业级 Rollup 和公共产品的基础设施层。其价值通过超级链(Superchain)愿景实现,几十条 OP Stack 链在其中共享流动性、消息传递和安全性。

其他所有项目——Polygon zkEVM、Scroll, Starknet, Linea, Metis, Blast, Manta, Mode 以及其他 40 多个公有 L2——将争夺剩余 10-15% 的市场份额。一些项目会找到利基市场(如游戏领域的 Immutable X,衍生品领域的 dYdX),但大多数则不会。

开发者为何应关注(以及该在哪里构建)

如果你在以太坊上构建,2026 年对 L2 的选择不是技术性的,而是战略性的。Optimistic Rollups 和 ZK Rollups 已经趋于一致,对于大多数应用来说,性能差异已微乎其微。现在重要的是分发、流动性和生态契合度。

在 Base 上构建,如果: 你的目标是主流用户、构建消费级应用或与 Coinbase 产品集成。这里的用户入驻摩擦最低。

在 Arbitrum 上构建,如果: 你正在构建需要深厚流动性和成熟协议的 DeFi、衍生品或高吞吐量应用。这里的生态效应最强。

在 zkSync/Prividium 上构建,如果: 你的目标是机构、需要隐私保护交易或需要合规就绪的基础设施。这里的企业聚焦是其独特之处。

在 Optimism 上构建,如果: 你认同超级链愿景、想要定制 OP Stack Rollup 或重视公共产品资助。这里的模块化程度最高。

不要在僵尸链上构建。 如果一个 Rollup 的日活跃用户少于 10,000 名,TVL 低于 1 亿美元,且推出已超过一年,那么它不是处于“早期”——而是已经失败了。以后再进行迁移的成本将远高于今天直接在主导链上启动的成本。

对于在以太坊 Layer 2 上构建的项目,BlockEden.xyz 在 Base、Arbitrum、Optimism 和其他领先网络上提供企业级 RPC 基础设施。无论你是在引导散户用户、管理 DeFi 流动性,还是扩展高吞吐量应用,我们的 API 基础设施都能满足生产级 Rollup 的需求。探索我们的多链 API 市场,在真正重要的 Layer 2 上进行构建。

参考来源

MegaETH 主网发布:实时区块链能否撼动以太坊 L2 巨头的地位?

· 阅读需 13 分钟
Dora Noda
Software Engineer

区块链世界刚刚见证了一个非凡时刻。2026 年 2 月 9 日,MegaETH 发布了其公共主网,并做出了一个大胆的承诺:每秒交易处理量(TPS)达到 100,000 次,出块时间仅为 10 毫秒。仅在压力测试期间,该网络就处理了超过 107 亿次交易——在短短一周内就超过了以太坊整个十年的历史交易总量。

但营销炒作能否转化为生产现实?更重要的是,这个由 Vitalik 支持的新秀能否在以太坊 Layer 2 战争中挑战 Arbitrum、Optimism 和 Base 已确立的主导地位?

承诺:实时区块链时代来临

大多数区块链用户都经历过等待交易确认数秒甚至数分钟的挫败感。即使是以太坊最快的 Layer 2 解决方案,其最终确认时间也在 100-500 毫秒之间,且每秒处理的交易量最高也仅为数万次。对于大多数 DeFi 应用来说,这是可以接受的。但对于高频交易、实时游戏和需要即时反馈的 AI 代理来说,这些延迟是致命的。

MegaETH 的主张简单而激进:彻底消除链上“延迟”。

该网络的目标是实现 100,000 TPS 和 1-10 毫秒的出块时间,打造团队所称的“首个实时区块链”。为了更直观地理解这一点,这意味着 1,700 Mgas/s(每秒百万 Gas)的计算吞吐量——完全让 Optimism 的 15 Mgas/s 和 Arbitrum 的 128 Mgas/s 相形见绌。即使是 Base 宏伟的 1,000 Mgas/s 目标,相比之下也显得逊色。

该项目由以太坊联合创始人 Vitalik Buterin 和 Joe Lubin 通过母公司 MegaLabs 提供支持,在超额认购的代币销售中筹集了 4.5 亿美元,吸引了 14,491 名参与者,其中 819 个钱包达到了 18.6 万美元的个人分配上限。这种级别的机构和散户兴趣,使 MegaETH 成为进入 2026 年资金最充足、最受关注的以太坊 Layer 2 项目之一。

现实:压力测试结果

在加密行业,承诺是廉价的。重要的是现实环境下的可衡量性能。

MegaETH 最近的压力测试显示,持续吞吐量达到了 35,000 TPS——虽然明显低于 100,000 TPS 的理论目标,但与竞争对手相比依然令人印象深刻。在这些测试期间,网络在处理超过以太坊历史总量的 107 亿次交易时,保持了 10 毫秒的出块时间。

这些数字既揭示了潜力,也揭示了差距。在受控测试中实现 35,000 TPS 是非常了不起的。该网络在存在恶意攻击、MEV 提取和复杂智能合约交互的对抗性条件下,能否维持这些速度,仍有待观察。

其架构方法与现有的 Layer 2 解决方案有本质不同。虽然 Arbitrum 和 Optimism 使用乐观汇总(Optimistic Rollups)在链下打包交易并定期在以太坊 L1 上结算,但 MegaETH 采用了具有专用节点的三层架构:

  • 排序器节点 (Sequencer Nodes):实时排序并广播交易
  • 证明者节点 (Prover Nodes):验证并生成加密证明
  • 全节点 (Full Nodes):维护网络状态

这种并行的模块化设计可以跨核心同时执行多个智能合约而无冲突,理论上实现了极高的吞吐量目标。排序器会立即确认交易,而不是等待批量结算,这就是 MegaETH 实现亚毫秒级延迟的方式。

竞争格局:L2 战争白热化

以太坊的 Layer 2 生态系统已演变成一个竞争极其激烈的市场,胜负已分。截至 2026 年初,以太坊 Layer 2 解决方案的锁仓总价值(TVL)已达到 510 亿美元,预计到 2030 年将达到 1 万亿美元。

但这种增长分布并不均匀。Base、Arbitrum 和 Optimism 控制了约 90% 的 Layer 2 交易量。仅 Base 一家在最近几个月就占据了 L2 交易份额的 60%,利用了 Coinbase 的分发渠道和 1 亿潜在用户。Arbitrum 拥有 31% 的 DeFi 市场份额,并拥有 2.15 亿美元的游戏激励基金,而 Optimism 则专注于其超级链(Superchain)生态系统的互操作性。

大多数新的 Layer 2 在激励措施结束后都会崩盘,产生一些分析师所称的活动极少的“僵尸链”。整合浪潮是残酷的:如果你不在第一梯队,你可能正在为生存而战。

MegaETH 带着不同的价值主张进入了这个成熟且充满竞争的市场。它并不直接在费用或安全性上与通用型 L2 竞争,而是瞄准了实时性能可以解锁全新应用类别的特定用例:

高频交易

传统的中心化交易所(CEX)在微秒内处理交易。现有 L2 上的 DeFi 协议无法与 100-500 毫秒的最终性竞争。MegaETH 的 10 毫秒出块时间使链上交易更接近 CEX 的性能,有可能吸引目前因延迟而避开 DeFi 的机构流动性。

实时游戏

当前区块链上的链上游戏受制于明显的延迟,这破坏了沉浸感。亚毫秒级的确定性(Finality)支持响应灵敏的游戏体验,使其感觉像传统的 Web2 游戏,同时保持了区块链的可验证性和资产所有权保证。

AI 代理协作

每天进行数百万次微交易的自主 AI 代理需要即时结算。MegaETH 的架构专门针对需要高吞吐量、低延迟智能合约执行的 AI 驱动型应用进行了优化。

问题在于,这些特定的用例是否能产生足够的需求,以证明 MegaETH 与通用型 L2 并存的必要性,或者市场是否会进一步向 Base、Arbitrum 和 Optimism 整合。

机构采用信号

机构采用已成为区分成功的 Layer 2 项目与失败项目的关键。对于向链上应用配置资金的机构参与者来说,可预测的高性能基础设施现在已成为一项基本要求。

MegaETH 4.5 亿美元的代币销售展示了强烈的机构兴趣。从加密原生基金到战略合作伙伴的广泛参与,表明其信誉已超越了零售投机。然而,融资成功并不保证网络能被广泛采用。

真正的考验将在主网发布后的几个月内到来。值得关注的关键指标包括:

  • 开发者采用情况:是否有团队在 MegaETH 上构建 HFT 协议、游戏和 AI 代理应用?
  • TVL 增长:资金是否流入 MegaETH 原生 DeFi 协议?
  • 交易量的可持续性:网络能否在压力测试之外保持高 TPS?
  • 企业合作伙伴关系:机构交易公司和游戏工作室是否集成了 MegaETH?

早期指标显示兴趣正在增长。MegaETH 的主网发布恰逢 2026 年香港共识大会(Consensus Hong Kong 2026),这是一个战略性的时间选择,使该网络在亚洲机构区块链受众中获得最大的曝光度。

主网发布之际,Vitalik Buterin 本人也对以太坊长期以来以 Rollup 为中心的路线图提出了质疑,建议以太坊 L1 扩容应得到更多关注。这为 MegaETH 带来了机遇,也带来了风险:如果 L2 叙事走弱,则是机遇;但如果以太坊 L1 本身通过 PeerDAS 和 Fusaka 等升级实现更好的性能,则是风险。

技术现状核查

MegaETH 的架构主张值得推敲。10 万 TPS 的目标和 10 毫秒的出块时间听起来令人印象深刻,但有几个因素使这一叙事变得复杂。

首先,压力测试中实现的 3.5 万 TPS 代表的是受控、优化的条件。实际使用涉及多样的交易类型、复杂的智能合约交互和对抗性行为。在这些条件下保持一致的性能比合成基准测试要困难得多。

其次,三层架构引入了中心化风险。排序器(Sequencer)节点在交易排序方面拥有巨大权力,创造了 MEV 提取机会。虽然 MegaETH 可能会包含分配排序器责任的机制,但具体细节对安全性和抗审查性至关重要。

第三,排序器的“软确认(Soft Finality)”与证明生成及以太坊 L1 结算后的“硬确认(Hard Finality)”之间存在差异。在声称亚毫秒级性能时,用户需要清楚 MegaETH 的营销指的是哪种确定性。

第四,并行执行模型需要精细的状态管理以避免冲突。如果多个交易触及同一个智能合约状态,它们就无法真正并行运行。MegaETH 方法的有效性很大程度上取决于工作负载特性——具有天然可并行化交易的应用将比那些频繁发生状态冲突的应用受益更多。

最后,开发者工具和生态系统兼容性与原生性能同样重要。以太坊的成功部分源于标准化的工具(Solidity, Remix, Hardhat, Foundry),这些工具让开发变得无缝。如果 MegaETH 需要对开发工作流程进行重大更改,无论速度优势如何,其采用率都会受到影响。

MegaETH 能否撼动 L2 巨头的地位?

诚实的回答是:可能无法完全撼动,但或许并不需要。

Base、Arbitrum 和 Optimism 已经建立了网络效应、数十亿美元的 TVL 以及多样化的应用生态系统。它们以合理的费用和安全性有效地满足了通用需求。要完全取代它们,不仅需要卓越的技术,还需要生态系统迁移,而这是极其困难的。

然而,MegaETH 不需要赢得全面胜利。如果它能成功占领高频交易、实时游戏和 AI 代理协作市场,它可以作为专门的 Layer 2 与通用型竞争对手并存而繁荣。

区块链行业正朝着特定应用的架构迈进。Uniswap 推出了专门的 L2。Kraken 构建了用于交易的 Rollup。索尼(Sony)创建了专注于游戏的链。MegaETH 顺应了这一趋势:为延迟敏感型应用量身定制的基础设施。

关键成功因素包括:

  1. 兑现性能承诺:在生产环境中保持 3.5 万+ TPS 和 <100 毫秒的确定性将是非常了不起的。实现 10 万 TPS 和 10 毫秒的出块时间将是变革性的。

  2. 吸引杀手级应用:MegaETH 至少需要一个能展示出优于替代方案的明显优势的突破性协议。一个具有 CEX 级别性能的 HFT 协议,或是一个拥有数百万用户的实时游戏,都将验证这一论点。

  3. 管理中心化担忧:透明地解决排序器中心化和 MEV 风险,可以与关注抗审查性的机构用户建立信任。

  4. 构建开发者生态系统:工具、文档和开发者支持决定了建设者是否会选择 MegaETH 而非成熟的替代方案。

  5. 应对监管环境:实时交易和游戏应用会引起监管关注。明确的合规框架对机构采用至关重要。

结论:审慎乐观

MegaETH 代表了以太坊扩容领域真正的技术进步。压力测试结果令人印象深刻,其背后的支持力量十分可靠,且对应用场景的关注也非常务实。实时区块链解锁了那些在当前基础设施上根本无法存在的应用程序。

但保持怀疑态度也是理所应当的。我们已经见过许多 “以太坊杀手” 和 “下一代 L2” 未能兑现其营销噱头。理论性能与生产环境可靠性之间的差距往往巨大。网络效应和生态锁定往往更偏向于现有的领先者。

接下来的六个月将是决定性的。如果 MegaETH 在生产环境中能保持压力测试的性能,吸引有意义的开发者活动,并展示出在 Arbitrum 或 Base 上无法实现的真实应用场景,它将在以太坊 Layer 2 生态系统中赢得一席之地。

如果压力测试的性能在现实世界的负载下退化,或者专业化的应用场景未能实现,MegaETH 可能会面临沦为又一个在日趋集中的市场中苦苦寻求存在感的过度炒作项目的风险。

区块链行业不需要更多通用型的 Layer 2。它需要能够赋能全新应用类别的专业化基础设施。MegaETH 的成功或失败将验证实时区块链是一个极具吸引力的类别,还是一个在寻找问题的解决方案。

BlockEden.xyz 为高性能区块链应用提供企业级基础设施,包括对以太坊 Layer 2 生态系统的专门支持。探索我们的 API 服务,专为严苛的延迟和吞吐量需求而设计。


参考来源:

Vitalik 的 L2 重磅言论:为什么以太坊以 Rollup 为中心的路线图“不再有意义”

· 阅读需 14 分钟
Dora Noda
Software Engineer

“你并没有在扩展以太坊。”

凭借这六个字,Vitalik Buterin 进行了一次现实检查,在以太坊生态系统中引起了轩然大波。这一声明针对的是使用多签桥的高吞吐量链,并立即引发了反应:ENS Labs 在几天后宣布取消其计划中的 Namechain Rollup,理由是以太坊基础层性能得到了显著提升。

在多年来将 Layer 2 Rollup 定位为以太坊主要扩展方案后,这位联合创始人在 2026 年 2 月的转向代表了区块链历史上最重要的战略转变之一。现在的悬念是,成千上万的现有 L2 项目能否适应——还是会走向淘汰。

以 Rollup 为中心的路线图:发生了什么变化?

多年来,以太坊的官方扩展策略一直以 Rollup 为中心。其逻辑很简单:以太坊 L1 将专注于安全性和去中心化,而 Layer 2 网络将通过在链下批量执行并将压缩数据传回主网来处理交易吞吐量。

这种路线图在以太坊 L1 挣扎于 15-30 TPS 且在高峰拥堵期间 Gas 费经常超过每笔交易 50 美元时是有意义的。Arbitrum、Optimism 和 zkSync 等项目筹集了数十亿美元来构建 Rollup 基础设施,旨在最终将以太坊扩展到每秒数百万笔交易。

但两个关键进展动摇了这一叙事。

首先,据 Buterin 称,L2 的去中心化进程比预期“慢得多”。大多数 Rollup 仍依赖于中心化排序器、多签升级密钥和受信任的运营商。迈向 Stage 2 去中心化——即 Rollup 可以在没有“辅助轮”的情况下运行——的旅程已被证明异常困难。目前只有少数项目达到了 Stage 1,而没有一个达到 Stage 2。

其次,以太坊 L1 本身进行了大幅扩展。2026 年初的 Fusaka 升级为许多用例带来了 99% 的费用削减。随着即将到来的 Glamsterdam 分叉,Gas 上限从 6000 万增加到 2 亿。零知识证明验证的目标是到 2026 年底在 L1 上实现 10,000 TPS。

突然之间,推动数十亿美元 L2 投资的前提——即以太坊 L1 无法扩展——显得值得怀疑。

ENS Namechain:第一个主要牺牲品

以太坊域名服务(ENS)决定放弃其 Namechain L2 Rollup,成为 Buterin 修正思路后的最高调验证。

ENS 一直在开发 Namechain 多年,作为专用 Rollup,以便比主网更廉价地处理域名注册和续费。在 2024 年的高峰拥堵期间,每笔注册的 Gas 费为 5 美元,当时的经济逻辑非常具有说服力。

到 2026 年 2 月,这一逻辑完全反转。以太坊 L1 上的 ENS 注册费用降至 5 美分以下——降幅达 99%。运行独立 L2 的基础设施复杂性、持续维护成本以及用户碎片化,已不再能支撑其微小的成本节省。

ENS Labs 并未放弃其 ENSv2 升级,这是对 ENS 合约的底层重写,提升了可用性和开发工具。相反,该团队将 ENSv2 直接部署到以太坊主网,避免了在 L1 和 L2 之间进行跨链桥接的协调开销。

这一取消信号预示着一种更广泛的模式:如果以太坊 L1 继续有效地扩展,专用场景的 Rollup 将失去其经济上的合理性。当基础层足够强大时,为什么还要维护独立的基础设施?

10,000 TPS 多签桥的问题

Buterin 对多签桥的批评切中了“扩展以太坊”真正含义的核心。

他的声明——“如果你创建了一个 10,000 TPS 的 EVM,而它与 L1 的连接是通过多签桥介导的,那么你并没有在扩展以太坊”——在真正的以太坊扩展与仅仅声称有关联的独立链之间划清了界限。

这种区别对于安全性和去中心化至关重要。

多签桥依赖一小群运营商来验证跨链交易。用户信任这群人不会合谋、不会被黑客攻击,也不会被监管机构影响。历史表明,这种信任经常被错付:跨链桥攻击已导致数十亿美元的损失,仅 Ronin Bridge 攻击事件就造成了超过 6 亿美元的损失。

真正的以太坊扩展会继承以太坊的安全保证。一个正确实现的 Rollup 使用欺诈证明或有效性证明来确保任何无效的状态转换都可以被挑战和撤销,并由以太坊 L1 验证者解决争议。用户不需要信任多签——他们信任的是以太坊的共识机制。

问题在于,达到这种级别的安全性在技术上非常复杂且昂贵。许多自称为“以太坊 L2”的项目在走捷径:

  • 中心化排序器:单个实体对交易进行排序,造成审查风险和单点故障。
  • 多签升级密钥:一小部分人可以在未经社区同意的情况下更改协议规则,从而可能窃取资金或改变经济模型。
  • 无退出保证:如果排序器下线或升级密钥被泄露,用户可能没有可靠的方式来提取资产。

这些并非理论上的担忧。研究显示,大多数 L2 网络仍比以太坊 L1 要中心化得多,去中心化被视为一个长期目标,而非当务之急。

Buterin 的论点强迫人们面对一个令人不安的问题:如果一个 L2 不继承以太坊的安全性,它真的是在“扩展以太坊”,还是仅仅是一个带有以太坊品牌的另类公链?

新的 L2 框架:超越扩容的价值

布特林并未完全放弃 L2,而是建议将其视为一系列与以太坊连接程度不同的网络,每一层都提供不同的权衡。

核心见解是,如果 L2 希望在以太坊 L1 性能提升的情况下保持竞争力,就必须在基础扩容之外提供更多价值:

隐私特性

像 Aztec 和 Railgun 这样的链使用零知识证明提供可编程隐私。这些功能很难在透明的公共 L1 上实现,从而形成了真正的差异化。

特定应用设计

专注于游戏的 Rollup,如 Ronin 或 IMX,针对高频、低额交易进行了优化,其最终性要求与金融应用不同。即使 L1 的扩容足以满足大多数用例,这种专业化也具有重要意义。

超快速确认

某些应用需要亚秒级的最终性,而 L1 的 12 秒区块时间无法提供。拥有优化共识机制的 L2 可以服务于这一细分市场。

非金融用例

身份、社交图谱和数据可用性与 DeFi 有着不同的需求。专业化的 L2 可以针对这些工作负载进行优化。

布特林强调,L2 应该“向用户明确其提供的保障”。那些在不说明安全模型、去中心化状态和信任假设的情况下,含糊地声称“扩容以太坊”的日子已经结束了。

生态系统的反应:适应还是否认?

对布特林言论的反应揭示了一个正在应对身份危机的、四分五裂的生态系统。

Polygon 宣布了一项战略转型,重点转向支付领域,明确承认通用型扩容正日益商品化。该团队认识到,差异化需要专业化。

Marc Boiron (Offchain Labs) 认为,布特林的评论“与其说是放弃 Rollup,不如说是提高了对它们的期望”。这种表述在承认需要更高标准的同时,保留了 Rollup 的叙事。

Solana 的支持者借此机会辩称,Solana 的单体架构完全避免了 L2 的复杂性,并指出以太坊的多链碎片化造成了比高性能单体 L1 更糟糕的用户体验 (UX)。

L2 开发者 通常通过强调吞吐量以外的功能——隐私、定制化、专业经济模型——来捍卫其相关性,同时私下里也承认,单纯的扩容方案正变得越来越难以立足。

大势所趋:L2 格局将分化为两类:

  1. 商品化 Rollup:主要在费用和吞吐量上竞争,可能会围绕几个主要玩家(Base、Arbitrum、Optimism)进行整合。

  2. 专业化 L2:具有根本不同的执行模型,提供 L1 无法复制的独特价值主张。

不属于这两类的链将面临不确定的未来。

L2 的生存之道

对于现有的 Layer 2 项目,布特林的转型既带来了生存压力,也提供了战略清晰度。生存需要跨多个方面的果断行动:

1. 加速去中心化

“我们最终会去中心化”的说法已不再被接受。项目必须公布具体的路线图,包括:

  • 无许可的排序器网络(或可靠的权威证明)
  • 移除或锁定升级密钥的时间锁
  • 实施具有保障退出机制的故障证明系统

那些在声称拥有以太坊安全性的同时保持中心化的 L2,特别容易受到监管审查和声誉损害。

2. 明确价值主张

如果 L2 的主要卖点仅仅是“比以太坊更便宜”,那么它需要一个新的定位。持续的差异化需要:

  • 专业功能:隐私、定制虚拟机执行、新颖的状态模型
  • 明确的目标受众:游戏?支付?社交?DeFi?
  • 诚实的安全披露:存在哪些信任假设?还剩下哪些攻击向量?

当用户可以通过 L2Beat 等工具比较实际的去中心化指标时,营销虚假宣传将不再奏效。

3. 解决桥接安全性问题

多签桥是 L2 安全性中最薄弱的一环。项目必须:

  • 为去信任桥接实施欺诈证明或有效性证明
  • 为紧急干预增加时间延迟和社交共识层
  • 提供即便排序器失效也能正常运作的保障退出机制

当涉及到数十亿美元的用户资金时,桥接安全性不能只是事后才考虑的问题。

4. 专注于互操作性

碎片化是以太坊最大的用户体验 (UX) 问题。L2 应当:

  • 支持跨链消息标准(LayerZero、Wormhole、Chainlink CCIP)
  • Enable 跨链的无缝流动性共享
  • 构建抽象层以向终端用户隐藏复杂性

获胜的 L2 将让人感觉是以太坊的延伸,而不是孤立的岛屿。

5. 接受整合

现实点说,市场无法支持 100 多个可行的 L2。许多项目将需要合并、转型或体面地关闭。团队越早意识到这一点,就越能更好地寻求战略合作伙伴或人才收购,而不是慢慢变得无足轻重。

以太坊 L1 扩容路线图

在 L2 面临身份危机的同时,以太坊 L1 正在执行一项激进的扩容计划,这为 Buterin 的论点提供了有力支持。

Glamsterdam 分叉(2026 年中期): 引入区块访问列表(BAL),通过将交易数据预加载到内存中来实现完美的并行处理。Gas 限制从 6,000 万增加到 2 亿,大幅提升了复杂智能合约的吞吐量。

零知识证明验证: 2026 年开启的第一阶段计划将 10% 的验证者过渡到 ZK 验证,验证者通过验证数学证明来确认区块的准确性,而无需重新执行所有交易。这使得以太坊能够在保持安全性和去中心化的同时,向 10,000 TPS 的目标扩容。

提议者 - 构建者分离 (ePBS): 将构建者竞争直接集成到以太坊的共识层中,减少 MEV 提取并提高抗审查能力。

这些升级并不会消除对 L2 的需求,但它们确实消除了“L1 扩容不可能或不切实际”的假设。如果以太坊 L1 通过并行执行和 ZK 验证达到 10,000 TPS,那么 L2 差异化的基准将大幅上升。

长期展望:谁将胜出?

以太坊的扩容策略正进入一个新阶段,L1 和 L2 的发展必须被视为互补而非竞争关系。

以 Rollup 为中心的路线图曾假设 L1 将无限期地保持缓慢且昂贵。这一假设现在已经过时。L1 将会扩容——也许达不到数百万 TPS,但足以以合理的费用处理大多数主流用例。

能够认识到这一现实并转向真正的差异化竞争的 L2 将会蓬勃发展。而那些继续宣传“比以太坊更便宜、更快”的项目,随着 L1 性能差距的缩小,将面临生存困境。

最终的讽刺之处在于,Buterin 的言论可能会巩固以太坊的长期地位。通过迫使 L2 提高标准——真正的去中心化、诚实的安全披露、专门的价值主张——以太坊在剔除最弱项目的同时,提升了整个生态系统的质量。

用户将受益于更清晰的选择:使用以太坊 L1 以获得最高的安全性和去中心化,或针对特定功能选择具有明确权衡的专业化 L2。那种“我们正通过多签桥在某种程度上扩容以太坊”的中间地带将会消失。

对于构建区块链基础设施未来的项目来说,信息非常明确:通用扩容问题已得到解决。如果你的 L2 不能提供以太坊 L1 所不能提供的功能,那么你就是在借来的时间里苟延残喘。

BlockEden.xyz 为以太坊 L1 和主要的 Layer 2 网络提供企业级基础设施,为开发人员提供跨整个以太坊生态系统构建应用的工具。探索我们的 API 服务 以获取可扩展且可靠的区块链连接。


资料来源:

SONAMI 迈入第 10 阶段:Solana 的 Layer 2 策略能否挑战以太坊的 L2 霸主地位?

· 阅读需 12 分钟
Dora Noda
Software Engineer

Solana 刚刚跨越了一个大多数人认为不可能的门槛:一个专为原生速度构建的区块链,现在正在增加额外的执行环境。SONAMI 自称是 Solana 首个生产级 Layer 2,在 2026 年 2 月初宣布了其第 10 阶段的里程碑,这标志着该高性能区块链在处理可扩展性方面发生了重大转变。

多年来,这种叙事一直很简单:以太坊需要 Layer 2,因为其基础层无法扩展;Solana 不需要 L2,因为它每秒已经可以处理数千笔交易。现在,随着 SONAMI 达到生产就绪状态,以及 SOON 和 Eclipse 等竞争项目获得关注,Solana 正在悄悄采用模块化方案,而正是这一方案让以太坊的 Rollup 生态系统成为了一个价值 330 亿美元的巨头。

问题不在于 Solana 是否需要 Layer 2,而在于 Solana 的 L2 叙事能否与 Base、Arbitrum 和 Optimism 根深蒂固的霸主地位竞争——以及当每个区块链都趋向于同一种扩展解决方案时,这意味着什么。

为什么 Solana 正在构建 Layer 2(以及为什么是现在)

Solana 的理论设计目标是每秒 65,000 笔交易。在实践中,该网络通常以几千 TPS 的速度运行,在 NFT 铸造或模因币狂热期间偶尔会出现拥堵。批评者指出,峰值负载下的网络停机和性能下降证明了仅靠高吞吐量是不够的。

SONAMI 第 10 阶段的发布正面解决了这些痛点。根据官方公告,这一里程碑侧重于三项核心改进:

  • 强化峰值需求下的执行能力
  • 为特定于应用的环境扩展模块化部署选项
  • 提高网络效率以减少基础层拥堵

这是以太坊的 L2 策略在 Solana 架构上的应用。以太坊将交易执行卸载到 Arbitrum 和 Base 等 Rollup 上,而 Solana 现在正在创建专门的执行层,在处理溢出交易和特定于应用的逻辑的同时,将结算返回到主网。

这一时机的选择具有战略意义。到 2025 年底,以太坊的 Layer 2 生态系统处理了近 90% 的 L2 交易,仅 Base 就占据了 60% 以上的市场份额。与此同时,机构资金正在流向以太坊 L2:Base 持有 100 亿美元的 TVL,Arbitrum 掌控着 166.3 亿美元,整个 L2 生态系统代表了以太坊总担保价值的很大一部分。

Solana 推行 Layer 2 并不是在承认失败,而是为了争夺以太坊模块化路线图所吸引的机构和开发者的关注。

SONAMI 对阵以太坊 L2 巨头:一场实力悬殊的较量

SONAMI 进入的是一个已经发生整合的市场。到 2026 年初,排名前三(Base、Arbitrum、Optimism)之外的大多数以太坊 L2 实际上已成为“僵尸链”,使用量下降了 61%,TVL 压倒性地集中在成熟的生态系统中。

以下是 SONAMI 面临的挑战:

Base 的 Coinbase 优势:Base 受益于 Coinbase 的 1.1 亿认证用户、无缝的法币入金通道和机构信任。在 2025 年底,Base 占据了 Layer 2 DeFi TVL 的 46.58% 和交易量的 60%。目前还没有任何一个 Solana L2 拥有可比的分发能力。

Arbitrum 的 DeFi 护城河:Arbitrum 以 166.3 亿美元的 TVL 领先所有 L2,这建立在多年来成熟的 DeFi 协议、流动性池和机构集成的基础之上。Solana 整个生态系统的 DeFi 总 TVL 为 112.3 亿美元。

Optimism 的治理网络效应:Optimism 的超级链 (Superchain) 架构正在吸引来自 Coinbase、Kraken 和 Uniswap 的企业级 Rollup。SONAMI 目前还没有可比的治理框架或合作伙伴生态系统。

架构对比同样明显。像 Arbitrum 这样的以太坊 L2 理论上可以达到 40,000 TPS,由于费用低廉且最终确定性快,实际交易确认感几乎是瞬间的。SONAMI 的架构承诺了类似的吞吐量提升,但它构建在一个已经能提供低延迟确认的基础层之上。

价值主张目前还不明朗。以太坊 L2 解决了一个现实问题:以太坊 15-30 TPS 的基础层对于消费级应用来说太慢了。而 Solana 的基础层已经可以轻松处理大多数用例。如果 Firedancer(Solana 的下一代验证器客户端,有望大幅提升性能)能解决性能问题,那么 Solana L2 还能解决什么问题呢?

SVM 的扩张:一种不同的 L2 玩法

Solana 的 Layer 2 战略可能不是为了扩展 Solana 本身,而是为了将 Solana 虚拟机 (SVM) 作为一个独立于 Solana 区块链的技术栈进行扩展。

Eclipse 是首个由 SVM 驱动的以太坊 L2,在没有费用激增的情况下持续维持超过 1,000 TPS。SOON 是一种将 SVM 与以太坊模块化设计相结合的乐观 Rollup,旨在利用 Solana 的并行化模型进行执行,并在以太坊上进行结算。Atlas 承诺 50 毫秒的区块时间,并实现快速的状态 Merklization。Yona 结算至比特币,同时使用 SVM 进行执行。

这些并不是传统意义上的 Solana L2。它们是利用 SVM 驱动并在其他链上结算的 Rollup,提供了 Solana 级别的性能,同时具备以太坊的流动性或比特币的安全性。

SONAMI 符合“Solana 首个生产级 L2”的叙事,但更大的布局是将 SVM 输出到每一个主要的区块链生态系统中。如果成功,Solana 将成为多个结算层首选的执行层——类似于 EVM 的主导地位如何超越了以太坊本身。

挑战在于碎片化。以太坊的 L2 生态系统正遭受着流动性分散在数十个 Rollup 中的痛苦。Arbitrum 上的用户无法在不进行跨链的情况下与 Base 或 Optimism 无缝交互。Solana 的 L2 战略也面临同样的风险:SONAMI、SOON、Eclipse 等项目在争夺流动性、开发者和用户,却失去了定义 Solana L1 体验的可组合性。

第 10 阶段的真实含义(以及它不代表什么)

SONAMI 的第 10 阶段公告充满了愿景,但缺乏技术细节。新闻稿强调了“模块化部署选项”、“增强执行能力”以及“峰值需求下的网络效率”,但缺乏具体的性能基准或主网指标。

这是早期 L2 启动的典型特征。Eclipse 在 2025 年底进行了重组,裁减了 65% 的员工,并从基础设施提供商转型为内部应用工作室。SOON 在主网启动前通过 NFT 销售筹集了 2200 万美元,但尚未展示持续的生产环境使用情况。Solana L2 生态系统尚处于萌芽阶段,具有投机性且未经证实。

作为背景,以太坊 L2 的主导地位经历了数年才得以巩固。Arbitrum 于 2021 年 8 月启动主网。Optimism 于 2021 年 12 月上线。Base 直到 2023 年 8 月才发布,但凭借 Coinbase 的分发能力,在几个月内交易量就超过了 Arbitrum。SONAMI 正试图在一个网络效应、流动性和机构合作伙伴关系已经产生了明显赢家的市场中竞争。

第 10 阶段的里程碑表明 SONAMI 正在推进其开发路线图,但如果没有 TVL、交易量或活跃用户指标,就无法评估其实际吸引力。大多数 L2 项目宣布的“主网启动”或“测试网里程碑”往往只赚取了新闻头条,而没有产生实际使用。

Solana 的 L2 叙事能否成功?

答案取决于“成功”的定义。如果成功意味着取代 Base 或 Arbitrum,那么答案几乎肯定是否定的。以太坊的 L2 生态系统受益于先发优势、机构资本和以太坊无与伦比的 DeFi 流动性。Solana L2 缺乏这些结构性优势。

如果成功意味着创建特定应用的执行环境,在保持 Solana 可组合性的同时减少基础层拥堵,那么答案是可能的。Solana 通过 L2 进行水平扩展的能力,同时保留快速且可组合的核心 L1,可以加强其在高频、实时去中心化应用中的地位。

如果成功意味着将 SVM 输出到其他生态系统,并将 Solana 的执行环境确立为跨链标准,那么答案是有道理的,但尚未得到证实。在以太坊、比特币和其他链上由 SVM 驱动的 Rollup 可能会推动采用,但碎片化和流动性分割仍然是未解决的问题。

最可能的结果是分化。以太坊的 L2 生态系统将继续主导机构级 DeFi、代币化资产和企业用例。Solana 的基础层将因零售活动、模因币、游戏和持续的低费用交易而繁荣。Solana L2 将占据中间地带:用于处理溢出、特定应用逻辑和跨链 SVM 部署的专门执行层。

这并非赢家通吃的局面。这是一种对不同扩展策略服务于不同用例的认可,而模块化论点——无论是在以太坊还是 Solana 上——正成为每个主流区块链的默认策略。

无声的趋同

Solana 构建 Layer 2 感觉像是一种意识形态上的投降。多年来,Solana 的卖点一直是简单:一条快速的链,没有碎片化,没有跨链桥接。以太坊的卖点是模块化:将共识与执行分离,让 L2 专门化,接受可组合性的权衡。

现在,这两个生态系统正趋向于同一种解决方案。以太坊正在升级其基础层(Pectra, Fusaka)以支持更多 L2。Solana 正在构建 L2 以扩展其基础层。架构差异依然存在,但战略方向完全一致:将执行卸载到专门层,同时保留基础层的安全性。

讽刺的是,随着区块链变得越来越相似,竞争也愈发激烈。以太坊拥有多年的领先优势、330 亿美元的 L2 TVL 和机构合作伙伴关系。Solana 拥有卓越的基础层性能、更低的费用和以散户为中心的生态系统。SONAMI 的第 10 阶段里程碑是迈向对等的一步,但在一个由网络效应主导的市场中,仅仅达到对等是不够的。

真正的问题不在于 Solana 是否能构建 L2。而在于在大多数 L2 已经面临失败的生态系统中,Solana 的 L2 是否能吸引足够的流动性、开发者和用户。

BlockEden.xyz 为 Solana 和其他高性能区块链提供企业级 RPC 基础设施。探索我们的 API 市场,在针对速度优化的可扩展基础上进行构建。

消息来源

ZK 协处理器:突破区块链计算瓶颈的基础设施

· 阅读需 16 分钟
Dora Noda
Software Engineer

当以太坊处理交易时,每一次计算都发生在链上——可验证、安全且极其昂贵。这种根本性的限制多年来一直制约着开发者的创作空间。但一类新型基础设施正在改写规则:ZK 协处理器正为资源受限的区块链带来无限的计算能力,且无需牺牲去信任化。

到 2025 年 10 月,Brevis 网络(Brevis Network)的 ZK 协处理器已经生成了 1.25 亿个零知识证明,支持了超过 28 亿美元的总锁仓价值(TVL),并验证了超过 10 亿美元的交易量。这不再是实验性技术,而是生产级的基础设施,使以前在链上不可能实现的应用程序成为现实。

定义区块链的计算瓶颈

区块链面临着固有的三难困境:它们可以实现去中心化、安全或可扩展性——但同时实现这三者一直难以企及。以太坊上的智能合约为每一步计算支付 Gas 费,使得复杂的操作变得异常昂贵。想要分析用户的完整交易历史以确定其忠诚度等级?根据数百个链上动作计算个性化游戏奖励?为 DeFi 风险模型运行机器学习推理?

传统的智能合约无法经济地完成这些任务。读取历史区块链数据、处理复杂算法以及访问跨链信息都需要大量计算,如果这些计算在 Layer 1 上执行,大多数应用都会入不敷出。这就是为什么 DeFi 协议使用简化的逻辑,游戏依赖链下服务器,而 AI 集成很大程度上仍停留在概念阶段。

变通方法一直是一样的:将计算移至链下,并信任中心化的一方来正确执行。但这违背了区块链去信任化架构的初衷。

走进 ZK 协处理器:链下执行,链上验证

零知识协处理器通过引入一种新的计算范式来解决这个问题:“链下计算 + 链上验证”。它们允许智能合约将繁重的处理工作委托给专门的链下基础设施,然后使用零知识证明在链上验证结果——而无需信任任何中间方。

实际运作方式如下:

  1. 数据访问:协处理器读取历史区块链数据、跨链状态或外部信息,这些信息在链上访问的 Gas 成本极高。
  2. 链下计算:复杂算法在针对性能优化的专门环境中运行,不受 Gas 限制。
  3. 证明生成:生成零知识证明,证明计算是针对特定输入正确执行的。
  4. 链上验证:智能合约在毫秒内验证证明,无需重新执行计算或查看原始数据。

这种架构在经济上是可行的,因为在链下生成证明并在链上进行验证的成本远低于直接在 Layer 1 上执行计算。结果是:智能合约获得了无限的计算能力,同时保留了区块链的安全保障。

演进历程:从 zkRollups 到 ZK 协处理器

这项技术并非一蹴而就。零知识证明系统经历了不同的演进阶段:

L2 zkRollups 开创了“链下计算,链上验证”的模式,用于扩展交易吞吐量。zkSync 和 StarkNet 等项目打包成千上万条交易,在链下执行,并向以太坊提交一个有效性证明——在继承以太坊安全性的同时大幅提升容量。

zkVMs(零知识虚拟机) 推广了这一概念,使任意计算都能被证明是正确的。开发者不再局限于交易处理,可以编写任何程序并生成其执行的可验证证明。Brevis 的 Pico/Prism zkVM 在 64×RTX 5090 GPU 集群上实现了 6.9 秒的平均证明时间,使实时验证变得可行。

ZK 协处理器 代表了下一次演进:专门的基础设施,将 zkVMs 与数据协处理器结合,以处理历史和跨链数据访问。它们专门针对区块链应用的独特需求而构建——读取链上历史、跨多条链进行桥接,并为智能合约提供以前锁定在中心化 API 后面的能力。

Lagrange 在 2025 年推出了第一个基于 SQL 的 ZK 协处理器,使开发者能够直接从智能合约中证明对海量链上数据的自定义 SQL 查询。Brevis 紧随其后推出了多链架构,支持跨以太坊、Arbitrum、Optimism、Base 和其他网络的可验证计算。Axiom 专注于具有电路回调(circuit callbacks)的可验证历史查询,以实现可编程验证逻辑。

ZK 协处理器与替代方案的比较

了解 ZK 协处理器的定位,需要将其与相邻技术进行比较:

ZK 协处理器 vs. zkML

零知识机器学习 (zkML) 使用类似的证明系统,但针对的是不同的问题:证明 AI 模型产生了特定的输出,而不泄露模型权重或输入数据。zkML 主要侧重于推理验证——确认神经网络得到了诚实的评估。

关键区别在于工作流程。使用 ZK 协处理器,开发者编写明确的实现逻辑,确保电路正确性,并为确定性计算生成证明。而在 zkML 中,过程始于数据探索和模型训练,然后才创建电路以验证推理。ZK 协处理器处理通用逻辑;zkML 则专门用于让 AI 在链上可验证。

这两种技术共享相同的验证范式:计算在链下运行,同时产生结果和零知识证明。区块链在几毫秒内验证证明,而无需查看原始输入或重新执行计算。但 zkML 电路针对张量运算和神经网络架构进行了优化,而协处理器电路则处理数据库查询、状态转换和跨链数据聚合。

ZK 协处理器 vs. Optimistic Rollups

Optimistic Rollups 和 ZK Rollups 都通过将执行转移到链下来扩展区块链,但它们的信任模型有本质区别。

Optimistic Rollups 默认假设交易是有效的。验证者提交不带证明的交易批次,任何人都可以在争议期(通常为 7 天)内对无效批次提出挑战。这种延迟的最终性意味着从 Optimism 或 Arbitrum 提取资金需要等待一周——这对于扩展性来说是可以接受的,但对于许多应用来说则存在问题。

ZK 协处理器 立即证明正确性。每个批次都包含一个在接受前经过链上验证的有效性证明。没有争议期,没有欺诈假设,也没有长达一周的提款延迟。交易实现了即时最终性。

历史上的权衡在于复杂性和成本。生成零知识证明需要专门的硬件和复杂的密码学,这使得 ZK 基础设施的运行成本更高。但硬件加速正在改变这一经济格局。Brevis 的 Pico Prism 实现了 96.8% 的实时证明覆盖,这意味着证明生成速度快到足以跟上交易流——消除了曾让乐观方案更具优势的性能差距。

在当前市场中,像 Arbitrum 和 Optimism 这样的 Optimistic Rollups 仍然在总锁仓价值 (TVL) 中占据主导地位。它们的 EVM 兼容性和更简单的架构使其更容易大规模部署。但随着 ZK 技术的成熟,有效性证明的即时最终性和更强的安全保障正在改变势头。Layer 2 扩展只是一个用例;ZK 协处理器解锁了一个更广泛的类别——适用于任何链上应用的可验证计算。

现实应用:从 DeFi 到游戏

该基础设施实现了以前不可能或需要中心化信任的用例:

DeFi:动态费用结构和忠诚度计划

去中心化交易所难以实施复杂的忠诚度计划,因为在链上计算用户的历史交易量极其昂贵。通过 ZK 协处理器,DEX 可以跟踪跨多条链的终生交易量,计算 VIP 等级,并动态调整交易费用——所有这些都可以在链上验证。

构建在 Brevis zkCoprocessor 之上的 Incentra,在不暴露敏感用户数据的情况下,根据验证后的链上活动发放奖励。协议现在可以根据过去的还款行为实施信贷额度,利用预定义算法进行主动流动性头寸管理,以及动态清算偏好——所有这些都由密码学证明支持,而不是受信任的中间机构。

游戏:无需中心化服务器的个性化体验

区块链游戏面临 UX 困境:在链上记录玩家的每一次操作非常昂贵,但将游戏逻辑转移到链下又需要信任中心化服务器。ZK 协处理器开启了第三条道路。

智能合约现在可以回答复杂的查询,例如“哪些钱包在过去一周内赢得了这场比赛,铸造了我收藏的 NFT,并且至少登录了两小时的游戏时间?”这为个性化的 LiveOps 提供了动力——根据验证后的链上历史记录而非中心化分析,动态提供游戏内购买、匹配对手、触发奖励活动。

玩家获得个性化体验。开发者保留去信任的基础设施。游戏状态保持可验证。

跨链应用:无需跨链桥的统一状态

从另一个区块链读取数据传统上需要跨链桥——受信任的中间机构,它们将资产锁定在一条链上并在另一条链上铸造资产代表。ZK 协处理器通过密码学证明直接验证跨链状态。

以太坊上的智能合约可以查询用户在 Polygon 上的 NFT 持有量、在 Arbitrum 上的 DeFi 头寸以及在 Optimism 上的治理投票——所有这些都无需信任跨链桥运营商。这解锁了跨链信用评分、统一身份系统和多链声誉协议。

竞争格局:谁在构建什么

ZK 协处理器领域已经围绕几个关键参与者形成了格局,每个参与者都有独特的架构方案:

Brevis Network 在 “ZK 数据协处理器 + 通用 zkVM” 的融合方面处于领先地位。其 zkCoprocessor 处理历史数据读取和跨链查询,而 Pico/Prism zkVM 则为任意逻辑提供可编程计算。Brevis 在种子代币轮融资中筹集了 750 万美元,并已在 Ethereum、Arbitrum、Base、Optimism、BSC 等网络上部署。随着 2026 年的到来,其 BREV 代币在交易所的势头正日益强劲。

Lagrange 通过 ZK Coprocessor 1.0 开创了基于 SQL 的查询,使链上数据可以通过熟悉的数据库接口进行访问。开发者可以直接从智能合约中证明自定义 SQL 查询,大大降低了构建数据密集型应用的技能门槛。Azuki、Gearbox 等协议使用 Lagrange 进行可验证的历史分析。

Axiom 专注于带有电路回调(circuit callbacks)的可验证查询,允许智能合约请求特定的历史数据点并接收正确性的加密证明。其架构针对应用需要精确的区块链历史切片而非通用计算的场景进行了优化。

Space and Time 将可验证数据库与 SQL 查询相结合,目标是需要链上验证和传统数据库功能的企业级用例。其方法吸引了正在将现有系统迁移到区块链基础设施的机构。

市场正在迅速演变,2026 年被广泛视为 “ZK 基础设施元年”。随着证明生成速度的加快、硬件加速的改进以及开发者工具的成熟,ZK 协处理器正从实验性技术转型为关键的生产基础设施。

技术挑战:为什么这很困难

尽管取得了进展,但重大障碍仍然存在。

证明生成速度 瓶颈限制了许多应用。即使使用 GPU 集群,复杂的计算可能也需要几秒或几分钟来生成证明——这对于某些用例是可以接受的,但对于高频交易或实时游戏则存在问题。Brevis 6.9 秒的平均处理时间代表了尖端性能,但要实现所有工作负载的亚秒级证明,还需要进一步的硬件创新。

电路开发复杂性 造成了开发者摩擦。编写零知识电路需要专业的密码学知识,而大多数区块链开发者并不具备这些知识。虽然 zkVM 通过让开发者使用熟悉的语言编写代码来抽象掉一些复杂性,但为了性能而优化电路仍然需要专业知识。工具的改进正在缩小这一差距,但这仍然是主流采用的一个障碍。

数据可用性 带来了协调挑战。协处理器必须维护跨多条链的区块链状态同步视图,处理重组(reorgs)、最终性(finality)和共识差异。确保证明引用规范链状态需要复杂的基础设施——特别是对于不同网络具有不同最终性保证的跨链应用。

经济可持续性 仍不确定。运营证明生成基础设施是资本密集型的,需要专门的 GPU 和持续的运营成本。协处理器网络必须平衡证明成本、用户费用和代币激励,以创建可持续的业务模式。早期项目正在补贴成本以引导采用,但长期生存能力取决于能否在大规模应用中证明单位经济效益。

基础设施论点:计算作为可验证的服务层

ZK 协处理器正在作为 “可验证服务层” 出现——即提供功能且无需信任的区块链原生 API。这反映了云计算的演进过程:开发者不再构建自己的服务器,而是使用 AWS API。同样地,智能合约开发者不应该需要重新实现历史数据查询或跨链状态验证——他们应该调用经过验证的基础设施。

这种范式转变虽微妙但深远。问题不再是 “这个区块链能做什么?”,而是 “这个智能合约可以访问哪些可验证服务?” 区块链提供结算和验证;协处理器提供无限的计算。它们共同解锁了既需要去信任化又需要复杂性的应用程序。

这不仅限于 DeFi 和游戏。现实世界资产(RWA)代币化需要关于财产所有权、大宗商品价格和监管合规性的经过验证的链下数据。去中心化身份需要聚合多个区块链上的凭证并验证撤销状态。AI 代理需要证明其决策过程而不暴露专有模型。所有这些都需要可验证计算——这正是 ZK 协处理器提供的核心能力。

这种基础设施还改变了开发者思考区块链限制的方式。多年来,准则一直是 “针对 Gas 效率进行优化”。有了协处理器,开发者可以像 Gas 限制不存在一样编写逻辑,然后将昂贵的操作卸载到可验证的基础设施中。这种心态转变——从受限的智能合约到拥有无限算力的智能合约——将重塑链上构建的内容。

2026 年展望:从研究走向生产

多种趋势正在汇聚,使 2026 年成为 ZK 协处理器采用的拐点。

硬件加速 正在大幅提高证明生成性能。像 Cysic 这样的公司正在为零知识证明构建专用 ASIC,类似于比特币挖矿从 CPU 演变到 GPU 再到 ASIC 的过程。当证明生成变得快 10-100 倍且成本更低时,经济壁垒将彻底瓦解。

开发者工具 正在抽象化复杂性。早期的 zkVM 开发需要电路设计专业知识;现代框架让开发者编写 Rust 或 Solidity,并自动编译为可证明电路。随着这些工具的成熟,开发体验将接近编写标准智能合约 —— 可验证计算将成为默认选项,而非例外。

机构采用 正在推动对可验证基础设施的需求。随着贝莱德 (BlackRock) 将资产代币化以及传统银行推出稳定币结算系统,他们需要可验证的离链计算来进行合规、审计和监管报告。ZK 协处理器提供了实现这种去信任化的基础设施。

跨链碎片化 产生了对统一状态验证的紧迫需求。随着数百个 Layer 2 导致流动性和用户体验碎片化,应用程序需要一种方法来聚合跨链状态,而无需依赖桥接中间件。协处理器提供了唯一的去信任解决方案。

生存下来的项目可能会围绕特定的垂直领域进行整合:Brevis 用于通用多链基础设施,Lagrange 用于数据密集型应用,Axiom 用于历史查询优化。与云提供商一样,大多数开发者不会运行自己的证明基础设施 —— 他们将消费协处理器 API,并为“验证即服务”付费。

大局观:无限计算与区块链安全的碰撞

ZK 协处理器解决了区块链最基本的限制之一:你可以在去信任安全或复杂计算中二选一,但不能兼得。通过将执行与验证解耦,它们使这种权衡变得过时。

这将开启下一波区块链应用 —— 那些在旧约束下无法存在的应用。具有传统金融级风险管理的 DeFi 协议。在可验证基础设施上运行的具有 AAA 级制作价值的游戏。自主运行并带有决策过程加密证明的 AI 代理。感觉像单一统一平台的跨链应用。

基础设施已经就绪。证明速度已经足够快。开发者工具正在趋于成熟。剩下的就是构建那些以前不可能实现的应用 —— 并见证一个行业意识到,区块链的计算限制从来不是永久性的,只是在等待合适的基础设施来实现突破。

BlockEden.xyz 在正在构建 ZK 协处理器应用的区块链上提供企业级 RPC 基础设施 —— 从 Ethereum 和 Arbitrum 到 Base、Optimism 等。探索我们的 API 市场 以访问同样可靠的节点基础设施,为下一代可验证计算提供动力。

以太坊 BPO-2 升级:参数化可扩展性的新时代

· 阅读需 10 分钟
Dora Noda
Software Engineer

当区块链决定不通过重塑自身,而是简单地通过“调大旋钮”来实现扩展时,会发生什么?2026 年 1 月 7 日,以太坊激活了 BPO-2——第二次“仅 Blob 参数”(Blob Parameters Only)分叉,静悄悄地完成了 Fusaka 升级的最终阶段。结果是:容量扩大了 40%,Layer 2 费用在一夜之间削减了高达 90%。这并非一次华丽的协议大改,而是精确的手术式调整,证明了以太坊的扩展性现在是参数化的,而非程序化的。

BPO-2 升级:至关重要的数据

BPO-2 将以太坊的 Blob 目标从 10 提高到 14,并将最大 Blob 限制从 15 提高到 21。每个 Blob 持有 128 KB 的数据,这意味着单个区块现在可以承载约 2.6–2.7 MB 的 Blob 数据——高于分叉前的约 1.9 MB。

背景是,Blob 是 Rollup 发布到以太坊的数据包。它们使像 Arbitrum、Base 和 Optimism 这样的 Layer 2 网络能够在链下处理交易,同时继承以太坊的安全保证。当 Blob 空间稀缺时,Rollup 会竞争容量,从而推高成本。BPO-2 缓解了这种压力。

时间表:Fusaka 的三阶段部署

这次升级并非孤立发生。它是 Fusaka 有序部署的最终阶段:

  • 2025 年 12 月 3 日:Fusaka 主网激活,引入 PeerDAS(节点数据可用性抽样)
  • 2025 年 12 月 9 日:BPO-1 将 Blob 目标提高到 10,最大值提高到 15
  • 2026 年 1 月 7 日:BPO-2 将目标推高至 14,最大值推高至 21

这种分阶段的方法允许开发人员在每次增量之间监控网络健康状况,确保家庭节点运营商能够应对增加的带宽需求。

为什么“目标”和“限制”有所不同

理解 Blob 目标(Target)和 Blob 限制(Limit)之间的区别,对于掌握以太坊的费用机制至关重要。

Blob 限制 (21) 代表硬上限——单个区块中可以包含的 Blob 的绝对最大数量。Blob 目标 (14) 是协议旨在随时间维持的平衡点。

当实际 Blob 使用量超过目标时,基础费用会上升以抑制过度消耗。当使用量低于目标时,费用会下降以激励更多活动。这种动态调整创造了一个自我调节的市场:

  • 满载 Blob:基础费用增加约 8.2%
  • 无 Blob:基础费用减少约 14.5%

这种不对称性是有意为之。它允许费用在低需求期间迅速下降,而在高需求期间逐渐上升,防止可能破坏 Rollup 经济效益的价格飙升。

费用影响:来自真实网络的真实数据

自 Fusaka 部署以来,Layer 2 交易成本下降了 40–90%。数据说明了一切:

网络BPO-2 后平均费用以太坊主网对比
Base$0.000116$0.3139
Arbitrum~$0.001$0.3139
Optimism~$0.001$0.3139

中值 Blob 费用已降至每 Blob $0.0000000005——出于实际目的,这几乎是免费的。对于最终用户而言,这意味着兑换(Swap)、转账、NFT 铸造和游戏交易的成本接近于零。

Rollup 如何适应

主要的 Rollup 重新调整了其操作以最大化 Blob 效率:

  • Optimism 升级了其批处理程序(Batcher),主要依靠 Blob 而非 Calldata,将数据可用性成本削减了一半以上
  • zkSync 重新设计了其证明提交管道,将状态更新压缩到更少、更大的 Blob 中,从而降低了发布频率
  • Arbitrum 为其 ArbOS Dia 升级(2026 年第一季度)做好了准备,该升级引入了更平滑的费用和具有 Fusaka 支持的高吞吐量

自 EIP-4844 引入以来,已有超过 950,000 个 Blob 被发布到以太坊。Optimistic Rollup 的 Calldata 使用量减少了 81%,证明了 Blob 模型正按预期运行。

通往 128 个 Blob 之路:接下来的计划

BPO-2 是一个中转站,而非终点。以太坊的路线图愿景是未来每个插槽(Slot)包含 128 个或更多 Blob——比当前水平增加 8 倍。

PeerDAS:技术基石

PeerDAS (EIP-7594) 是使激进的 Blob 扩展成为可能的网络协议。PeerDAS 不要求每个节点下载每个 Blob,而是使用数据可用性抽样(Data Availability Sampling)来验证数据完整性,同时仅下载一个子集。

工作原理如下:

  1. 扩展的 Blob 数据被分为 128 个部分,称为(Columns)
  2. 每个节点参与至少 8 个随机选择的列子网
  3. 接收 128 列中的 8 列(约 12.5% 的数据)在数学上足以证明完整的数据可用性
  4. 纠删码(Erasure coding)确保即使部分数据丢失,也可以重建原始数据

这种方法允许数据吞吐量在理论上实现 8 倍扩展,同时保持家庭运营商的节点要求在可控范围内。

Blob 扩展时间表

阶段目标 Blob最大 Blob状态
Dencun (2024 年 3 月)36已完成
Pectra (2025 年 5 月)69已完成
BPO-1 (2025 年 12 月)1015已完成
BPO-2 (2026 年 1 月)1421已完成
BPO-3/4 (2026 年)待定72+已计划
长期128+128+路线图

最近的一次全核心开发者(ACD)会议讨论了一个“推测时间表”,可能在 2 月下旬之后每两周进行一次额外的 BPO 分叉,以实现 72 个 Blob 的目标。这一激进的时间表是否实现取决于网络监控数据。

Glamsterdam:下一个重大里程碑

除了 BPO 分叉之外,合并后的 Glamsterdam 升级(Glam 用于共识层,Amsterdam 用于执行层)目前计划于 2026 年第 2/3 季度进行。它有望带来更显著的改进:

  • 块访问列表 (BALs):动态 Gas 上限,支持并行交易处理
  • 内置提议者-构建者分离 (ePBS):用于分离区块构建角色的链上协议,为区块传播提供更多时间
  • Gas 上限提升:可能高达 2 亿,实现“完美的并行处理”

维塔利克·布特林(Vitalik Buterin)预测,由于 BALs 和 ePBS 的存在,2026 年底将带来“大幅不依赖 ZK-EVM 的 Gas 上限提升”。这些变化可能会将整个 Layer 2 生态系统的可持续吞吐量推向 100,000+ TPS。

BPO-2 揭示了以太坊的哪些策略

BPO 分叉模型代表了以太坊处理升级方式的哲学转变。BPO 方法不再是将多个复杂的更改捆绑到单一的硬分叉中,而是隔离单变量调整,这样可以快速部署,并在出现问题时回滚。

“BPO2 分叉强调了以太坊的可扩展性现在是参数化的,而不是过程化的,”一位开发人员观察到。“Blob 空间距离饱和还很远,网络只需通过调整容量即可扩大吞吐量。”

这一观察具有重要意义:

  1. 可预测的扩展:Rollup 可以根据以太坊将继续扩大 Blob 空间的预期来规划容量需求
  2. 降低风险:隔离的参数更改最大限度地减少了连锁错误的可能性
  3. 更快的迭代:BPO 分叉可以在几周内完成,而不是几个月
  4. 数据驱动的决策:每一次增量都为下一次决策提供真实世界的数据

经济学:谁受益?

BPO-2 的受益者不仅限于享受更便宜交易的最终用户:

Rollup 运营商

更低的数据发布成本改善了每个 Rollup 的单位经济效益。此前利润微薄的网络现在有了投资于用户获取、开发工具和生态系统增长的空间。

应用开发者

低于 1 美分的交易成本解锁了以前不经济的用例:微支付、高频游戏、具有链上状态的社交应用以及物联网 (IoT) 集成。

以太坊验证者

增加的 Blob 吞吐量意味着更多的总费用,即使单个 Blob 的费用下降。网络处理了更多的价值,在改善用户体验的同时维持了验证者的激励。

更广泛的生态系统

更便宜的以太坊数据可用性使得替代 DA 层对于优先考虑安全性的 Rollup 来说吸引力降低。这巩固了以太坊在模块化区块链堆栈中心的地位。

挑战与考量

BPO-2 并非没有权衡:

节点要求

虽然 PeerDAS 通过采样降低了带宽要求,但增加的 Blob 数量仍然对节点运营商提出了更高要求。分阶段推出的目的是在瓶颈变得关键之前识别它们,但随着 Blob 数量攀升至 72 或 128,带宽有限的家庭运营商可能会感到吃力。

MEV 动态

更多的 Blob 意味着在 Rollup 交易中提取 MEV 的机会更多。Glamsterdam 中的 ePBS 升级旨在解决这个问题,但在过渡期内,MEV 活动可能会增加。

Blob 空间波动性

在需求激增期间, Blob 费用仍可能迅速飙升。每个满载区块 8.2% 的增长意味着持续的高需求会产生指数级的费用增长。未来的 BPO 分叉将需要在容量扩张与这种波动性之间取得平衡。

结论:循序渐进的扩展

BPO-2 证明了有意义的扩展并不总是需要革命性的突破。有时,最有效的改进来自于对现有系统的仔细校准。

以太坊的 Blob 容量已从 Dencun 升级时的最大 6 个增加到 BPO-2 的 21 个——在不到两年的时间里增长了 250%。Layer 2 的费用降低了几个数量级。而通往 128+ 个 Blob 的路线图表明这仅仅是开始。

对于 Rollup 来说,信息很明确:以太坊的数据可用性层正在扩展以满足需求。对于用户来说,结果越来越无感:交易成本仅为几美分,在几秒钟内完成最终确认,并由现存最经受过实战检验的智能合约平台保护。

以太坊扩展的参数化时代已经到来。BPO-2 证明了有时,转动正确的旋钮就是一切。


正在基于以太坊不断扩大的 Blob 容量进行构建吗?BlockEden.xyz 为以太坊及其 Layer 2 生态系统(包括 Arbitrum、Optimism 和 Base)提供企业级 RPC 服务。浏览我们的 API 市场,连接到为下一代可扩展应用提供动力驱动的基础设施。

以太坊的演进:从高昂的 Gas 费用到无缝交易

· 阅读需 11 分钟
Dora Noda
Software Engineer

50 美元的 Gas 费噩梦正式终结。2026 年 1 月 17 日,Ethereum 在单日内处理了 260 万笔交易——创下了历史新高——而 Gas 费仅为 0.01 美元。两年前,这种级别的活动会使整个网络瘫痪。而今天,这几乎不值一提。

这不仅仅是一项技术成就。它代表了 Ethereum 正在发生的根本性转变:一个由真实经济活动——而非投机——驱动增长的平台。现在的问题不再是 Ethereum 能否大规模处理 DeFi,而是其他金融系统能否跟上步伐。

Citrea 的比特币 ZK-Rollup:零知识证明能否最终解锁 BTCFi 的 49.5 亿美元承诺?

· 阅读需 13 分钟
Dora Noda
Software Engineer

比特币刚刚迎来了智能合约——真正的智能合约,由直接在比特币网络上验证的零知识证明提供支持。Citrea 的主网于 2026 年 1 月 27 日启动,标志着 ZK 证明首次在比特币区块链内被铭刻并进行原生验证,这为 75 多个比特币 L2 项目多年来一直试图开启的大门提供了钥匙。

但问题在于:BTCFi 的总锁仓量(TVL)在过去一年中萎缩了 74%,且生态系统仍由再质押协议主导,而非可编程应用。Citrea 的技术突破能否转化为实际的采用,还是会像许多从未获得认可的比特币扩容方案一样归于沉寂?让我们来看看 Citrea 的独特之处,以及它是否能在日益拥挤的领域中脱颖而出。

MegaETH:彻底改变速度与可扩展性的实时区块链

· 阅读需 10 分钟
Dora Noda
Software Engineer

当 Vitalik Buterin 亲自投资一个区块链项目时,加密世界都会为之瞩目。但当该项目声称能提供每秒 100,000 次交易(TPS)和 10 毫秒的区块时间——让传统的区块链看起来像拨号上网时,问题就从“我为什么要关注?”变成了“这真的可能吗?”

自封为“首个实时区块链”的 MegaETH 于 2026 年 1 月 22 日启动了主网,其数据令人震惊:在为期七天的压力测试中处理了 107 亿次交易,持续吞吐量达到 35,000 TPS,区块时间从 400 毫秒降至仅 10 毫秒。该项目通过四轮融资筹集了超过 5.06 亿美元,其中包括一轮超额认购 27.8 倍、金额达 4.5 亿美元的公开代币销售。

但在这些令人印象深刻的指标背后,隐藏着一个直击区块链核心承诺——去中心化——的根本性权衡。MegaETH 的架构依赖于运行在顶级硬件上的单个超优化排序器(Sequencer),其配置足以让大多数数据中心相形见绌:100 多个 CPU 核心、高达 4 TB 的内存以及 10 Gbps 的网络连接。这并非典型的验证者配置,而是一台超级计算机。

架构:通过专业化实现提速

MegaETH 的性能提升源于两大核心创新:异构区块链架构和超优化的 EVM 执行环境。

传统区块链要求每个节点执行相同的任务——排序交易、执行交易并维护状态。MegaETH 摒弃了这一模式,转而将节点区分成专门的角色:

排序器节点 (Sequencer Nodes) 负责交易排序和执行的重任。这些并非个人玩家在车库搭建的验证者,而是企业级服务器,其硬件要求比普通的 Solana 验证者高出 20 倍。

证明者节点 (Prover Nodes) 使用 GPU 或 FPGA 等专用硬件生成并验证密码学证明。通过将证明生成与执行分离,MegaETH 可以在不牺牲吞吐量的情况下维护安全性。

副本节点 (Replica Nodes) 以极低的硬件要求(大致相当于运行一个以太坊 L1 节点)验证排序器的输出,确保任何人都能验证链的状态,即使他们无法参与排序。

结果如何?区块时间以个位数毫秒计,团队的目标是最终实现 1 毫秒的区块时间——如果实现,这将是行业首创。

压力测试结果:概念验证还是炒作证明?

MegaETH 为期七天的全球压力测试处理了约 107 亿次交易,Smasher、Crossy Fluffle 和 Stomp.gg 等游戏在网络上产生了持续的负载。该链实现了 47,000 TPS 的峰值吞吐量,持续速率在 15,000 至 35,000 TPS 之间。

这些数据需要结合背景来看。经常被视为速度基准的 Solana 理论最大值为 65,000 TPS,但在真实环境下运行约为 3,400 TPS。以太坊 L1 处理量约为 15-30 TPS。即使是像 Arbitrum 和 Base 这样最快的 L2,在正常负载下通常也只处理几百 TPS。

MegaETH 的压力测试数据如果能转化为生产环境,将意味着比 Solana 的实际性能提升 10 倍,比以太坊主网提升 1,000 倍。

但有一个关键的警告:压力测试是受控环境。测试交易主要来自游戏应用——这些简单、可预测的操作并不能反映 DeFi 协议复杂的交互状态,或有机用户活动中不可预测的交易模式。

去中心化的权衡

这正是 MegaETH 与区块链正统观念分道扬镳的地方:该项目公开承认没有去中心化其排序器的计划。永远没有。

“该项目并不伪装成去中心化,并解释了为什么为了达到理想的性能水平,中心化排序器是必要的权衡,”一份分析报告指出。

这并非通往未来去中心化的临时过渡,而是一个永久性的架构决策。MegaETH 的排序器是一个单点故障,由单一实体控制,运行在只有财力雄厚的机构才能负担得起的硬件上。

安全模型依赖于团队所谓的“乐观欺诈证明和罚没机制(Optimistic fraud proofs and slashing)”。系统的安全性并不依赖于多个实体独立得出相同的结果,而是依靠一个由证明者和副本节点组成的去中心化网络来验证排序器输出的计算正确性。如果排序器作恶,证明者将无法为错误的计算生成有效的证明。

此外,MegaETH 通过 Rollup 设计继承了以太坊的安全性,确保即使排序器故障或作恶,用户也可以通过以太坊主网找回资产。

但批评者并不买账。目前的分析显示,与以太坊的 800,000 多个验证者相比,MegaETH 仅有 16 个验证者,这引发了治理方面的担忧。该项目还使用 EigenDA 而非以太坊来处理数据可用性(DA)——这一选择用经过实战检验的安全换取了更低的成本和更高的吞吐量。

USDm:稳定币策略

MegaETH 不仅仅是在构建一个快速的区块链;它还在构建一条经济护城河。该项目与 Ethena Labs 合作推出了 USDm,这是一种主要由 贝莱德 (BlackRock) 的代币化美国国库基金 BUIDL(目前资产超过 22 亿美元)支持的原生稳定币。

这项巧妙的创新在于:USDm 的储备收益通过程序化方式用于覆盖排序器 (sequencer) 的运营。这使得 MegaETH 能够提供低于一美分的交易费用,而无需依赖用户支付的 Gas。随着网络使用量的增加,稳定币的收益也成比例增长,从而创造了一个不需要增加用户费用就能自我维持的经济模型。

这使得 MegaETH 与传统的 L2 费用模型形成了对比,在传统模型中,排序器通过用户支付的费用与 L1 数据发布成本之间的价差获利。通过收益补贴费用,MegaETH 可以在成本上压低竞争对手,同时为开发者保持可预测的经济模式。

竞争格局

MegaETH 进入了一个拥挤的 L2 市场,Base、Arbitrum 和 Optimism 控制了约 90% 的交易量。它的竞争定位非常独特:

对比 Solana: MegaETH 10ms 的区块时间碾压了 Solana 的 400ms,这使其在理论上更适合高频交易或实时游戏等对延迟敏感的应用。然而,Solana 提供统一的 L1 体验,没有跨链的复杂性,且其即将推出的 Firedancer 升级有望带来显著的性能提升。

对比其他 L2: 传统的 Rollup 如 Arbitrum 和 Optimism 优先考虑去中心化而非纯粹的速度。它们正在追求阶段 1 (Stage 1) 和阶段 2 (Stage 2) 的欺诈证明,而 MegaETH 正在针对权衡曲线上的不同点进行优化。

对比 Monad: 这两个项目都瞄准高性能 EVM 执行,但 Monad 正在构建一个拥有自己共识机制的 L1,而 MegaETH 则继承了以太坊的安全性。Monad 在 2025 年底以 2.55 亿美元的 TVL 启动,证明了市场对高性能 EVM 链的渴求。

谁应该关注?

MegaETH 的架构对特定的用例最有意义:

实时游戏: 10ms 的延迟使得链上游戏状态感觉像是即时的。压力测试对游戏的关注并非偶然——这就是目标市场。

高频交易: 亚毫秒级的区块时间可以实现足以与中心化交易所媲美的订单匹配。Hyperliquid 已经证明了市场对高性能链上交易的需求。

消费级应用: 需要 Web2 般响应能力的应用程序——社交信息流、交互式媒体、实时拍卖——终于可以提供流畅的体验,而无需在链下做出妥协。

这种架构对于去中心化至关重要的应用来说意义较小:如需要抗审查性的金融基础设施、处理大额价值转移且信任假设至关重要的协议,或者任何用户需要对排序器行为有强力保证的应用。

前方的道路

MegaETH 的公共主网将于 2026 年 2 月 9 日启动,从压力测试转向正式生产。该项目的成功将取决于几个因素:

开发者采用: MegaETH 能否吸引开发者利用其独特的性能特征构建应用?游戏工作室和消费级应用开发者是显而易见的目标。

安全记录: 排序器中心化是一个已知的风险。任何事件——无论是技术故障、审查还是恶意行为——都会动摇对整个架构的信任。

经济可持续性: USDm 补贴模型在理论上很优雅,但它取决于足够的稳定币 TVL 来产生有意义的收益。如果采用率滞后,费用结构将变得不可持续。

监管明晰度: 中心化排序器引发了去中心化网络所能避免的关于责任和控制权的问题。监管机构如何对待单运营者 L2 仍不明确。

最终定论

MegaETH 代表了迄今为止最激进的一次赌注,即在某些区块链用例中,性能比去中心化更重要。该项目并不是要成为以太坊——它是要成为以太坊所缺乏的快速通道。

压力测试的结果确实令人印象深刻。如果 MegaETH 在生产环境中能以 10ms 的延迟交付 35,000 TPS,它将成为遥遥领先的最快 EVM 兼容链。USDm 的经济模型很巧妙,团队的麻省理工学院 (MIT) 和斯坦福大学 (Stanford) 背景很强,而 Vitalik 的支持增加了其合法性。

但去中心化的权衡是真实的。在一个我们目睹了中心化系统——FTX、Celsius 以及无数其他系统——失败的世界里,信任单个排序器需要对运营者和欺诈证明系统有信心。MegaETH 的安全模型在理论上是健全的,但它尚未在面对坚决的对手时经受过实战考验。

问题不在于 MegaETH 是否能兑现其性能承诺。压力测试表明它可以。问题在于市场是否想要一个速度极快但明显中心化的区块链,或者去中心化、无需信任系统的原始愿景是否仍然重要。

对于速度高于一切且用户信任运营者的应用,MegaETH 可能是变革性的。对于其他应用,结论尚难预料。


MegaETH 于 2 月 9 日启动的主网将成为 2026 年最受关注的加密事件之一。无论它是兑现了 “实时区块链” 的承诺,还是成为了关于去中心化与性能权衡的又一个警示故事,这个实验本身都推进了我们对区块链性能前沿可能性的理解。