跳到主要内容

255 篇博文 含有标签「技术创新」

技术创新和突破

查看所有标签

以太坊的后量子紧急状态:价值 200 万美元的 Q-Day 竞赛

· 阅读需 11 分钟
Dora Noda
Software Engineer

如果保护以太坊 5000 亿美元网络的一切都能在几分钟内被破解,会发生什么?这不再是科幻小说。以太坊基金会刚刚宣布将后量子安全列为“顶级战略优先级”,成立了专门团队,并出资 200 万美元设立研究奖金。信息很明确:量子威胁不再只是理论,时间正在流逝。

量子定时炸弹

当今的每个区块链都依赖于量子计算机将会粉碎的密码学假设。以太坊、比特币、Solana 以及几乎所有主流网络都使用椭圆曲线密码学 (ECC) 进行签名——这种数学原理在拥有足够量子比特的 Shor 算法面前将变得不堪一击。

威胁模型非常严峻。目前的量子计算机还远未达到在现实世界的密钥上运行 Shor 算法的能力。破解 secp256k1(比特币和以太坊使用的椭圆曲线)或 RSA-2048 需要数十万到数百万个物理量子比特——这远远超出了当今 1000 多个量子比特的机器水平。谷歌和 IBM 的公开路线图目标是在 2030 年代初达到 100 万个物理量子比特,尽管工程延期可能会将其推迟到 2035 年左右。

但关键在于:对“Q-Day”(即量子计算机能够破解当前密码学的时刻)的预测范围从 5-10 年(激进型)到 20-40 年(保守型)不等。一些评估认为,到 2026 年,公钥密码学有七分之一的可能性被破解。当你正在保护数千亿美元的资产时,这并不是一个让人宽心的余量。

与单一个体可以强制升级的传统系统不同,区块链面临着协调噩梦。你无法强迫用户升级钱包。你无法修补每一个智能合约。而且一旦量子计算机能够运行 Shor 算法,每一笔暴露了公钥的交易都将变得易受私钥提取攻击。对于比特币来说,这大约意味着 25% 的 BTC 存在于重复使用或已暴露地址中。对于以太坊,账户抽象(Account Abstraction)提供了一些缓解措施,但遗留账户仍然处于风险之中。

以太坊的 200 万美元后量子赌注

2026 年 1 月,以太坊基金会宣布成立由 Thomas Coratger 领导的专门后量子 (PQ) 团队,并得到正在开发 leanVM 的密码学家 Emile 的支持。高级研究员 Justin Drake 将后量子安全称为基金会的“顶级战略优先级”——这对于此前一直是长期研究课题的项目来说,是一次罕见的地位提升。

基金会正提供重金支持:

  • 100 万美元 Poseidon 奖金:旨在加强 Poseidon 哈希函数,这是零知识证明系统中使用的密码学构建块。
  • 100 万美元 Proximity 奖金:继续研究后量子密码学邻近问题,这表明了对基于哈希的技术的偏好。

基于哈希的密码学是基金会选择的未来路径。与 NIST 标准化的基于格(lattice-based)或基于编码(code-based)的替代方案(如 CRYSTALS-Kyber 和 Dilithium)不同,哈希函数具有更简单的安全假设,并且已经在区块链环境中经过了实战测试。缺点是什么?它们产生的签名更大,需要更多的存储空间——这是以太坊为了长期抗量子能力而愿意做出的权衡。

LeanVM:以太坊战略的基石

Drake 将 leanVM 描述为以太坊后量子方法的“基石”。这个极简的零知识证明虚拟机针对抗量子的基于哈希的签名进行了优化。通过专注于哈希函数而非椭圆曲线,leanVM 避开了最容易受到 Shor 算法攻击的密码学原语。

为什么这很重要?因为以太坊的 L2 生态系统、DeFi 协议和隐私工具都依赖于零知识证明。如果底层加密技术不是量子安全的,整个堆栈就会崩塌。LeanVM 的目标是在量子计算机到来之前,让这些系统具备未来适应性。

多个团队已经在运行多客户端后量子开发网络,包括 Zeam、Ream Labs、PierTwo、Gean 客户端和 Ethlambda,并与 Lighthouse、Grandine 和 Prysm 等成熟的共识客户端合作。这并非空谈——而是正在接受压力测试的实时基础设施。

基金会还将启动每两周一次的突破性会议,作为全核心开发者 (All Core Developers) 流程的一部分,重点关注面向用户的安全变更:直接内置于协议中的专用密码学函数、新的账户设计,以及使用 leanVM 的长期签名聚合策略。

迁移挑战:数千亿资产命悬一线

将以太坊迁移到后量子密码学并非简单的软件更新。这是一个影响网络中每个参与者的多年、多层协调工作。

L1 协议:共识必须切换到抗量子签名方案。这需要一次硬分叉——意味着每个验证者、节点运营商和客户端实现都必须同步升级。

智能合约:部署在以太坊上的数百万个合约使用 ECDSA 进行签名验证。有些可以通过代理模式或治理进行升级;另一些则是不可更改的。Uniswap、Aave 和 Maker 等项目将需要迁移计划。

用户钱包:MetaMask、Ledger、Trust Wallet——每个钱包都必须支持新的签名方案。用户必须将资金从旧地址迁移到量子安全地址。这就是“现在收集,稍后解密”(harvest now, decrypt later) 威胁变得真实的地方:攻击者可以记录今天的交易,并在量子计算机出现后将其解密。

L2 Rollups:Arbitrum、Optimism、Base、zkSync——所有这些都继承了以太坊的密码学假设。每个 Rollup 必须独立迁移,否则就有可能成为量子攻击的薄弱环节。

以太坊在这里有一个优势:账户抽象。与比特币的 UTXO 模型(要求用户手动移动资金)不同,以太坊的账户模型可以支持具有可升级密码学的智能合约钱包。这并不能消除迁移挑战,但它提供了一条更清晰的路径。

其他区块链的进展

以太坊并非孤军奋战。更广泛的区块链生态系统也意识到了量子威胁:

  • QRL (Quantum Resistant Ledger):从诞生之初就采用了 XMSS (eXtended Merkle Signature Scheme),这是一种基于哈希的签名标准。QRL 2.0 (Project Zond) 将于 2026 年第一季度进入测试网,随后将进行审计并发布主网。

  • 01 Quantum:于 2026 年 2 月初推出了抗量子区块链迁移工具包,并在 Hyperliquid 上发行了 $qONE 代币。他们的 Layer 1 迁移工具包计划于 2026 年 3 月发布。

  • 比特币:存在多个提案(关于后量子操作码的 BIP、针对新地址类型的软分叉),但比特币保守的治理方式使得快速变革变得不太可能。如果量子计算机比预期更早出现,可能会出现具有争议的硬分叉场景。

  • Solana, Cardano, Ripple:都使用基于椭圆曲线的签名,并面临类似的迁移挑战。大多数处于早期研究阶段,尚未宣布专门的团队或时间表。

对排名前 26 的区块链协议进行的审查显示,其中 24 个纯粹依赖于量子易损的签名方案。目前只有两个(QRL 和另一个知名度较低的链)拥有抗量子的基础。

Q-Day 场景:快速、缓慢还是永不发生?

激进时间线(5-10 年):量子计算取得突破性进展。到 2031 年,100 万量子位的机器出现,全行业只有五年时间来完成全网络范围的迁移。尚未开始准备的区块链将面临灾难性的密钥泄露。以太坊的领先优势在这里至关重要。

保守时间线(20-40 年):受限于纠错和工程挑战,量子计算进展缓慢。区块链有充足的时间以稳健的步调进行迁移。以太坊基金会的早期投资看起来很明智,但并不紧迫。

黑天鹅(2-5 年):在公开路线图显示之前,秘密或私人的量子突破已经发生。国家行为者或资金充足的对手获得了密码学优势,从而能够从易受攻击的地址进行无声窃取。这种情况证明了将后量子安全视为当今“顶级战略优先事项”的合理性。

中间场景的可能性最大,但区块链无法承担只针对中间情况进行规划的后果。如果预测错误,代价将是毁灭性的。

开发者和用户应该做什么

针对在以太坊上构建的开发者:

  • 关注 PQ 突围电话会议:以太坊基金会每两周一次的后量子会议将影响协议变更。保持信息灵通。
  • 规划合约升级:如果你控制着高价值合约,现在就设计升级路径。代理模式、治理机制或迁移激励将至关重要。
  • 在 PQ 开发网上测试:多客户端后量子网络已经上线。测试你的应用程序的兼容性。

对于持有 ETH 或代币的用户:

  • 避免地址复用:一旦你从一个地址签署交易,公钥就会暴露。理论上,量子计算机可以从中推导出私钥。如果可能,每个地址只使用一次。
  • 关注钱包更新:随着标准的成熟,主流钱包将整合后量子签名。当时机成熟时,准备好迁移资金。
  • 不要恐慌:Q-Day 不会在明天到来。以太坊基金会以及更广泛的行业正在积极构建防御体系。

对于企业和机构:

  • 评估量子风险:如果你托管着数十亿美元的加密货币,量子威胁是一个受托责任问题。参与后量子研究并关注迁移时间表。
  • 跨链多元化:以太坊的积极姿态令人鼓舞,但其他链可能落后。相应地分散风险。

十亿美元的问题:这足够了吗?

以太坊 200 万美元的研究奖金、专门的团队和多客户端开发网络,代表了区块链行业中最激进的后量子推进。但这足够了吗?

乐观情况:是的。以太坊的账户抽象、强大的研究文化和早期起步使其最有希望实现平稳迁移。如果量子计算机遵循保守的 20-40 年时间线,以太坊将提前部署好抗量子基础设施。

悲观情况:不够。协调数百万用户、数千名开发者和数百个协议是前所未有的挑战。即使有最好的工具,迁移也将是缓慢、不完整且充满争议的。遗留系统——不可变合约、丢失的密钥、被遗弃的钱包——将无限期地处于量子易损状态。

现实情况:部分成功。以太坊核心将成功迁移。主要的 DeFi 协议和 L2 将紧随其后。但大量的小型项目、不活跃的钱包和边缘情况将作为量子易损的残余物继续存在。

结论:一场谁都不想输的竞赛

以太坊基金会的后量子紧急行动是一场全行业输不起的赌注。200 万美元的奖金、专门的团队和在线开发网络发出了严肃的信号。基于哈希的密码学、leanVM 和账户抽象提供了一条可靠的技术路径。

但意图并不等于执行。真正的考验在于量子计算机从研究好奇心转变为密码学威胁的那一刻。到那时,迁移窗口可能已经关闭。以太坊现在正在奔跑,而其他人还在系鞋带。

量子威胁不是炒作,而是数学。数学并不关心路线图或良好的意愿。问题不在于区块链是否需要后量子安全——而在于它们能否在 Q-Day 到来之前完成迁移。


以太坊积极的量子防御策略凸显了构建稳健、面向未来的区块链基础设施的重要性。在 BlockEden.xyz,我们提供基于能够随行业安全需求演进的基础设施而构建的企业级以太坊和多链 API 访问。探索我们的服务,在你可以长期信赖的基础设施上进行开发。

Layer 2 采用危机:为什么 Base 占据主导地位,而僵尸链却在成倍增加

· 阅读需 17 分钟
Dora Noda
Software Engineer

Base 处理了 60% 的 Ethereum Layer 2 交易。Arbitrum 和 Optimism 瓜分了剩余的大部分份额。这三个网络总共处理了 90% 的 L2 活动,导致数十个曾经充满希望的 rollup 变成了用户稀少、流动性枯竭的“鬼城”。

这种整合是残酷且在加速的。在 2025 年,大多数新推出的 L2 在其代币生成事件(TGE)后的几个月内就变成了僵尸链——由积分驱动的激增随后是 TGE 后的快速崩溃,因为投机资本逃向了下一个空投机会。

随后,Vitalik Buterin 给出了致命一击:“以 rollup 为中心的路线图已不再有意义。” 随着 Ethereum L1 的扩展速度超过预期,且费用下降了 99%,大多数 L2 最初的正当理由——更便宜的交易——一夜之间化为乌有。

Layer 2 战争已经结束。赢家已经明了。现在的悬念是其他参与者的命运将会如何。

赢家通吃的动态机制

Layer 2 的采用遵循幂律动力学,少数赢家捕获了不成比例的价值。要理解其中的原因,需要考察随时间推移而复合的结构性优势。

网络效应就是一切

成功的 L2 创造了自我强化的飞轮:

流动性催生流动性: DEX 需要深度池来最大限度地减少滑点。交易者流向有流动性的地方。流动性提供者在交易量最高的地方存款。这使得流动性集中在领先平台上,无论技术优势如何,都使得替代方案变得不再吸引人。

开发者心智占有率: 建设者在用户聚集的地方进行部署。文档、工具和社区支持紧随开发者的注意力。新项目在成熟的链上启动,因为那里有经验丰富的开发者、经过审计的合约以及经过实战检验的基础设施。

集成势能: 钱包、桥、法币通道和第三方服务首先与主导链集成。支持每一个 L2 会带来巨大的复杂性。协议会优先考虑处理 90% 活动的那 2 到 3 条链。

机构信任: 企业和基金向具有良好记录、深度流动性和监管参与的成熟平台分配资源。Base 受益于 Coinbase 的合规基础设施。Arbitrum 和 Optimism 拥有多年的主网运行经验。无论技术如何,新链都缺乏这种信任。

这些动态创造了赢家通吃的结果。早期的领先优势复合成了不可逾越的优势。

Base 的 Coinbase 超能力

Base 并非通过优越的技术取胜。它是通过分发渠道(distribution)获胜的。

Coinbase 每月通过其中心化交易所引入数百万用户。即使只将一小部分用户转化为 Base 用户,也会产生原生 L2 无法比拟的即时网络效应。

集成是无缝的。Coinbase 用户只需点击一下即可向 Base 存款。在 Coinbase 生态系统内,提款是即时且免手续费的。对于主流用户来说,Base 感觉就像 Coinbase——值得信赖、受监管、简单易用。

这种分发护城河是竞争对手无法复制的。构建一个成功的 L2 要么需要:

  1. 相当的用户分发能力(没有其他交易所能与 Coinbase 的散户规模相媲美)
  2. 压倒性的技术优势(边际改进无法克服 Base 的结构性优势)
  3. 针对非零售细分市场的专门定位(这是 Arbitrum 和 Optimism 采取的策略)

Base 首先占领了 DEX 交易(60% 的市场份额),然后扩展到 NFT、社交应用和消费者加密领域。Coinbase 品牌将对加密货币感兴趣的用户转化为链上参与者,其规模是竞争对手无法企及的。

Arbitrum 和 Optimism 的 DeFi 防御力

虽然 Base 在消费者应用领域占据主导地位,但 Arbitrum 通过以下方式保持在 DeFi 和游戏领域的实力:

深度流动性: 数十亿美元已建立的流动性池,无法轻易迁移。迁移流动性会使市场碎片化并导致套利效率低下。

协议集成: 主要的 DeFi 协议(Aave、Curve、GMX、Uniswap)构建在 Arbitrum 之上,具有自定义集成、治理流程和技术债,这使得迁移成本高昂。

开发者生态系统: 多年的开发者关系、专业化工具和机构知识创造了超越纯技术的粘性。

专注于游戏: Arbitrum 培育了游戏特定的基础设施,并为高吞吐量的游戏状态提供了自定义解决方案,使其成为 Web3 游戏项目的默认链。

Optimism 通过其超级链(Superchain)愿景实现差异化——创建一个共享安全性和流动性的可互操作 L2 网络。这使 Optimism 成为其他 L2 的基础设施,而不是直接竞争应用程序。

前三大链服务于不同的市场:Base 针对消费者/零售,Arbitrum 针对 DeFi/游戏,Optimism 针对 L2 基础设施。这种细分减少了直接竞争,并允许每条链在其利基市场中占据主导地位。

激励过后的坟场

失败的 L2 的生命周期遵循一个可预测的模式。

阶段 1:上线前的炒作

项目宣布雄心勃勃的技术路线图、重大合作伙伴关系和创新功能。VC 基于预测和承诺,以超过 5 亿美元的估值进行投资。营销预算部署在加密推特(Crypto Twitter)、行业会议和 KOL 合作伙伴关系中。

价值主张总是大同小异:“我们比 [现有竞争对手] 更快、更便宜、更去中心化。”技术白皮书描述了新颖的共识机制、自定义虚拟机(VM)或专门的优化方案。

阶段 2:积分计划与雇佣兵资本

在代币发行前几个月,协议会引入积分系统来奖励链上活动。用户通过以下方式赚取积分:

  • 将资产跨链至 L2
  • 在关联的 DEX 上进行交易
  • 为特定资金池提供流动性
  • 与生态系统内的应用交互
  • 推荐新用户

积分在 TGE(代币生成事件)时兑换为代币,从而产生了空投预期。这吸引了“雇佣兵资本”——那些毫无长期参与意图、仅为刷积分而来的用户和机器人。

活跃度指标随之激增。L2 报告了数千万美元的 TVL、每日数十万笔交易以及生态系统的快速增长。然而,这些数字是空洞的——用户是在“撸”预期的空投,而不是在构建可持续的应用。

阶段 3:代币生成事件 (TGE)

TGE 伴随着重大的交易所上市和做市商支持。早期投资者、团队成员和空投猎人获得了大量配额。由于不同的持有者采取不同的策略,初始交易会出现剧烈波动。

在一段短暂的时间窗口内(通常是几天到几周),随着空投猎人完成最后的任务以及投机者对动量的博弈,L2 仍能维持较高的活跃度。

阶段 4:崩溃

TGE 之后,激励措施消失。空投猎人退出。流动性流向其他链。交易量骤降 80-95%。随着用户将资产转移到别处,TVL 也随之下降。

协议进入死亡螺旋:

  • 活跃度下降导致该链对开发者的吸引力减弱
  • 开发者减少意味着应用和集成减少
  • 实用性降低驱动剩余用户流向替代方案
  • 代币价格下跌打击了团队的持续动力和生态系统资助

该 L2 变成了一条“僵尸链”——技术上仍在运行,但实际上已经枯竭。有些项目维持着骨干团队希望重振旗鼓,大多数则悄然停止运营。

为什么激励会失效

积分计划和代币空投无法创造可持续的采用,因为它们吸引的是优化榨取价值而非创造价值的雇佣兵用户。

真正的用户关心:

  • 他们想要使用的应用
  • 他们想要交易的资产
  • 他们想要加入的社区

雇佣兵资本关心:

  • 哪条链提供的空投 APY 最高
  • 如何用最少的资本实现积分最大化
  • 如何在其他人退出之前先行离场

这种根本性的错配注定了失败。激励措施只有在平台构建有机留存的同时,暂时补贴真实需求时才有效。大多数 L2 将激励措施视为“产品市场契合度”(PMF)的替代品,而不是补充。

EIP-4844 这把双刃剑

以太坊在 2024 年 3 月 13 日进行的 Dencun 升级引入了 EIP-4844——“proto-danksharding”,从根本上改变了 L2 的经济学。

Blob 数据可用性如何工作

以前,L2 使用昂贵的 calldata 将交易数据发布到以太坊 L1,这些数据会永久存储在以太坊的状态中。这项成本是 Rollup 最大的运营支出——仅 2023 年 12 月就超过了 3400 万美元。

EIP-4844 引入了 Blob:Rollup 可以用于交易数据且无需永久存储的临时数据可用性。Blob 存在约 18 天,这段时间足够所有 L2 参与者检索数据,同时也短到足以使存储要求保持在可控范围内。

这种架构变化使 L2 的数据可用性成本降低了 95-99%:

  • Arbitrum:Gas 费用从 0.37 美元降至 0.012 美元
  • Optimism:费用从 0.32 美元降至 0.009 美元
  • Base:Median Blob 费用甚至触及了 0.0000000005 美元

经济悖论

EIP-4844 兑现了预期的承诺——大幅降低了 L2 交易成本。但这产生了意想不到的后果。

差异化减少: 当所有 L2 都变得极其廉价时,成本优势作为竞争护城河就消失了。用户不再根据费用选择链,竞争转向了应用、流动性和品牌等其他维度。

利润收缩: 收取高额费用的 L2 突然失去了收入。原本围绕从高昂交易成本中捕获价值而建立商业模式的协议,在成本下降 99% 时,收入也随之锐减,迫使团队寻找替代的变现方式。

L1 竞争: 最重要的一点是,更便宜的 L2 使得以太坊 L1 相对变得更具吸引力。结合 L1 的扩展性改进(更高的 Gas 限制、PeerDAS 数据可用性),L1 和 L2 之间的性能差距大幅缩小。

最后一点引发了 Vitalik 的重新评估。如果以太坊 L1 能够以可接受的费用处理大多数应用,为什么还要构建具有额外复杂性、安全假设和碎片化问题的独立 L2 基础设施呢?

“Rollup 借口正在消失”

Vitalik 在 2026 年 2 月的言论概括了这一转变:“Rollup 的借口正在消失。”

多年来,L2 的支持者认为以太坊 L1 无法充分扩展以实现大规模采用,因此 Rollup 是必不可少的。2021-2023 年期间的高昂 Gas 费证实了这一说法。

但 EIP-4844 + L1 的改进改变了这一计算方式:

  • 在 L1 注册费用降至 0.05 美元以下后,ENS 取消了其 Namechain Rollup
  • 多个计划中的 L2 发布被搁置或重新定位
  • 现有的 L2 正在费力地阐述除了节省成本之外的价值

所谓的“Rollup 借口”——即 L1 根本无法扩展——已不再成立。L2 现在必须通过真正的差异化来证明其存在的合理性,而不仅仅是作为 L1 局限性的权宜之计。

僵尸链现象

数十个 L2 现在处于游离状态——技术上还在运行,但在实际应用中已无足轻重。这些僵尸链具有共同的特征:

极低的有机活跃度: 每日交易量低于 1,000 笔,且大多是自动化或机器人驱动的。真实用户几乎不存在。

流动性缺失: DEX 池的 TVL 低于 $100k,即使是小额交易也会产生巨大的滑点。DeFi 功能陷入瘫痪。

开发被弃置: GitHub 仓库的代码提交零星散乱,没有新功能发布,仅由骨干团队维持基本运行。

代币价格崩盘: 价格较发行价下跌 80-95%,交易价格仅为风投(VC)估值的一小部分。大持有者缺乏退出的流动性。

治理不活跃: 提案活动停止,验证节点集数月未变,决策过程中没有社区参与。

这些链的开发和启动耗资数百万美元。它们代表了浪费的资本、错失的机会,以及对相信其愿景的社区所做出的破碎承诺。

一些链将经历“体面关停”——在终止运营前,帮助用户将资产跨链转移到尚存的链上。另一些则将作为僵尸基础设施无限期地存在,虽然技术上可运行,但没有实际用途。

对团队的心理影响是巨大的。以 5 亿美元估值融资的创始人眼睁睁看着自己的项目在几个月内变得无足轻重。这打击了未来的创新,因为才华横溢的构建者开始质疑,在赢家通吃的市场中启动新的 L2 是否还有意义。

生存之道:专业化策略

虽然通用型 L2 面临整合,但专业化链条可以通过服务于 Base / Arbitrum / Optimism 覆盖不到的细分市场而蓬勃发展。

游戏专用基础设施

游戏需要独特的特性:

  • 超低延迟以实现实时游戏体验
  • 高吞吐量以支持频繁的状态更新
  • 自定义 Gas 模型(补贴交易、会话密钥)
  • 针对游戏资产和状态的专门存储

Ronin(Axie Infinity 的 L2)展示了这种模式——为游戏打造的专用基础设施,具有主流 L2 并不优先考虑的功能。IMX 和其他专注于游戏的链也采取了类似的策略。

隐私保护链

Aztec、Railgun 和类似项目利用零知识证明(ZKP)提供可编程的隐私功能。这种功能在透明的 L2 上并不存在,它服务于需要机密交易的用户——无论是为了合法的隐私还是监管套利。

RWA 与机构级链

针对现实世界资产(RWA)代币化优化的链,内置合规性、许可访问和机构托管集成,为无法使用无许可基础设施的企业提供服务。这些链将监管兼容性置于去中心化之上。

应用专用 Rollup

为特定应用启动专用 L2 的协议——例如 dYdX 用于衍生品交易的自定义链——可以针对其用例优化堆栈的每一层,而无需做出妥协。

模式很明确:生存需要除了“更快、更便宜”之外的差异化。针对服务不足的市场进行专业化定位,可以创造出通用型链难以轻易占领的防御性利基市场。

机构整合加速

进入加密领域的传统金融机构将加速 L2 的整合,而不是在多条链上进行分散。

企业优先考虑:

  • 监管清晰度: Base 受益于 Coinbase 的合规基础设施和监管关系。机构对此的信任度高于匿名的 L2 团队。
  • 运营简便性: 支持一个 L2 是可控的。支持十个 L2 会在托管、合规和风险管理方面产生无法接受的复杂性。
  • 流动性深度: 机构交易需要深度市场来最小化价格影响。只有顶级的 L2 才能提供这一点。
  • 品牌认可度: 向董事会解释“Base”比推销实验性的 L2 更容易。

这形成了一个反馈循环:机构资金流向成熟的链,加深了它们的护城河,并使替代方案变得不再可行。散户紧随机构,生态系统进一步整合。

长期均衡可能会稳定在 3-5 个主导的 L2 以及少数专业化链上。随着经济现实倾向于集中化,数百个互连 Rollup 的梦想正在消退。

陷入困境的 L2 的出路

运营僵尸链或预发布 L2 的团队面临着艰难的选择。

选项 1:合并或收购

通过合并或收购与更强大的链整合,可以保留部分价值 and 团队势头。Optimism 的超级链(Superchain)为此提供了基础设施——允许陷入困境的 L2 加入共享的安全和流动性层,而不是独立竞争。

选项 2:转向专业化

放弃通用型定位,专注于一个可防御的利基市场。这需要对竞争优势进行诚实的评估,并愿意服务于较小的市场。

选项 3:体面关停

接受失败,将剩余资金返还给投资者,帮助用户迁移到尚存的链,并转向其他机会。这在心理上很难,但通常是理性的选择。

选项 4:成为基础设施

与其争夺用户,不如定位为其他应用程序的后端基础设施。这需要不同的商业模式——向在成熟链上构建的项目出售验证者服务、数据可用性或专业工具。

推出发售通用型 L2 并仅凭技术优势就获得成功的时代已经结束。团队必须要么通过分发占据主导地位(如果没有 Coinbase 规模的用户接入,这几乎是不可能的),要么通过专业化实现差异化。

BlockEden.xyz 为 Ethereum、Base、Arbitrum、Optimism 以及新兴的 Layer 2 生态系统提供企业级基础设施,为开发者在整个 L2 领域提供可靠、高性能的 API 访问。请 探索我们的服务 以实现可扩展的多链部署。


来源:

MegaETH 主网发布:实时区块链能否撼动以太坊 L2 巨头的地位?

· 阅读需 13 分钟
Dora Noda
Software Engineer

区块链世界刚刚见证了一个非凡时刻。2026 年 2 月 9 日,MegaETH 发布了其公共主网,并做出了一个大胆的承诺:每秒交易处理量(TPS)达到 100,000 次,出块时间仅为 10 毫秒。仅在压力测试期间,该网络就处理了超过 107 亿次交易——在短短一周内就超过了以太坊整个十年的历史交易总量。

但营销炒作能否转化为生产现实?更重要的是,这个由 Vitalik 支持的新秀能否在以太坊 Layer 2 战争中挑战 Arbitrum、Optimism 和 Base 已确立的主导地位?

承诺:实时区块链时代来临

大多数区块链用户都经历过等待交易确认数秒甚至数分钟的挫败感。即使是以太坊最快的 Layer 2 解决方案,其最终确认时间也在 100-500 毫秒之间,且每秒处理的交易量最高也仅为数万次。对于大多数 DeFi 应用来说,这是可以接受的。但对于高频交易、实时游戏和需要即时反馈的 AI 代理来说,这些延迟是致命的。

MegaETH 的主张简单而激进:彻底消除链上“延迟”。

该网络的目标是实现 100,000 TPS 和 1-10 毫秒的出块时间,打造团队所称的“首个实时区块链”。为了更直观地理解这一点,这意味着 1,700 Mgas/s(每秒百万 Gas)的计算吞吐量——完全让 Optimism 的 15 Mgas/s 和 Arbitrum 的 128 Mgas/s 相形见绌。即使是 Base 宏伟的 1,000 Mgas/s 目标,相比之下也显得逊色。

该项目由以太坊联合创始人 Vitalik Buterin 和 Joe Lubin 通过母公司 MegaLabs 提供支持,在超额认购的代币销售中筹集了 4.5 亿美元,吸引了 14,491 名参与者,其中 819 个钱包达到了 18.6 万美元的个人分配上限。这种级别的机构和散户兴趣,使 MegaETH 成为进入 2026 年资金最充足、最受关注的以太坊 Layer 2 项目之一。

现实:压力测试结果

在加密行业,承诺是廉价的。重要的是现实环境下的可衡量性能。

MegaETH 最近的压力测试显示,持续吞吐量达到了 35,000 TPS——虽然明显低于 100,000 TPS 的理论目标,但与竞争对手相比依然令人印象深刻。在这些测试期间,网络在处理超过以太坊历史总量的 107 亿次交易时,保持了 10 毫秒的出块时间。

这些数字既揭示了潜力,也揭示了差距。在受控测试中实现 35,000 TPS 是非常了不起的。该网络在存在恶意攻击、MEV 提取和复杂智能合约交互的对抗性条件下,能否维持这些速度,仍有待观察。

其架构方法与现有的 Layer 2 解决方案有本质不同。虽然 Arbitrum 和 Optimism 使用乐观汇总(Optimistic Rollups)在链下打包交易并定期在以太坊 L1 上结算,但 MegaETH 采用了具有专用节点的三层架构:

  • 排序器节点 (Sequencer Nodes):实时排序并广播交易
  • 证明者节点 (Prover Nodes):验证并生成加密证明
  • 全节点 (Full Nodes):维护网络状态

这种并行的模块化设计可以跨核心同时执行多个智能合约而无冲突,理论上实现了极高的吞吐量目标。排序器会立即确认交易,而不是等待批量结算,这就是 MegaETH 实现亚毫秒级延迟的方式。

竞争格局:L2 战争白热化

以太坊的 Layer 2 生态系统已演变成一个竞争极其激烈的市场,胜负已分。截至 2026 年初,以太坊 Layer 2 解决方案的锁仓总价值(TVL)已达到 510 亿美元,预计到 2030 年将达到 1 万亿美元。

但这种增长分布并不均匀。Base、Arbitrum 和 Optimism 控制了约 90% 的 Layer 2 交易量。仅 Base 一家在最近几个月就占据了 L2 交易份额的 60%,利用了 Coinbase 的分发渠道和 1 亿潜在用户。Arbitrum 拥有 31% 的 DeFi 市场份额,并拥有 2.15 亿美元的游戏激励基金,而 Optimism 则专注于其超级链(Superchain)生态系统的互操作性。

大多数新的 Layer 2 在激励措施结束后都会崩盘,产生一些分析师所称的活动极少的“僵尸链”。整合浪潮是残酷的:如果你不在第一梯队,你可能正在为生存而战。

MegaETH 带着不同的价值主张进入了这个成熟且充满竞争的市场。它并不直接在费用或安全性上与通用型 L2 竞争,而是瞄准了实时性能可以解锁全新应用类别的特定用例:

高频交易

传统的中心化交易所(CEX)在微秒内处理交易。现有 L2 上的 DeFi 协议无法与 100-500 毫秒的最终性竞争。MegaETH 的 10 毫秒出块时间使链上交易更接近 CEX 的性能,有可能吸引目前因延迟而避开 DeFi 的机构流动性。

实时游戏

当前区块链上的链上游戏受制于明显的延迟,这破坏了沉浸感。亚毫秒级的确定性(Finality)支持响应灵敏的游戏体验,使其感觉像传统的 Web2 游戏,同时保持了区块链的可验证性和资产所有权保证。

AI 代理协作

每天进行数百万次微交易的自主 AI 代理需要即时结算。MegaETH 的架构专门针对需要高吞吐量、低延迟智能合约执行的 AI 驱动型应用进行了优化。

问题在于,这些特定的用例是否能产生足够的需求,以证明 MegaETH 与通用型 L2 并存的必要性,或者市场是否会进一步向 Base、Arbitrum 和 Optimism 整合。

机构采用信号

机构采用已成为区分成功的 Layer 2 项目与失败项目的关键。对于向链上应用配置资金的机构参与者来说,可预测的高性能基础设施现在已成为一项基本要求。

MegaETH 4.5 亿美元的代币销售展示了强烈的机构兴趣。从加密原生基金到战略合作伙伴的广泛参与,表明其信誉已超越了零售投机。然而,融资成功并不保证网络能被广泛采用。

真正的考验将在主网发布后的几个月内到来。值得关注的关键指标包括:

  • 开发者采用情况:是否有团队在 MegaETH 上构建 HFT 协议、游戏和 AI 代理应用?
  • TVL 增长:资金是否流入 MegaETH 原生 DeFi 协议?
  • 交易量的可持续性:网络能否在压力测试之外保持高 TPS?
  • 企业合作伙伴关系:机构交易公司和游戏工作室是否集成了 MegaETH?

早期指标显示兴趣正在增长。MegaETH 的主网发布恰逢 2026 年香港共识大会(Consensus Hong Kong 2026),这是一个战略性的时间选择,使该网络在亚洲机构区块链受众中获得最大的曝光度。

主网发布之际,Vitalik Buterin 本人也对以太坊长期以来以 Rollup 为中心的路线图提出了质疑,建议以太坊 L1 扩容应得到更多关注。这为 MegaETH 带来了机遇,也带来了风险:如果 L2 叙事走弱,则是机遇;但如果以太坊 L1 本身通过 PeerDAS 和 Fusaka 等升级实现更好的性能,则是风险。

技术现状核查

MegaETH 的架构主张值得推敲。10 万 TPS 的目标和 10 毫秒的出块时间听起来令人印象深刻,但有几个因素使这一叙事变得复杂。

首先,压力测试中实现的 3.5 万 TPS 代表的是受控、优化的条件。实际使用涉及多样的交易类型、复杂的智能合约交互和对抗性行为。在这些条件下保持一致的性能比合成基准测试要困难得多。

其次,三层架构引入了中心化风险。排序器(Sequencer)节点在交易排序方面拥有巨大权力,创造了 MEV 提取机会。虽然 MegaETH 可能会包含分配排序器责任的机制,但具体细节对安全性和抗审查性至关重要。

第三,排序器的“软确认(Soft Finality)”与证明生成及以太坊 L1 结算后的“硬确认(Hard Finality)”之间存在差异。在声称亚毫秒级性能时,用户需要清楚 MegaETH 的营销指的是哪种确定性。

第四,并行执行模型需要精细的状态管理以避免冲突。如果多个交易触及同一个智能合约状态,它们就无法真正并行运行。MegaETH 方法的有效性很大程度上取决于工作负载特性——具有天然可并行化交易的应用将比那些频繁发生状态冲突的应用受益更多。

最后,开发者工具和生态系统兼容性与原生性能同样重要。以太坊的成功部分源于标准化的工具(Solidity, Remix, Hardhat, Foundry),这些工具让开发变得无缝。如果 MegaETH 需要对开发工作流程进行重大更改,无论速度优势如何,其采用率都会受到影响。

MegaETH 能否撼动 L2 巨头的地位?

诚实的回答是:可能无法完全撼动,但或许并不需要。

Base、Arbitrum 和 Optimism 已经建立了网络效应、数十亿美元的 TVL 以及多样化的应用生态系统。它们以合理的费用和安全性有效地满足了通用需求。要完全取代它们,不仅需要卓越的技术,还需要生态系统迁移,而这是极其困难的。

然而,MegaETH 不需要赢得全面胜利。如果它能成功占领高频交易、实时游戏和 AI 代理协作市场,它可以作为专门的 Layer 2 与通用型竞争对手并存而繁荣。

区块链行业正朝着特定应用的架构迈进。Uniswap 推出了专门的 L2。Kraken 构建了用于交易的 Rollup。索尼(Sony)创建了专注于游戏的链。MegaETH 顺应了这一趋势:为延迟敏感型应用量身定制的基础设施。

关键成功因素包括:

  1. 兑现性能承诺:在生产环境中保持 3.5 万+ TPS 和 <100 毫秒的确定性将是非常了不起的。实现 10 万 TPS 和 10 毫秒的出块时间将是变革性的。

  2. 吸引杀手级应用:MegaETH 至少需要一个能展示出优于替代方案的明显优势的突破性协议。一个具有 CEX 级别性能的 HFT 协议,或是一个拥有数百万用户的实时游戏,都将验证这一论点。

  3. 管理中心化担忧:透明地解决排序器中心化和 MEV 风险,可以与关注抗审查性的机构用户建立信任。

  4. 构建开发者生态系统:工具、文档和开发者支持决定了建设者是否会选择 MegaETH 而非成熟的替代方案。

  5. 应对监管环境:实时交易和游戏应用会引起监管关注。明确的合规框架对机构采用至关重要。

结论:审慎乐观

MegaETH 代表了以太坊扩容领域真正的技术进步。压力测试结果令人印象深刻,其背后的支持力量十分可靠,且对应用场景的关注也非常务实。实时区块链解锁了那些在当前基础设施上根本无法存在的应用程序。

但保持怀疑态度也是理所应当的。我们已经见过许多 “以太坊杀手” 和 “下一代 L2” 未能兑现其营销噱头。理论性能与生产环境可靠性之间的差距往往巨大。网络效应和生态锁定往往更偏向于现有的领先者。

接下来的六个月将是决定性的。如果 MegaETH 在生产环境中能保持压力测试的性能,吸引有意义的开发者活动,并展示出在 Arbitrum 或 Base 上无法实现的真实应用场景,它将在以太坊 Layer 2 生态系统中赢得一席之地。

如果压力测试的性能在现实世界的负载下退化,或者专业化的应用场景未能实现,MegaETH 可能会面临沦为又一个在日趋集中的市场中苦苦寻求存在感的过度炒作项目的风险。

区块链行业不需要更多通用型的 Layer 2。它需要能够赋能全新应用类别的专业化基础设施。MegaETH 的成功或失败将验证实时区块链是一个极具吸引力的类别,还是一个在寻找问题的解决方案。

BlockEden.xyz 为高性能区块链应用提供企业级基础设施,包括对以太坊 Layer 2 生态系统的专门支持。探索我们的 API 服务,专为严苛的延迟和吞吐量需求而设计。


参考来源:

Playnance 的 Web2 到 Web3 桥梁:为什么 30 多家游戏工作室押注无感区块链

· 阅读需 6 分钟
Dora Noda
Software Engineer

70% 的品牌 NFT 项目都失败了。Web3 游戏在 2022-2023 年经历了惨痛的崩盘。然而,Playnance 运营着一个活跃的生态系统,拥有 30 多家游戏工作室,成功吸引了那些甚至不知道自己正在使用区块链的主流用户。

区别在哪里?Playnance 让区块链变得“无感”。没有钱包设置的阻碍,没有 Gas 费的困惑,也没有 NFT 市场的复杂性。用户玩游戏、赚取奖励并享受无缝体验——区块链基础设施在后台静默运行。

这种“无感区块链”方法正是 Web3 游戏真正实现主流普及的方式。它不是通过加密原生的投机,而是通过解决传统游戏无法处理的真实用户体验 (UX) 问题。

Playnance 究竟在构建什么

Playnance 提供 Web2 到 Web3 的基础设施,允许传统游戏工作室集成区块链功能,而无需强迫用户经历典型的 Web3 入门地狱。

嵌入式钱包: 用户通过熟悉的 Web2 登录方式(电子邮件、社交账号)访问游戏。钱包在后台自动生成。无需助记词,无需 MetaMask 教程,也无需手动签署交易。

无 Gas 交易: Playnance 完全抽象了 Gas 费。用户不需要 ETH,不需要了解 Gas 限制,也永远不会看到交易失败。平台在服务器端处理所有区块链复杂性。

无感 NFT: 游戏内道具在技术上是 NFT,但呈现为普通的游戏资产。玩家通过熟悉的游戏界面进行交易、收集和使用道具。区块链提供了所有权和互操作性的优势,而无需暴露技术实现。

支付抽象: 用户使用信用卡、PayPal 或地区性支付方式进行支付。加密货币从未进入用户流程。后端系统会自动处理加密货币转换。

合规基础设施: KYC/AML、地区限制和监管要求均在平台层面处理。各个工作室不需要具备区块链法律方面的专业知识。

这种基础设施允许传统工作室尝试区块链的优势——真正的所有权、可互操作的资产、透明的经济体系——而无需重建整个技术栈或向用户普及 Web3 概念。

为什么传统工作室需要它

30 多家游戏工作室与 Playnance 合作,是因为现有的 Web3 游戏基础设施对开发人员和用户都有过高的要求。

传统工作室进入 Web3 面临着重重障碍:

  • 开发复杂性: 构建链上游戏需要大多数工作室所缺乏的区块链专业知识
  • 用户阻碍: 钱包入门流程会导致 95% 以上的潜在用户流失
  • 监管不确定性: 合规要求因管辖区和资产类型而异
  • 基础设施成本: 运行区块链节点、管理 Gas 费和处理交易会增加运营开销

Playnance 通过提供白标基础设施解决了这些问题。工作室集成 API 而不是学习 Solidity。用户通过熟悉的流程入门。合规性和基础设施的复杂性被抽象掉了。

价值主张很明确:保留你现有的游戏、现有的代码库和现有的团队——通过一个处理困难部分的平台来增加区块链的优势。

70% 的品牌 NFT 失败率

Playnance 的方法源于对品牌主导的 Web3 计划中惨痛失败的观察。70% 的品牌 NFT 项目崩溃了,因为它们将区块链的显现程度置于用户体验之上。

常见的失败模式:

  • 无实用价值的 NFT 投放: 品牌将 NFT 作为收藏品铸造,但没有游戏集成或持续的互动
  • 阻碍重重的入门流程: 在访问体验之前要求设置钱包和购买加密货币
  • 投机性设计: 专注于二级市场交易而非核心产品价值
  • 执行力差: 低估了技术复杂性,交付了充满漏洞且不完整的产品
  • 社区错位: 吸引的是投机者而不是真正的用户

成功的 Web3 游戏吸取了这些教训。让区块链变得无感,首先关注游戏玩法,提供投机之外的真实实用价值,并优化用户体验而非加密原生的纯粹性。

Playnance 体现了这些原则。工作室可以在不把整个业务押注在 Web3 普及上的情况下,尝试区块链功能。

主流入门基础设施

Web3 游戏的论点始终取决于解决入门问题。加密原生用户在游戏玩家中占比不足 1%。主流普及需要隐藏复杂性。

Playnance 的基础设施栈解决了每一个入门障碍:

身份验证: 社交登录或电子邮件取代了钱包连接。用户通过熟悉的方法进行身份验证,而钱包在后台静默生成。

资产管理: 游戏库存将道具显示为普通资产。除非用户明确选择区块链原生功能,否则作为 NFT 的技术实现是被隐藏的。

交易: 所有区块链交互都发生在服务器端。用户像在任何传统游戏中一样点击“购买”或“交易”。没有交易签名的弹窗,也没有 Gas 费确认。

法币入金 (Onramps): 信用卡支付与传统游戏购买体验完全一致。货币转换和加密货币处理在后台系统中透明地进行。

这消除了用户不尝试 Web3 游戏的每一个借口。如果体验与传统游戏相媲美,但提供了更好的所有权模型,主流用户就会在不需要接受区块链教育的情况下采用它。

可扩展的 Web3 游戏技术栈

30 多家工作室需要可靠、可扩展的基础设施。Playnance 的技术架构必须能够处理:

  • 高交易吞吐量,且不会出现 Gas 费用激增
  • 实时游戏的低延迟
  • 冗余和运行时间保证
  • 价值不菲的游戏内资产的安全性

技术实现可能包括:

  • 用于廉价、快速交易的 Layer 2 Rollup
  • 抽象费用的无 Gas 交易中继器
  • 平衡安全性和用户体验 (UX) 的热/冷钱包架构
  • 资产互操作性的多链支持

该平台的成功验证了 Web3 游戏基础设施在经过适当架构设计并对终端用户进行抽象后,是可以实现规模化扩展的。

BlockEden.xyz 为 Web3 游戏和应用提供企业级基础设施,跨主要区块链生态系统提供可靠、高性能的 RPC 访问。探索我们的服务 以获取可扩展的游戏基础设施。


来源:

  • 2025-2026 年 Web3 游戏行业报告
  • 品牌 NFT 项目失败分析
  • Playnance 生态系统文档

后量子区块链: 8 个竞相构建抗量子加密技术的项目

· 阅读需 10 分钟
Dora Noda
Software Engineer

当 Coinbase 在 2026 年 1 月成立后量子咨询委员会时,它证实了安全研究人员多年来的警告:量子计算机将破解当前的区块链加密技术,抗量子加密的竞赛已经开始。QRL 的 XMSS 签名、StarkWare 基于哈希的 STARKs 以及以太坊的 200 万美元研究奖金,代表了旨在 2026 年占据市场领导地位的前沿项目。问题不在于区块链是否需要抗量子能力,而在于当 “Q-Day”(量子日)到来时,哪种技术方案将占据主导地位。

后量子区块链板块分为两大类:对现有链(如比特币、以太坊)进行改造,以及原生抗量子协议(如 QRL、Quantum1)。每一类都面临不同的挑战。改造必须保持向后兼容性,协调分布式升级,并管理暴露的公钥。原生协议从一开始就使用抗量子加密技术,但缺乏网络效应。这两种方法都是必要的——传统区块链承载着必须保护的数万亿资产,而新链可以从创世之初就针对抗量子能力进行优化。

QRL:首个抗量子区块链

Quantum Resistant Ledger (QRL) 于 2018 年启动,是首个从成立之初就实施后量子加密技术的区块链。该项目选择了 XMSS(扩展门克尔签名方案),这是一种基于哈希的签名算法,通过哈希函数而非数论提供抗量子安全性。

为何选择 XMSS? SHA-256 等哈希函数被认为具有抗量子性,因为量子计算机无法显著加速哈希碰撞(Grover 算法提供的是平方级加速,而非像 Shor 算法针对 ECDSA 那样提供指数级加速)。XMSS 利用这一特性,从哈希值的默克尔树(Merkle trees)中构建签名。

权衡: XMSS 签名体积巨大(约 2,500 字节,而 ECDSA 仅为 65 字节),这使得交易成本更高。每个地址的签名容量有限——在生成 N 个签名后,必须重新生成树。这种有状态的特性需要仔细的密钥管理。

市场地位: 与比特币或以太坊相比,QRL 仍然属于小众市场,处理的交易量极小。然而,它证明了抗量子区块链在技术上是可行的。随着 Q-Day 的临近,QRL 作为经过实战检验的替代方案可能会受到关注。

未来展望: 如果量子威胁比预期来得更快,QRL 的先发优势将变得非常重要。该协议在后量子签名方面拥有多年的生产经验。寻求抗量子资产的机构可能会将 QRL 作为一种 “量子保险” 进行配置。

STARKs:具有抗量子能力的零知识证明

StarkWare 的 STARK(可扩展、透明的知识参数)技术作为其零知识证明架构的一个附带收益,提供了抗量子能力。STARKs 使用哈希函数和多项式,避免了容易受到 Shor 算法攻击的椭圆曲线加密。

为何 STARKs 至关重要: 与 SNARKs(需要可信设置并使用椭圆曲线)不同,STARKs 是透明的(无需可信设置)且具有抗量子性。这使其成为扩展解决方案(StarkNet)和后量子迁移的理想选择。

当前应用: StarkNet 为以太坊 L2 扩展处理交易。其抗量子能力目前是潜在的——虽然不是核心特性,但随着量子威胁的增长,这是一项宝贵的属性。

集成路径: 以太坊可以集成基于 STARK 的签名以实现后量子安全,同时在过渡期间保持与 ECDSA 的向后兼容性。这种混合方法允许逐步迁移。

挑战: 尽管压缩技术正在改进,但 STARK 证明的体积仍然很大(数百 KB)。验证速度很快,但证明生成的计算成本很高。这些权衡限制了高频应用的吞吐量。

展望: STARKs 可能会成为以太坊后量子解决方案的一部分,无论是作为直接的签名方案,还是作为迁移传统地址的包装器。StarkWare 的生产记录和以太坊的集成使得这条路径极具可能性。

以太坊基金会的 200 万美元研究奖金:基于哈希的签名

以太坊基金会在 2026 年 1 月将后量子加密指定为 “首要战略任务”,并设立了 200 万美元的研究奖金,用于征集实际的迁移方案。重点是基于哈希的签名(SPHINCS+、XMSS)和基于晶格(lattice-based)的加密(Dilithium)。

SPHINCS+: 一种由 NIST 标准化的无状态哈希签名方案。与 XMSS 不同,SPHINCS+ 不需要状态管理——你可以使用一个密钥签署无限的消息。签名体积更大(约 16-40 KB),但无状态特性简化了集成。

Dilithium: 一种基于晶格的签名方案,与基于哈希的替代方案相比,它提供更小的签名(约 2.5 KB)和更快的验证速度。其安全性依赖于被认为具有量子抗性的晶格问题。

以太坊的挑战: 迁移以太坊需要解决历史交易中暴露的公钥问题,在过渡期间保持向后兼容性,并最大限度地减少签名体积膨胀,以避免破坏 L2 的经济模型。

研究重点: 这项 200 万美元的奖金旨在寻找实际的迁移路径——如何进行网络分叉、转换地址格式、处理传统密钥,以及在为期数年的过渡期间维持安全性。

时间线: 以太坊开发人员估计,从研究到生产部署需要 3-5 年。这表明,假设 Q-Day 不会提前到来,以太坊主网的后量子激活将在 2029-2031 年左右。

比特币 BIPs:后量子迁移的保守方法

讨论后量子密码学的比特币改进提议 (BIPs) 正处于草案阶段,但共识建立过程缓慢。比特币的保守文化抵制未经测试的密码学,更倾向于经过实战检验的解决方案。

可能采取的方法:由于保守的安全特性,倾向于采用基于哈希的签名 (SPHINCS+)。比特币将安全性置于效率之上,愿意接受更大的签名以降低风险。

Taproot 集成:比特币的 Taproot 升级提供了脚本灵活性,可以在不进行硬分叉的情况下容纳后量子签名。Taproot 脚本可以在 ECDSA 的基础上包含后量子签名验证,从而实现选择性迁移 (opt-in migration)。

挑战:暴露地址中存有 665 万枚 BTC。比特币必须做出抉择:强制迁移(销毁丢失的代币)、自愿迁移(面临量子盗窃风险)或接受损失的混合方法。

时间线:比特币的推进速度比以太坊慢。即使 BIPs 在 2026-2027 年达成共识,主网激活可能也要等到 2032-2035 年。这一时间线的前提是 Q-Day 并非迫在眉睫。

社区分歧:一些比特币极大化主义者否认量子威胁的紧迫性,将其视为遥远的威胁。另一些人则主张立即采取行动。这种紧张关系减缓了共识的建立。

Quantum1:原生抗量子智能合约平台

Quantum1(新兴项目的假设案例)代表了从创世阶段就设计为抗量子的新一代区块链。与 QRL(简单支付)不同,这些平台提供具有后量子安全性的智能合约功能。

架构:结合了基于格的签名 (Dilithium)、基于哈希的承诺和零知识证明,以实现隐私保护且抗量子的智能合约。

价值主张:构建长期应用(寿命超过 10 年)的开发者可能更倾向于原生抗量子平台,而非经过改造的链。既然要在 2030 年迁移,为什么今天还要在以太坊上构建呢?

挑战:网络效应有利于成熟的链。比特币和以太坊拥有流动性、用户、开发者和应用。无论技术多么优越,新链在获得关注方面都面临巨大挑战。

潜在催化剂:针对主流链的量子攻击将引发向抗量子替代方案的逃离。Quantum1 类型的项目是应对现有链失效的保险单。

Coinbase 顾问委员会:机构协调

Coinbase 成立后量子顾问委员会,标志着机构开始关注量子准备工作。作为一家负有信托义务的上市公司,Coinbase 不能忽视客户资产面临的风险。

顾问委员会角色:评估量子威胁,建议迁移策略,与协议开发者协调,并确保 Coinbase 的基础设施为后量子过渡做好准备。

机构影响力:Coinbase 持有价值数十亿美元的客户加密货币。如果 Coinbase 推动协议采用特定的后量子标准,这种影响力将至关重要。交易所的参与会加速采用——如果交易所仅支持后量子地址,用户迁移的速度会更快。

时间线压力:Coinbase 的公开参与表明,机构的时间线比社区讨论所承认的要短。上市公司不会为了 30 年后的风险而成立顾问委员会。

布局领导地位的 8 个项目

竞争格局总结:

  1. QRL:先行者,生产级 XMSS 实现,利基市场
  2. StarkWare/StarkNet:基于 STARK 的抗量子特性,以太坊集成
  3. 以太坊基金会:200 万美元研究奖金,专注于 SPHINCS+/Dilithium
  4. Bitcoin Core:BIP 提案,支持 Taproot 的选择性迁移
  5. Quantum1 类平台:原生抗量子智能合约链
  6. Algorand:探索用于未来升级的后量子密码学
  7. Cardano:研究集成基于格的密码学
  8. IOTA:Tangle 架构中的抗量子哈希函数

每个项目都在不同的权衡之间进行优化:安全性 vs 效率、向后兼容性 vs 白手起家、NIST 标准化算法 vs 实验性算法。

对开发者和投资者的意义

对于开发者:构建 10 年以上长期应用的开发者应考虑后量子迁移。以太坊上的应用最终将需要支持后量子地址格式。现在的规划可以减少未来的技术债。

对于投资者:在抗量子链和传统链之间进行多元化投资可以规避量子风险。QRL 和类似项目具有投机性,但如果量子威胁比预期来得更快,它们将提供非对称的上行潜力。

对于机构:后量子准备是风险管理,而非投机。持有客户资产的托管机构必须规划迁移策略,与协议开发者协调,并确保基础设施支持后量子签名。

对于协议:迁移窗口正在关闭。2026 年才开始后量子研究的项目要到 2029-2031 年才能部署。如果 Q-Day 在 2035 年到来,那么只剩下 5-10 年的后量子安全期。启动太晚可能会导致时间不足。

参考资料

量子迁移问题:为什么你的比特币地址在一次交易后就会变得不安全

· 阅读需 12 分钟
Dora Noda
Software Engineer

当你签署一笔比特币交易时,你的公钥就会永久地在区块链上可见。15 年来,这并不重要——保护比特币的 ECDSA 加密在计算上是经典计算机无法破解的。但量子计算机改变了一切。一旦拥有足够强大能力的量子计算机出现(Q-Day),它可以在几小时内从你暴露的公钥中重构出你的私钥,从而掏空你的地址。被低估的 Q-Day 问题不仅仅是“升级加密”。关键在于,已签署过交易的地址中存有的 665 万枚 BTC 已经处于风险之中,而且其迁移难度比升级企业 IT 系统要大得多。

以太坊基金会设立的 200 万美元后量子研究奖金,以及 2026 年 1 月成立的专门 PQ 团队,标志着“最高战略优先级”地位的确立。这并非未来的规划——而是紧急备战。Project Eleven 专门为后量子加密安全筹集了 2000 万美元。Coinbase 成立了后量子顾问委员会。与 Q-Day 的赛跑已经开始,区块链面临着传统系统所不具备的独特挑战:不可篡改的历史、分布式协作,以及存放在公钥已暴露地址中的 665 万枚 BTC。

公钥暴露问题:为什么你的地址在签名后会变得脆弱

比特币的安全依赖于一种基础的不对称性:从私钥派生公钥很容易,但逆向推导在计算上是不可能的。你的比特币地址是公钥的哈希值,这提供了额外的一层保护。只要你的公钥保持隐藏,攻击者就无法针对你的特定密钥。

然而,一旦你签署一笔交易,你的公钥就会在区块链上变得可见。这是不可避免的——签名验证需要公钥。对于接收资金,你的地址(公钥的哈希值)就足够了。但支出资金则需要揭示公钥。

经典计算机无法利用这种暴露。破解 ECDSA-256(比特币的签名方案)需要解决离散对数问题,估计需要 2^128 次运算——即使是运行数千年的超级计算机也无法实现。

量子计算机打破了这一假设。Shor 算法在具有足够量子比特和纠错能力的量子计算机上运行,可以在多项式时间内解决离散对数问题。据估计,一台拥有约 1,500 个逻辑量子比特的量子计算机可以在几小时内破解 ECDSA-256。

这创造了一个关键的脆弱性窗口:一旦你从一个地址签署了交易,该公钥就会永远暴露在链上。如果以后出现了量子计算机,所有先前暴露的密钥都将变得脆弱。存放在已签署交易地址中的 665 万枚 BTC 正伴随着永久暴露的公钥,等待着 Q-Day 的到来。

没有交易历史的新地址在首次使用前仍然是安全的,因为它们的公钥尚未暴露。但遗留地址——中本聪的代币、早期采用者的持有量、以及签署过交易的交易所冷钱包——都是滴答作响的定时炸弹。

为什么区块链迁移比传统加密升级更难

传统的 IT 系统也面临量子威胁。银行、政府和企业使用的加密技术都容易受到量子攻击。但它们的迁移路径是直接的:升级加密算法、轮换密钥并重新加密数据。虽然昂贵且复杂,但在技术上是可行的。

区块链迁移面临着独特的挑战:

不可篡改性:区块链历史是永久性的。你无法追溯性地更改过去的交易来隐藏已暴露的公钥。一旦泄露,它们就会在成千上万个节点中永远泄露。

分布式协作:区块链缺乏强制执行升级的中央机构。比特币的共识需要矿工、节点和用户的多数同意。为后量子迁移协调一次硬分叉在政治和技术上都非常复杂。

向后兼容性:在过渡期间,新的后量子地址必须与遗留地址并存。这导致了协议的复杂性——两种签名方案、双重地址格式、混合模式交易验证。

丢失的密钥和非活跃用户:数百万枚 BTC 存放于那些丢失密钥、已故或多年前放弃加密货币的人所拥有的地址中。这些代币无法自愿迁移。它们是应该保持脆弱状态,还是由协议强制迁移(这可能面临破坏访问权限的风险)?

交易规模和成本:后量子签名比 ECDSA 大得多。根据方案的不同,签名大小可能会从 65 字节增加到 2,500 字节以上。这会使交易数据膨胀,提高手续费并限制吞吐量。

算法选择的共识:该选择哪种后量子算法?NIST 标准化了多种算法,但每种都有权衡。如果选错了,可能意味着以后需要重新迁移。区块链必须押注于那些在未来几十年内依然安全的算法。

以太坊基金会的 200 万美元研究奖金正针对这些确切的问题:如何在不破坏网络、不失去向后兼容性、或不因签名冗余导致区块链无法使用的情况下,将以太坊迁移到后量子加密技术。

665 万 BTC 问题:暴露地址会面临什么?

截至 2026 年,约有 665 万 BTC 存放于签署过至少一次交易的地址中,这意味着它们的公钥已经暴露。这占比特币总供应量的约 30%,其中包括:

中本聪的代币:由比特币创建者开采的约 100 万 BTC 仍未移动。这些地址中的许多从未签署过交易,但其他地址因早期交易而暴露了密钥。

早期采用者的持有量:数以千计的 BTC 由早期矿工和采用者持有,他们在每枚代币仅值几美分时积累了这些资产。许多地址处于休眠状态,但拥有历史交易签名。

交易所冷存储:交易所将数百万 BTC 存放在冷存储中。虽然最佳实践是轮换地址,但传统的冷钱包往往因过去的整合交易而暴露了公钥。

丢失的代币:据估计有 300 万至 400 万 BTC 已丢失(所有者去世、私钥遗忘、硬盘被丢弃)。这些地址中的许多都具有暴露的密钥。

在 Q-Day 发生时,这些代币会怎样?有几种可能的情况:

方案 1 - 强制迁移:通过硬分叉授权在截止日期前将代币从旧地址移动到新的后量子地址。未迁移的代币将变得无法消费。这会“销毁”丢失的代币,但能保护网络免受量子攻击耗尽国库。

方案 2 - 自愿迁移:用户自愿迁移,但暴露的地址仍然有效。风险:量子攻击者在所有者迁移之前耗尽易受攻击的地址。这会引发“迁移竞赛”的恐慌。

方案 3 - 混合方法:引入后量子地址,但无限期保持向后兼容性。接受易受攻击的地址最终将在 Q-Day 后被耗尽,将其视为自然选择。

方案 4 - 紧急冻结:在检测到量子攻击时,通过紧急硬分叉冻结易受攻击的地址类型。这为迁移赢得了时间,但需要比特币所抵制的中心化决策。

没有一个是理想的。方案 1 破坏了合法丢失的密钥。方案 2 允许量子盗窃。方案 3 接受数百亿美元的损失。方案 4 破坏了比特币的不可篡改性。以太坊基金会和比特币研究人员现在就在努力应对这些权衡,而不是在遥远的未来。

后量子算法:技术解决方案

几种后量子加密算法提供了抵御量子攻击的能力:

基于哈希的签名 (XMSS, SPHINCS+):安全性依赖于哈希函数,这些函数被认为是抗量子的。优点:易于理解、保守的安全假设。缺点:签名尺寸大(2,500+ 字节),导致交易成本昂贵。

基于格的密码学 (Dilithium, Kyber):基于量子计算机难以解决的格问题。优点:签名较小(约 2,500 字节),验证效率高。缺点:较新,且比基于哈希的方案经过的实战测试更少。

STARKs (可扩展透明知识论证):抗量子攻击的零知识证明,因为它们依赖于哈希函数而非数论。优点:透明(无需受信任的设置)、抗量子、可扩展。缺点:证明尺寸大,计算成本高。

多变量密码学:通过求解多变量多项式方程组来保证安全。优点:签名生成速度快。缺点:公钥尺寸大,不够成熟。

基于编码的密码学:基于纠错码。优点:速度快、研究充分。缺点:密钥尺寸非常大,在区块链中使用不切实际。

以太坊基金会正在探索基于哈希和基于格的签名,认为它们是区块链集成中最具前景的方案。QRL (量子抗性账本) 在 2018 年率先实现了 XMSS,证明了可行性,但在交易尺寸和吞吐量方面做出了妥协。

由于保守的安全理念,比特币可能会选择基于哈希的签名 (SPHINCS+ 或类似算法)。以太坊可能会选择基于格的签名 (Dilithium) 以尽量减少尺寸开销。两者都面临同样的挑战:比 ECDSA 大 10 到 40 倍的签名会使区块链体积和交易成本飙升。

时间表:距离 Q-Day 还有多久?

预测 Q-Day(量子计算机破解 ECDSA 的时刻)具有投机性,但趋势是明确的:

乐观(对攻击者而言)时间表:10 到 15 年。IBM、谷歌和初创公司在量子比特数量和纠错方面取得了快速进展。如果进展继续呈指数级增长,1,500 个以上的逻辑量子比特可能会在 2035 年至 2040 年间出现。

保守时间表:20 到 30 年。量子计算面临着巨大的工程挑战——纠错、量子比特相干性、规模化。许多人认为实际攻击仍需几十年。

悲观(对区块链而言)时间表:5 到 10 年。政府的秘密计划或突破性发现可能会加速这一进程。谨慎的规划应假设较短的时间表,而非较长的。

以太坊基金会在 2026 年 1 月将后量子迁移视为“最高战略优先级”,这表明内部估计比公开讨论承认的要短。你不会为了 30 年后的风险拨付 200 万美元并组建专门团队。你这样做是为了 10 到 15 年内的风险。

比特币的文化抵制紧迫感,但关键开发者承认这一问题。虽然存在后量子比特币的提案(处于 BIPs 草案阶段),但达成共识需要多年时间。如果 Q-Day 在 2035 年到来,比特币需要在 2030 年开始迁移,以便为开发、测试和网络推广留出时间。

个人现在可以采取的措施

虽然协议层解决方案还需要数年时间,但个人可以减少风险敞口:

定期迁移到新地址:从某个地址转账后,将剩余资金转移到新地址。这可以最大限度地缩短公钥暴露时间。

使用多重签名钱包:量子计算机必须同时破解多个签名,这增加了难度。虽然这并非完全抗量子,但可以争取时间。

避免重复使用地址:绝不要向已经发送过资金的地址转账。每次支出都会重新暴露公钥。

关注最新进展:关注以太坊基金会后量子(PQ)研究、Coinbase 顾问委员会的更新,以及与后量子密码学相关的比特币改进提案(BIPs)。

分散持有资产:如果你担心量子风险,可以分散投资于抗量子链(QRL)或风险较小的资产(权益证明 PoS 链比工作量证明 PoW 链更容易迁移)。

这些只是权宜之计,而非根本解决方案。协议层面的修复需要针对价值数十亿美元资产和数百万用户的协调网络升级。挑战不仅在于技术,还在于社会、政治和经济层面。

来源

Vitalik 的 L2 重磅言论:为什么以太坊以 Rollup 为中心的路线图“不再有意义”

· 阅读需 14 分钟
Dora Noda
Software Engineer

“你并没有在扩展以太坊。”

凭借这六个字,Vitalik Buterin 进行了一次现实检查,在以太坊生态系统中引起了轩然大波。这一声明针对的是使用多签桥的高吞吐量链,并立即引发了反应:ENS Labs 在几天后宣布取消其计划中的 Namechain Rollup,理由是以太坊基础层性能得到了显著提升。

在多年来将 Layer 2 Rollup 定位为以太坊主要扩展方案后,这位联合创始人在 2026 年 2 月的转向代表了区块链历史上最重要的战略转变之一。现在的悬念是,成千上万的现有 L2 项目能否适应——还是会走向淘汰。

以 Rollup 为中心的路线图:发生了什么变化?

多年来,以太坊的官方扩展策略一直以 Rollup 为中心。其逻辑很简单:以太坊 L1 将专注于安全性和去中心化,而 Layer 2 网络将通过在链下批量执行并将压缩数据传回主网来处理交易吞吐量。

这种路线图在以太坊 L1 挣扎于 15-30 TPS 且在高峰拥堵期间 Gas 费经常超过每笔交易 50 美元时是有意义的。Arbitrum、Optimism 和 zkSync 等项目筹集了数十亿美元来构建 Rollup 基础设施,旨在最终将以太坊扩展到每秒数百万笔交易。

但两个关键进展动摇了这一叙事。

首先,据 Buterin 称,L2 的去中心化进程比预期“慢得多”。大多数 Rollup 仍依赖于中心化排序器、多签升级密钥和受信任的运营商。迈向 Stage 2 去中心化——即 Rollup 可以在没有“辅助轮”的情况下运行——的旅程已被证明异常困难。目前只有少数项目达到了 Stage 1,而没有一个达到 Stage 2。

其次,以太坊 L1 本身进行了大幅扩展。2026 年初的 Fusaka 升级为许多用例带来了 99% 的费用削减。随着即将到来的 Glamsterdam 分叉,Gas 上限从 6000 万增加到 2 亿。零知识证明验证的目标是到 2026 年底在 L1 上实现 10,000 TPS。

突然之间,推动数十亿美元 L2 投资的前提——即以太坊 L1 无法扩展——显得值得怀疑。

ENS Namechain:第一个主要牺牲品

以太坊域名服务(ENS)决定放弃其 Namechain L2 Rollup,成为 Buterin 修正思路后的最高调验证。

ENS 一直在开发 Namechain 多年,作为专用 Rollup,以便比主网更廉价地处理域名注册和续费。在 2024 年的高峰拥堵期间,每笔注册的 Gas 费为 5 美元,当时的经济逻辑非常具有说服力。

到 2026 年 2 月,这一逻辑完全反转。以太坊 L1 上的 ENS 注册费用降至 5 美分以下——降幅达 99%。运行独立 L2 的基础设施复杂性、持续维护成本以及用户碎片化,已不再能支撑其微小的成本节省。

ENS Labs 并未放弃其 ENSv2 升级,这是对 ENS 合约的底层重写,提升了可用性和开发工具。相反,该团队将 ENSv2 直接部署到以太坊主网,避免了在 L1 和 L2 之间进行跨链桥接的协调开销。

这一取消信号预示着一种更广泛的模式:如果以太坊 L1 继续有效地扩展,专用场景的 Rollup 将失去其经济上的合理性。当基础层足够强大时,为什么还要维护独立的基础设施?

10,000 TPS 多签桥的问题

Buterin 对多签桥的批评切中了“扩展以太坊”真正含义的核心。

他的声明——“如果你创建了一个 10,000 TPS 的 EVM,而它与 L1 的连接是通过多签桥介导的,那么你并没有在扩展以太坊”——在真正的以太坊扩展与仅仅声称有关联的独立链之间划清了界限。

这种区别对于安全性和去中心化至关重要。

多签桥依赖一小群运营商来验证跨链交易。用户信任这群人不会合谋、不会被黑客攻击,也不会被监管机构影响。历史表明,这种信任经常被错付:跨链桥攻击已导致数十亿美元的损失,仅 Ronin Bridge 攻击事件就造成了超过 6 亿美元的损失。

真正的以太坊扩展会继承以太坊的安全保证。一个正确实现的 Rollup 使用欺诈证明或有效性证明来确保任何无效的状态转换都可以被挑战和撤销,并由以太坊 L1 验证者解决争议。用户不需要信任多签——他们信任的是以太坊的共识机制。

问题在于,达到这种级别的安全性在技术上非常复杂且昂贵。许多自称为“以太坊 L2”的项目在走捷径:

  • 中心化排序器:单个实体对交易进行排序,造成审查风险和单点故障。
  • 多签升级密钥:一小部分人可以在未经社区同意的情况下更改协议规则,从而可能窃取资金或改变经济模型。
  • 无退出保证:如果排序器下线或升级密钥被泄露,用户可能没有可靠的方式来提取资产。

这些并非理论上的担忧。研究显示,大多数 L2 网络仍比以太坊 L1 要中心化得多,去中心化被视为一个长期目标,而非当务之急。

Buterin 的论点强迫人们面对一个令人不安的问题:如果一个 L2 不继承以太坊的安全性,它真的是在“扩展以太坊”,还是仅仅是一个带有以太坊品牌的另类公链?

新的 L2 框架:超越扩容的价值

布特林并未完全放弃 L2,而是建议将其视为一系列与以太坊连接程度不同的网络,每一层都提供不同的权衡。

核心见解是,如果 L2 希望在以太坊 L1 性能提升的情况下保持竞争力,就必须在基础扩容之外提供更多价值:

隐私特性

像 Aztec 和 Railgun 这样的链使用零知识证明提供可编程隐私。这些功能很难在透明的公共 L1 上实现,从而形成了真正的差异化。

特定应用设计

专注于游戏的 Rollup,如 Ronin 或 IMX,针对高频、低额交易进行了优化,其最终性要求与金融应用不同。即使 L1 的扩容足以满足大多数用例,这种专业化也具有重要意义。

超快速确认

某些应用需要亚秒级的最终性,而 L1 的 12 秒区块时间无法提供。拥有优化共识机制的 L2 可以服务于这一细分市场。

非金融用例

身份、社交图谱和数据可用性与 DeFi 有着不同的需求。专业化的 L2 可以针对这些工作负载进行优化。

布特林强调,L2 应该“向用户明确其提供的保障”。那些在不说明安全模型、去中心化状态和信任假设的情况下,含糊地声称“扩容以太坊”的日子已经结束了。

生态系统的反应:适应还是否认?

对布特林言论的反应揭示了一个正在应对身份危机的、四分五裂的生态系统。

Polygon 宣布了一项战略转型,重点转向支付领域,明确承认通用型扩容正日益商品化。该团队认识到,差异化需要专业化。

Marc Boiron (Offchain Labs) 认为,布特林的评论“与其说是放弃 Rollup,不如说是提高了对它们的期望”。这种表述在承认需要更高标准的同时,保留了 Rollup 的叙事。

Solana 的支持者借此机会辩称,Solana 的单体架构完全避免了 L2 的复杂性,并指出以太坊的多链碎片化造成了比高性能单体 L1 更糟糕的用户体验 (UX)。

L2 开发者 通常通过强调吞吐量以外的功能——隐私、定制化、专业经济模型——来捍卫其相关性,同时私下里也承认,单纯的扩容方案正变得越来越难以立足。

大势所趋:L2 格局将分化为两类:

  1. 商品化 Rollup:主要在费用和吞吐量上竞争,可能会围绕几个主要玩家(Base、Arbitrum、Optimism)进行整合。

  2. 专业化 L2:具有根本不同的执行模型,提供 L1 无法复制的独特价值主张。

不属于这两类的链将面临不确定的未来。

L2 的生存之道

对于现有的 Layer 2 项目,布特林的转型既带来了生存压力,也提供了战略清晰度。生存需要跨多个方面的果断行动:

1. 加速去中心化

“我们最终会去中心化”的说法已不再被接受。项目必须公布具体的路线图,包括:

  • 无许可的排序器网络(或可靠的权威证明)
  • 移除或锁定升级密钥的时间锁
  • 实施具有保障退出机制的故障证明系统

那些在声称拥有以太坊安全性的同时保持中心化的 L2,特别容易受到监管审查和声誉损害。

2. 明确价值主张

如果 L2 的主要卖点仅仅是“比以太坊更便宜”,那么它需要一个新的定位。持续的差异化需要:

  • 专业功能:隐私、定制虚拟机执行、新颖的状态模型
  • 明确的目标受众:游戏?支付?社交?DeFi?
  • 诚实的安全披露:存在哪些信任假设?还剩下哪些攻击向量?

当用户可以通过 L2Beat 等工具比较实际的去中心化指标时,营销虚假宣传将不再奏效。

3. 解决桥接安全性问题

多签桥是 L2 安全性中最薄弱的一环。项目必须:

  • 为去信任桥接实施欺诈证明或有效性证明
  • 为紧急干预增加时间延迟和社交共识层
  • 提供即便排序器失效也能正常运作的保障退出机制

当涉及到数十亿美元的用户资金时,桥接安全性不能只是事后才考虑的问题。

4. 专注于互操作性

碎片化是以太坊最大的用户体验 (UX) 问题。L2 应当:

  • 支持跨链消息标准(LayerZero、Wormhole、Chainlink CCIP)
  • Enable 跨链的无缝流动性共享
  • 构建抽象层以向终端用户隐藏复杂性

获胜的 L2 将让人感觉是以太坊的延伸,而不是孤立的岛屿。

5. 接受整合

现实点说,市场无法支持 100 多个可行的 L2。许多项目将需要合并、转型或体面地关闭。团队越早意识到这一点,就越能更好地寻求战略合作伙伴或人才收购,而不是慢慢变得无足轻重。

以太坊 L1 扩容路线图

在 L2 面临身份危机的同时,以太坊 L1 正在执行一项激进的扩容计划,这为 Buterin 的论点提供了有力支持。

Glamsterdam 分叉(2026 年中期): 引入区块访问列表(BAL),通过将交易数据预加载到内存中来实现完美的并行处理。Gas 限制从 6,000 万增加到 2 亿,大幅提升了复杂智能合约的吞吐量。

零知识证明验证: 2026 年开启的第一阶段计划将 10% 的验证者过渡到 ZK 验证,验证者通过验证数学证明来确认区块的准确性,而无需重新执行所有交易。这使得以太坊能够在保持安全性和去中心化的同时,向 10,000 TPS 的目标扩容。

提议者 - 构建者分离 (ePBS): 将构建者竞争直接集成到以太坊的共识层中,减少 MEV 提取并提高抗审查能力。

这些升级并不会消除对 L2 的需求,但它们确实消除了“L1 扩容不可能或不切实际”的假设。如果以太坊 L1 通过并行执行和 ZK 验证达到 10,000 TPS,那么 L2 差异化的基准将大幅上升。

长期展望:谁将胜出?

以太坊的扩容策略正进入一个新阶段,L1 和 L2 的发展必须被视为互补而非竞争关系。

以 Rollup 为中心的路线图曾假设 L1 将无限期地保持缓慢且昂贵。这一假设现在已经过时。L1 将会扩容——也许达不到数百万 TPS,但足以以合理的费用处理大多数主流用例。

能够认识到这一现实并转向真正的差异化竞争的 L2 将会蓬勃发展。而那些继续宣传“比以太坊更便宜、更快”的项目,随着 L1 性能差距的缩小,将面临生存困境。

最终的讽刺之处在于,Buterin 的言论可能会巩固以太坊的长期地位。通过迫使 L2 提高标准——真正的去中心化、诚实的安全披露、专门的价值主张——以太坊在剔除最弱项目的同时,提升了整个生态系统的质量。

用户将受益于更清晰的选择:使用以太坊 L1 以获得最高的安全性和去中心化,或针对特定功能选择具有明确权衡的专业化 L2。那种“我们正通过多签桥在某种程度上扩容以太坊”的中间地带将会消失。

对于构建区块链基础设施未来的项目来说,信息非常明确:通用扩容问题已得到解决。如果你的 L2 不能提供以太坊 L1 所不能提供的功能,那么你就是在借来的时间里苟延残喘。

BlockEden.xyz 为以太坊 L1 和主要的 Layer 2 网络提供企业级基础设施,为开发人员提供跨整个以太坊生态系统构建应用的工具。探索我们的 API 服务 以获取可扩展且可靠的区块链连接。


资料来源:

比特币收益的大转向:当积累遇上收益生成

· 阅读需 13 分钟
Dora Noda
Software Engineer

企业级比特币财务管理策略正在实时重写。最初只是纯粹的积累策略——MicroStrategy 不断地疯狂购买 BTC——现在正与一个更复杂的叙事相碰撞:收益生成。随着稳定币发行商从国债收益中获取利润以及比特币质押基础设施的成熟,机构财务面临的问题不再仅仅是“拥有多少比特币?”,而是“比特币能产生多少回报?”

这种融合代表了加密财务策略的根本转变。曾经在 BTC 积累率上展开竞争的公司,现在正盯上价值 55 亿美元的 BTCFi 市场,在那里,去信任化的收益协议有望将闲置的比特币持仓转化为产生收入的资产。与此同时,稳定币运营商已经破解了被动财务收入的密码——Tether 在 2024 年通过将储备金存入计息资产获得了 130 亿美元的利润,证明了这一模式的有效性。

比特币收益悖论:积累的收益递减

MicroStrategy(现已更名为 Strategy)持有 713,502 枚比特币,价值 331.39 亿美元,约占比特币总供应量的 3%。该公司开创了“比特币收益率”(Bitcoin Yield)指标,衡量 BTC 增长与稀释后发行在外股份的关系。但这一策略面临着一个数学上限,任何规模的资本都无法逾越。

正如 VanEck 的分析所揭示的,由于规模报酬递减,高比特币收益率在根本上是不可持续的。随着财务规模的增长,每增加一个基点的收益率都需要呈指数级增长的 BTC。当你已经持有比特币供应量的 3% 时,要让收益指标再增加 1%,意味着需要再购入数万枚比特币——随着市场深度的变薄,这一壮举变得极其昂贵。

财务压力已经显现。Strategy 的股价跌幅在最近的市场波动中超过了比特币,反映出市场对纯积累策略可持续性的怀疑。该公司 66,384 美元的平均持仓成本,结合比特币近期从 126,000 美元回调至 74,000 美元,使得“简单的长期持有(hodling)能驱动股东价值”的叙事面临压力。

这一数学约束正迫使策略转向。正如研究表明,企业比特币财务的下一阶段可能会纳入收益机制,以展示除价格上涨之外的持续价值创造。

稳定币:3100 亿美元的收益机器

在比特币财务管理还在苦苦应对积累上限时,稳定币发行商一直在通过一种简单的套利方式悄悄赚钱:用户存入美元,发行商将其存入收益率为 4-5% 的美国国债中,并赚取利差。这并没有特别的创新,但却异常有效。

数据说明了一切。Tether 在 2024 年创造了超过 130 亿美元的利润,主要源于其 1100 多亿美元储备金的利息。Circle、PayPal 等公司也纷纷效仿,打着支付基础设施的旗号建立财务管理业务。

旨在监管支付稳定币的《GENIUS 法案》无意中暴露了这一模式的暴利。该立法禁止稳定币发行商直接向持有者支付利息,但并不妨碍附属平台提供奖励或收益计划。这种监管灰色地带引发了激烈的竞争。

DeFi 协议正在利用这一漏洞,在传统银行难以竞争的情况下,为稳定币提供 4-10% 的年化收益率(APY)。《GENIUS 法案》监管支付稳定币,但对奖励计划的分类在很大程度上仍不明确,这使得加密平台能够提供足以媲美或超过银行储蓄账户的收益,且无需承担特许银行的监管开销。

这种动态对比特币财务公司提出了一个生存问题:如果稳定币运营商可以从美元储备中产生 4-5% 的无风险收益,那么比特币持仓的对等收益是什么?答案正在推动比特币 DeFi 的爆发式增长。

BTCFi:构建去信任化的收益基础设施

比特币质押和 DeFi 生态系统(统称为 BTCFi)在 2026 年正进入生产就绪阶段。目前的总锁仓量(TVL)为 55 亿美元,仅为 DeFi 巅峰时期的一小部分,但机构级基础设施正在迅速成熟。

Babylon 协议代表了实现原生比特币质押的技术突破。2026 年 1 月 7 日,Babylon Labs 从 a16z 筹集了 1500 万美元,用于使用见证人加密(witness encryption)和混淆电路(garbled circuits)构建去信任化的比特币金库。该系统允许 BTC 持有者进行原生质押——无需桥接、无需封装、无需托管人——同时通过保护权益证明(PoS)网络赚取收益。

技术架构至关重要,因为它解决了比特币最古老的 DeFi 难题:如何在不牺牲自托管的前提下释放流动性。传统方法需要封装 BTC 或信任托管人。Babylon 的加密金库直接锚定在比特币的基础层,实现了抵押借贷和收益生成,同时 BTC 从未离开持有者的控制。

Fireblocks 宣布在 2026 年初集成 Stacks,标志着机构门户的开启。其 2,400 多家机构客户将能够获得以比特币计价的奖励、通过 Zest 和 Granite 获得的 BTC 抵押贷款,以及通过 Bitflow 进行的原生交易。这不再是零售端的流动性挖矿,而是为合规和规模化设计的企业财务基础设施。

Galaxy Digital 预计,到 2030 年,超过 470 亿美元的 BTC 可能会桥接到比特币 Layer 2,而目前这一比例仅占流通供应量的 0.8%。收益机会正出现在多个维度:

  • 质押奖励:通过机构平台获得 3-7% 的年化收益率,可与许多固定收益替代品相媲美
  • 借贷收益:BTC 抵押贷款利用闲置持仓产生回报
  • 流动性提供:来自 BTC 交易对的自动做市商费用
  • 衍生品策略:期权溢价和结构化产品

Starknet 的 2026 年路线图包括一个高度去信任化的比特币桥,由名为“Glock”的加密验证器驱动。BTC 锁定在比特币的基础层,只有在比特币本身证明并验证了提款条件后才能解锁——没有多重签名,没有外部验证者。这种级别的去信任化正是基础设施级 BTCFi 与投机性 DeFi 的区别所在。

趋同论:国库策略 2.0

竞争动态正在迫使行业走向趋同。当收益率能够提供可证明的现金流时,比特币国库公司仅靠积累资产无法维持长久的竞争力。与此同时,稳定币运营商面临着监管压力和同质化竞争——每种受监管的稳定币最终都会从国库支持中产生类似的收益。

获胜的策略将这两种叙事结合在一起:

  1. 比特币作为抵押品:国库持仓可以在不卖出的情况下释放借贷能力
  2. 通过质押获取基准收益:BTC 持仓 3-7% 的 APY 提供了稳定的回报
  3. 稳定币铸造:以 BTC 为抵押的稳定币可产生运营资金和收益
  4. 协议参与:通过验证网络和提供流动性来实现收入多元化

这并非理论。企业国库管理指南现在建议 采用稳定币策略来产生收益,而 机构加密货币展望 则将 BTCFi 视为 2026 年的核心主题。

机构采用曲线正在加速。截至 2025 年,比特币现货 ETF 的规模已超过 1100 亿美元,下一波浪潮要求的不仅仅是被动暴露。国库管理人员需要用损益表来证明比特币配置的合理性,而不仅仅是资产负债表的增值。

MicroStrategy 的挑战说明了更广泛的行业转型。随着持仓量的增加,该公司的 比特币收益率指标变得越来越难以提升,而竞争对手可能会在类似的持仓规模上产生 4-7% 的收益。市场正开始将这种差异计入公司估值。

基础设施要求:目前还缺少什么

尽管进展迅速,但在机构国库大规模部署比特币收益策略之前,仍存在重大差距:

监管透明度:GENIUS 法案解决了稳定币问题,但 BTCFi 在很大程度上仍未受到监管。质押奖励的证券法处理、BTC 收益的会计准则以及协议代币的税务处理都需要明确定义。

托管解决方案:支持复杂智能合约交互的机构级自托管方案仍在兴起。Fireblocks 的集成是一个开始,但像 Coinbase 和 Fidelity 这样的传统托管机构尚未完全接入 BTCFi 协议。

风险管理工具:用于比特币质押和 DeFi 持仓的高级对冲工具尚不发达。机构国库需要保险产品、波动率衍生品和损失保护机制。

流动性深度:目前 BTCFi 55 亿美元的 TVL 无法吸收企业国库的大规模部署。数十亿美元的 BTC 持仓需要大多数协议目前尚不存在的流动性退出策略。

这些基础设施差距解释了为什么 2026 年机构展望报告 预测流动性将集中在少数资产和协议周围。早期行动者与经过验证的基础设施提供商合作,将获得不成比例的优势。

竞争终局

比特币积累和收益生成策略的趋同是不可避免的,因为经济效益决定了这一点。当存在产生收益的替代方案时,公司无法仅凭投机就证明持有数十亿美元 BTC 国库的合理性。

三种战略原型正在显现:

纯积累者:继续购买 BTC 而不采取收益策略,赌价格涨幅超过机会成本。这越来越难以向股东交代。

混合型国库:将 BTC 持仓与稳定币运营以及选择性的 BTCFi 参与相结合。平衡了上行暴露与收入生成。

收益最大化者:主要通过质押、借贷和协议参与将比特币用于生成收入。复杂度更高,但具有可证明的现金流。

赢家不一定是持有比特币最多的人。而是那些在积累和收益生成方面都建立起运营专长,并平衡好风险、回报和监管合规性的公司。

对于评估加密国库公司的机构投资者来说,关键指标正在发生变化。比特币收益百分比的重要性不及 BTC 绝对收入、质押多元化和协议合作伙伴质量。竞争优势正从资产负债表规模转向运营成熟度。

BlockEden.xyz 提供企业级区块链基础设施,支持机构访问权益证明网络和 DeFi 协议。探索我们的 API 市场,在专为机构收益生成设计的基础设施上进行构建。

来源

EigenLayer 的 195 亿美元再质押帝国:以太坊的新收益原语如何重塑 DeFi

· 阅读需 19 分钟
Dora Noda
Software Engineer

以太坊质押刚刚迎来了一次重大升级 —— 它被称为再质押 (Restaking)。凭借 195 亿美元的总锁仓价值 (TVL),EigenLayer 已成为占主导地位的基础设施层,允许质押者重新利用其 ETH 抵押品来保护额外的网络,同时赚取复利收益。这不仅仅是另一个 DeFi 协议;它正在从根本上重塑以太坊生态系统中安全性和资本效率的运作方式。

但转折点在于:真正的行动并非发生在直接再质押上。相反,来自 ether.fi、Renzo 和 Kelp DAO 等协议的流动性再质押代币 (LRT) 已占据超过 100 亿美元的 TVL,代表了 EigenLayer 增长的大部分。这些 LRT 让质押者能够兼顾两者的优势 —— 再质押带来的增强收益以及 DeFi 的可组合性。同时,EigenCloud 的可验证 AI 基础设施布局表明,再质押的影响已远远超出传统的区块链安全。

如果你一直在关注以太坊的演进,再质押代表了自流动性质押出现以来最重要的收益原语。但它并非没有风险。让我们深入探讨是什么驱动了这个 195 亿美元的帝国,以及再质押是否理应成为以太坊新的收益基石。

什么是再质押,为什么它很重要?

传统的以太坊质押非常直接:你锁定 ETH 来验证交易,赚取约 4-5% 的年化收益,并帮助保护网络。而再质押采用了这一概念并将其成倍放大。

再质押允许相同的已质押 ETH 同时保护多个网络。 你的质押资本不再仅仅从以太坊赚取奖励,现在还可以支持主动验证服务 (AVS) —— 如预言机、桥、数据可用性层和 AI 基础设施等去中心化服务。每增加一项受保护的服务,都会产生额外的收益。

这就像出租你已经拥有的房子里的一个空余房间。你的初始资本(房子)已经在为你工作,但再质押让你在不出售或解质押的情况下,从同一资产中榨取额外的价值。

资本效率革命

EigenLayer 通过创建一个市场开创了这种模式,在这个市场中:

  • 质押者 选择加入以验证额外服务并赚取额外奖励
  • AVS 运营商 可以在不构建自己的验证者网络的情况下,获得以太坊庞大的安全预算
  • 协议 可以通过共享安全性更快地启动,而不是从零开始引导

结果如何?资本效率将总收益推向了 15-40% APY 的范围,而传统质押的基准收益仅为 4-5%。这解释了为什么 EigenLayer 的 TVL 在 2024-2025 年间从 11 亿美元爆发式增长到超过 180 亿美元。

从质押到再质押:DeFi 的下一个原语

再质押代表了 DeFi 收益格局的自然演进:

  1. 第一代 (2020-2022):流动性质押 (Lido, Rocket Pool) 通过向质押者提供可交易的代币 (stETH) 而非锁定 ETH,解决了流动性问题。
  2. 第二代 (2024-2026):流动性再质押在此基础上,允许这些流动性质押代币被再次质押以获得复利奖励,同时保持 DeFi 的可组合性。

正如一份分析报告所指出的,再质押已经“从一个利基市场的以太坊质押扩展,演变成核心的 DeFi 原语,它既是共享安全层,也是收益生成引擎。”

截至 2026 年初,以太坊再质押生态系统的总锁仓价值已达到 162.6 亿美元,目前有 465 万个 ETH 在再质押框架内被使用。这一规模表明再质押并非实验性功能 —— 它正在成为基础设施。

流动性再质押的爆发:ether.fi、Renzo 和 Kelp DAO

虽然 EigenLayer 创造了再质押原语,但流动性再质押协议将其变成了大众市场产品。这些平台发行代表再质押仓位的流动性再质押代币 (LRT),解决了 LST 为常规质押解决的相同流动性问题。

为什么流动性再质押占据主导地位

数字说明了一切:流动性再质押协议为 EigenLayer 贡献了超过 100 亿美元的总锁仓价值,且 LRT 总市值自 2024 年 2 月以来增长了两倍多,目前总计 334 万个 ETH(相当于约 113 亿美元)。

以下是 LRT 成为参与再质押的首选方式的原因:

资本可组合性:LRT 可作为借贷协议中的抵押品,在 DEX 中提供流动性,或部署在收益策略中 —— 与此同时还能赚取再质押奖励。直接再质押会锁定你的资本,灵活性有限。

简化操作:流动性再质押协议处理选择和验证 AVS 的技术复杂性。个人质押者不需要监控数十个服务或管理验证者基础设施。

降低最低要求:许多 LRT 协议没有最低存款限制,而运行自己的验证者则需要 32 ETH。

即时流动性:需要退出仓位?LRT 可以在二级市场上交易。直接再质押则需要一段解绑期。

领先的 LRT 协议

三大协议已脱颖而出,成为市场领导者:

ether.fi 在流动性再质押提供商中拥有最高的 TVL(总锁仓价值),根据 2024 年的数据,已超过 32 亿美元。该协议发行 eETH 代币,并采用非托管架构,质押者可以保留对其验证者密钥的控制权。

Renzo Protocol 的 TVL 达到了 20 亿美元,并提供 ezETH 作为其流动性再质押代币。Renzo 强调机构级安全性,并已与多个 DeFi 协议集成,以实现增强的收益策略。

Kelp DAO(之前提到的“Kelp LRT”)的 TVL 达到 13 亿美元,定位为以去中心化治理为核心、由社区治理的流动性再质押解决方案。

这三个协议共同构成了支持再质押大规模采用的基础设施层。正如一份行业报告所指出,“像 Etherfi、Puffer Finance、Kelp DAO 和 Renzo Protocol 这样的协议,在流动性再质押领域依然保持领先地位。”

LRT 收益溢价

流动性再质押实际上能产生多少额外收益?

标准以太坊质押:4-5% APY 流动性再质押策略:15-40% APY 范围

这种收益溢价源于多个渠道:

  • 基础以太坊质押奖励
  • 为保护额外服务而获得的 AVS 特有奖励
  • 来自 LRT 协议本身的代币激励
  • 在其他协议中使用 LRT 时的 DeFi 策略收益

然而,至关重要的一点是,高收益反映了高风险,我们稍后将对此进行探讨。

EigenCloud:1.7 亿美元的 AI 基础设施豪赌

虽然流动性再质押因其收益机会占据了头条,但 EigenLayer 最雄心勃勃的愿景是通过 EigenCloud 延伸到可验证的 AI 基础设施领域。

什么是 EigenCloud?

EigenCloud 是一个建立在 EigenLayer 再质押协议之上的去中心化、可验证的云计算平台。它旨在为链下计算提供加密信任——特别是 AI 工作负载和复杂的金融逻辑,这些计算如果直接在链上运行,成本太高或速度太慢。

该平台通过三项核心服务运行:

EigenDA:数据可用性层,确保验证所需的数据保持可访问状态。 EigenVerify:针对错误计算进行挑战的纠纷解决机制。 EigenCompute:在保持完整性的同时,用于执行复杂逻辑的链下执行环境。

AI 基础设施问题

当今的 AI 智能体面临着根本性的信任问题。当一个 AI 模型生成响应或做出决策时,你如何验证:

  1. 提示词(Prompt)未被修改
  2. 响应未被篡改
  3. 确实使用了正确的模型

对于管理金融交易或做出自主决策的 AI 智能体来说,这些漏洞会带来不可接受的风险。这正是 EigenCloud 可验证 AI 基础设施发挥作用的地方。

EigenAI 与 EigenCompute 发布

EigenCloud 最近推出了两项关键服务:

EigenAI 提供了一个与 OpenAI API 规范兼容的可验证大语言模型(LLM)推理 API。它通过加密证明来验证计算是否正确发生,从而解决了三大核心风险(提示词修改、响应修改、模型修改)。

EigenCompute 允许开发人员在智能合约之外运行复杂的、长时间运行的智能体逻辑,同时保持完整性和安全性。主网 Alpha 版本使用在可信执行环境(TEEs)中执行的 Docker 镜像。

市场机会

虽然具体的融资数据有所不同(部分报告中提到的 1.7 亿美元),但更广泛的市场机会是巨大的。随着 AI 智能体变得更加自主并处理更大规模的财务决策,对可验证计算基础设施的需求将呈指数级增长。

EigenCloud 在 AI 与区块链基础设施交汇点的定位代表了一种赌注:即再质押的安全保障可以超越传统的区块链用例,延伸到新兴的 AI 智能体经济中。

一份分析报告清晰地勾勒了这一演变:“重新定义 AVS:从主动验证服务(Actively Validated Services)到自主可验证服务(Autonomous Verifiable Services)”——暗示下一波 AVS 将不仅仅验证区块链状态,还将验证自主 AI 计算。

风险现实:罚没、智能合约与系统性风险传染

如果再质押 15-40% 的收益听起来美好得令人难以置信,那是因为与标准质押相比,它们伴随着显著升高的风险。在分配资金之前,了解这些风险至关重要。

罚没风险累积

最直接的风险是罚没(Slashing)——即验证者表现不当或未能履行职责时受到的处罚。

在传统质押中,你仅面临来自以太坊共识层的罚没风险。这已得到充分理解,且在正常运营下相对罕见。

在再质押中,你继承了所支持的每一个 AVS 的罚没条件。正如一份风险分析所解释的:“再质押者继承了他们支持的每个 AVS 的罚没条件,如果运营者(Operator)表现不当,他们不仅可能在以太坊层被罚没,还可能根据 AVS 特定的规则受到额外处罚。”

甚至操作失误也可能触发处罚:“过时的密钥或客户端错误都可能导致罚没,这甚至可能抵消你的以太坊质押收入。”

随着 AVS 数量的增加,情况会变得更加复杂。如果跨多个 AVS 的恶意行为带来的累积收益超过了最大罚没处罚,经济激励实际上可能会偏向恶意行为者。这创造了研究人员所称的“网络级漏洞”。

智能合约复杂性

EigenLayer 的智能合约高度复杂且相对较新。尽管经过了审计,但随着每个额外协议层的增加,攻击面也在扩大。

根据安全分析:“每个再质押层都会引入新的智能合约,从而增加了利用漏洞的攻击面,而再质押机制的复杂性进一步增加了管理这些协议的智能合约中出现错误和漏洞的可能性。”

对于流动性再质押代币(LRT),这种复杂性会成倍增加。你的资金会经过:

  1. LRT 协议的智能合约
  2. EigenLayer 的核心合约
  3. 各个 AVS 合约
  4. 你部署 LRT 的任何其他 DeFi 协议

每一层都引入了潜在的漏洞点。

系统性连锁反应风险

也许最令人担忧的风险是系统性的:EigenLayer 将多个协议的安全集中在一起。如果发生重大漏洞利用或罚没(slashing)事件,连锁反应可能会非常严重。

风险分析师警告说:“跨多个 AVS 的广泛罚没事件可能会导致质押的 ETH 和 LSD 的大规模抛售,这可能会压低 ETH 的价格,从而对以太坊生态系统的整体健康产生负面影响。”

这创造了一个悖论:EigenLayer 成功地成为关键基础设施的同时,也使整个生态系统更容易受到单点故障风险的影响。

罚没参数的不确定性

由于许多 AVS 的罚没参数尚未确定,复杂性进一步增加。正如一份风险评估所指出的:“每个 AVS 罚没惩罚的具体参数仍在定义和实施中,这增加了一层不确定性。”

你实际上是在接受未知的风险参数以换取收益——这对于注重风险的资本分配者来说是一个具有挑战性的处境。

收益是否值得冒险?

再质押策略提供的 15-40% APY 范围反映了这些升高的风险。对于了解权衡取舍并能积极监控其仓位的资深 DeFi 参与者来说,再质押可能提供具有吸引力的风险调整后收益。

对于被动质押者或寻求稳定、可预测收益的人来说,传统质押提供的 4-5% 收益可能更合适。正如行业分析所建议的:“以太坊上的传统质押可能会提供适度、稳定的收益,作为基础性的、较低风险的 DeFi 收入流。”

再质押作为以太坊的新收益原语

尽管存在风险,再质押正在巩固其作为以太坊核心原语的地位。162.6 亿美元的 TVL、流动性再质押协议的激增以及向 AI 基础设施的扩展,都指向一个日益成熟的生态系统,而非临时的“收益农场”。

为什么再质押对以太坊至关重要

再质押解决了以太坊生态系统中的关键问题:

安全引导:新协议不再需要引导自己的验证者集。它们可以利用以太坊现有的安全预算,从而大幅缩短上市时间。

资本效率:同样的 ETH 可以同时保护多个服务,最大限度地提高以太坊质押资本的生产力。

验证者可持续性:由于验证者参与度增加,以太坊的基础质押收益呈下降趋势,再质押提供了额外的收入流,使验证工作在经济上可持续。

生态系统对齐:进行再质押的验证者在多个以太坊生态系统服务中都有切身利益,从而在以太坊的安全与其应用层之间建立了更强的对齐关系。

未来之路

以下几项发展将决定再质押是实现其潜力还是成为另一个教训:

罚没实施的成熟度:随着 AVS 运营商获得运营经验且罚没参数变得明确,风险状况应该会趋于稳定。

机构采纳:传统金融进入流动性再质押(通过受监管的托管和包装产品)可能会带来大量资本,同时要求更好的风险管理。

监管明确性:质押和再质押面临监管不确定性。明确的框架可以释放目前处于观望状态的机构资本。

AI 基础设施需求:EigenCloud 对可验证 AI 基础设施的押注将由 AI 代理和自主系统的真实需求来验证或证伪。

流动性再质押的竞争格局

流动性再质押市场显示出整合的迹象。虽然 ether.fi、Renzo 和 Kelp DAO 目前处于领先地位,但随着 Puffer Finance 等协议争夺市场份额,该领域竞争依然激烈。

未来的关键差异化因素可能包括:

  • 安全记录(避免漏洞利用)
  • 收益可持续性(超越代币激励)
  • DeFi 集成(组合性价值)
  • 卓越运营(最小化罚没事件)

随着代币激励和空投计划的结束,严重依赖这些机制的协议已经出现了明显的 TVL 下降。幸存者将是那些能够提供超越短期激励的真实经济价值的协议。

构建在再质押基础设施之上

对于开发者和协议,再质押基础设施开启了新的设计空间:

Rollup 的共享安全:Layer 2 网络可以使用 EigenLayer 获得超出以太坊基础层的额外安全保证。

预言机网络:去中心化预言机可以利用再质押来实现经济安全,而无需维护独立的代币经济。

跨链桥:桥接运营商可以通过再质押提交抵押品,以防范漏洞利用。

AI 代理验证:正如 EigenCloud 所展示的,自主 AI 系统可以使用再质押基础设施进行可验证计算。

再质押原语本质上创建了一个“安全即服务”的市场,以太坊质押的 ETH 可以被“租用”来保护任何兼容的服务。

对于构建需要强大基础设施的应用的区块链开发者来说,了解再质押对安全和资本效率的影响至关重要。虽然 BlockEden.xyz 不直接提供再质押服务,但我们的 企业级 RPC 基础设施 为构建与再质押协议、流动性质押代币以及更广泛的 DeFi 生态系统集成的应用提供了所需的可靠基础。

核心要点

EigenLayer 价值 195 亿美元的再质押帝国不仅仅是一个收益机会 —— 它代表了以太坊安全预算分配和利用方式的根本转变。

ether.fi、Renzo 和 Kelp DAO 等流动性再质押协议(LRT)已使这一原语对普通用户变得触手可及,而 EigenCloud 则正在将边界推向可验证的 AI 基础设施。其收益率极具吸引力(15-40% APY 范围),但它们也反映了真实存在的风险,包括罚金(slashing)累积、智能合约复杂性以及潜在的系统性风险传染。

对于以太坊的长期演进,再质押解决了关键问题:为新协议提供安全启动引导(security bootstrapping)、提高质押者的资本效率,以及在基础收益压缩时维持验证者的可持续性。但生态系统的成熟取决于罚金参数的稳定、机构风险管理的改进,以及协议证明它们能够提供超越代币激励的可持续收益。

再质押是会成为以太坊持久的收益原语,还是面临清算,将取决于未来一年如何应对这些挑战。目前,195 亿美元的 TVL 表明市场已给出了结论:再质押将长期存在。

参考来源: