跳到主要内容

584 篇博文 含有标签「区块链」

通用区块链技术和创新

查看所有标签

Celestia 的数据可用性采样如何达到每秒 1 Terabit:技术深度解析

· 阅读需 16 分钟
Dora Noda
Software Engineer

2026 年 1 月 13 日,Celestia 以一项单一基准打破了预期:在 498 个分布式节点上实现了 每秒 1 Terabit (1 Tbps) 的数据吞吐量。作为参考,这个带宽足以在不到一秒的时间内处理以太坊最大的 Layer 2 Rollup 全天的交易量。

但真正的故事并非仅在于这个头条数字。而是在于使其成为可能的加密基础设施:数据可用性采样 (Data Availability Sampling, DAS)。这是一项突破性技术,允许资源受限的轻节点在无需下载整个区块的情况下验证区块链数据的可用性。随着 Rollup 竞相扩展到以太坊原生 Blob 存储之外,理解 Celestia 如何实现这一吞吐量——以及为什么它对 Rollup 经济学至关重要——变得前所未有的紧迫。

数据可用性瓶颈:为什么 Rollup 需要更好的解决方案

区块链的可扩展性长期以来一直受制于一个基本权衡:如何在不要求每个节点下载并存储所有数据的情况下,验证交易数据确实可用?这就是 数据可用性问题 (Data Availability Problem),它是 Rollup 扩展的主要瓶颈。

以太坊的方法——要求每个全节点下载完整区块——制造了准入门槛。随着区块大小的增长,能够负担运行全节点所需带宽和存储费用的参与者越来越少,这威胁到了去中心化。将数据发布到以太坊 L1 的 Rollup 面临着高昂的成本:在需求高峰期,单次批处理的 Gas 费用可能高达数千美元。

进入模块化数据可用性层。通过将数据可用性与执行和共识分离,像 Celestia、EigenDA 和 Avail 这样的协议承诺在保持安全保障的同时大幅降低 Rollup 成本。Celestia 的创新之处?一种采样技术 反转了验证模型:轻节点不再通过下载所有内容来验证可用性,而是通过随机采样微小的片段,从而获得对完整数据集存在的统计信心。

数据可用性采样详解:轻节点如何在不下载的情况下进行验证

DAS 的核心是一种概率验证机制。其工作原理如下:

随机采样与置信度建立

轻节点不下载整个区块。相反,它们对区块数据的极小部分进行 多轮随机采样。每次成功的采样都会增加对完整区块可用性的置信度。

数学逻辑非常优雅:如果一个恶意的验证者隐藏了哪怕一小部分区块数据,诚实的轻节点在仅进行几轮采样后,就有极高的概率检测到不可用性。这创建了一个安全模型,即使是资源有限的设备也可以参与数据可用性验证。

具体而言,每个轻节点会在扩展数据矩阵中随机选择一组唯一的坐标,并向桥接节点请求相应的数据份额及默克尔证明 (Merkle proofs)。如果轻节点收到的每个查询都有有效的响应,则统计概率保证了整个区块的数据是可用的。

二维 Reed-Solomon 编码:数学基础

Celestia 采用 二维 Reed-Solomon 编码方案 (2-dimensional Reed-Solomon encoding scheme),使采样既高效又具备抗欺诈性。以下是技术流程:

  1. 区块数据被分割 成 k × k 个区块,形成一个数据方阵。
  2. Reed-Solomon 纠删码 (Erasure coding) 将其扩展为 2k × 2k 矩阵(增加冗余)。
  3. 计算默克尔根,对应扩展矩阵的每一行和每一列。
  4. 这些根的默克尔根 成为区块头中的区块数据承诺 (Data Commitment)。

这种方法具有一个关键特性:如果扩展矩阵的任何部分丢失,编码就会失效,轻节点在验证默克尔证明时会检测到不一致。攻击者无法在不被发现的情况下选择性地保留数据。

命名空间默克尔树:Rollup 特定数据隔离

这就是 Celestia 架构在多 Rollup 环境中脱颖而出的地方:命名空间默克尔树 (Namespaced Merkle Trees, NMTs)

标准默克尔树会任意地对数据进行分组。然而,NMT 为每个节点标记其子节点的最小和最大命名空间标识符,并 按命名空间对叶子节点进行排序。这使得 Rollup 能够:

  • 仅从 DA 层下载属于自己的数据
  • 通过默克尔证明 证明其命名空间数据的完整性
  • 完全 忽略来自其他 Rollup 的无关数据

对于 Rollup 运营商来说,这意味着你无需支付带宽成本去下载竞争链的数据。你只需获取你真正需要的部分,用加密证明进行验证,然后继续。与所有参与者都必须处理所有数据的单体链相比,这是一个巨大的效率提升。

Matcha 升级:扩展至 128MB 区块

在 2025 年,Celestia 激活了 Matcha 升级,这是模块化数据可用性的分水岭时刻。以下是发生的变化:

区块大小扩展

Matcha 将最大区块大小从 8 MB 增加到 128 MB——实现了 16 倍的容量提升。这具体表现为:

  • 数据平方大小:128 → 512
  • 最大交易大小:2 MB → 8 MB
  • 持续吞吐量:测试网中达到 21.33 MB/s(2025 年 4 月)

为了更直观地理解,以太坊的目标 Blob 数量为每个区块 6 个(约 0.75 MB),可扩展至 9 个 Blob。Celestia 的 128 MB 区块容量是其 100 倍以上。

高吞吐量区块传播

限制因素不仅仅是区块大小——还有 区块传播速度。Matcha 引入了一种新的传播机制 (CIP-38),可以在不引起验证者去同步的情况下,在网络中安全地分发 128 MB 的区块。

在测试网中,网络在 128 MB 区块下保持了 6 秒的区块时间,实现了 21.33 MB/s 的吞吐量。这代表了当前主网容量的 16 倍。

存储成本降低

一个最常被忽视的经济变化是:Matcha 将最小数据修剪窗口从 30 天缩短至 7 天 + 1 小时 (CIP-34)。

对于桥节点(Bridge nodes),在预期的吞吐量水平下,这将其存储需求从 30 TB 削减至 7 TB。基础设施提供商运营成本的降低,直接转化为 Rollup 更便宜的数据可用性成本。

代币经济学改革

Matcha 还改进了 TIA 代币经济学:

  • 通胀削减:从每年 5% 降至 2.5%
  • 验证者佣金增加:最高上限从 10% 提高到 20%
  • 抵押属性增强:使 TIA 更适合 DeFi 使用场景

综合这些变化,Celestia 为下一阶段做好了准备:向 1 GB/s 吞吐量 及更高目标迈进。

Rollup 经济学:为什么 50% 的 DA 市场份额至关重要

截至 2026 年初,Celestia 占据了大约 50% 的数据可用性市场,处理了超过 160 GB 的 Rollup 数据。这种主导地位反映了优先考虑成本和可扩展性的 Rollup 开发者的真实选择。

成本对比:Celestia vs 以太坊 Blob

Celestia 的费用模型非常直观:Rollup 根据数据大小和当前 Gas 价格为每个 Blob 付费。与计算占主导地位的执行层不同,数据可用性从根本上取决于 带宽和存储——这些资源随着硬件的改进而更具可预测地扩展。

对于 Rollup 运营商来说,经济账非常明了:

  • 以太坊 L1 发布:在需求高峰期,批量提交的 Gas 成本可能高达 1,000 美元至 10,000 美元以上
  • Celestia DA:同等数据的每批次成本不到 1 美元

这种 100 倍以上的成本降低是 Rollup 转向模块化 DA 解决方案的原因。更便宜的数据可用性直接转化为终端用户更低的交易费用。

Rollup 激励结构

Celestia 的 economic 模型使激励机制趋于一致:

  1. Rollup 根据数据大小按比例支付 Blob 存储费用
  2. 验证者 通过保护 DA 层赚取费用
  3. 桥节点 为轻节点提供数据并赚取服务费
  4. 轻节点 免费进行数据采样,为安全性做出贡献

这创造了一个飞轮效应:随着更多 Rollup 采用 Celestia,验证者的收入增加,吸引更多质押者,从而加强安全性,进而吸引更多 Rollup。

竞争对手:EigenDA、Avail 和以太坊 Blob

Celestia 50% 的市场份额正受到挑战。三大主要竞争对手正在激进地扩张:

EigenDA:以太坊原生再质押

EigenDA 利用 EigenLayer 的再质押(Restaking)基础设施,为以太坊 Rollup 提供高吞吐量的数据可用性。核心优势:

  • 经济安全性:由再质押的 ETH 提供保护(目前占据再质押市场的 93.9%)
  • 紧密的以太坊集成:与以太坊的 Blob 市场具有原生兼容性
  • 最高的吞吐量主张:尽管早期版本缺乏活跃的经济安全性

批评者指出,EigenDA 对再质押的依赖引入了 级联风险:如果某个 AVS(主动验证服务)发生罚没(Slashing),可能会波及 Lido 的 stETH 持有者并动摇整个 LST 市场。

Avail:全链通用 DA

与 Celestia 专注于 Cosmos 生态和 EigenDA 倾向于以太坊不同,Avail 将自己定位为兼容任何区块链架构的 通用 DA 层

  • 支持 UTXO、账户和对象模型:适用于比特币 L2、EVM 链和基于 Move 的系统
  • 模块化设计:将 DA 与共识完全分离
  • 跨生态愿景:旨在成为所有区块链的中立 DA 层

Avail 的挑战在于,它是最新进入市场的参与者,在实时 Rollup 集成方面落后于 Celestia 和 EigenDA。

以太坊原生 Blob:EIP-4844 及其后续

以太坊的 EIP-4844(Dencun 升级) 引入了携带 Blob 的交易,为 Rollup 提供了一个比 Calldata 更便宜的数据发布替代方案。当前容量:

  • 目标:每个区块 6 个 Blob(约 0.75 MB)
  • 最大:每个区块 9 个 Blob(约 1.125 MB)
  • 未来扩展:PeerDAS 和 zkEVM 升级,目标是达到 10,000+ TPS

然而,以太坊 Blob 存在权衡:

  • 较短的保留窗口:数据在大约 18 天后会被修剪
  • 共享资源竞争:所有 Rollup 都在竞争相同的 Blob 空间
  • 有限的可扩展性:即使有了 PeerDAS,Blob 容量的上限也远低于 Celestia 的路线图

对于优先考虑以太坊对齐(Ethereum alignment)的 Rollup 来说,Blob 很有吸引力。而对于那些需要海量吞吐量和长期数据保留的 Rollup 来说,Celestia 仍然是更合适的选择。

Fibre Blockspace:1 Terabit 愿景

2026 年 1 月 14 日,Celestia 联合创始人 Mustafa Al-Bassam 揭晓了 Fibre Blockspace —— 这是一个旨在实现 每秒 1 terabit (1 Tbps) 吞吐量且具有毫秒级延迟的新协议。这代表着与仅一年前的原始路线图目标相比,性能提升了 1,500 倍

基准测试详情

该团队使用以下配置实现了 1 Tbps 的基准测试:

  • 分布在北美各地的 498 个节点
  • 配备 48-64 个 vCPU 和 90-128GB RAM 的 GCP 实例
  • 每个实例拥有 34-45 Gbps 的网络链路

在这些受控条件下,该协议维持了每秒 1 terabit 的数据吞吐量 —— 这是区块链性能的一次惊人飞跃。

ZODA 编码:比 KZG 快 881 倍

Fibre 的核心是 ZODA,这是一种新型编码协议,Celestia 声称其处理数据的速度比 EigenDA 和以太坊 blob 所使用的基于 KZG 承诺的替代方案 快 881 倍

KZG 承诺(Kate-Zaverucha-Goldberg 多项式承诺)在加密学上非常优雅,但计算成本很高。ZODA 牺牲了一些加密属性以换取巨大的速度提升,使得在通用硬件上实现 terabit 级吞吐量成为可能。

愿景:每个市场都将实现链上化

Al-Bassam 在路线图声明中表达了 Celestia 的雄心:

“如果 10KB/s 催生了 AMM,10MB/s 催生了链上订单簿,那么 1 Tbps 就是让每个市场都能够链上化的飞跃。”

其含义是:有了足够的数据可用性带宽,目前由中心化交易所主导的金融市场 —— 现货、衍生品、期权、预测市场 —— 都可以迁移到透明、无许可的区块链基础设施上。

现实查验:基准测试 vs. 生产环境

基准测试条件很少能与现实世界的复杂情况完全匹配。1 Tbps 的结果是在使用高性能云实例的受控测试网环境中实现的。真正的考验将来自于:

  • 真实的 Rollup 推送生产级负载时
  • 网络状况波动(延迟峰值、丢包、非对称带宽)时
  • 对抗性验证节点尝试进行数据扣留攻击时

Celestia 团队也承认了这一点:Fibre 与现有的 L1 DA 层并行运行,让用户可以在经过实战检验的基础设施和尖端的实验性吞吐量之间做出选择。

这对 Rollup 开发者意味着什么

如果你正在构建 Rollup,Celestia 的 DAS 架构提供了极具吸引力的优势:

何时选择 Celestia

  • 高吞吐量应用:游戏、社交网络、微支付
  • 成本敏感型用例:目标是亚美分级交易费用的 Rollup
  • 数据密集型工作流:AI 推理、去中心化存储集成
  • 多 Rollup 生态系统:启动多个专用 Rollup 的项目

何时坚持使用以太坊 Blob

  • 以太坊对齐 (Ethereum Alignment):如果你的 Rollup 重视以太坊的社会共识和安全性
  • 简化架构:Blob 与以太坊工具链的集成更加紧密
  • 更低的复杂性:需要管理的基础设施更少(无需单独的 DA 层)

集成考量

Celestia 的 DA 层已与主要的 Rollup 框架集成:

  • Polygon CDK:易于插拔的 DA 组件
  • OP Stack:提供自定义 DA 适配器
  • Arbitrum Orbit:社区构建的集成方案
  • Rollkit:原生支持 Celestia

对于开发者来说,采用 Celestia 通常意味着更换 Rollup 堆栈中的数据可用性模块 —— 对执行或结算逻辑的更改极小。

数据可用性之战:未来走向何方

模块化区块链理论正在接受实时压力测试。Celestia 50% 的市场份额、EigenDA 的再质押势头以及 Avail 的通用定位,构成了 Rollup 心智份额的三方竞争。

值得关注的关键趋势

  1. 吞吐量升级:Celestia 目标从 1 GB/s 提升至 1 Tbps;EigenDA 和 Avail 必将做出回应
  2. 经济安全模型:再质押风险会波及 EigenDA 吗?Celestia 的验证节点集能否扩展?
  3. 以太坊 Blob 扩展:PeerDAS 和 zkEVM 升级可能会改变成本动态
  4. 跨链 DA:Avail 的通用愿景 vs. 特定生态系统的解决方案

BlockEden.xyz 的视角

对于基础设施提供商而言,支持多个 DA 层正成为基本要求。Rollup 开发者不仅需要以太坊的可靠 RPC 访问,还需要 Celestia、EigenDA 和 Avail 的支持。

BlockEden.xyz 为 Celestia 及 10 多个区块链生态系统提供高性能 RPC 基础设施,使 Rollup 团队能够基于模块化堆栈进行构建,而无需管理节点基础设施。探索我们的数据可用性 API 以加速你的 Rollup 部署。

结论:数据可用性成为新的竞争护城河

Celestia 的数据可用性采样(Data Availability Sampling)不仅是一次渐进式的改进,更是区块链验证状态方式的范式转移。通过允许轻节点通过概率采样参与安全维护,Celestia 以单体链无法实现的方式实现了验证的民主化。

Matcha 升级的 128MB 区块和 Fibre 愿景的 1 Tbps 吞吐量代表了 Rollup 经济学的转折点。当数据可用性成本下降 100 倍时,全新的应用类别将变得可行:链上高频交易、实时多人游戏、大规模 AI 代理协作。

但技术本身并不能决定赢家。DA 之战将由三个因素决定:

  1. Rollup 采用率:哪些链会真正投入生产环境部署?
  2. 经济可持续性:这些协议能否在规模扩大时保持低成本?
  3. 安全韧性:基于采样的系统如何抵御复杂的攻击?

Celestia 50% 的市场份额和 160 GB 的已处理 Rollup 数据证明了该概念行之有效。现在的问题已从“模块化 DA 能否扩展?”转向“哪个 DA 层将主导 Rollup 经济?”

对于在此领域探索的构建者来说,建议很明确:抽象化你的 DA 层。在设计 Rollup 时,使其能够在 Celestia、EigenDA、以太坊 blob 和 Avail 之间进行切换,而无需重新构架。数据可用性之战才刚刚开始,最后的赢家可能出乎意料。


资料来源:

互操作性的共识模型权衡:跨链桥安全中的 PoW、PoS、DPoS 和 BFT

· 阅读需 13 分钟
Dora Noda
Software Engineer

仅在 2025 年上半年,就有超过 23 亿美元从跨链桥中被盗 —— 这一数字已经超过了 2024 年全年的总额。虽然行业内的讨论大多集中在智能合约审计和多签密钥管理上,但一个更为隐蔽且同样关键的漏洞却经常被忽视:即不同区块链达成共识的方式与跨链桥对它们的共识假设之间的不匹配。

每个跨链桥都对最终性(finality)做了隐含的假设。当这些假设与源链或目标链的实际共识模型发生冲突时,攻击者就会找到可乘之机。理解 PoW 、 PoS 、 DPoS 和 BFT 共识机制的区别 —— 以及这些差异如何传导至跨链桥的设计选择和消息传递协议的选择 —— 是当今 Web3 基础设施中最重要的课题之一。

数据市场遇上 AI 训练:区块链如何解决 230 亿美元的数据定价危机

· 阅读需 17 分钟
Dora Noda
Software Engineer

AI 行业面临着一个悖论:全球数据产量到 2025 年将从 33 ZB 爆发式增长到 175 ZB,然而 AI 模型的质量却停滞不前。问题不在于数据匮乏,而在于数据提供者无法从其贡献中获取价值。以 Ocean Protocol、LazAI 和 ZENi 为代表的基于区块链的数据市场正在进入这一领域,它们正将 AI 训练数据从一种免费资源转化为一种到 2034 年价值将达 231.8 亿美元的可变现资产类别。

230 亿美元的数据定价难题

2023 年至 2025 年间,AI 训练成本飙升了 89%,其中数据获取和标注消耗了高达 80% 的机器学习项目预算。然而,作为数据创造者的个人——他们生成搜索查询、社交媒体互动和行为模式——却一无所获,而科技巨头则收割了数十亿美元的价值。

AI 训练数据集市场揭示了这种脱节。该市场在 2025 年的估值为 35.9 亿美元,预计到 2034 年将达到 231.8 亿美元,复合年增长率(CAGR)为 22.9%。另一份预测认为 2026 年该市场规模将达到 74.8 亿美元,到 2035 年将达到 524.1 亿美元,年增长率为 24.16%。

但谁捕获了这些价值?目前,中心化平台榨取利润,而数据创造者得到的补偿为零。标签噪声、标注不一致和上下文缺失推高了成本,但贡献者缺乏提高质量的动力。数据隐私顾虑影响了 28% 的公司,在 AI 正需要多样化、高质量输入的时刻限制了数据集的可访问性。

Ocean Protocol:将 1 亿美元的数据经济代币化

Ocean Protocol 通过允许数据提供者将数据集代币化,并在不放弃控制权的情况下将其用于 AI 训练,从而解决了所有权问题。自 2024 年 8 月推出 Ocean Nodes 以来,该网络已发展到 遍布 70 多个国家的 140 多万个节点,引入了 35,000 多个数据集,并促成了超过 1 亿美元的 AI 相关数据交易。

2025 年的产品路线图包含三个关键组成部分:

推理流水线(Inference Pipelines) 实现了直接在 Ocean 的基础设施上进行端到端的 AI 模型训练和部署。数据提供者将自有数据集代币化并设定定价,每当 AI 模型消耗其数据进行训练或推理时即可获得收入。

Ocean 企业入驻(Ocean Enterprise Onboarding) 推动生态系统企业从试点走向生产。将于 2025 年第三季度推出的 Ocean Enterprise v1 提供了一个合规、生产级的数据平台,目标客户是需要可审计、隐私保护数据交换的机构客户。

节点分析(Node Analytics) 引入了跟踪性能、使用情况和投资回报率(ROI)的仪表板。NetMind 等合作伙伴贡献了 2,000 个 GPU,而 Aethir 协助扩展 Ocean 节点以支持大型 AI 工作负载,为 AI 训练创建了一个去中心化的计算层。

Ocean 的收入分成机制通过智能合约运作:数据提供者设置访问条款,AI 开发者按使用付费,区块链自动向所有贡献者分配报酬。这使数据从一次性销售转变为与模型性能挂钩的持续性收入流。

LazAI:Metis 上的可验证 AI 交互数据

LazAI 引入了一种根本不同的方法——将 AI 交互 数据变现,而不仅仅是静态数据集。与 LazAI 旗舰智能体(Lazbubu、SoulTarot)的每一次对话都会生成 数据锚定代币(DATs),作为 AI 生成输出的可追溯、可验证记录。

Alpha 主网于 2025 年 12 月启动,在采用 QBFT 共识和基于 $METIS 结算的企业级基础设施上运行。DATs 将 AI 数据集和模型代币化,使其成为具有透明所有权和收入归属的可验证资产。

为什么这很重要?传统的 AI 训练使用在收集时就被冻结的静态数据集。LazAI 捕获 动态 交互数据——用户查询、模型响应、细化循环——从而创建反映现实世界使用模式的训练数据集。这些数据对于微调模型具有指数级的更高价值,因为它们包含了嵌入在对话流中的人类反馈信号。

该系统包括三项关键创新:

权益证明验证者质押(Proof-of-Stake Validator Staking) 保护 AI 数据流水线的安全。验证者质押代币以验证数据完整性,通过准确验证获得奖励,并因批准欺诈数据而面临处罚。

带有收入分成的 DAT 铸造 允许生成有价值交互数据的用户铸造代表其贡献的 DAT。当 AI 公司购买这些数据集用于模型训练时,收入会根据比例自动流向所有 DAT 持有者。

iDAO 治理 建立了去中心化的 AI 协作体,数据贡献者通过链上投票集体治理数据集管理、定价策略和质量标准。

2026 年的路线图增加了基于 ZK 的隐私保护(用户可以在不暴露个人信息的情况下将交互数据变现)、去中心化计算市场(在分布式基础设施而非中心化云上进行训练)以及超越文本的多模态数据评估(视频、音频、图像交互)。

ZENi:面向 AI 代理的智能数据层

ZENi 运作于 Web3 与 AI 的交汇点,通过助力“InfoFi 经济”——一个利用 AI 驱动的智能,连接传统商业与基于区块链商业的去中心化网络。该公司完成了由 Waterdrip Capital(水滴资本)和 Mindfulness Capital 领投的 150 万美元种子轮融资

其核心是 InfoFi 数据层,这是一个高吞吐量的行为智能引擎,每日处理跨 X/Twitter、Telegram、Discord 及链上活动的超过 100 万条信号。ZENi 识别用户行为模式、情绪转变和社区参与度——这些数据对于训练 AI 代理至关重要,但极难大规模收集。

该平台作为一个三部分组成的系统运行:

AI 数据分析代理 (AI Data Analytic Agent) 通过分析社交图谱、链上交易和互动指标,识别高意向受众和影响力集群。这创建了行为数据集,不仅显示用户“做了什么”,还显示了他们“为什么”做出决定。

AIGC(AI 生成内容)代理 利用来自数据层的见解制作个性化营销活动。通过理解用户偏好和社区动态,该代理生成针对特定受众群体优化的内容。

AI 执行代理 (AI Execution Agent) 通过 ZENi dApp 激活触达,完成从数据收集到变现的闭环。当用户的行为数据为成功的营销活动做出贡献时,用户将获得补偿。

ZENi 已经为电子商务、游戏和 Web3 领域的合作伙伴提供服务,拥有 48 万注册用户和 8 万日活跃用户。其商业模式将行为智能货币化:公司付费获取经 ZENi AI 处理的数据集,收入则流向那些为这些见解提供数据的用户。

区块链在数据市场中的竞争优势

为什么区块链对数据变现至关重要?三项技术能力使去中心化数据市场优于中心化替代方案:

细粒度的收入归属 智能合约实现了复杂的收入共享,AI 模型的多个贡献者可以根据使用情况自动获得比例补偿。一个训练数据集可能汇集了 10,000 名用户的输入——区块链追踪每一次贡献,并根据每次模型推理分发微支付。

传统系统无法处理这种复杂性。支付处理器收取固定费用(2-3%),不适合微支付,且中心化平台缺乏关于谁贡献了什么的透明度。区块链解决了这两个问题:通过 Layer 2 解决方案实现近乎零的交易成本,以及通过链上溯源实现不可篡改的归属。

可验证的数据溯源 LazAI 的数据锚定代币 (Data Anchoring Tokens) 在不暴露底层内容的情况下证明数据来源。训练模型的 AI 公司可以验证他们使用的是经过许可的高质量数据,而不是法律地位存疑的抓取网页内容。

这解决了一个关键风险:数据隐私法规影响了 28% 的公司,限制了数据集的可访问性。基于区块链的数据市场实施了隐私保护验证——在不泄露个人信息的情况下证明数据质量和许可。

去中心化 AI 训练 Ocean Protocol 的节点网络展示了分布式基础设施如何降低成本。去中心化网络将闲置计算能力(游戏电脑、有剩余能力的服务器托管中心)与 AI 训练需求相匹配,而不是向云服务提供商每 GPU 小时支付 2-5 美元,从而降低了 50-85% 的成本。

区块链通过治理任务分配、支付分发和质量验证的智能合约来协调这种复杂性。贡献者质押代币参与,因诚实计算获得奖励,并因提供错误结果而面临罚没 (Slashing) 惩罚。

通往 520 亿美元之路:推动采用的市场力量

三个趋同的趋势正加速区块链数据市场向 2035 年 524.1 亿美元的预测规模 增长:

AI 模型多样化 利用所有互联网文本训练的大规模基础模型(GPT-4、Claude、Gemini)时代正在结束。医疗、金融、法律服务和垂直应用的专业模型需要特定领域的数据集,而中心化平台并不策划这些数据集。

区块链数据市场擅长处理细分数据集。医疗影像提供商可以将带有诊断注释的放射扫描结果代币化,设定需要患者同意的使用条款,并从每一个基于其数据训练的 AI 模型中赚取收入。这在缺乏细粒度访问控制和归属功能的中心化平台中是无法实现的。

监管压力 数据隐私法规(GDPR、CCPA、中国个人信息保护法)要求基于授权的数据收集。基于区块链的市场将授权实现为可编程逻辑——用户进行加密签名许可,数据只能在指定条款下访问,智能合约自动执行合规性。

Ocean Enterprise v1 对合规性的关注直接解决了这一问题。金融机构和医疗服务提供商需要可审计的数据谱系,以证明用于模型训练的每个数据集都具有适当的许可。区块链提供了满足监管要求的不可篡改的审计追踪。

质量重于数量 最近的研究表明,当系统更类似于生物大脑时,AI 不需要无止境的训练数据。这使得激励机制从收集最大化数据转向策划最高质量的输入。

去中心化数据市场正确地对齐了激励机制:数据创造者因高质量贡献而赚得更多,因为模型会为能提高性能的数据集支付溢价。LazAI 的交互数据捕捉了人类反馈信号(哪些查询被细化,哪些回答让用户满意),而静态数据集会遗漏这些信号——这使得其每字节的价值本质上更高。

挑战:隐私、定价与协议之战

尽管势头强劲,区块链数据市场仍面临结构性挑战:

隐私悖论 AI 训练需要数据透明度(模型需要访问实际内容),但隐私法规要求数据最小化。与中心化训练相比,目前的解决方案如联邦学习(在加密数据上训练)会增加 3-5 倍的成本。

零知识证明提供了一条前进之路——在不暴露内容的情况下证明数据质量——但增加了计算开销。LazAI 的 2026 年 ZK 路线图解决了这一问题,尽管距离生产就绪的实现还有 12-18 个月。

价格发现 社交媒体互动的价值是多少?带有诊断注释的医学图像值多少钱?区块链市场缺乏针对新型数据类型的成熟定价机制。

Ocean Protocol 的方法——让提供商设定价格并由市场动态决定价值——适用于商品化的数据集,但在处理独一无二的专有数据时却面临困难。预测市场或 AI 驱动的动态定价可能会解决这个问题,尽管两者都会引入预言机依赖(外部价格馈送),从而削弱去中心化。

互操作性碎片化 Ocean Protocol 运行在 Ethereum 上,LazAI 运行在 Metis 上,ZENi 集成了多个链。在一个平台上代币化的数据无法轻易转移到另一个平台,导致流动性碎片化。

跨链桥和通用数据标准(如数据集的去中心化标识符)可以解决这个问题,但生态系统仍处于早期阶段。区块链 AI 市场预计将从 2025 年的 6.8089 亿美元增长到 2034 年的 43.38 亿美元,这表明围绕获胜协议的整合还需要数年时间。

这对开发者意味着什么

对于构建 AI 应用的团队,区块链数据市场提供了三个直接优势:

访问专有数据集 Ocean Protocol 的 35,000 多个数据集包括通过传统渠道无法获得的专有训练数据。医学影像、金融交易、来自 Web3 应用的行为分析——这些都是中心化平台不会策展的专业数据集。

合规就绪的基础设施 Ocean Enterprise v1 内置的许可、同意管理和审计追踪解决了监管难题。开发者无需构建自定义的数据治理系统,而是通过执行数据使用条款的智能合约,在设计上就继承了合规性。

降低成本 对于批处理训练工作负载,去中心化计算网络的成本比云提供商低 50-85%。Ocean 与 NetMind(2,000 个 GPU)以及 Aethir 的合作展示了代币化 GPU 市场如何以低于 AWS/GCP/Azure 的成本实现供需匹配。

BlockEden.xyz 为基于区块链的 AI 应用提供企业级 RPC 基础设施。无论你是在 Ethereum (Ocean Protocol)、Metis (LazAI) 还是多链平台上构建,我们可靠的节点服务都能确保你的 AI 数据流水线保持在线且高效。探索我们的 API 市场,将你的 AI 系统连接到专为扩展而构建的区块链网络。

2026 年的拐点

三大催化剂使 2026 年成为区块链数据市场的拐点之年:

Ocean Enterprise v1 正式发布(2025 年第三季度) 首个合规的、机构级数据市场上线。如果 Ocean 哪怕只占 2026 年 74.8 亿美元 AI 训练数据集市场的 5%,那也将有 3.74 亿美元的数据交易流经基于区块链的基础设施。

LazAI ZK 隐私实现(2026 年) 零知识证明使用户能够在不损害隐私的情况下将交互数据变现。这将解锁消费级规模的采用——数以亿计的社交媒体用户、搜索引擎查询和电子商务会话都将通过 DAT 变得可变现。

联邦学习集成 AI 联邦学习 允许在不中心化数据的情况下进行模型训练。区块链增加了价值归属:与其让 Google 在没有补偿的情况下利用 Android 用户数据训练模型,在区块链上运行的联邦系统可以将收益分配给所有数据贡献者。

这种融合意味着 AI 训练正在从“收集所有数据、中心化训练、零支付”转变为“在分布式数据上训练、补偿贡献者、验证溯源”。区块链不仅促成了这一转变——它还是唯一能够协调数百万数据提供者,并实现自动收益分配和加密验证的技术栈。

结论:数据变得可编程

AI 训练数据市场从 2025 年的 35.9 亿美元增长到 2034 年的 230-520 亿美元,这不仅代表着市场的扩张,更代表着我们评估信息价值方式的根本性转变。

Ocean Protocol 证明了数据可以像金融资产一样被代币化、定价和交易,同时保留提供者的控制权。LazAI 展示了 AI 交互数据——以前被视为转瞬即逝而被丢弃的数据——在经过妥善捕获和验证后,可以成为宝贵的训练输入。ZENi 表明行为智能可以被提取、由 AI 处理,并通过去中心化市场变现。

这些平台共同将数据从科技巨头榨取的原材料转变为一种可编程的资产类别,让创造者能够获取价值。全球数据从 33 泽字节(ZB)爆炸式增长到 175 泽字节,只有在质量胜过数量的情况下才有意义——而基于区块链的市场通过激励机制奖励高质量的贡献。

当数据创造者获得与其贡献成正比的收入时,当 AI 公司为高质量输入支付公平的价格时,当智能合约在数百万参与者中自动完成归属分配时,我们不仅解决了数据定价问题。我们正在构建一个信息具有内在价值、溯源可验证、贡献者最终能够获取其数据所产生财富的经济体系。

这不是一种市场趋势。这是一场范式转移——而且它已经在链上开启。

务实隐私的兴起:在区块链中平衡合规性与机密性

· 阅读需 19 分钟
Dora Noda
Software Engineer

区块链行业正处于一个十字路口,隐私不再是一个非黑即白的抉择。在加密货币发展的早期,叙事非常明确:不惜一切代价实现绝对隐私、仅在必要时保持透明,并抵制任何形式的监控。但在 2026 年,一场深刻的变革正在发生。去中心化务实人工智能(DePAI)基础设施的兴起预示着一个新时代的到来,在这个时代,符合合规要求的隐私工具不仅被接受,而且正在成为行业标准。

这并非对隐私原则的退缩。这是一种向更成熟理解的演进:隐私与监管合规可以共存,事实上,如果区块链和人工智能要实现大规模的机构化采用,它们必须共存。

“不惜一切代价保护隐私”时代的终结

多年来,隐私至上主义主导了区块链的讨论。Monero 等项目和早期版本的隐私聚焦协议倡导绝对匿名。其哲学思想非常直接:用户理应享有完全的财务隐私,任何妥协都代表着对加密货币创始原则的背叛。

但这种绝对主义立场产生了一个关键问题。虽然隐私对于保护诚实用户免受监控和抢先交易(front-running)至关重要,但它也成为了非法活动的保护伞。全球监管机构开始以怀疑的态度对待隐私币,导致它们从主流交易所下架,并在多个司法管辖区被彻底禁止。

正如 Cointelegraph 报道,2026 年是务实隐私蓬勃发展的一年,新项目正在为机构解决合规形式的隐私问题,同时人们对 Zcash 等现有隐私币的兴趣也在增长。核心见解在于:隐私并非非此即彼。完全透明和绝对隐私在现实世界中都行不通,因为虽然隐私对诚实用户至关重要,但它也可能被犯罪分子利用来逃避执法。

人们开始接受在特定背景下削减隐私的权衡,以使协议更具抗威胁性。这代表了区块链社区对待隐私方式的根本转变。

定义务实隐私

那么,究竟什么是务实隐私?根据 Anaptyss 的说法,务实隐私是指在不违反监管要求的情况下,保护用户和业务数据的隐私措施的战略实施,确保财务运营既安全又合规。

这种方法认识到区块链生态系统中的不同参与者有不同的隐私需求:

  • 散户用户 需要免受大规模监控和数据抓取的保护
  • 机构投资者 需要保密性以防止其交易策略被抢先交易
  • 企业 必须在保护敏感业务信息的同时满足严格的 AML/KYC 指令
  • AI 代理 需要可验证的计算,而不泄露专有算法或训练数据

解决方案不在于在隐私和合规之间做选择,而在于构建能够同时实现这两者的基础设施。

zkKYC:保护隐私的身份验证

务实隐私领域最有前景的发展之一是零知识了解你的客户(zkKYC)解决方案的出现。传统的 KYC 流程要求用户反复向多个平台提交敏感的个人文件,从而创造了许多容易受到数据泄露攻击的个人数据"蜜罐"。

zkKYC 翻转了这一模式。正如 zkMe 所解释的,他们的 zkKYC 服务将零知识证明(ZKP)技术与完全符合 FATF 的要求相结合。受监管的 KYC 服务商按照标准的 AML 和身份验证程序在链下验证用户,但协议并不收集身份数据。相反,它们通过密码学方式验证合规性。

该机制非常精妙:智能合约在允许访问某些服务或处理大额交易之前,会自动检查零知识证明。用户证明他们符合合规要求(如年龄、居住地、非制裁状态),而无需向协议或其他用户透露任何实际身份数据。

根据 Studio AM 的报道,这已经在一些区块链生态系统中应用:用户在访问某些去中心化金融(DeFi)服务之前,通过 ZKP 证明年龄或居住地。大型金融机构正在关注这一点。德意志银行(Deutsche Bank)和 Privado ID 已经进行了概念验证,展示了使用零知识凭证进行基于区块链的身份验证。

或许最具意义的是,在 2025 年 7 月,谷歌在与德国 Sparkasse 集团合作后,开源了其零知识证明库,这标志着机构对保护隐私的身份基础设施的投资日益增长。

zkTLS:让互联网变得可验证

尽管 zkKYC 解决了身份验证问题,但另一项技术正在解决一个同样关键的问题:如何在不牺牲隐私或安全性的情况下,将可验证的 Web2 数据引入区块链系统。这就是 zkTLS(零知识传输层安全协议)。

传统 TLS —— 为每个 HTTPS 连接提供保护的加密协议 —— 有一个关键局限性:它提供机密性但并不提供可验证性。换句话说,虽然 TLS 确保了信息在传输过程中的加密,但它并未产生能够被独立验证的加密交互证明。

zkTLS 通过 将零知识证明与 TLS 加密系统集成来解决这一问题。利用 MPC-TLS 和零知识技术,zkTLS 允许客户端生成真实 HTTPS 会话的加密可验证证明和认证。

正如 zkPass 所描述的,zkTLS 生成一个零知识证明(例如 zk-SNARK),确认数据是从特定的服务器(通过其公钥和域名识别)通过合法的 TLS 会话获取的,而无需泄露会话密钥或明文数据。

这具有深远的意义。传统的 API 很容易被禁用或审查,而 zkTLS 确保只要用户拥有 HTTPS 连接,他们就可以继续访问自己的数据。这使得几乎任何 Web2 数据都能以可验证且无需许可的方式在区块链上使用。

最近的实现证明了该技术的成熟度。Brevis 的 zkTLS 协处理器 在从网络源获取数据时,能够证明内容是通过来自真实域名的真实 TLS 会话检索的,并且数据未被篡改。

FOSDEM 2026 上,TLSNotary 项目展示了如何利用 zkTLS 解放用户数据,演示了用户如何证明其私人数据(如银行余额、信用评分、交易历史)的真实性,而无需暴露底层信息。

可验证 AI 计算:机构采用的最后一块拼图

隐私保护身份和数据验证奠定了基础,但 DePAI 基础设施中最具变革性的元素是可验证的 AI 计算。随着 AI 代理成为区块链生态系统中活跃的经济参与者,问题已从“AI 能做这个吗?”转变为“你能证明 AI 正确执行了此操作吗?”

这种验证要求并非学术层面的。根据 DecentralGPT 的说法,随着 AI 成为金融、自动化和代理工作流的一部分,单纯的性能是不够的。在 Web3 中,问题还在于:你能证明发生了什么吗?2025 年 12 月底,Cysic 与 Inference Labs 合作,为可验证的 AI 应用构建可扩展的基础设施,将去中心化计算与专为现实世界用途设计的验证框架相结合。

机构对可验证计算的需求非常明确。正如 Alexis M. Adams 的分析 指出的,转向确定性 AI 基础设施是组织满足《欧盟 AI 法案》、美国州级前沿法律的多司法管辖区需求以及网络保险市场日益增长的期望的唯一可行途径。

全球 AI 治理市场反映了这种紧迫性:根据同一份分析报告,2026 年该市场估值约为 4.298 亿美元,预计到 2033 年将达到 42 亿美元。

但验证面临着关键空白。正如 Keyrus 指出的,AI 部署需要信任数字身份,但企业无法验证究竟是谁(或什么)在实际操作 AI 系统。当组织无法可靠地将合法的 AI 代理与对手控制的伪装者区分开时,他们就无法放心地授予 AI 系统访问敏感数据或决策的权限。

这正是 zkKYC、zkTLS 和可验证计算融合并提供完整解决方案的地方。AI 代理可以证明其身份 (zkKYC),证明它们从授权来源正确检索了数据 (zkTLS),并证明它们正确计算了结果(可验证计算)—— 且所有这些都不会暴露敏感的业务逻辑或训练数据。

推动合规化的机构力量

这些技术并非凭空出现。在监管压力和业务需求的驱动下,机构对合规隐私基础设施的需求正在加速。

大型金融机构意识到,如果没有隐私,他们的区块链战略将会停滞不前。根据 WEEX Crypto News 的报道,机构投资者需要机密性来防止其策略被抢跑 (front-running),同时他们还必须满足严格的 AML/KYC 规定。零知识证明作为一种解决方案正受到关注,它允许机构在不向公共区块链泄露敏感底层数据的情况下证明其合规性。

2026 年的监管格局不容含糊。根据 SecurePrivacy.ai 的说法,《欧盟 AI 法案》于 2026 年进入全面实施阶段,各司法管辖区的监管机构期望看到成文的治理方案,而不仅仅是政策。全面执法适用于关键基础设施、教育、就业、基本服务和执法中使用的中高风险 AI 系统。

在美国,到 2025 年底,已有 19 个州实施了全面的隐私法,其中几项新法令将于 2026 年生效,这使得多州隐私合规义务变得复杂。据 Nixon Peabody 报道,科罗拉多州和加利福尼亚州已将“神经数据”(科罗拉多州还增加了“生物数据”)纳入“敏感”数据的定义。

这种监管合流创造了强大的激励机制:在合规、可验证的基础设施上进行构建的组织将获得竞争优势,而那些执着于隐私极大化 (privacy maximalism) 的组织则会发现自己被排除在机构市场之外。

数据完整性:AI 的操作系统

除了合规性,可验证计算还实现了一些更基础的东西:数据完整性作为负责任 AI 的操作系统。

正如 Precisely 所指出的,到 2026 年,治理将不再是组织在部署后才叠加的东西——它将从一开始就内置于数据的结构、解释和监控方式中。数据完整性将作为负责任 AI 的操作系统。从语义清晰度和可解释性,到合规性、可审计性以及对 AI 生成数据的控制,完整性将决定 AI 是否能够安全扩展并交付持久价值。

这种转变对 AI 代理在区块链网络上的运行方式有着深远的影响。AI 系统不再是不透明的黑盒,而是从设计上就变得可审计、可验证且可治理。智能合约可以强制执行对 AI 行为的约束,验证计算的正确性,并创建不可篡改的审计追踪——同时保护专有算法和训练数据的隐私。

《麻省理工斯隆管理评论》(MIT Sloan Management Review)将此确定为 2026 年 AI 和数据科学的五大趋势之一,并指出值得信赖的 AI 需要可验证的溯源和可解释的决策过程。

去中心化身份:基础层

这些技术的背后是向去中心化身份和可验证凭证(Verifiable Credentials)的更广泛转变。正如 Indicio 所解释的,去中心化身份改变了现状——个人不再是在中心化位置验证个人数据,而是持有自己的数据,并在经过同意的情况下分享这些数据,且可以通过密码学进行独立验证。

这种模型颠覆了传统的身份系统。用户无需在各个数据库中创建无数的身份文件副本,而是维护一个单一的可验证凭证,并仅选择性地披露每次交互所需的特定属性。

对于 AI 代理,这种模型扩展到了人类身份之外。代理可以拥有可验证凭证,证明其训练溯源、运行参数、审计历史和授权范围。这创建了一个信任框架,使代理能够在保持问责制的同时自主交互。

从实验到部署

2026 年的关键转变是从理论框架向生产部署的过渡。根据 XT Exchange 的分析,到 2026 年,去中心化 AI 将超越实验阶段,进入实际部署。然而,关键约束仍然存在,包括扩展 AI 工作负载、保护数据隐私以及治理开放的 AI 系统。

这些约束正是 DePAI 基础设施所要解决的。通过结合用于身份识别的 zkKYC、用于数据验证的 zkTLS 以及用于 AI 运行的可验证计算,该基础设施创建了一个完整的技术栈,用于部署同时具备以下特性的 AI 代理:

  • 为用户和企业保护隐私
  • 符合监管要求
  • 设计上可验证且可审计
  • 可扩展以应对机构级工作负载

前方的道路:构建可组合的隐私

DePAI 拼图的最后一块是可组合性。正如 Blockmanity 报道,2026 年是区块链成为 AI 代理和全球金融“管道”的时刻。基础设施必须是模块化的、可互操作的,并且对终端用户是透明的。

务实的隐私工具在可组合性方面表现出色。一个 AI 代理可以:

  1. 使用 zkKYC 凭证进行身份验证
  2. 通过 zkTLS 获取经过验证的外部数据
  3. 通过可验证推理执行计算
  4. 使用正确性的零知识证明在链上提交结果
  5. 在不泄露敏感逻辑的情况下维护审计追踪

每个层级独立运行,允许开发者根据特定需求混合和匹配隐私保护技术。DeFi 协议可能需要 zkKYC 进行用户引导,需要 zkTLS 获取价格喂价,并需要可验证计算进行复杂的财务计算——所有这些都能无缝协作。

这种可组合性跨越了不同的链。基于互操作性标准构建的隐私基础设施可以在 Ethereum、Solana、Sui、Aptos 和其他区块链网络上运行,为合规、私密、可验证的计算创建一个通用层。

为什么这对构建者很重要

对于构建下一代区块链应用的开发者来说,DePAI 基础设施既是机遇也是要求。

机遇:在构建机构真正想要应用的应用方面具有先发优势。金融机构、医疗保健提供者、政府机构和企业都需要区块链解决方案,但他们不能在合规性或隐私方面做出妥协。构建在务实隐私基础设施上的应用可以服务于这些市场。

要求:监管环境正趋向于强制要求可验证、可治理的 AI 系统。无法证明合规性、可审计性和用户隐私保护的应用将被排除在受监管的市场之外。

技术能力正在迅速成熟。zkKYC 解决方案已达到生产级,主要金融机构正在进行试点。zkTLS 实现正在处理现实世界的数据。可验证计算框架正在扩展以处理机构级工作负载。

现在需要的是开发者的采用。从实验性的隐私工具到生产级基础设施的转变,需要构建者将这些技术集成到应用中,在现实场景中进行测试,并向基础设施团队提供反馈。

BlockEden.xyz 为实施隐私保护技术的区块链网络提供企业级 RPC 基础设施。探索我们的服务,在为 DePAI 时代设计的基石上进行构建。

结论:务实隐私的未来

2026 年的 DePAI 爆发不仅仅代表了技术进步。它标志着区块链在隐私、合规以及机构采纳方面的关系走向成熟。

行业正在超越隐私至上主义者与透明度绝对主义者之间的意识形态之争。务实隐私承认,不同的场景需要不同的隐私保证,并且通过周密的密码学设计,合规性与用户隐私可以共存。

zkKYC 在不泄露身份的前提下证明身份。zkTLS 在无需信任中间人的情况下验证数据。可验证计算在不公开算法的情况下证明结果的正确性。这些技术共同构成了一个基础设施层,使得 AI 智能体可以自主运行,企业可以放心地采用区块链,而用户则能保留对数据的控制权。

这并不是对隐私原则的妥协。而是承认,隐私若要具有实际意义,必须在全球金融的监管和商业现实中具备可持续性。被禁止、下架并被排除在机构用途之外的绝对隐私无法保护任何人。而能够同时实现机密性和合规性的务实隐私,才真正履行了区块链的承诺。

那些认识到这一转变并于今日在 DePAI 基础设施上进行构建的开发者,将定义去中心化应用的下一个时代。工具已准备就绪,机构需求显而易见,监管环境也日益明朗。2026 年是务实隐私从理论走向部署的一年——区块链行业将因此变得更加强大。


来源

DePIN 的企业级转型:从代币投机到 1.66 亿美元 ARR 的现实

· 阅读需 17 分钟
Dora Noda
Software Engineer

当世界经济论坛(World Economic Forum)预测一个行业到 2028 年将从 190 亿美元增长到 3.5 万亿美元时,你应该引起注意。当同一个行业从真实的企业客户(而非代币排放)中产生 1.66 亿美元的年度经常性收入(ARR)时,是时候停止将其视为加密炒作了。

去中心化物理基础设施网络(DePIN)已在悄然间经历了根本性的变革。当投机者追逐模因币(memecoins)时,少数 DePIN 项目正通过提供中心化云提供商无法提供的优势——降低 60-80% 的成本并具备生产级可靠性——来构建价值十亿美元的业务。从代币经济学表演向企业级基础设施的转变正在改写区块链的价值主张,而传统的云巨头们也已经注意到了这一点。

显而易见的 3.5 万亿美元机遇

数据讲述了一个大多数加密投资者都错过的故事。DePIN 生态系统的市值从 52 亿美元(2024 年 9 月)增长到 2025 年 9 月的 192 亿美元——增长了 269%,但在一个痴迷于 Layer 1 叙事的行业中,这几乎没有引起关注。目前追踪到的近 250 个项目涵盖了六个垂直领域:计算、存储、无线、能源、传感器和带宽。

但市值只是干扰。真正的故事是收入密度。目前 DePIN 项目在整个行业估计产生 7,200 万美元的链上年度收入,其收入倍数在 10-25 倍之间——这与 2021 年周期中 1,000 倍以上的估值相比发生了剧烈收缩。这不仅仅是估值约束,更是业务模式走向成熟的证据。

世界经济论坛对 2028 年 3.5 万亿美元的预测并非基于代币价格的幻想。它反映了三个巨大的基础设施转变的交汇:

  1. AI 计算需求爆发:预计到 2030 年,机器学习工作负载将消耗美国 24% 的电力,对分布式 GPU 网络产生极大的需求。
  2. 5G/6G 建设经济学:电信运营商需要以 4G 网络 10 倍的密度部署边缘基础设施,但每个站点的资本支出却要更低。
  3. 云成本反叛:企业终于开始质疑为什么 AWS、Azure 和 Google Cloud 对大宗计算和存储征收 30-70% 的加价。

DePIN 不会在明天就取代中心化基础设施。但当 Aethir 向 150 多家企业客户交付 15 亿计算小时,以及 Helium 与 T-Mobile、AT&T 和 Telefónica 签署合作伙伴关系时,“实验性技术”的叙事便不攻自破了。

从空投到年度经常性收入(ARR)

理解 DePIN 行业转型最好的视角,是观察那些产生八位数收入的实际业务,而不是那些伪装成经济活动的代币通胀计划。

Aethir:GPU 的动力源泉

Aethir 不仅仅是最大的 DePIN 收入来源,它正在重写云计算的经济学。到 2025 年第三季度,其 ARR 达到 1.66 亿美元,这源于 AI 训练、推理、游戏和 Web3 基础设施等领域的 150 多家付费企业客户。这并非理论上的吞吐量,而是来自需要保证计算可用性的 AI 模型训练运营、游戏工作室和 AI 代理平台等客户的计费。

其规模令人震惊:在 94 个国家部署了超过 440,000 个 GPU 容器,交付了超过 15 亿个计算小时。上下文对比来看,按收入与市值效率衡量,这比 Filecoin(市值是其 135 倍)、Render(455 倍)和 Bittensor(14 倍)加起来的收入还要多。

Aethir 的企业战略揭示了为什么 DePIN 能够战胜中心化云:与 AWS 相比,成本降低了 70%,同时保持了令传统基础设施供应商嫉妒的 SLA(服务等级协议)保证。通过汇总来自数据中心、网吧和企业硬件的闲置 GPU,Aethir 创建了一个供应侧市场,在价格上低于超大规模云厂商,而在性能上却能与之匹敌。

2026 年第一季度的目标更加宏大:全球计算足迹翻倍,以捕捉加速增长的 AI 基础设施需求。与 Filecoin 基金会(用于永久存储集成)以及主要云游戏平台的合作伙伴关系,使 Aethir 成为首个实现真正企业粘性的 DePIN 项目——即经常性合同,而非一次性的协议交互。

Grass:数据抓取网络

在 Aethir 将算力变现的同时,Grass 证明了 DePIN 在各基础设施类别中的灵活性。其 ARR 达 3,300 万美元,源于一个完全不同的价值主张:用于 AI 训练管道的去中心化网页抓取和数据采集。

Grass 将消费者带宽转变为一种可交易的商品。用户安装一个轻量级客户端,通过其住宅 IP 地址路由 AI 训练数据请求,从而解决了困扰中心化抓取服务的“反机器人检测”问题。AI 公司支付溢价以访问干净、地理分布多样的训练数据,而不会触发速率限制或验证码(CAPTCHA)防火墙。

这种经济模式之所以奏效,是因为 Grass 攫取了原本会流向代理服务提供商(如 Bright Data、Smartproxy)的利润,同时提供了更好的覆盖范围。对于用户来说,这是来自未利用带宽的被动收入。对于 AI 实验室来说,这是以 50-60% 的成本节约可靠地获取网络规模数据。

Bittensor:去中心化智能市场

Bittensor 的方法与基础设施即服务(IaaS)模型有本质区别。它不是在出售算力或带宽,而是通过一个专门的“子网(subnets)”市场将 AI 模型输出 货币化——每个子网都专注于特定的机器学习任务,如图像生成、文本补全或预测分析。

到 2025 年 9 月,超过 128 个活跃子网共同产生了约 2000 万美元的年收入,其中领先的推理即服务(inference-as-a-service)子网预计个人收入将达到 1040 万美元。开发者通过与 OpenAI 兼容的 API 访问由 Bittensor 驱动的模型,在提供具有成本竞争力的推理服务的同时,屏蔽了底层的去中心化基础设施。

机构认可随着 2025 年 12 月灰度(Grayscale)Bittensor 信托(GTAO)的推出而到来,随后 xTAO 和 TAO Synergies 等上市公司累计持有超过 70,000 枚 TAO 代币(约 2600 万美元)。包括 BitGo、Copper 和 Crypto.com 在内的托管提供商通过 Yuma 的验证器集成了 Bittensor,这标志着对于传统金融基础设施而言,DePIN 不再显得过于“另类”。

Render Network:从 3D 渲染到企业级 AI

Render 的发展轨迹展示了 DePIN 项目如何演变并超越初始用例。Render 最初专注于为艺术家和工作室提供分布式 3D 渲染,随着需求转移,它转向了 AI 算力。

2025 年 7 月指标:渲染了 149 万帧,销毁了 207,900 USDC 的费用——仅 2025 年渲染的帧数就占历史总量的 35%,显示出采用率正在加速。2025 年第四季度通过 RNP-021 引入了企业级 GPU,集成了 NVIDIA H200 和 AMD MI300X 芯片,以在处理渲染任务的同时,服务于 AI 推理和训练工作负载。

Render 的经济模型销毁手续费收入(单月销毁 207,900 USDC),创造了与通胀型 DePIN 项目形成鲜明对比的通缩代币经济学。随着企业级 GPU 入驻规模的扩大,Render 将自己定位为高端选项:更高性能、经过审计的硬件、精选的供应——目标是那些需要保证计算 SLA(服务等级协议)的企业,而非业余节点运营商。

Helium:电信行业的去中心化变革

Helium 的无线网络证明了 DePIN 可以渗透进产值达万亿美元的传统巨头行业。与 T-Mobile、AT&T 和 Telefónica 的合作并非试点项目,而是生产环境的部署,Helium 的去中心化热点在偏远地区增强了宏基站的覆盖范围。

对于电信运营商来说,经济效益极具吸引力:Helium 社区部署的热点成本仅为传统手机信号塔建设成本的一小部分,解决了“最后一公里覆盖”问题,且无需进行资本密集型基础设施投资。对于热点运营商而言,这是来自真实数据使用的持续收入,而非代币投机。

Messari 的 2025 年第三季度 Helium 现状报告强调了持续的网络增长和数据传输量,电信领域的区块链市场预计将从 2024 年的 10.7 亿美元增长到 2030 年的 72.5 亿美元。Helium 正在一个传统上抵制变革的领域夺取重要的市场份额。

60-80% 的成本优势:迫使市场采纳的经济学

DePIN 的价值主张并非意识形态上的去中心化——而是极其残酷的成本效率。当 Fluence Network 声称 比中心化云节省 60-80% 的成本 时,他们是在进行同类比较:等效的计算能力、SLA 保证和可用区。

成本优势源于结构性差异:

  1. 消除平台利润率:AWS、Azure 和 Google Cloud 在底层基础设施成本之上加价 30-70%。DePIN 协议通过算法匹配和透明的费用结构取代了这些加价。

  2. 利用闲置产能:中心化云必须为峰值需求预留空间,导致非高峰时段产能闲置。DePIN 汇聚了全球分布的资源,运行在更高的平均利用率上。

  3. 地理套利:DePIN 网络利用能源成本较低和硬件利用不足的地区,动态调度工作负载以优化性价比。

  4. 开放市场竞争:例如,Fluence 的协议促进了独立算力提供商之间的竞争,在不需要多年预留实例承诺的情况下降低了价格。

传统云提供商也提供类似的折扣——AWS 预留实例最高可节省 72%,Azure 预留虚拟机实例可达 72%,Azure 混合权益可达 85%——但这些都需要 1-3 年的承诺并预付费用。DePIN 以按需支付的形式提供类似的节省,并带有实时调整的现货价格。

对于管理可变工作负载(AI 模型实验、渲染集群、科学计算)的企业来说,这种灵活性是颠覆性的。在周末启动 10,000 个 GPU,支付比 AWS 低 70% 的现货价格,然后在周一早上关闭基础设施——无需容量规划,没有浪费的预留容量。

机构资金追随真实收入

从零售投机向机构配置的转变是可以量化的。DePIN 初创公司在 2025 年筹集了约 10 亿美元,从 2024 年 1 月到 2025 年 7 月,在 165 个以上的项目中投资了 7.44 亿美元(外加 89 个以上的未披露交易)。这不是追逐空投的盲目资金,而是专注于基础设施的风险投资进行的深思熟虑的布局。

两只基金标志着机构的严肃态度:

  • Borderless Capital 的 1 亿美元 DePIN Fund III(2024 年 9 月):由 peaq、Solana 基金会、Jump Crypto 和 IoTeX 支持,针对具有成熟产品市场匹配度和收入牵引力的项目。

  • Entrée Capital 的 3 亿美元基金(2025 年 12 月):明确专注于种子轮前到 A 轮的 AI 代理和 DePIN 基础设施,押注于自主系统与去中心化基础设施的融合。

重要的是,这些不是为了对冲而进入基础设施领域的加密原生基金——而是传统的基础设施投资者,他们意识到与中心化云竞争对手相比,DePIN 提供了更优的风险调整后收益。当你资助一个以 15 倍收入(Aethir)交易的项目,而超大规模云服务商以 10 倍收入交易但拥有垄断护城河时,DePIN 的非对称性就变得显而易见了。

较新的 DePIN 项目也在从 2021 年的代币经济学错误中汲取教训。过去 12 个月推出的协议平均实现了 7.6 亿美元 的全稀释估值(FDV)——几乎是两年前推出的项目估值的两倍——因为它们避免了困扰早期网络的排放死亡螺旋。更紧缩的代币供应、基于收入的解锁和销毁机制创造了可持续的经济效益,吸引了长期资本。

从投机走向基础设施:现在的改变

2026 年 1 月标志着一个转折点:受企业对算力、地图数据和无线带宽需求的推动,DePIN 领域的单月营收达到了 1.5 亿美元。这并非代币价格的炒作——而是来自解决实际问题的客户的计费使用量。

其影响正在整个加密生态系统中蔓延:

对于开发者:DePIN 基础设施终于提供了可替代 AWS 的生产级方案。Aethir 的 44 万个 GPU 可以训练大语言模型 (LLMs),Filecoin 可以存储经过加密验证的拍字节 (PB) 级数据,Helium 无需通过 AT&T 合同即可提供物联网连接。区块链技术栈已趋于完整。

对于企业:成本优化不再是性能与价格之间的单选题。DePIN 同时提供了这两者,且具备透明的定价、无供应商锁定,以及中心化云服务无法比拟的地理灵活性。首席财务官 (CFO) 们将会注意到这一点。

对于投资者:营收倍数正向科技行业的常态 (10-25x) 压缩,创造了 2021 年投机热潮期间不可能出现的入场点。15 倍营收倍数的 Aethir 比大多数 SaaS 公司更便宜,且增长率更高。

对于代币经济学:产生实际收入的项目可以销毁代币 (Render)、分配协议费用 (Bittensor) 或资助生态系统增长 (Helium),而无需依赖通胀排放。可持续的经济闭环取代了庞氏反身性。

世界经济论坛 (World Economic Forum) 预测的 3.5 万亿美元规模突然显得保守了。如果 DePIN 到 2028 年仅占据云基础设施支出 10% 的份额(按当前云增长率计算,每年约 600 亿美元),且项目以 15 倍营收倍数交易,那么该板块的市值将达到 9000 亿美元——是目前 192 亿美元基数的 46 倍。

BlockEden.xyz 建设者应当了解的信息

DePIN 革命并非孤立发生——它正在创造 Web3 开发者将日益依赖的基础设施。当你在 Sui、Aptos 或 Ethereum 上构建时,你的 dApp 的链下计算需求(AI 推理、数据索引、IPFS 存储)将越来越多地通过 DePIN 提供商而非 AWS 进行路由。

其重要原因在于:成本效率。如果你的 dApp 提供 AI 生成的内容(NFT 创建、游戏资产、交易信号),通过 Bittensor 或 Aethir 进行推理可能会将你的 AWS 账单削减 70%。对于利润微薄的项目来说,这就是可持续运营与资金耗尽之间的区别。

BlockEden.xyz 为 Sui、Aptos、Ethereum 以及 15 个以上的区块链网络提供企业级 API 基础设施。随着 DePIN 协议逐渐成熟为生产就绪的基础设施,我们的多链方案确保开发者在获得可靠 RPC 访问的同时,能够整合去中心化的计算、存储和带宽。探索我们的 API 市场,在经得起考验的基石上进行构建。

企业转型已经完成

DePIN 时代并非即将到来——它已经开启。当 Aethir 从 150 家企业客户中产生 1.66 亿美元的年度经常性收入 (ARR),当 Helium 与 T-Mobile 和 AT&T 建立合作,当 Bittensor 通过兼容 OpenAI 的 API 提供 AI 推理时,“实验性技术”的标签已不再适用。

该行业已经跨越了从加密原生应用到企业验证的鸿沟。机构资本不再是为潜力买单,而是为经过验证的收入模型买单,其成本结构是中心化竞争对手无法企及的。

对于区块链基础设施而言,其影响是深远的。DePIN 证明了去中心化不仅仅是一种意识形态偏好——它更是一种竞争优势。当你能提供 70% 的成本节省并附带服务等级协议 (SLA) 保证时,你不需要向企业推销 Web3 的哲学,你只需要给他们看发票。

3.5 万亿美元的机会不是一个预测。它是一个数学计算。那些正在构建真实业务——而非代币赌场——的项目,正处于捕捉这一机遇的绝佳位置。


来源:

超越单体与模块化:LayerZero 的 Zero Network 如何重写区块链扩容方案

· 阅读需 11 分钟
Dora Noda
Software Engineer

每一个实现规模化增长的区块链,其成功之道都是让每个验证者重复相同的工作。这种单一的设计选择——可以称之为复制要求(replication requirement)——几十年来一直限制着吞吐量。LayerZero 的 Zero Network 提议彻底消除这一限制,而签约的机构合作伙伴则表明,业界可能正在认真对待这一主张。

解码 InfoFi 的 3.81 亿美元市场:四大垂直领域如何将信息转化为可交易资产

· 阅读需 13 分钟
Dora Noda
Software Engineer

如果你在大众察觉之前发现新兴加密趋势的能力值钱呢?这不只是模糊的“知识就是力量”的概念,而是字面意义上的——你的洞见被贴上了代币价格,并且有一个市场准备好为此竞价。

这就是信息金融(Information Finance,简称 InfoFi)的承诺。由 Vitalik Buterin 在其 2024 年 11 月的文章《从预测市场到信息金融》(From prediction markets to info finance)中提出,InfoFi 描述了一类利用金融机制来提取、汇总并对作为公共物品的信息进行定价的协议。到 2025 年初,该行业的市值已增长至 3.81 亿美元。到 2025 年底,它已成为 Web3 中竞争最激烈的战场之一。

但 InfoFi 并非单一的事物。在这个统称下存在四个截然不同的垂直领域,每个领域都有其独特的机制、核心参与者和竞争态势。理解每个垂直领域的现状以及它们之间的界限,对于任何想要明智地在这个领域导航的人来说都至关重要。

Layer 2 悖论:0.001 美元的费用如何打破以太坊的扩容商业模式

· 阅读需 13 分钟
Dora Noda
Software Engineer

以太坊的 Layer 2 网络在 2025 年取得了一项非凡的成就:它们将交易成本降低了 90% 以上,使区块链交互几乎变得免费。但这场工程上的胜利却引发了一场意想不到的危机 —— 资助这些网络的商业模式正在其自身的成功压力下崩溃。

随着交易费用暴跌至每笔操作 0.001 美元,Layer 2 运营商面临着一个严峻的问题:当主要收入来源正在消失时,你如何维持一个价值数十亿美元的基础设施?

2025 年的大规模费用崩盘

数据说明了一个充满戏剧性的故事。在 2025 年 1 月至 2026 年 1 月期间,以太坊 Layer 2 网络的平均 Gas 价格从 7.141 gwei 暴跌至约 0.50 gwei —— 降幅达到了惊人的 93%。如今,Base 上的交易平均费用为 0.01 美元,而 Arbitrum 和 Optimism 则维持在 0.15-0.20 美元左右,许多操作现在的成本仅为几分钱。

催化剂是什么?是以太坊在 2024 年 3 月推出的 Dencun 升级,即 EIP-4844,它引入了 “blobs” —— Layer 2 网络可以用于低成本结算的临时数据包。与永久存储在以太坊上的传统 calldata 不同,blobs 的保留时间约为 18 天,这使得它们的定价可以大幅降低。

这一影响是立竿见影的,并对传统的收入模式造成了毁灭性的打击。Optimism、Arbitrum 和 Base 的许多交易类型的费用都下降了 90-99%。中位数 blob 费用甚至降至 0.0000000005 美元,使得用户交互的成本几乎可以忽略不计。自 EIP-4844 发布以来,已有超过 950,000 个 blob 被发布到以太坊,从根本上重塑了 Layer 2 运营的经济学。

对于用户和开发者来说,这是天堂。但对于依靠排序器(sequencer)收入的 Layer 2 运营商来说,这是一个生存威胁。

排序器收入:濒临灭绝的收入流

传统上,Layer 2 网络通过一个简单的模式赚钱:它们向用户收取处理交易的费用,然后向以太坊支付一部分费用用于数据可用性和结算。它们收取的费用与支付的费用之间的差额就是它们的利润 —— 即排序器收入。

当 Layer 2 费用还很高时,这种模式运行得非常出色。但随着交易成本趋近于零,利润空间已变得极其微薄。

经济数据清晰地揭示了这一挑战。尽管 Base 处于领先地位,但在过去 180 天里,其日均收入仅为 185,291 美元。Arbitrum 的日均收入约为 55,025 美元。这些数字虽然并非微不足道,但必须支撑起庞大的基础设施、开发团队以及每天处理数十万笔交易的持续运营。

在查看年度毛利润时,情况变得更加严峻。Base 以全年近 3,000 万美元的利润领先,而 Arbitrum 和 Optimism 的毛利润各约为 950 万美元。这些数字必须维持那些共同处理以太坊总交易量 60-70% 的网络 —— 对于相对适度的回报来说,这是一个巨大的运营负担。

根本性的矛盾显而易见:Layer 2 网络必须找到一个能够证明其脱离以太坊主网存在的利基市场,并产生足够的收入来维持自身。正如一项行业分析所指出的,“盈利能力在于 L2 从用户那里赚取的收入与支付给以太坊的费用之间的差额” —— 但这种差额正在日益缩小。

MEV 分歧:捕获价值的不同路径

面对排序器收入的紧缩, Layer 2 网络正在探索最大可提取价值(MEV)作为替代收入来源。但它们的方法大相径庭,从而产生了截然不同的竞争优势和挑战。

Arbitrum 的公平排序理念

Arbitrum 采用了先到先得(FCFS)的排序系统,旨在减少 MEV 提取对用户造成的伤害。这一理念将用户体验置于收入最大化之上,导致 MEV 活动显著降低 —— 仅占链上 Gas 使用量的 7%,而竞争网络则超过 50%。

然而,Arbitrum 并没有完全放弃 MEV。该网络正在探索未来的去中心化排序器实现,这可能会引入 MEV 机会的拍卖,从而可能将部分价值返还给用户或协议国库。这代表了一条中间道路:在保持公平性的同时仍能捕捉经济价值。

Base 和 Optimism 的拍卖方式

相比之下,Base 和 Optimism 使用优先 Gas 拍卖(PGA),用户可以竞标更高的费用以获得交易优先级。这种设计天生就能实现更多的 MEV 活动 —— 在这些网络上,Optimistic MEV 占到了链上 Gas 总使用量的 51-55%。

问题在于?在 OP-Stack rollups 上,实际套利的成功率仍然极低,维持在 1% 左右 —— 远低于 Arbitrum。大部分 Gas 都花在了 “交互探测” 上 —— 即寻找极少实现的套利机会的链上计算。这造成了一种奇特的情况,即 MEV 活动消耗了资源,却没有产生相应的价值。

尽管成功率较低,但 Base 上巨大的 MEV 相关活动量促成了其在收入上的领先地位。该网络以极低的成本每秒处理超过 1,000 笔交易,将交易量转化为了竞争优势。

替代收入模式:超越交易手续费

随着传统的定序器收入被证明难以为继,Layer 2 网络正在开拓替代性的商业模式,这可能会重塑区块链基础设施的经济格局。

许可授权的分歧

Arbitrum 和 Optimism 在其技术栈的变现策略上采取了截然不同的方式。

Arbitrum 的 Orbit 收入分成: Arbitrum 采用“社区源代码”模式,要求基于其 Orbit 框架构建的链如果在 Arbitrum 生态系统之外进行结算,需贡献其协议收入的 10%。这形成了一种类似版税的结构,即使这些链不直接使用 Arbitrum 进行结算,也能产生收入。

Optimism 的开源策略: Optimism 的 OP Stack 在 MIT 许可证下完全开源,允许任何人获取代码、自由修改并构建自定义 Layer 2 链,无需支付版税或预付费。只有当一条链加入 Optimism 的官方生态系统“超级链 (Superchain)”时,收入分成才会启动。

这产生了一种有趣的动态:Optimism 押注于生态系统的增长和自愿参与,而 Arbitrum 则通过许可要求来强制实现经济利益的一致性。时间将证明哪种方法能更好地平衡增长与可持续性。

企业级 Rollup 与专业服务

2025 年出现的最有前景的替代方案或许是“企业级 Rollup”的崛起。各大机构正在推出自定义 Layer 2 网络,并且愿意为专业的部署、维护和支持服务付费。

这模仿了传统的开源商业模式——代码是免费的,但运营专业知识则能获得溢价。Optimism 最近推出的 OP Enterprise 就体现了这种方法,为构建定制化区块链基础设施的机构提供贴身定制的服务。

这种价值主张对企业极具吸引力。他们在获得以太坊经济的流动性和网络效应的同时,还能保持定制化的安全性、隐私性和合规能力。正如一份行业报告所指出,“机构可以拥有自己定制的机构级 L2,并接入以太坊经济的流动性和网络效应。”

Layer 3 与特定应用链

高性能 DeFi 协议日益需要通用 Layer 2 网络无法高效提供的功能:可预测的执行、灵活的清算逻辑、对交易排序的精细控制,以及在内部捕获 MEV 的能力。

Layer 3 和基于 Arbitrum Orbit 等框架构建的特定应用链应运而生。这些专业化网络允许协议内部化 MEV、自定义经济模型并针对特定用例进行优化。对于 Layer 2 运营商来说,为这些专业化链提供基础设施和工具代表了一种新的收入流,且不依赖于低利润的交易处理。

战略洞察很清晰:Layer 2 网络通过向外输出基础设施并与大型平台合作来获胜,而不是仅仅在交易成本上进行竞争。

可持续性问题:Layer 2 能否在费率战中生存?

2026 年 Layer 2 网络面临的核心压力是,替代收入模式的组合是否足以弥补不断消失的交易手续费。

算一笔账:如果交易手续费继续趋向 0.001 美元,且 Blob 成本保持在接近零的水平,即使每天处理数百万笔交易,产生的收入也微乎其微。Base 虽然在交易量上领先,但必须找到额外的收入来源,才能支撑大规模的持续运营。

持续存在的中心化担忧使情况变得更加复杂。大多数 Layer 2 网络仍然比看起来要中心化得多,去中心化被视为长期目标而非当务之急。这带来了监管风险,也让人们对长期价值积累产生疑问——如果一个网络是中心化的,用户为什么要信任它而不是使用带有“巧妙密码学”的传统数据库?

近期的结构性变化表明,以太坊自身也意识到了这一问题。Fusaka 升级旨在“修复” Layer 1 和 Layer 2 之间的价值捕获链,要求 L2 向以太坊主网支付更多的“贡品”。这种重新分配有助于以太坊,但进一步挤压了本就微薄的 Layer 2 利润空间。

2026 年及以后的收入模式

展望未来,成功的 Layer 2 网络可能会采用混合收入策略:

  1. 以量换价: Base 的方法——以极低的单笔交易利润处理海量交易——如果能实现规模效应,就是行之有效的。Base 以 0.01 美元的手续费实现 1,000+ TPS 所产生的收入,超过了 Arbitrum 以 0.20 美元手续费实现 400 TPS 的收入。

  2. 选择性 MEV 捕获: 网络必须平衡 MEV 提取与用户体验。Arbitrum 对 MEV 拍卖(将价值返还给用户)的探索代表了一条中间道路,既能产生收入又不会疏远社区。

  3. 企业服务: 为机构客户提供专业支持、部署协助和定制服务,这些高利润收入随着客户价值而非交易数量而增长。

  4. 生态系统收入分成: 无论是强制性的 (Arbitrum Orbit) 还是自愿性的 (Optimism Superchain),收入分成模式都创造了网络效应,使 Layer 2 的成功通过生态参与而叠加。

  5. 数据可用性市场: 随着 Blob 定价的演变,Layer 2 网络可能会推出分层的数据可用性方案——为机构提供溢价的结算保证,为消费级应用提供廉价选项。

到 2026 年,预计网络将引入收入分成模型、定序器利润分配以及与实际网络使用挂钩的收益,从根本上实现从交易手续费向参与型经济的转变。

前行之路

Layer 2 经济危机从矛盾的角度来看,其实是技术成功的标志。以太坊的扩容方案已经实现了其首要目标:让区块链交易变得经济实惠且触手可及。但技术的胜利并不自动等同于商业的可持续性。

能够在竞争中生存并蓬勃发展的网络将是那些能够做到以下几点的网络:

  • 接受单笔交易费用仅为 0.001 美元时,仅靠交易费无法维持运营的事实
  • 开发与实际价值创造相一致的多样化收入流
  • 平衡中心化担忧与运营效率
  • 构建生态系统网络效应,使价值超越单一交易实现复利增长
  • 为愿意为基础设施可靠性付费的机构和企业客户提供服务

Base、Arbitrum 和 Optimism 都在尝试这些策略的不同组合。Base 通过交易量在总收入上保持领先,Arbitrum 通过许可授权强制执行经济对齐,而 Optimism 则押注于开源生态系统的增长。

最终的赢家很可能是那些意识到根本性转变的网络:Layer 2 网络不再仅仅是交易处理器。它们正在成为基础设施平台、企业服务提供商和生态系统编排者。收入模式必须相应演进——否则将面临在没有人能赢下的向零竞争中,沦为不可持续的廉价商品化服务的风险。

对于在 Layer 2 基础设施上构建的开发者而言,随着这些网络不断演进其商业模式,可靠的节点访问和数据索引仍然至关重要。BlockEden.xyz 在各大主流 Layer 2 网络中提供企业级 API 访问,无论底层经济如何变化,都能提供一致的性能。


参考资料

Q-Day 比你想象的更近:Project Eleven 的 2000 万美元投资如何让区块链应对量子威胁

· 阅读需 11 分钟
Dora Noda
Software Engineer

就在此时此刻,某处的量子计算机正在处理其次误差修正循环——随着每一次迭代,保护 Bitcoin 和 Ethereum 数万亿美元资产的加密基础都变得更加脆弱。大多数加密货币领域的人并未关注这一点。Project Eleven 正在豪赌 2000 万美元,赌他们最终将不得不关注。