跳到主要内容

13 篇博文 含有标签「AI」

查看所有标签

通过 zkML 和密码学证明实现可验证的链上 AI

· 阅读需 41 分钟
Dora Noda
Software Engineer

引言:区块链上对可验证 AI 的需求

随着 AI 系统的影响力日益增强,确保其输出的可信度变得至关重要。传统方法依赖于机构担保(本质上是_“相信我们就行”),但这并不能提供任何密码学上的保证。在像区块链这样的去中心化环境中,这个问题尤为突出,因为智能合约或用户必须信任一个由 AI 推导出的结果,却无法在链上重新运行一个计算量巨大的模型。零知识机器学习 (zkML) 通过允许对机器学习 (ML) 计算进行_密码学验证_来解决这个问题。本质上,zkML 使证明者能够生成一个简洁的证明,证明“输出 $Y$ 来自于在输入 $X$ 上运行模型 $M$”——并且无需透露 $X$ 或 $M$ 的内部细节。这些零知识证明 (ZKPs) 可以被任何人(或任何合约)高效地验证,从而将 AI 的信任基础从“策略”转变为“证明”_。

AI 的链上可验证性意味着区块链可以通过验证一个正确执行的证明来整合高级计算(如神经网络推理),而无需亲自执行这些计算。这具有广泛的影响:智能合约可以基于 AI 预测做出决策,去中心化自治代理可以证明它们遵循了其算法,跨链或链下计算服务可以提供可验证的输出,而不是无法验证的预言机。最终,zkML 为实现无需信任且保护隐私的 AI 提供了一条路径——例如,证明一个 AI 模型的决策是正确且经过授权的,_同时_不暴露私有数据或专有模型权重。这对于从安全医疗分析到区块链游戏和 DeFi 预言机等各种应用都至关重要。

zkML 的工作原理:将 ML 推理压缩为简洁证明

从宏观上看,zkML 将密码学证明系统与 ML 推理相结合,使得一个复杂的模型评估可以被“压缩”成一个微小的证明。在内部,ML 模型(例如神经网络)被表示为一个由许多算术运算(矩阵乘法、激活函数等)组成的电路或程序。证明者在链下执行完整的计算,然后使用零知识证明协议来证明每一步都正确完成,而不是揭示所有中间值。验证者仅凭证明和一些公开数据(如最终输出和模型标识符),就能在密码学上确信其正确性,而无需重新执行模型。

为了实现这一点,zkML 框架通常将模型计算转换为一种适合 ZKP 的格式:

  • 电路编译: 在基于 SNARK 的方法中,模型的计算图被编译成一个_算术电路_或一组多项式约束。神经网络的每一层(卷积、矩阵乘法、非线性激活)都成为一个子电路,其约束确保了在给定输入的情况下输出是正确的。由于神经网络涉及非线性操作(如 ReLU、Sigmoid 等),这些操作天然不适合多项式,因此采用查找表等技术来高效处理它们。例如,一个 ReLU(输出 = max(0, 输入))可以通过一个自定义约束或查找来强制执行,该约束或查找验证当输入≥0 时输出等于输入,否则为零。最终结果是一组密码学约束,证明者必须满足这些约束,从而间接证明模型运行正确。
  • 执行轨迹与虚拟机: 另一种方法是将模型推理视为一个程序轨迹,正如在 zkVM 方法中所做的那样。例如,JOLT zkVM 针对 RISC-V 指令集;可以将 ML 模型(或计算它的代码)编译成 RISC-V,然后证明每个 CPU 指令都正确执行。JOLT 引入了一种_“查找奇点”_技术,用快速的表查找替代了昂贵的算术约束,以处理每个有效的 CPU 操作。每个操作(加法、乘法、位运算等)都通过在一个巨大的预计算有效结果表中进行查找来检查,并使用专门的论证(Lasso/SHOUT)来保持其高效性。这大大减少了证明者的工作量:即使是复杂的 64 位操作,在证明中也变成了一次表查找,而不是许多算术约束。
  • 交互式协议 (GKR Sum-Check): 第三种方法使用像 GKR (Goldwasser–Kalai–Rotblum) 这样的交互式证明来验证分层计算。在这里,模型的计算被看作一个分层算术电路(每个神经网络层是电路图的一层)。证明者正常运行模型,然后参与一个 sum-check 协议_来证明每一层的输出相对于其输入是正确的。在 Lagrange 的方法(DeepProve,下文详述)中,证明者和验证者执行一个交互式多项式协议(通过 Fiat-Shamir 变为非交互式),该协议检查每一层计算的一致性,而无需重新进行计算。这种 sum-check 方法避免了生成一个庞大的静态电路;相反,它以逐步的方式验证_计算的一致性,且密码学操作最少(主要是哈希或多项式求值)。

无论采用何种方法,最终都会得到一个简洁的证明(通常为几 KB 到几十 KB),证明整个推理过程的正确性。该证明是_零知识的_,意味着任何秘密输入(私有数据或模型参数)都可以保持隐藏——它们影响证明的生成,但不会向验证者透露。只有预期的公共输出或断言才会被揭示。这使得诸如_“证明模型 $M$ 应用于患者数据 $X$ 得到诊断 $Y$,而不泄露 $X$ 或模型的权重”_这样的场景成为可能。

实现链上验证: 一旦生成了证明,就可以将其发布到区块链上。智能合约可以包含验证逻辑来检查该证明,通常使用预编译的密码学原语。例如,以太坊有用于许多 zk-SNARK 验证器中使用的 BLS12-381 配对操作的预编译合约,这使得 SNARK 证明的链上验证非常高效。STARKs(基于哈希的证明)虽然更大,但通过仔细优化或可能带有一些信任假设,仍然可以在链上验证(例如,StarkWare 的 L2 通过一个链上验证器合约在以太坊上验证 STARK 证明,尽管 Gas 成本比 SNARKs 高)。关键在于,区块链不需要执行 ML 模型——它只需运行一个验证过程,这比原始计算要_便宜得多_。总而言之,zkML 将昂贵的 AI 推理压缩成一个微小的证明,区块链(或任何验证者)可以在毫秒到秒级的时间内完成验证。

Lagrange DeepProve:一个 zkML 突破的架构与性能

由 Lagrange Labs 推出的 DeepProve 是一个专注于速度和可扩展性的尖端 zkML 推理框架。DeepProve 于 2025 年发布,引入了一种新的证明系统,其速度远超之前的解决方案(如 Ezkl)。其设计核心是_带有 sum-check 的 GKR 交互式证明协议_以及针对神经网络电路的专门优化。以下是 DeepProve 的工作原理及其性能表现:

  • 一次性预处理: 开发者从一个训练好的神经网络开始(目前支持的类型包括多层感知器和流行的 CNN 架构)。模型被导出为 ONNX 格式,这是一种标准的图表示。然后,DeepProve 的工具会解析 ONNX 模型并对其进行_量化_(将权重转换为定点/整数形式),以便进行高效的域运算。在此阶段,它还会为密码学协议生成证明和验证密钥。这个设置过程对每个模型只需进行一次,无需在每次推理时重复。DeepProve 强调易于集成:“将你的模型导出到 ONNX → 一次性设置 → 生成证明 → 随处验证”

  • 证明(推理 + 证明生成): 设置完成后,证明者(可以由用户、服务或 Lagrange 的去中心化证明者网络运行)接收一个新的输入 $X$ 并在其上运行模型 $M$,得到输出 $Y$。在此执行过程中,DeepProve 会记录每一层计算的执行轨迹。与 SNARK 方法预先将每个乘法转换为静态电路不同,DeepProve 使用线性时间的 GKR 协议来动态验证每一层。对于每个网络层,证明者提交该层的输入和输出(例如,通过密码学哈希或多项式承诺),然后参与一个 sum-check 论证,以证明输出确实是根据该层的功能由输入产生的。sum-check 协议通过迭代方式让验证者相信一个编码了该层计算的多项式求值之和的正确性,而无需透露实际值。非线性操作(如 ReLU、softmax)在 DeepProve 中通过_查找论证_得到高效处理——如果一个激活函数的输出被计算出来,DeepProve 可以证明每个输出都对应于该函数预计算表中的一个有效输入-输出对。逐层生成证明,然后聚合成一个覆盖整个模型前向传播的简洁证明。密码学的繁重工作被最小化——DeepProve 的证明者主要执行正常的数值计算(实际的推理)外加一些轻量级的密码学承诺,而不是解决一个巨大的约束系统。

  • 验证: 验证者使用最终的简洁证明以及一些公开值——通常是模型的承诺标识符(对 $M$ 权重的密码学承诺)、输入 $X$(如果不是私密的)和声称的输出 $Y$——来检查正确性。在 DeepProve 的系统中,验证涉及验证 sum-check 协议的记录以及最终的多项式或哈希承诺。这比验证一个经典的 SNARK(可能只需几次配对操作)要复杂,但它比_重新运行模型要便宜得多_。在 Lagrange 的基准测试中,验证一个中等规模 CNN 的 DeepProve 证明在软件中大约需要 0.5 秒。这意味着用约 0.5 秒就能确认一个拥有数十万参数的卷积网络运行正确——比在 GPU 上简单地重新计算该 CNN 进行验证快 500 倍以上。(事实上,DeepProve 测得 CNN 的_验证速度快了 521 倍_,MLP 的_验证速度快了 671 倍_,相较于重新执行。)证明的大小足够小,可以在链上传输(几十 KB),并且验证可以在智能合约中执行,尽管 0.5 秒的计算可能需要仔细的 Gas 优化或在 Layer-2 上执行。

架构与工具: DeepProve 使用 Rust 实现,并为开发者提供了一个工具包(zkml 库)。它原生支持 ONNX 模型图,使其与 PyTorch 或 TensorFlow 导出的模型兼容。目前的证明过程针对参数量高达数百万的模型(测试包括一个 400 万参数的密集网络)。DeepProve 结合了多种密码学组件:一个多线性多项式承诺(用于承诺层输出)、用于验证计算的 sum-check 协议,以及用于非线性操作的查找论证。值得注意的是,Lagrange 的开源仓库承认其工作建立在先前工作(Scroll 的 Ceno 项目中的 sum-check 和 GKR 实现)之上,这表明 zkML 与零知识 rollup 研究存在交集。

为了实现实时可扩展性,Lagrange 将 DeepProve 与其证明者网络 (Prover Network) 相结合——这是一个由专门的 ZK 证明者组成的去中心化网络。繁重的证明生成可以外包给这个网络:当一个应用需要证明一个推理时,它将任务发送到 Lagrange 的网络,网络中的许多运营商(在 EigenLayer 上质押以确保安全)计算证明并返回结果。该网络通过经济激励来保证可靠的证明生成(恶意或失败的任务会导致运营商被罚没)。通过将工作分散给多个证明者(并可能利用 GPU 或 ASIC),Lagrange 证明者网络为最终用户隐藏了复杂性和成本。其结果是一个快速、可扩展且去中心化的 zkML 服务:“快速且经济地实现可验证的 AI 推理”

性能里程碑: DeepProve 的声明得到了与先前最先进技术 Ezkl 的基准测试支持。对于一个约有 26.4 万参数的 CNN(CIFAR-10 规模的模型),DeepProve 的证明时间约为 1.24 秒,而 Ezkl 则需要约 196 秒——快了约 158 倍。对于一个拥有 400 万参数的更大型密集网络,DeepProve 在约 2.3 秒内证明了一次推理,而 Ezkl 则需要约 126.8 秒(快了约 54 倍)。验证时间也大幅下降:DeepProve 在约 0.6 秒内验证了 26.4 万参数 CNN 的证明,而在该测试中,验证 Ezkl 的证明(基于 Halo2)在 CPU 上耗时超过 5 分钟。这些速度提升源于 DeepProve 的近线性复杂度:其证明者的扩展性大致为 O(n),其中 n 是操作数,而基于电路的 SNARK 证明者通常具有超线性的开销(FFT 和多项式承诺的扩展性)。事实上,DeepProve 的证明者吞吐量可以与普通推理运行时间在同一数量级内——最新的 GKR 系统对于大型矩阵乘法,其速度可以比原始执行慢不到 10 倍,这在 ZK 领域是一项了不起的成就。这使得_实时或按需证明_变得更加可行,为在交互式应用中实现可验证 AI 铺平了道路。

用例: Lagrange 已经与 Web3 和 AI 项目合作,应用 zkML。用例包括:可验证的 NFT 特征(证明一个由 AI 生成的游戏角色或收藏品的进化是由授权模型计算的)、AI 内容的来源证明(证明一张图片或一段文本是由特定模型生成的,以打击深度伪造)、DeFi 风险模型(证明一个评估金融风险的模型输出,而不泄露专有数据),以及_医疗或金融领域的私密 AI 推理_(医院可以获得带有证明的 AI 预测,确保正确性而不暴露患者数据)。通过使 AI 输出可验证且保护隐私,DeepProve 为去中心化系统中_“你可以信任的 AI”打开了大门——从一个“盲目信任黑盒模型”的时代,迈向一个“客观保证”_的时代。

基于 SNARK 的 zkML:Ezkl 与 Halo2 方法

传统的 zkML 方法使用 zk-SNARKs(简洁非交互式知识论证)来证明神经网络推理。Ezkl(由 ZKonduit/Modulus Labs 开发)是这种方法的领先范例。它建立在 Halo2 证明系统之上(一种带有 BLS12-381 上的多项式承诺的 PLONK 风格 SNARK)。Ezkl 提供了一个工具链,开发者可以拿一个 PyTorch 或 TensorFlow 模型,将其导出为 ONNX 格式,然后让 Ezkl 自动将其编译成一个自定义的算术电路。

工作原理: 神经网络的每一层都被转换为约束:

  • 线性层(密集层或卷积层)变成了一系列乘法-加法约束,强制执行输入、权重和输出之间的点积。
  • 非线性层(如 ReLU、sigmoid 等)通过查找或分段约束来处理,因为这些函数不是多项式。例如,一个 ReLU 可以通过一个布尔选择器 $b$ 和约束来实现,确保 $y = x \cdot b$、$0 \le b \le 1$ 且当 $x>0$ 时 $b=1$(这是一种实现方式),或者更高效地通过一个查找表,将 $x$ 映射到 $\max(0,x)$,适用于一定范围的 $x$ 值。Halo2 的查找论证允许映射 16 位(或更小)的值块,因此大的域(如所有 32 位值)通常被_“分块”_成几个较小的查找。这种分块增加了约束的数量。
  • 大整数运算或除法(如果有的话)同样被分解成小块。最终结果是一大组针对特定模型架构定制的 R1CS/PLONK 约束

然后,Ezkl 使用 Halo2 生成一个证明,证明在给定秘密输入(模型权重、私有输入)和公共输出的情况下,这些约束成立。工具与集成: SNARK 方法的一个优势是它利用了众所周知的原语。Halo2 已经在以太坊的 rollup 中使用(例如 Zcash、zkEVMs),因此它经过了实战检验,并且有现成的链上验证器。Ezkl 的证明使用 BLS12-381 曲线,以太坊可以通过预编译合约进行验证,这使得在智能合约中验证 Ezkl 证明变得非常直接。该团队还提供了用户友好的 API;例如,数据科学家可以在 Python 中使用他们的模型,并使用 Ezkl 的命令行工具来生成证明,而无需深入了解电路知识。

优势: Ezkl 的方法得益于 SNARKs 的通用性和生态系统。它支持相当复杂的模型,并且已经有了_“实际的集成案例(从 DeFi 风险模型到游戏 AI)”_,证明了现实世界中的 ML 任务。因为它在模型的计算图层面操作,所以可以应用特定于 ML 的优化:例如,修剪不重要的权重或量化参数以减小电路大小。这也意味着模型机密性是天然的——权重可以被视为私有见证数据,因此验证者只看到_某个_有效的模型产生了该输出,或者最多只是一个对模型的承诺。SNARK 证明的验证速度极快(通常在链上为几毫秒或更短),并且证明大小很小(几 KB),这对于区块链使用非常理想。

劣势: 性能是其阿喀琉斯之踵。基于电路的证明带来了巨大的开销,尤其是随着模型规模的增长。据记载,历史上 SNARK 电路对证明者来说可能比仅仅运行模型本身要多出_一百万倍的工作量_。Halo2 和 Ezkl 对此进行了优化,但像大型矩阵乘法这样的操作仍然会产生_大量_的约束。如果一个模型有数百万个参数,证明者就必须处理相应数百万个约束,并在此过程中执行繁重的 FFT 和多重指数运算。这导致了很长的证明时间(对于非平凡的模型通常需要几分钟或几小时)和高内存使用。例如,用 Ezkl 证明一个相对较小的 CNN(例如几十万个参数)在单台机器上可能需要几十分钟。DeepProve 背后的团队指出,对于某些模型证明,Ezkl 需要数小时,而 DeepProve 可以在几分钟内完成。大型模型甚至可能无法装入内存,或者需要分割成多个证明(然后需要递归聚合)。虽然 Halo2 经过了_“适度优化”,但任何需要“分块”查找或处理宽位操作的需求都会转化为额外的开销。总而言之,可扩展性有限——Ezkl 对于中小型模型效果很好(并且在基准测试中确实_优于一些早期的替代方案,如朴素的基于 Stark 的 VM),但随着模型规模超过某个点,它就会遇到困难。

尽管存在这些挑战,Ezkl 和类似的基于 SNARK 的 zkML 库是重要的垫脚石。它们证明了_在链上实现可验证的 ML 推理是可能的_,并且已经有了活跃的使用。值得注意的是,像 Modulus Labs 这样的项目展示了使用 SNARKs(经过大量优化)在链上验证一个 1800 万参数的模型。成本虽然不菲,但这显示了发展轨迹。此外,Mina 协议拥有自己的 zkML 工具包,该工具包使用 SNARKs 来允许 Mina 上的智能合约(本身就是基于 Snark 的)验证 ML 模型的执行。这表明基于 SNARK 的 zkML 正在获得越来越多的多平台支持。

基于 STARK 的方法:透明且可编程的 ZK for ML

zk-STARKs(可扩展透明知识论证)为 zkML 提供了另一条途径。STARKs 使用基于哈希的密码学(如用于多项式承诺的 FRI),并避免了任何可信设置。它们通常通过模拟一个 CPU 或 VM 并证明其执行轨迹是正确的来运作。在 ML 的背景下,可以为神经网络构建一个自定义的 STARK,_或者_使用一个通用的 STARK VM 来运行模型代码。

通用 STARK VMs (RISC Zero, Cairo): 一个直接的方法是编写推理代码并在 STARK VM 中运行它。例如,Risc0 提供了一个 RISC-V 环境,任何代码(例如,用 C++ 或 Rust 实现的神经网络)都可以在其中执行并通过 STARK 进行证明。同样,StarkWare 的 Cairo 语言可以表达任意计算(如 LSTM 或 CNN 推理),然后由 StarkNet STARK 证明者进行证明。其优势在于灵活性——你不需要为每个模型设计自定义电路。然而,早期的基准测试表明,对于 ML 任务,朴素的 STARK VM 比优化的 SNARK 电路要慢。在一次测试中,一个基于 Halo2 的证明 (Ezkl) 比在 Cairo 上的基于 STARK 的方法快约 3 倍,甚至比在 2024 年某个基准测试中的 RISC-V STARK VM 快 66 倍。这种差距是由于在 STARK 中模拟每个低级指令的开销以及 STARK 证明中较大的常数(哈希虽然快,但需要大量使用;STARK 证明的大小也更大等)。然而,STARK VM 正在不断改进,并具有透明设置(无需可信设置)和后量子安全的优点。随着对 STARK 友好的硬件和协议的发展,证明速度将会提高。

DeepProve 的方法 vs STARK: 有趣的是,DeepProve 使用 GKR 和 sum-check 产生的证明在精神上更像一个 STARK——它是一个交互式的、基于哈希的证明,不需要结构化的参考字符串。其权衡是它的证明更大,验证比 SNARK 更重。然而,DeepProve 表明,精心的协议设计(专门针对 ML 的分层结构)可以在证明时间上远超通用的 STARK VM 和 SNARK 电路。我们可以将 DeepProve 视为一个_定制的 STARK 风格_的 zkML 证明者(尽管他们为了简洁性使用了 zkSNARK 这个术语,但它没有传统 SNARK 那样的小常数大小验证,因为 0.5 秒的验证时间比典型的 SNARK 验证要长)。传统的 STARK 证明(如 StarkNet 的)通常需要数万次域运算来验证,而 SNARK 的验证可能只需几十次。因此,一个权衡是显而易见的:SNARKs 产生更小的证明和更快的验证器,而 STARKs(或 GKR)则以证明大小和验证速度为代价,提供了更容易的扩展性和无需可信设置的便利。

新兴的改进: JOLT zkVM(前面在 JOLTx 下讨论过)实际上输出的是 SNARKs(使用 PLONKish 承诺),但它体现了可以应用于 STARK 环境的思想(Lasso 查找理论上可以与 FRI 承诺一起使用)。StarkWare 和其他公司正在研究加速常见操作证明的方法(例如在 Cairo 中使用自定义门或提示来处理大整数运算等)。还有 Privacy & Scaling Explorations (PSE) 的 Circomlib-ML,它为 CNN 层等提供了 Circom 模板——这是面向 SNARK 的,但概念上类似的模板也可以为 STARK 语言制作。

在实践中,利用 STARKs 的非以太坊生态系统包括 StarkNet(如果有人编写验证器,就可以在链上验证 ML,尽管成本很高)和 Risc0 的 Bonsai 服务(这是一个链下证明服务,它发出 STARK 证明,可以在各种链上进行验证)。截至 2025 年,区块链上的大多数 zkML 演示都倾向于使用 SNARKs(因为验证器效率高),但 STARK 方法因其透明性和在高安全性或抗量子环境中的潜力而仍然具有吸引力。例如,一个去中心化计算网络可能会使用 STARKs 让任何人在没有可信设置的情况下验证工作,这对于长期性很有用。此外,一些专门的 ML 任务可能会利用对 STARK 友好的结构:例如,大量使用 XOR/位运算的计算在 STARKs 中可能比在 SNARK 域运算中更快(因为这些在布尔代数和哈希中成本低廉)。

SNARK vs STARK for ML 总结:

  • 性能: SNARKs(如 Halo2)每个门的证明开销巨大,但得益于强大的优化和用于验证的小常数;STARKs(通用型)的常数开销较大,但扩展性更线性,并避免了像配对这样昂贵的密码学操作。DeepProve 表明,定制方法(sum-check)可以产生近线性的证明时间(快),但证明类似于 STARK。JOLT 表明,即使是通用 VM,通过大量使用查找也可以变得更快。根据经验,对于高达数百万次操作的模型:一个优化良好的 SNARK (Ezkl) 可以处理,但可能需要几十分钟,而 DeepProve (GKR) 可以在几秒钟内完成。2024 年的 STARK VM 可能介于两者之间,或者比 SNARKs 差,除非经过专门优化(Risc0 在测试中较慢,Cairo 在没有自定义提示的情况下也较慢)。
  • 验证: SNARK 证明验证最快(毫秒级,链上数据最少,约几百字节到几 KB)。STARK 证明更大(几十 KB),并且由于需要多次哈希步骤,验证时间更长(几十毫秒到几秒)。在区块链术语中,一个 SNARK 验证可能花费约 20 万 Gas,而一个 STARK 验证可能花费数百万 Gas——通常对于 L1 来说太高,但在 L2 或使用简洁验证方案时可以接受。
  • 设置与安全: 像 Groth16 这样的 SNARKs 每个电路都需要一个可信设置(对于任意模型不友好),但通用 SNARKs(PLONK、Halo2)有一个一次性的设置,可以重用于任何达到特定大小的电路。STARKs 不需要设置,只使用哈希假设(加上经典的多项式复杂性假设),并且是后量子安全的。这使得 STARKs 对于长期性很有吸引力——即使量子计算机出现,证明仍然安全,而当前的 SNARKs(基于 BLS12-381)会被量子攻击破解。

我们将在稍后的比较表中整合这些差异。

FHE for ML (FHE-o-ML):私密计算 vs. 可验证计算

全同态加密 (FHE) 是一种密码学技术,允许直接在加密数据上进行计算。在 ML 的背景下,FHE 可以实现一种_隐私保护推理_:例如,客户端可以向模型主机发送加密输入,主机在不解密的情况下对密文运行神经网络,并返回一个加密结果,客户端可以解密该结果。这确保了数据机密性——模型所有者对输入一无所知(并且如果客户端只得到输出,可能也只知道输出,而不知道模型的内部结构)。然而,FHE 本身并不产生像 ZKP 那样的正确性证明。客户端必须相信模型所有者确实诚实地执行了计算(密文可能被篡改)。通常,如果客户端拥有模型或期望某种输出分布,公然的作弊可以被检测到,但细微的错误或使用错误版本的模型,仅从加密输出中是看不出来的。

性能上的权衡: FHE 的计算量是出了名的繁重。在 FHE 下运行深度学习推理会带来数量级的减速。早期的实验(例如,2016 年的 CryptoNets)在加密数据上评估一个微小的 CNN 需要几十秒。到 2024 年,像 CKKS(用于近似算术) 和更好的库(Microsoft SEAL、Zama 的 Concrete)等改进已经减少了这种开销,但它仍然很大。例如,一位用户报告说,使用 Zama 的 Concrete-ML 运行一个 CIFAR-10 分类器,在他们的硬件上每次推理需要 25-30 分钟。经过优化后,Zama 的团队在一台 192 核的服务器上将该推理时间缩短到约 40 秒。即使是 40 秒,与明文推理(可能只需 0.01 秒)相比也极其缓慢,显示出约 $10^3$–$10^4\times$ 的开销。更大的模型或更高的精度会进一步增加成本。此外,FHE 操作消耗大量内存,并需要偶尔进行_自举_(一种降噪步骤),这在计算上非常昂贵。总而言之,可扩展性是一个主要问题——最先进的 FHE 可能可以处理一个小型 CNN 或简单的逻辑回归,但扩展到大型 CNN 或 Transformer 超出了当前实际应用的限制。

隐私优势: FHE 的巨大吸引力在于_数据隐私_。输入在整个过程中可以保持完全加密。这意味着一个不受信任的服务器可以在不了解任何信息的情况下对客户端的私有数据进行计算。反过来,如果模型是敏感的(专有的),可以设想加密模型参数,让客户端在自己这边进行 FHE 推理——但这不太常见,因为如果客户端必须进行繁重的 FHE 计算,就违背了将其外包给强大服务器的初衷。通常,模型是公开的或由服务器以明文形式持有,而数据由客户端的密钥加密。在这种情况下,模型隐私默认不被提供(服务器知道模型;客户端知道输出但不知道权重)。还有更奇特的设置(如安全两方计算或多密钥 FHE),其中模型和数据都可以相互保密,但这些会带来更大的复杂性。相比之下,通过 ZKP 实现的 zkML 可以同时确保_模型隐私_和_数据隐私_——证明者可以将模型和数据都作为秘密见证,只向验证者揭示需要的部分。

无需(也不可能)链上验证: 使用 FHE,结果以加密形式返回给客户端。客户端然后解密它以获得实际的预测。如果我们想在链上使用该结果,客户端(或持有解密密钥的任何人)将不得不发布明文结果并说服其他人它是正确的。但在那一点上,信任又回到了循环中——除非与 ZKP 结合。原则上,可以结合 FHE 和 ZKP:例如,在计算期间使用 FHE 保持数据私密,然后生成一个 ZK 证明,证明明文结果对应于正确的计算。然而,将它们结合起来意味着你要同时承担 FHE ZKP 的性能损失——用今天的技术来看,这极其不切实际。因此,在实践中,FHE-of-ML 和 zkML 服务于不同的用例:

  • FHE-of-ML: 当目标是_两方(客户端和服务器)之间的机密性_时是理想选择。例如,云服务可以托管一个 ML 模型,用户可以用他们的敏感数据查询它,而无需向云透露数据(如果模型是敏感的,也许可以通过对 FHE 友好的编码来部署它)。这对于隐私保护的 ML 服务(医疗预测等)非常有用。用户仍然必须相信服务会忠实地运行模型(因为没有证明),但至少任何_数据泄露_都被阻止了。一些项目,如 Zama,甚至在探索一个_“支持 FHE 的 EVM (fhEVM)”_,其中智能合约可以在加密输入上操作,但在链上验证这些计算将需要合约以某种方式强制执行正确的计算——这是一个开放的挑战,可能需要 ZK 证明或专门的安全硬件。
  • zkML (ZKPs): 当目标是_可验证性和公共可审计性_时是理想选择。如果你想让任何人(或任何合约)确信_“模型 $M$ 在 $X$ 上被正确评估并产生了 $Y$”_,ZKP 就是解决方案。它们还提供隐私作为附加好处(如果需要,你可以通过将 $X$、$Y$ 或 $M$ 作为证明的私有输入来隐藏它们),但它们的主要特点是正确执行的证明。

互补关系: 值得注意的是,ZKP 保护的是_验证者_(他们对秘密一无所知,只知道计算是正确完成的),而 FHE 保护的是_证明者_的数据免受计算方的影响。在某些情况下,这两者可以结合——例如,一个不受信任的节点网络可以使用 FHE 对用户的私有数据进行计算,然后向用户(或区块链)提供 ZK 证明,证明计算是按照协议进行的。这将同时涵盖隐私和正确性,但以今天的算法来看,性能成本是巨大的。在短期内更可行的是混合方案,如_可信执行环境 (TEE) + ZKP_ 或_函数加密 + ZKP_——这些超出了我们的范围,但它们旨在提供类似的功能(TEE 在计算期间保持数据/模型秘密,然后 ZKP 可以证明 TEE 做了正确的事情)。

总而言之,FHE-of-ML 优先考虑输入/输出的机密性,而 zkML 优先考虑可验证的正确性(可能带有隐私)。下表 1 对比了关键属性:

方法证明者性能 (推理与证明)证明大小与验证隐私特性是否需要可信设置?是否后量子安全?
zk-SNARK (Halo2, Groth16, PLONK 等)证明者开销巨大(未经优化时可达正常运行时间的 10^6 倍;实践中为 10^3–10^5 倍)。针对特定模型/电路进行优化;中等模型证明时间为分钟级,大型模型为小时级。最近的 zkML SNARKs(如 DeepProve with GKR)极大地改善了这一点(近线性开销,例如百万参数模型从分钟级缩短到秒级)。证明非常小(通常 < 100 KB,有时约几 KB)。验证速度快:几次配对或多项式求值(链上通常 < 50 毫秒)。DeepProve 基于 GKR 的证明更大(几十到几百 KB),验证时间约 0.5 秒(仍远快于重新运行模型)。数据机密性: 是——输入可以在证明中保持私密(不被泄露)。模型隐私: 是——证明者可以承诺模型权重而不泄露它们。输出隐藏: 可选——证明可以是一个关于某个陈述的证明,而不泄露输出(例如,“输出具有属性 P”)。然而,如果输出本身需要在链上使用,它通常会变为公开的。总的来说,SNARKs 提供了完全的_零知识_灵活性(可以隐藏任何你想要的部分)。取决于方案。Groth16/EZKL 每个电路都需要一个可信设置;PLONK/Halo2 使用一个通用的设置(一次性)。DeepProve 的 sum-check GKR 是透明的(无需设置)——这是该设计的一个优点。经典的 SNARKs(BLS12-381 曲线)不是后量子安全的(易受针对椭圆曲线离散对数问题的量子攻击)。一些较新的 SNARKs 使用后量子安全的承诺,但 Ezkl 中使用的 Halo2/PLONK 不是后量子安全的。GKR (DeepProve) 使用哈希承诺(例如 Poseidon/Merkle),这些承诺被推测是后量子安全的(依赖于哈希原像抗性)。
zk-STARK (FRI, 基于哈希的证明)证明者开销高,但扩展性更_线性_。对于大型任务,通常比原生执行慢 10^2–10^4 倍,且有并行化空间。2024 年,通用 STARK VM(Risc0, Cairo)在 ML 上的性能比 SNARK 慢(例如,在某些情况下比 Halo2 慢 3-66 倍)。专门的 STARKs(或 GKR)可以接近线性开销,并在大型电路上胜过 SNARKs。证明更大:通常为几十 KB(随电路大小/log(n) 增长)。验证者必须进行多次哈希和 FFT 检查——验证时间约为 O(n^ε),其中 ε 很小(例如,约 50 毫秒到 500 毫秒,取决于证明大小)。在链上,这成本更高(StarkWare 的 L1 验证器每个证明可能消耗数百万 Gas)。一些 STARKs 支持递归证明以压缩大小,但会增加证明者的时间成本。数据与模型隐私: STARK 可以通过随机化轨迹数据(在多项式求值中添加盲化因子)来实现零知识,因此它可以像 SNARK 一样隐藏私有输入。许多 STARK 实现侧重于完整性,但 zk-STARK 变体确实允许隐私。所以是的,它们可以像 SNARKs 一样隐藏输入/模型。输出隐藏: 理论上同样可行(证明者不将输出声明为公开),但很少使用,因为通常我们想要揭示/验证的是输出。无需可信设置。 透明性是 STARKs 的一个标志——只需要一个公共随机字符串(Fiat-Shamir 可以推导出来)。这使得它们对于开放式使用很有吸引力(任何模型,任何时间,无需为每个模型举行仪式)。是的,STARKs 依赖于哈希和信息论安全假设(如随机预言机和 FRI 中某些码字解码的难度)。这些被认为是能抵抗量子对手的。因此,STARK 证明是抗后量子攻击的,这对于未来可验证 AI 的发展是一个优势。
FHE for ML (全同态加密应用于推理)证明者 = 在加密数据上进行计算的一方。 计算时间极高:比明文推理慢 10^3–10^5 倍是常见的。高端硬件(多核服务器、FPGA 等)可以缓解这一点。一些优化(低精度推理、分级 FHE 参数)可以减少开销,但存在根本的性能损失。FHE 目前对于小型模型或简单线性模型是可行的;深度网络在超出玩具规模后仍然具有挑战性。不生成证明。结果是一个加密的输出。验证(检查正确性)并非由 FHE 单独提供——人们信任计算方不会作弊。(如果与安全硬件结合,可能会得到一个证明;否则,恶意服务器可能返回一个不正确的加密结果,客户端解密后得到错误输出而不知情)。数据机密性: 是——输入是加密的,所以计算方对其一无所知。模型隐私: 如果模型所有者在加密输入上进行计算,模型在他们那边是明文的(不受保护)。如果角色互换(客户端持有加密的模型,服务器进行计算),模型可以保持加密,但这种情况不太常见。有一些技术,如安全两方 ML,结合 FHE/MPC 来保护两者,但这超出了普通 FHE 的范畴。输出隐藏: 默认情况下,计算的输出是加密的(只有持有私钥的一方,通常是输入所有者,才能解密)。所以输出对计算服务器是隐藏的。如果我们希望输出公开,客户端可以解密并揭示它。无需设置。每个用户生成自己的密钥对进行加密。信任依赖于密钥保持秘密。FHE 方案(例如 BFV, CKKS, TFHE)的安全性基于格问题(带误差学习),这些问题被认为是能抵抗量子攻击的(至少目前没有已知的有效量子算法)。所以 FHE 通常被认为是后量子安全的

表 1:zk-SNARK、zk-STARK 和 FHE 方法在机器学习推理中的比较(性能与隐私权衡)。

Web3 应用的用例与影响

通过 zkML 实现 AI 与区块链的融合,为 Web3 开启了强大的新应用模式:

  • 去中心化自治代理与链上决策: 智能合约或 DAO 可以整合由 AI 驱动的决策,并保证其正确性。例如,想象一个 DAO 使用神经网络分析市场状况后执行交易。有了 zkML,DAO 的智能合约可以要求一个 zkSNARK 证明,证明_授权的 ML 模型_(具有已知的哈希承诺)在最新数据上运行并产生了推荐的操作,然后该操作才会被接受。这可以防止恶意行为者注入虚假的预测——区块链_验证了 AI 的计算_。随着时间的推移,甚至可能出现完全在链上的自治代理(查询链下 AI 或包含简化模型的合约),在 DeFi 或游戏中做出决策,其所有行动都通过 zk 证明被证明是正确且符合策略的。这提高了对自治代理的信任,因为它们的“思考”过程是透明且可验证的,而不是一个黑箱。

  • 可验证计算市场: 像 Lagrange 这样的项目实际上正在创建可验证的计算市场——开发者可以将繁重的 ML 推理外包给一个证明者网络,并获得带有结果的证明。这类似于去中心化的云计算,但内置了信任:你不需要信任服务器,只需要信任证明。这是对预言机和链下计算的范式转变。像以太坊即将推出的 DSC(去中心化排序层)或预言机网络可以利用这一点来提供具有密码学保证的数据或分析源。例如,一个预言机可以提供“模型 X 在输入 Y 上的结果”,任何人都可以验证附加在链上的证明,而不是相信预言机的一面之词。这可以实现区块链上的_可验证 AI 即服务_:任何合约都可以请求一个计算(比如“用我的私有模型为这些信用风险打分”),并且只有在有有效证明的情况下才接受答案。像 Gensyn 这样的项目正在探索使用这些验证技术的去中心化训练和推理市场。

  • NFT 与游戏——来源与进化: 在区块链游戏或 NFT 收藏品中,zkML 可以证明特征或游戏动作是由合法的 AI 模型生成的。例如,一个游戏可能允许 AI 进化一个 NFT 宠物的属性。没有 ZK,聪明的用户可能会修改 AI 或结果以获得一个更优越的宠物。有了 zkML,游戏可以要求一个证明,证明_“宠物的新属性是由官方进化模型在宠物的旧属性上计算得出的”_,从而防止作弊。生成艺术 NFT 也是如此:艺术家可以发布一个生成模型作为承诺;之后,在铸造 NFT 时,证明每个图像都是由该模型在给定某个种子的情況下产生的,从而保证其真实性(甚至可以在不向公众透露确切模型的情况下做到这一点,保护艺术家的知识产权)。这种_来源验证_以一种类似于可验证随机性的方式确保了真实性——只不过在这里是可验证的创造力。

  • 敏感领域的隐私保护 AI: zkML 允许在不暴露输入的情况下确认结果。在医疗保健领域,患者的数据可以由云提供商通过 AI 诊断模型运行;医院收到诊断结果和一个证明,证明_该模型(可能由一家制药公司私有持有)在患者数据上正确运行_。患者数据保持私密(在证明中只使用了加密或承诺的形式),模型权重保持专有——但结果是可信的。监管机构或保险公司也可以验证是否只使用了经批准的模型。在金融领域,一家公司可以向审计师或监管机构证明,其风险模型已应用于其内部数据并产生了某些指标,而无需透露底层的敏感财务数据。这使得合规和监督能够通过密码学保证而不是手动信任来实现。

  • 跨链与链下互操作性: 由于零知识证明本质上是可移植的,zkML 可以促进_跨链 AI_ 结果。一条链上可能有一个 AI 密集型应用在链下运行;它可以将结果的证明发布到另一条区块链上,后者将无需信任地接受它。例如,考虑一个多链 DAO 使用 AI 来聚合社交媒体上的情绪(链下数据)。AI 分析(对大量数据的复杂 NLP)在链下由一个服务完成,该服务然后向一个小区块链(或多个链)发布一个证明,证明_“分析已正确完成,输出的情绪评分为 0.85”_。所有链都可以验证并在其治理逻辑中使用该结果,而无需各自重新运行分析。这种可互操作的可验证计算正是 Lagrange 网络旨在支持的,通过同时服务于多个 rollup 或 L1。它消除了在链间移动结果时对可信桥梁或预言机假设的需求。

  • AI 对齐与治理: 从一个更具前瞻性的角度来看,zkML 被强调为_AI 治理与安全_的工具。例如,Lagrange 的愿景声明认为,随着 AI 系统变得越来越强大(甚至达到超级智能),密码学验证对于确保它们遵守既定规则至关重要。通过要求 AI 模型为其推理或约束生成证明,人类保留了一定程度的控制——“你无法信任你无法验证的东西”。虽然这还处于推测阶段,并且涉及社会和技术两方面,但该技术可以强制一个自主运行的 AI 代理仍然证明它正在使用一个经批准的模型并且没有被篡改。去中心化 AI 网络可能会使用链上证明来验证贡献(例如,一个协作训练模型的节点网络可以证明每个更新都是忠实计算的)。因此,zkML 可能在_确保 AI 系统即使在去中心化或不受控制的环境中也能对人类定义的协议负责_方面发挥作用。

总之,zkML 和可验证的链上 AI 代表了先进密码学和机器学习的融合,有望增强 AI 应用中的信任、透明度和隐私。通过比较主要方法——zk-SNARKs、zk-STARKs 和 FHE——我们看到了性能与隐私之间的一系列权衡,每种方法都适用于不同的场景。像 Ezkl 这样的基于 SNARK 的框架和像 Lagrange 的 DeepProve 这样的创新,使得用实际的努力证明重要的神经网络推理成为可能,为可验证 AI 的实际部署打开了大门。基于 STARK 和 VM 的方法承诺了更大的灵活性和后量子安全性,随着该领域的成熟,这将变得越来越重要。FHE 虽然不是可验证性的解决方案,但它解决了机密 ML 计算的互补需求,并且在与 ZKP 结合或在特定的私密环境中,它可以让用户在不牺牲数据隐私的情况下利用 AI。

对 Web3 的影响是显著的:我们可以预见智能合约对 AI 预测做出反应,并知道它们是正确的;计算市场中结果可以无需信任地出售;数字身份(如 Worldcoin 通过虹膜 AI 实现的个人身份证明)受到 zkML 的保护,以确认某人是人类而不泄露其生物特征图像;以及通常会出现一类新的_“可证明的智能”,丰富区块链应用。许多挑战依然存在——超大型模型的性能、开发者的人体工程学以及对专门硬件的需求——但发展轨迹是明确的。正如一份报告所指出的,“今天的 ZKP 可以支持小型模型,但中到大型模型打破了这一范式”_;然而,快速的进步(DeepProve 相较于先前技术实现了 50-150 倍的速度提升)正在将这一界限向外推进。随着正在进行的研究(例如,关于硬件加速和分布式证明),我们可以期待越来越大、越来越复杂的 AI 模型变得可证明。zkML 可能很快就会从利基演示演变为可信 AI 基础设施的重要组成部分,确保随着 AI 的普及,它能以一种可审计、去中心化且符合用户隐私和安全的方式实现。

ETHDenver 2025:来自 Web3 嘉年华的关键趋势与洞见

· 阅读需 28 分钟

ETHDenver 2025,被誉为“再生者之年”(Year of The Regenerates),巩固了其作为全球最大 Web3 盛会之一的地位。活动横跨 BUIDLWeek(2 月 23 日至 26 日)、主活动(2 月 27 日至 3 月 2 日)以及会后的山地静修,预计吸引了超过 25,000 名参与者。来自 125 多个国家的构建者、开发者、投资者和创意人士齐聚丹佛,共同庆祝以太坊的去中心化和创新精神。ETHDenver 秉承其社区根基,保持免费参与、社区资助,并充满了丰富的内容——从黑客松、研讨会到专家座谈、项目路演和派对。活动以“再生者”捍卫去中心化的传说为基调,强调了公共物品和协作共建,即便在竞争激烈的技术环境中也是如此。最终,这周充满了高强度的构建者活动和前瞻性讨论,为行业专业人士提供了 Web3 新兴趋势和可行洞见的快照。

ETHDenver 2025

演讲者聚焦的新兴 Web3 趋势

没有单一叙事主导 ETHDenver 2025——相反,广泛的 Web3 趋势占据了中心舞台。 与去年(EigenLayer 的再质押大放异彩)不同,2025 年的议程是百花齐放:从去中心化物理基础设施网络(DePIN)到 AI 代理,从监管合规到现实世界资产代币化(RWA),此外还有隐私、互操作性等等。事实上,ETHDenver 创始人 John Paller 在回应关于多链内容的担忧时指出,“我们 95% 以上的赞助商和 90% 的内容都与 ETH/EVM 相关”——然而,非以太坊生态系统的出现也凸显了互操作性作为一个关键主题。主要演讲者反映了这些趋势领域:例如,Matter Labs/zkSync 的首席执行官 Alex Gluchowski 重点介绍了 zk-rollup 和 Layer-2 扩容,而 Mysten Labs (Sui) 的 Adeniyi Abiodun 和 Injective 的 Albert Chon 则展示了多链创新

AI 与 Web3 的融合成为一股强劲的暗流。 大量演讲和周边活动聚焦于去中心化 AI 代理和“DeFi+AI”的跨界结合。一个专门的 AI 代理日 展示了链上 AI 演示,一个由 14 个团队组成的联盟(包括 Coinbase 的开发者工具包和 NEAR 的 AI 部门)甚至宣布成立开放代理联盟(OAA)——一项旨在通过汇集 Web3 基础设施来提供无需许可、免费的 AI 访问的倡议。这表明,自主代理和 AI 驱动的 dApp 作为构建者的前沿领域,正引起越来越大的兴趣。与 AI 携手并进的**DePIN(去中心化物理基础设施)**是另一个热门词:多个专家座谈(例如 DePIN 日DePIN 峰会)探讨了将区块链与物理网络(从电信到移动出行)连接起来的项目。

Cuckoo AI Network 在 ETHDenver 2025 上掀起波澜,展示了其专为创作者和开发者设计的创新去中心化 AI 模型服务市场。凭借在黑客松和社区主导的周边活动中的强大影响力,Cuckoo AI 吸引了大量开发者的关注,他们对其将 GPU/CPU 资源变现和轻松集成链上 AI API 的能力深感兴趣。在其专门的研讨会和交流会上,Cuckoo AI 强调了去中心化基础设施如何能有效地普及对高级 AI 服务的访问。这与本次活动的更广泛趋势——特别是区块链与 AI、DePIN 和公共物品资助的交集——直接吻合。对于 ETHDenver 的投资者和开发者来说,Cuckoo AI 成为了一个清晰的例子,展示了去中心化方法如何赋能下一代 AI 驱动的 dApp 和基础设施,从而将自己定位为 Web3 生态系统中有吸引力的投资机会。

隐私、身份和安全仍然是重中之重。 演讲者和研讨会讨论了零知识证明(zkSync 的参与)、身份管理和可验证凭证(黑客松中有一个专门的隐私与安全赛道)以及法律/监管问题(一个链上法律峰会是活动赛道的一部分)等议题。另一个值得注意的讨论是融资的未来和资金的去中心化:在主舞台上,Dragonfly Capital 的 Haseeb Qureshi 与 Legion(一个“类似 ICO”的平台)的 Matt O’Connor 之间关于 ICO 与 VC 融资的辩论吸引了与会者。这场辩论凸显了社区代币销售等新兴模式对传统 VC 路径的挑战——这对正在探索融资的 Web3 初创公司来说是一个重要趋势。对专业人士而言,结论是明确的:2025 年的 Web3 是多学科的——横跨金融、AI、现实资产和文化——要保持信息灵通,就必须超越任何单一的炒作周期,关注创新的全貌。

赞助商及其战略重点领域

ETHDenver 2025 的赞助商名单堪称 Layer-1、Layer-2 和 Web3 基础设施项目的“名人录”——每个项目都利用这次活动来推进其战略目标。跨链和多链协议表现抢眼。例如,Polkadot 是顶级赞助商之一,提供了高达 8 万美元的奖金池,激励构建者创建跨链 DApp 和应用链。同样,BNB Chain、Flow、Hedera 和 Base(Coinbase 的 L2) 各自为与自家生态系统集成的项目提供了高达 5 万美元的奖金,这表明它们正努力吸引以太坊开发者。即使是传统上独立的生态系统,如 Solana 和 Internet Computer,也通过赞助挑战赛加入进来(例如,Solana 联合主办了一个 DePIN 活动,而 Internet Computer 则提供了一个“只有在 ICP 上才可能”的赏金)。这种跨生态系统的存在引起了一些社区的审视,但 ETHDenver 团队指出,绝大多数内容仍然与以太坊相关。最终效果是互操作性成为了一个核心主题——赞助商旨在将其平台定位为以太坊宇宙的补充扩展。

扩容解决方案和基础设施提供商也处于前沿和中心位置。主要的以太坊 L2,如 Optimism 和 Arbitrum,都设有大型展位并赞助了挑战赛(Optimism 的赏金高达 4 万美元),加强了它们吸引开发者加入 rollup 的重点。像 ZkSync 和 Zircuit(一个展示 L2 rollup 方法的项目)这样的新进入者则强调零知识技术,甚至贡献了 SDK(ZkSync 推广了其用于用户友好登录的 Smart Sign-On SDK,黑客松团队积极使用)。再质押和模块化区块链基础设施是另一个赞助商的兴趣点——EigenLayer(再质押的先驱)有自己的 5 万美元赛道,甚至联合主办了一个关于“再质押与 DeFAI(去中心化 AI)”的活动,将其安全模型与 AI 主题相结合。预言机和互操作性中间件的代表有 Chainlink 和 Wormhole,它们都为使用其协议的项目发布了赏金。

值得注意的是,Web3 消费应用和工具也得到了赞助商的支持,以改善用户体验。Uniswap 的亮相——拥有最大的展位之一——不仅仅是为了展示:这家 DeFi 巨头利用这次活动宣布了新的钱包功能,如集成的法币出口,这与其赞助重点关注 DeFi 可用性相一致。像 Galxe (Gravity)Lens Protocol 这样的身份和社区平台赞助了围绕链上社交和凭证的挑战赛。甚至主流科技公司也表现出兴趣:PayPal 和 Google Cloud 举办了一场稳定币/支付的欢乐时光活动,讨论加密支付的未来。这种赞助商的组合表明,战略利益从核心基础设施延伸到终端用户应用——所有这些都在 ETHDenver 汇聚,为开发者提供资源(API、SDK、资助)。对于 Web3 专业人士来说,来自 Layer-1、Layer-2 甚至 Web2 金融科技公司的重金赞助,凸显了行业投资的方向:互操作性、可扩展性、安全性,以及让加密货币为下一波用户所用

黑客松亮点:创新项目与获奖者

ETHDenver 的核心是其传奇的 #BUIDLathon——一个已发展成为全球最大的区块链黑客马拉松,吸引了数千名开发者。2025 年,该黑客松提供了创纪录的 1,043,333+ 美元奖金池以激励创新。来自 60 多个赞助商的赏金针对关键的 Web3 领域,将比赛划分为多个赛道,例如:DeFi 与 AINFT 与游戏基础设施与可扩展性隐私与安全以及DAO 与公共物品。这种赛道设计本身就很有见地——例如,将DeFi 与 AI 配对,暗示了 AI 驱动的金融应用的兴起,而专门的公共物品赛道则重申了社区对再生金融和开源开发的关注。每个赛道都由赞助商支持,为最佳使用其技术的项目提供奖品(例如,Polkadot 和 Uniswap 支持 DeFi,Chainlink 支持互操作性,Optimism 支持扩容解决方案)。组织者甚至实施了二次投票进行评审,让社区帮助筛选出顶级项目,最终获奖者由专家评委选出。

结果是涌现出大量前沿项目,其中许多项目让我们得以一窥 Web3 的未来。著名的获奖者包括一款链上多人游戏 “0xCaliber”,这是一款第一人称射击游戏,在经典的 FPS 游戏中实时运行区块链交互。0xCaliber 通过展示真正的链上游戏令评委惊叹——玩家用加密货币买入,“射出”链上子弹,并使用跨链技巧来收集和兑现战利品,所有这些都是实时的。这类项目展示了Web3 游戏日益成熟(将 Unity 游戏引擎与智能合约集成),以及在融合娱乐与加密经济学方面的创造力。另一类杰出的黑客作品是那些将AI 与以太坊结合的项目:团队构建了使用智能合约协调 AI 服务的“代理”平台,灵感来自开放代理联盟的宣布。例如,一个黑客松项目集成了 AI 驱动的智能合约审计器(为合约自动生成安全测试用例)——这与会议上观察到的去中心化 AI 趋势相符。

基础设施和工具类项目也很突出。一些团队致力于账户抽象和用户体验,使用 zkSync 的 Smart Sign-On 等赞助商工具包为 dApp 创建无钱包登录流程。其他团队则致力于跨链桥和 Layer-2 集成,反映了开发者对互操作性的持续兴趣。在公共物品与 DAO 赛道中,一些项目解决了现实世界的社会影响问题,例如一个用于去中心化身份和援助无家可归者的 dApp(利用 NFT 和社区资金,这个想法让人想起之前的 ReFi 黑客作品)。*再生金融(ReFi)*的概念——如通过新颖机制资助公共物品——继续出现,呼应了 ETHDenver 的再生主题。

虽然最终获奖者在主活动结束时受到了庆祝,但真正的价值在于创新的管道:收到了超过 400 个项目提交,其中许多项目将在活动结束后继续存在。ETHDenver 的黑客松有孵化未来初创公司的记录(事实上,一些过去的 BUIDLathon 项目已经成长为赞助商)。对于投资者和技术专家来说,黑客松提供了一个洞察前沿思想的窗口——预示着下一波 Web3 初创公司可能会出现在链上游戏、AI 融合的 dApp、跨链基础设施以及针对社会影响的解决方案等领域。随着近 100 万美元的赏金发放给开发者,赞助商有效地将资金投入到他们所支持的领域,以培育这些创新。

社交活动与投资者互动

ETHDenver 不仅仅是关于编写代码——它同样关乎建立联系。2025 年,这场嘉年华通过为初创公司、投资者和社区建设者量身定制的正式和非正式活动,极大地促进了社交。其中一个标志性活动是 Bufficorn Ventures (BV) 创业竞技场,这是一个充满活力的展示会,20 家精选初创公司以科学展览的形式向投资者展示他们的项目。创业竞技场于 3 月 1 日在主厅举行,被描述为更像是“快速约会”而非路演比赛:创始人们守在桌前,向在场内巡视的所有投资者一对一地推介他们的项目。这种形式确保了即使是早期阶段的团队也能与风险投资家、战略合作伙伴或合作方进行有意义的面对面交流。许多初创公司利用这个机会寻找客户和资金,充分利用了 ETHDenver 上 Web3 基金的高度集中。

在会议的最后一天,BV BuffiTank 路演节在主舞台上大放异彩——这是一场更传统的路演比赛,展示了来自 ETHDenver 社区的 10 家“最具创新性”的早期初创公司。这些团队(与黑客松获奖者不同)向一组顶级风险投资家和行业领袖展示了他们的商业模式,争夺荣誉和潜在的投资机会。路演节说明了 ETHDenver 作为交易流生成器的角色:它明确针对那些*“已经组织好……正在寻找投资、客户和曝光度”*的团队,特别是那些与 SporkDAO 社区有关的团队。获奖者的奖励不是简单的现金奖,而是加入 Bufficorn Ventures 的投资组合或其他加速器项目的承诺。从本质上讲,ETHDenver 为 Web3 创造了自己的迷你“创智赢家”(Shark Tank),催化了投资者对社区最佳项目的关注。

除了这些官方展示活动,这一周还挤满了投资者与创始人的交流会。根据 Belong 策划的一份指南,值得注意的周边活动包括 2 月 27 日由 CertiK Ventures 主办的**“与 VC 见面”欢乐时光**,3 月 1 日的StarkNet VC 与创始人休息室,甚至还有像**“推杆与路演”这样以高尔夫为主题的轻松路演活动。这些聚会为创始人提供了与风险投资家轻松交流的环境,通常会在会后促成后续会议。许多新兴 VC 公司**也出现在专家座谈会上——例如,在 EtherKnight 舞台上的一场会议重点介绍了一些新基金,如 Reflexive Capital、Reforge VC、Topology、Metalayer 和 Hash3,以及他们最感兴趣的趋势。早期迹象表明,这些 VC 对去中心化社交媒体、AI 和新颖的 Layer-1 基础设施等领域非常感兴趣(每个基金都在竞争激烈的 VC 格局中开辟自己的细分市场)。

对于希望利用 ETHDenver 社交机会的专业人士来说,关键的启示是周边活动和有针对性的交流会的价值。交易和合作关系通常是在咖啡或鸡尾酒会上萌芽,而不是在舞台上。ETHDenver 2025 众多的投资者活动表明,即使在市场不景气的情况下,Web3 投资界仍在积极寻找人才和创意。那些准备了精美演示和清晰价值主张的初创公司(通常利用活动的黑客松势头)找到了 receptive 的受众。与此同时,投资者利用这些互动来把握开发者社区的脉搏——今年最聪明的构建者在解决什么问题?总而言之,ETHDenver 再次证明社交与 BUIDLing 同等重要:在这里,一次偶然的相遇可能促成一笔种子投资,或者一次富有洞察力的对话可能点燃下一次重大合作的火花。

Web3 的风险投资趋势与投资机会

在 ETHDenver 2025 期间,一个微妙但重要的叙事是 Web3 风险投资格局本身正在演变。尽管更广泛的加密市场起伏不定,但ETHDenver 的投资者们对有前景的 Web3 项目表现出强烈的兴趣。Blockworks 的现场记者指出,“尽管宏观经济面临阻力,但仍有大量私人资本流入加密领域,”对于最热门的创意,种子阶段的估值往往高得惊人。事实上,从加密原生基金到涉足 Web3 的传统科技投资者,大量 VC 的出席清楚地表明,ETHDenver 仍然是一个交易撮合中心。

从 VC 们讨论和赞助的内容中,可以辨别出新兴的主题焦点AI x Crypto 内容的普遍性(黑客松赛道、专家座谈等)不仅是开发者的趋势;它也反映了风险投资对**“DeFi 遇上 AI”**这一交叉领域的兴趣。许多投资者正在关注那些在区块链上利用机器学习或自主代理的初创公司,这一点从风险投资赞助的 AI 黑客之家和峰会中可见一斑。同样,对 DePIN 和现实世界资产(RWA)代币化的高度关注表明,基金们看到了将区块链与实体经济资产和物理设备连接起来的项目的机会。专门的 RWA 日(2 月 26 日)——一个关于代币化资产未来的 B2B 活动——表明风险投资的探子们正在该领域积极寻找下一个 Goldfinch 或 Centrifuge(即将现实世界金融带入链上的平台)。

另一个可观察到的趋势是融资模式的日益实验性。前述关于 ICO 与 VC 的辩论不仅仅是会议的戏剧效果;它反映了风险投资界向更以社区为中心的融资模式发展的真实动向。ETHDenver 的一些 VC 表示对混合模式持开放态度(例如,由风险投资支持的代币发行,让社区参与早期轮次)。此外,公共物品资助和影响力投资也占有一席之地。在 ETHDenver 的再生精神下,即使是投资者也在讨论如何长期支持开源基础设施和开发者,而不仅仅是追逐下一个 DeFi 或 NFT 的热潮。像*“资助未来:链上初创公司不断演变的模式”*这样的专家座谈会探讨了诸如赠款、DAO 财库投资和二次方融资等替代方案,以补充传统的 VC 资金。这表明该行业在项目资本化方面正在成熟——风险投资、生态系统基金和社区资金协同工作。

从机会的角度来看,Web3 专业人士和投资者可以从 ETHDenver 的风险投资动态中获得一些可行的见解:(1)基础设施仍然为王——许多 VC 表示,作为行业支柱的“镐和铲子”(L2 扩容、安全、开发者工具)仍然是高价值投资。(2)AI/区块链融合和 DePIN 等新垂直领域是新兴的投资前沿——在这些领域加快学习或寻找初创公司可能会带来回报。(3)社区驱动的项目和公共物品可能会看到新颖的融资方式——精明的投资者正在研究如何可持续地支持这些项目(例如,投资于能够实现去中心化治理或共享所有权的协议)。总的来说,ETHDenver 2025 表明,虽然 Web3 风险投资格局竞争激烈,但充满了信心:资本可用于那些正在构建 DeFi、NFT、游戏等未来的人,即使是在熊市中诞生的想法,如果它们瞄准了正确的趋势,也能找到支持。

开发者资源、工具包与支持系统

ETHDenver 始终以构建者为中心,2025 年也不例外——它兼具开源开发者大会的性质,为 Web3 开发者提供了丰富的资源和支持。在 BUIDLWeek 期间,与会者可以参加涵盖各个领域的现场研讨会、技术训练营和迷你峰会。例如,开发者可以参加前沿技术峰会,体验最新的协议,或者参加链上法律峰会,学习合规的智能合约开发。主要赞助商和区块链团队举办了实践课程:Polkadot 团队举办了黑客之家和关于启动平行链的研讨会;EigenLayer 领导了一个“再质押训练营”,教开发者如何利用其安全层;Polygon 和 zkSync 提供了关于使用零知识技术构建可扩展 dApp 的教程。这些课程为开发者提供了与核心工程师宝贵的面对面交流机会,让他们能够获得集成方面的帮助,并亲手学习新的工具包。

在整个主活动期间,会场设有一个专门的 #BUIDLHub 和创客空间,构建者可以在协作环境中编码并获得导师的指导。ETHDenver 的组织者发布了一份详细的构建者指南,并促成了一个现场导师计划(来自赞助商的专家随时为团队解决技术问题)。开发者工具公司也大量到场——从 Alchemy 和 Infura(提供区块链 API)到 Hardhat 和 Foundry(用于智能合约开发)。许多公司在活动中发布了新版本或测试版工具。例如,MetaMask 团队预告了一次重大的钱包更新,其中包括Gas 抽象和改进的 dApp 开发者 SDK,旨在简化应用为用户支付 Gas 费的方式。多个项目推出了 SDK 或开源库:Coinbase 的用于 AI 代理的*“Agent Kit”和协作的开放代理联盟*工具包被引入,Story.xyz 在他们自己的黑客松活动中推广了其用于链上知识产权许可的 Story SDK

赏金和黑客支持进一步增强了开发者的体验。有 62 个赞助商提供了超过 180 个赏金,黑客们实际上可以从一个具体的挑战菜单中进行选择,每个挑战都附有文档、办公时间和有时甚至是定制的沙盒环境。例如,Optimism 的赏金挑战开发者使用最新的 Bedrock 操作码(他们的工程师随时待命提供帮助),而 Uniswap 的挑战则提供了对其新 API 的访问权限,用于法币出口集成。用于协调和学习的工具——如官方的 ETHDenver 移动应用和 Discord 频道——让开发者了解日程变更、支线任务,甚至通过 ETHDenver 的招聘板了解工作机会

一个值得注意的资源是对二次方融资实验和链上投票的强调。ETHDenver 在黑客松评审中集成了二次方投票系统,让许多开发者接触到了这个概念。此外,Gitcoin 和其他公共物品组织的存在意味着开发者可以在活动结束后了解如何为他们的项目申请资助。总而言之,ETHDenver 2025 为开发者配备了前沿工具(SDK、API)专家指导后续支持,以继续他们的项目。对于行业专业人士来说,这提醒我们,通过教育、工具和资金来培育开发者社区至关重要。许多重点介绍的资源(如新的 SDK 或改进的开发环境)现在已经公开可用,为全球各地的团队提供了在 ETHDenver 分享的基础上进行构建的机会。

丰富 ETHDenver 体验的周边活动与社区聚会

真正让 ETHDenver 与众不同的是其节日般的氛围——数十个官方和非官方的周边活动,围绕主会议创造了丰富多彩的体验。2025 年,除了举办官方内容的国家西部综合体外,整个城市都充满了聚会、派对、黑客松和社区集会。这些通常由赞助商或当地 Web3 团体主办的周边活动,极大地丰富了整个 ETHDenver 的体验。

在官方层面,ETHDenver 自己的日程安排包括了主题迷你活动:会场设有NFT 艺术画廊、区块链游乐场、DJ 放松穹顶,甚至还有一个禅意区供人放松。组织者还举办了晚间活动,如开幕和闭幕派对——例如,2 月 26 日由 Story Protocol 举办的**“Crack’d House”非官方开幕派对**,将艺术表演与黑客松颁奖公告融为一体。但真正 proliferate 的是社区主导的周边活动:根据一份活动指南,ETHDenver 的 Luma 日历上追踪了超过 100 个周边活动。

一些例子说明了这些聚会的多样性:

  • 技术峰会与黑客之家: ElizaOS 和 EigenLayer 为 AI+Web3 爱好者举办了一个为期 9 天的 Vault AI 代理黑客之家。StarkNet 团队举办了一个为期多日的黑客之家,最终以其 ZK-rollup 上的项目演示夜告终。这些活动为开发者在主黑客松之外,就特定技术栈进行合作提供了专注的环境。
  • 社交酒会与派对: 每个晚上都有一系列选择。2 月 27 日由 MetaMask、Linea、EigenLayer、Wormhole 等赞助的 Builder Nights Denver,将创新者聚集在一起,边吃边喝边进行轻松交谈。由 Belong 支持的 3VO’s Mischief Minded Club Takeover 是一个为社区代币化领导者举办的高级别社交派对。对于纯粹寻求乐趣的人来说,BEMO Rave(与 Berachain 等合作)和 rAIve the Night(一个以 AI 为主题的锐舞派对)让加密人群跳舞到深夜——将音乐、艺术和加密文化融为一体。
  • 特殊兴趣聚会: 小众社区也找到了自己的空间。Meme Combat 是一个纯粹为 Meme 爱好者举办的活动,庆祝 Meme 在加密世界中的作用。House of Ink 迎合了 NFT 艺术家和收藏家,将一个沉浸式艺术场馆(Meow Wolf Denver)变成了数字艺术的展示平台。2 月 26 日的 SheFi Summit 汇集了 Web3 领域的女性进行演讲和交流,得到了 World of Women 和 Celo 等团体的支持——凸显了对多样性和包容性的承诺。
  • 投资者与内容创作者聚会: 我们已经提到了 VC 活动;此外,2 月 28 日的 KOL(关键意见领袖)聚会让加密影响者和内容创作者讨论参与策略,展示了社交媒体与加密社区的交集。

至关重要的是,这些周边活动不仅仅是娱乐——它们本身常常成为思想和关系的孵化器。例如,2025 年代币化资本峰会深入探讨了链上资本市场的未来,很可能激发了与会的金融科技企业家和区块链开发者之间的合作。链上游戏黑客之家为游戏开发者提供了一个分享最佳实践的空间,这可能会导致区块链游戏项目之间的交叉授粉。

对于参加大型会议的专业人士来说,ETHDenver 的模式强调了价值在主舞台之外和舞台之上同样重要。广泛的非官方活动让与会者可以定制自己的体验——无论目标是会见投资者、学习新技能、寻找联合创始人,还是只是放松和建立友谊,总有一个活动适合你。许多资深人士建议新手:“不要只听讲座——去参加聚会,打个招呼。”在一个像 Web3 这样由社区驱动的空间里,这些人际关系往往会转化为 DAO 合作、投资交易,或者至少是跨越大陆的持久友谊。ETHDenver 2025 充满活力的周边场景放大了核心会议的影响,将丹佛的一周变成了一场多维度的创新盛宴

关键要点与可行洞见

ETHDenver 2025 展示了一个创新与协作全面开花的 Web3 行业。对于该领域的专业人士来说,从这次深度剖析中可以得出几个明确的要点和行动项:

  • 趋势多样化: 本次活动清楚地表明,Web3 不再是单一的。AI 集成、DePIN 和 RWA 代币化等新兴领域与 DeFi 和 NFT 同样突出。可行洞见:保持信息灵通和适应性。 领导者应将研发或投资分配到这些新兴垂直领域(例如,探索 AI 如何增强他们的 dApp,或者现实世界资产如何整合到 DeFi 平台中),以抓住下一波增长浪潮。
  • 跨链是未来: 随着主要的非以太坊协议积极参与,生态系统之间的壁垒正在降低。互操作性和多链用户体验获得了巨大关注,从 MetaMask 增加对 Bitcoin/Solana 的支持,到 Polkadot 和基于 Cosmos 的链吸引以太坊开发者。可行洞见:为多链世界设计。 项目应考虑能够利用其他链上流动性和用户的集成或桥梁,专业人士也应寻求跨社区的合作,而不是固步自封。
  • 社区与公共物品至关重要: “再生者之年”的主题不仅仅是口号——它通过公共物品资助讨论、黑客松的二次方投票以及像 SheFi Summit 这样的活动渗透到内容中。道德、可持续发展和社区所有权是以太坊精神的核心价值观。可行洞见:融入再生原则。 无论是通过支持开源倡议、使用公平启动机制,还是将商业模式与社区增长相结合,Web3 公司都可以通过不纯粹是榨取性的方式获得好感和长久发展。
  • 投资者情绪——谨慎而大胆: 尽管有熊市的传言,ETHDenver 表明VC 们正在积极寻找并愿意在 Web3 的下一篇章中下大注。然而,他们也在重新思考如何投资(例如,更具战略性,可能对产品市场契合度有更多监督,并对社区融资持开放态度)。可行洞见:如果你是初创公司,专注于基本面和讲故事。 脱颖而出的项目有明确的用例,并且通常有可行的原型(有些是在一个周末内构建的!)。如果你是投资者,这次会议证实了基础设施(L2、安全、开发者工具)仍然是高优先级,但通过在 AI、游戏或社交领域的论点来差异化,可以将基金定位在前沿。
  • 开发者体验正在改善: ETHDenver 重点介绍了许多新的工具包、SDK 和框架,降低了 Web3 开发的门槛——从账户抽象工具到链上 AI 库。可行洞见:利用这些资源。 团队应尝试最新发布的开发者工具(例如,尝试 zkSync Smart SSO 以实现更轻松的登录,或使用开放代理联盟的资源进行 AI 项目),以加速开发并保持竞争优势。此外,公司应继续参与黑客松和开放的开发者论坛,作为寻找人才和创意的途径;ETHDenver 将黑客转变为创始人的成功就是该模式的证明。
  • 周边活动的力量: 最后,周边活动的爆炸式增长在社交方面给我们上了一堂重要的课——机会常常出现在非正式场合。在欢乐时光的偶然相遇或在小型聚会上的共同兴趣,都可能创造出职业生涯中决定性的联系。可行洞见:对于参加行业会议的人来说,计划要超越官方议程。 确定与你的目标相符的周边活动(无论是会见投资者、学习小众技能,还是招聘人才),并积极参与。正如在丹佛所见,那些完全沉浸在这一周生态系统中的人,带走的不仅是知识,还有新的合作伙伴、员工和朋友。

总之,ETHDenver 2025 是 Web3 行业发展势头的缩影——融合了前沿技术讨论、热情的社区活力、战略性投资举措,以及一种将严肃创新与乐趣相结合的文化。专业人士应将此次活动的趋势和洞见视为 Web3 未来走向的路线图。可行的下一步是采纳这些学习成果——无论是对 AI 的新关注、与 L2 团队建立的联系,还是从黑客松项目中获得的灵感——并将其转化为战略。本着 ETHDenver 最喜欢的座右铭精神,是时候在这些洞见的基础上 #BUIDL,并帮助塑造丹佛众多人共同构想的去中心化未来。

Altera.al 正在招聘:加入数字人类发展先锋(60万至100万美元薪酬)

· 阅读需 3 分钟

我们很高兴分享 Altera.al 的一项变革性机会——这是一家突破性的 AI 初创公司,近期因其在数字人类开发方面的开创性工作而受到广泛关注。Altera.al 最近被《MIT Technology Review》报道,展示了在创建能够表现类人行为、形成社区并在数字空间中进行有意义互动的 AI 代理方面取得的显著进展。

Altera.al: 加入数字人类发展先锋,薪酬 60 万至 100 万美元

关于 Altera.al

Altera.al 由罗伯特·杨创立,他曾是麻省理工学院计算神经科学系的助理教授,为了追求这一愿景而离职。公司已从包括 A16Z 和埃里克·施密特的前沿科技风险投资公司在内的知名投资者那里获得了超过 1100 万美元的融资。最近的 Sid 项目演示展示了 AI 代理在 Minecraft 中自发形成专门角色、建立社交联系,甚至创造文化体系——这标志着实现真正自主、可大规模协作的 AI 代理目标的重要一步。

为什么现在是加入的绝佳时机

Altera.al 在开发具备基本人类特质的机器方面取得了重要技术突破。他们的工作超越了传统 AI 开发——他们正在打造能够:

  • 形成社区和社会层级
  • 发展专门的角色与职责
  • 创造并传播文化模式
  • 在数字空间中与人类进行有意义的互动

招聘需求

在近期突破之后,Altera.al 正在扩大团队规模,并提供 60 万至 100 万美元的优厚薪酬套餐,面向以下人才:

  • AI 代理研究专家
  • 在以下领域具备强大个人贡献能力的工程师:
    • 分布式系统
    • 安全
    • 操作系统

如何申请

准备好加入这段开创性旅程了吗?请直接通过他们的招聘页面申请:https://jobs.ashbyhq.com/altera.al

加入数字人类发展的未来

这是一次在人工智能与人类行为建模交叉领域工作的独特机会,团队已经展示了令人瞩目的成果。如果你热衷于推动 AI 与人机交互的边界,Altera.al 可能是你的下一个冒险。


想获取更多科技和区块链领域的突破性机会,请关注我们的 Twitter 或加入我们的 Discord 社区。

本帖是我们持续致力于支持创新并将人才与科技行业变革性机会相连接的一部分。

0G的去中心化AI操作系统真的能在链上大规模驱动AI吗?

· 阅读需 9 分钟

2024 年 11 月 13 日,0G Labs 宣布完成 4000 万美元 融资,由 Hack VC、Delphi Digital、OKX Ventures、Samsung Next 和 Animoca Brands 主导,使得这支致力于去中心化 AI 操作系统的团队一举成名。他们的模块化方案将去中心化存储、数据可用性验证与去中心化结算相结合,以实现链上 AI 应用。但他们真的能达到 GB/s 级别的吞吐量,为 Web3 的下一波 AI 采用提供动力吗?本深度报告评估了 0G 的架构、激励机制、生态吸引力以及潜在风险,帮助你判断 0G 是否能够兑现其承诺。

背景

AI 领域因 ChatGPTERNIE Bot 等大语言模型而呈现爆炸式增长。然而,AI 不仅仅是聊天机器人和生成式文本,还包括 AlphaGo 的围棋胜利、MidJourney 等图像生成工具。许多开发者追求的终极目标是通用人工智能(AGI),即能够学习、感知、决策并执行复杂任务的 AI “代理”。

然而,AI 与 AI 代理应用极度 数据密集,训练与推理都依赖海量数据集。传统上,这些数据存储在中心化基础设施上。区块链的出现催生了 DeAI(去中心化 AI) 的概念,尝试利用去中心化网络进行数据存储、共享与验证,以克服中心化 AI 的局限。

0G Labs 在 DeAI 基础设施领域脱颖而出,致力于构建一个名为 0G去中心化 AI 操作系统

0G Labs 是什么?

在传统计算中,操作系统(OS) 管理硬件与软件资源——如 Windows、Linux、macOS、iOS 或 Android。操作系统抽象底层硬件,使终端用户和开发者都能更便捷地使用计算机。

类比之下,0G OS 旨在在 Web3 中扮演同样的角色:

  • 管理 去中心化存储、计算与数据可用性;
  • 简化 链上 AI 应用的部署。

为何去中心化? 传统 AI 系统将数据存储在中心化孤岛,导致数据透明度、用户隐私以及数据提供者报酬等问题。0G 通过去中心化存储、加密证明和开放激励模型来降低这些风险。

“0G” 代表 “Zero Gravity(零重力)”。团队设想一个数据交换与计算“无重量”的环境——从 AI 训练到推理再到数据可用性,都能在链上无缝进行。

0G 基金会 于 2024 年 10 月正式成立,使命是让 AI 成为公共产品,做到可访问、可验证、对所有人开放。

0G 操作系统的关键组件

从根本上看,0G 是为链上 AI 应用量身定制的模块化架构,核心由 三大支柱 组成:

  1. 0G Storage – 去中心化存储网络。
  2. 0G DA(Data Availability) – 专用的数据可用性层,确保数据完整性。
  3. 0G Compute Network – 去中心化计算资源管理与 AI 推理结算(未来还将支持训练)。

这三大支柱在 0G Chain(Layer1 网络)之下协同工作,负责共识与结算。

根据 0G 白皮书(《0G:迈向 Data Availability 2.0》),0G Storage 与 0G DA 均构建在 0G Chain 之上。开发者可以启动多个自定义 PoS 共识网络,每个网络都作为 0G DA 与 0G Storage 框架的一部分。模块化设计意味着系统负载增长时,0G 能动态添加验证者集合或专用节点实现横向扩容。

0G Storage

0G Storage 是面向大规模数据的去中心化存储系统,节点通过激励机制存储用户数据。关键在于使用 纠删码(Erasure Coding,EC) 将数据切分为 更小且冗余的“块”,并分布到不同存储节点。即使某些节点失效,仍可通过冗余块恢复数据。

支持的数据类型

0G Storage 同时支持 结构化非结构化 数据。

  1. 结构化数据 采用 键值(Key-Value,KV)层,适用于动态、频繁更新的信息(如数据库、协作文档等)。
  2. 非结构化数据 采用 日志(Log)层,按时间顺序追加数据,类似于为大规模写入优化的文件系统。

通过在日志层之上叠加 KV 层,0G Storage 能满足从存储大模型权重(非结构化)到实时用户数据或指标(结构化)的多样化 AI 需求。

PoRA 共识

PoRA(Proof of Random Access) 用于验证存储节点真实持有其声称的块。工作原理:

  • 存储矿工定期 被挑战 提交特定随机块的加密哈希。
  • 矿工必须基于本地数据生成有效哈希(类似 PoW 的 puzzle 求解)。

为保证公平,系统将挖矿竞争限制在 8 TB 的分段内。大矿工可将硬件拆分为多个 8 TB 分区,小矿工则在单一 8 TB 边界内竞争。

激励设计

0G Storage 将数据划分为 8 GB 的 “定价段”。每段拥有 捐赠池奖励池。用户存储数据时支付 0G Token(ZG) 费用,部分用于节点奖励。

  • 基础奖励:存储节点提交有效 PoRA 证明后,立即获得该段的区块奖励。
  • 持续奖励:捐赠池每年释放约 4% 到奖励池,激励节点长期存储数据。存储同一段的节点越少,单节点可获得的份额越大。

用户仅需 一次性 支付永久存储费用,但必须设置高于系统最低值的捐赠额。捐赠越高,矿工复制该数据的意愿越强。

版税机制:0G Storage 还引入 “版税” 或 “数据共享” 机制。早期存储提供者为每个数据块创建版税记录。若新节点想存储相同块,原节点可共享数据。当新节点后续通过 PoRA 证明存储时,原数据提供者持续获得版税。数据复制越广,早期提供者的累计奖励越高。

与 Filecoin 与 Arweave 的对比

相似点

  • 三者均激励去中心化数据存储。
  • 0G Storage 与 Arweave 均追求 永久存储
  • 数据切块与冗余是通用做法。

关键差异

  • 原生集成:0G Storage 不是独立区块链,而是直接集成在 0G Chain,主要面向 AI 场景。
  • 结构化数据:0G 支持 KV 型结构化数据,满足 AI 工作负载的读写需求。
  • 成本:0G 声称 $10–11/TB 的永久存储费用,低于 Arweave。
  • 性能定位:专为 AI 吞吐量设计,而 Filecoin、Arweave 更偏向通用去中心化存储。

0G DA(数据可用性层)

数据可用性 确保每个网络参与者都能完整验证并获取交易数据。若数据缺失或被隐藏,区块链的信任假设即告失效。

在 0G 系统中,数据被切块并离链存储。系统记录这些块的 Merkle 根,DA 节点必须 抽样 检查块是否匹配 Merkle 根与纠删码承诺。只有通过抽样验证后,数据才被视为 “可用”,并写入共识状态。

DA 节点选取与激励

  • DA 节点需 质押 ZG 才能参与。
  • 节点通过 VRF(可验证随机函数) 随机分配到 仲裁组(quorum)
  • 每个节点仅验证 数据子集。若 2/3 的仲裁组确认数据可用且正确,则签署证明并聚合提交至 0G 共识网络。
  • 奖励通过周期性抽样分配,仅抽中随机块的节点可获得当轮奖励。

与 Celestia 与 EigenLayer 的比较

0G DA 借鉴 Celestia(数据可用性抽样)和 EigenLayer(再质押)理念,但目标是实现 更高吞吐。Celestia 当前约 10 MB/s,区块时间 12 秒。EigenDA 主要服务于 Layer2,实现较为复杂。0G 设想 GB/s 级别的吞吐,以满足 50–100 GB/s 数据摄入的 AI 大规模工作负载。

0G Compute Network

0G Compute Network 是去中心化计算层,分阶段演进:

  • 阶段 1:聚焦 AI 推理结算。网络在去中心化市场中匹配 “AI 模型买家”(用户)与计算提供者(卖家)。提供者在智能合约中注册服务与价格,用户发起推理请求并支付 ZG,合约完成结算。
  • 后续阶段:将支持链上训练、批处理等更复杂计算。

0G 生态与治理

0G 基金会通过 治理代币 ZG 实现社区共识。持币者可投票决定协议升级、费用模型以及激励参数。生态合作伙伴包括多家链上 AI 项目、去中心化数据市场以及传统 AI 企业。

潜在风险与挑战

  1. 技术实现难度:GB/s 级别的跨链数据抽样、纠删码恢复以及计算结算需要极高的网络同步效率,当前公链网络仍在探索阶段。
  2. 激励经济模型:永久存储的低成本可能导致质押收益不足,进而影响节点参与度。
  3. 监管不确定性:AI 数据涉及隐私与版权,去中心化存储可能面临合规审查。
  4. 竞争格局:其他 DeAI 项目(如 Fetch.ai、SingularityNET)也在同步推进,市场份额尚未明朗。
  5. 用户采纳:AI 开发者是否愿意将模型权重与推理数据迁移至链上仍是未知数。

结论

0G Labs 已成功完成大额融资,并展示了完整的模块化蓝图:从去中心化存储、数据可用性到计算结算,形成了链上 AI 生态的闭环。若技术实现能够达到宣称的 GB/s 吞吐,0G 将在 Web3 上提供前所未有的 AI 扩展能力。然而,当前仍处于早期阶段,关键在于:

  • 验证 PoRADA 抽样 在真实网络规模下的可靠性;
  • 观察 激励池 是否能够持续吸引节点提供长期存储;
  • 监测 市场需求,即链上 AI 推理与训练的实际使用量。

综合来看,0G 的愿景具有创新性且符合去中心化 AI 的长期趋势,但实现路径仍充满技术与经济的不确定性。投资者与开发者应在关注其进展的同时,保持对潜在风险的警惕。