跳到主要内容

27 篇博文 含有标签“AI”

人工智能和机器学习应用

查看所有标签

从点击到对话:生成式 AI 如何构建 DeFi 的未来

· 阅读需 5 分钟
Dora Noda
Software Engineer

传统的去中心化金融(DeFi)功能强大,但说实话——对普通用户来说,它可能是一场噩梦。要在不同协议之间切换、管理 gas 费用、执行多步骤交易,既令人困惑又耗时。如果你只需要告诉钱包你想要什么,它就能自动完成其余操作,那会怎样?

这正是全新 意图驱动范式 的承诺,而生成式 AI 则是实现它的引擎。这一转变有望将 DeFi 从复杂交易的丛林,转变为简单、目标导向的体验世界。


核心理念:从 “怎么做” 到 “想要什么”

在旧的 DeFi 模式中,你是驾驶员。必须手动选择交易所、寻找最佳兑换路径、批准多个交易,并祈祷自己没有出错。

意图驱动 DeFi 颠覆了这一流程。 与其执行每一步,你只需声明最终目标——你的 意图

  • 而不是: 手动在 Uniswap 上兑换代币、跨链桥接、再在流动性池中质押……
  • 你说: “用 5,000 美元最大化收益,且风险低。”

随后,一个通常由 AI 代理(称为 “求解器”)驱动的自动化系统,会在多个协议之间寻找并执行最优路径,将你的目标变为现实。这就像是从一步步跟随食谱,变成直接告诉厨师你想吃什么。

这种方法带来两大显著好处:

  1. “一键”用户体验: gas 费用、跨链、 多步兑换的复杂性被隐藏。得益于账户抽象等技术,你只需一次签名即可批准复杂目标。
  2. 更佳、更高效的执行: 专业求解器(类似专业做市机器人)竞争为你提供最佳报价,往往能比手动用户获得更好价格和更低滑点。

生成式 AI 的角色:运营的大脑 🧠

生成式 AI,尤其是大语言模型(LLM),是实现这一无缝体验的关键。其工作方式如下:

  • 自然语言接口: 你可以用普通英文(或中文)与 DeFi 交互。像 HeyAnonGriffain 这样的 AI “副驾驶” 让你只需与 AI 对话即可管理投资组合、执行交易,体验堪比使用 ChatGPT 的简便。
  • AI 规划与策略: 当你给出 “寻找最佳收益” 之类的高层目标时,AI 代理会将其拆解为具体执行计划。它们可以分析市场数据、预测趋势,并全天候自动再平衡资产。
  • 收益优化:Mozaic 这样的 AI 驱动协议使用名为 Archimedes 的代理,持续扫描不同链上的风险调整后最高收益,并自动转移资金以捕获最高 APY。
  • 自动化风险管理: AI 可充当警惕的守护者。如果检测到波动性激增可能危及仓位,它会依据你最初意图中设定的风险参数,自动追加抵押或转移至更安全的池子。

这种 DeFi 与 AI 的强强组合被称为 “DeFAI”“AiFi”,它将吸引大量此前因加密复杂性而望而却步的用户。


数十亿美元的机遇 📈

市场潜力巨大。DeFi 市场预计将从 2024 年约 205 亿美元 增长至 2030 年的 2310 亿美元。通过提升可访问性,AI 有望为这一增长注入强劲动力。

我们已经看到投资与创新的淘金热:

  • AI 助手: HeyAnonaixbt 等项目市值已快速突破数亿美元。
  • 意图中心协议: CoW ProtocolUniswapX 通过求解器竞争,保护用户免受 MEV 干扰并提供更佳价格。
  • 新链生态: EssentialOptopia 等全新 Layer‑2 网络从底层即构建为 “意图中心”,将 AI 代理视作一等公民。

前路挑战

这一未来尚未完全实现。DeFAI 领域面临多重阻碍:

  • 技术瓶颈: 区块链本身并非为运行复杂 AI 模型而设计。大多数 AI 逻辑必须在链下执行,这会引入额外的复杂性和信任问题。
  • AI 幻觉与错误: AI 误解用户意图或“幻觉”出错误的投资策略,可能导致严重财务损失。
  • 安全与攻击面: AI 与智能合约的结合产生新型攻击向量。恶意行为者可能诱导自主代理执行不良交易,在数分钟内抽干资金。
  • 中心化风险: 意图驱动系统需要庞大且去中心化的求解器网络。如果仅有少数大玩家主导,可能重现传统金融的中心化格局。

前进之路:自主金融

生成式 AI 与 DeFi 的融合正推动我们迈向 自主金融 的未来——在去中心化框架下,智能代理管理资产、执行策略并优化回报。

实现这一目标需要攻克重大技术与安全难题。但随着数十个项目构建 AI 原生预言机、意图中心链等基础设施,发展势头不可阻挡。

对用户而言,这意味着未来只需一次对话即可参与去中心化金融——你专注于财务目标,AI 合作伙伴负责其余一切。新一代金融正由今天开始构建,它将更加智能、简洁且高度自主。

通过 zkML 和密码学证明实现可验证的链上 AI

· 阅读需 41 分钟
Dora Noda
Software Engineer

引言:区块链上对可验证 AI 的需求

随着 AI 系统的影响力日益增强,确保其输出的可信度变得至关重要。传统方法依赖于机构担保(本质上是_“相信我们就行”),但这并不能提供任何密码学上的保证。在像区块链这样的去中心化环境中,这个问题尤为突出,因为智能合约或用户必须信任一个由 AI 推导出的结果,却无法在链上重新运行一个计算量巨大的模型。零知识机器学习 (zkML) 通过允许对机器学习 (ML) 计算进行_密码学验证_来解决这个问题。本质上,zkML 使证明者能够生成一个简洁的证明,证明“输出 $Y$ 来自于在输入 $X$ 上运行模型 $M$”——并且无需透露 $X$ 或 $M$ 的内部细节。这些零知识证明 (ZKPs) 可以被任何人(或任何合约)高效地验证,从而将 AI 的信任基础从“策略”转变为“证明”_。

AI 的链上可验证性意味着区块链可以通过验证一个正确执行的证明来整合高级计算(如神经网络推理),而无需亲自执行这些计算。这具有广泛的影响:智能合约可以基于 AI 预测做出决策,去中心化自治代理可以证明它们遵循了其算法,跨链或链下计算服务可以提供可验证的输出,而不是无法验证的预言机。最终,zkML 为实现无需信任且保护隐私的 AI 提供了一条路径——例如,证明一个 AI 模型的决策是正确且经过授权的,_同时_不暴露私有数据或专有模型权重。这对于从安全医疗分析到区块链游戏和 DeFi 预言机等各种应用都至关重要。

zkML 的工作原理:将 ML 推理压缩为简洁证明

从宏观上看,zkML 将密码学证明系统与 ML 推理相结合,使得一个复杂的模型评估可以被“压缩”成一个微小的证明。在内部,ML 模型(例如神经网络)被表示为一个由许多算术运算(矩阵乘法、激活函数等)组成的电路或程序。证明者在链下执行完整的计算,然后使用零知识证明协议来证明每一步都正确完成,而不是揭示所有中间值。验证者仅凭证明和一些公开数据(如最终输出和模型标识符),就能在密码学上确信其正确性,而无需重新执行模型。

为了实现这一点,zkML 框架通常将模型计算转换为一种适合 ZKP 的格式:

  • 电路编译: 在基于 SNARK 的方法中,模型的计算图被编译成一个_算术电路_或一组多项式约束。神经网络的每一层(卷积、矩阵乘法、非线性激活)都成为一个子电路,其约束确保了在给定输入的情况下输出是正确的。由于神经网络涉及非线性操作(如 ReLU、Sigmoid 等),这些操作天然不适合多项式,因此采用查找表等技术来高效处理它们。例如,一个 ReLU(输出 = max(0, 输入))可以通过一个自定义约束或查找来强制执行,该约束或查找验证当输入≥0 时输出等于输入,否则为零。最终结果是一组密码学约束,证明者必须满足这些约束,从而间接证明模型运行正确。
  • 执行轨迹与虚拟机: 另一种方法是将模型推理视为一个程序轨迹,正如在 zkVM 方法中所做的那样。例如,JOLT zkVM 针对 RISC-V 指令集;可以将 ML 模型(或计算它的代码)编译成 RISC-V,然后证明每个 CPU 指令都正确执行。JOLT 引入了一种_“查找奇点”_技术,用快速的表查找替代了昂贵的算术约束,以处理每个有效的 CPU 操作。每个操作(加法、乘法、位运算等)都通过在一个巨大的预计算有效结果表中进行查找来检查,并使用专门的论证(Lasso/SHOUT)来保持其高效性。这大大减少了证明者的工作量:即使是复杂的 64 位操作,在证明中也变成了一次表查找,而不是许多算术约束。
  • 交互式协议 (GKR Sum-Check): 第三种方法使用像 GKR (Goldwasser–Kalai–Rotblum) 这样的交互式证明来验证分层计算。在这里,模型的计算被看作一个分层算术电路(每个神经网络层是电路图的一层)。证明者正常运行模型,然后参与一个 sum-check 协议_来证明每一层的输出相对于其输入是正确的。在 Lagrange 的方法(DeepProve,下文详述)中,证明者和验证者执行一个交互式多项式协议(通过 Fiat-Shamir 变为非交互式),该协议检查每一层计算的一致性,而无需重新进行计算。这种 sum-check 方法避免了生成一个庞大的静态电路;相反,它以逐步的方式验证_计算的一致性,且密码学操作最少(主要是哈希或多项式求值)。

无论采用何种方法,最终都会得到一个简洁的证明(通常为几 KB 到几十 KB),证明整个推理过程的正确性。该证明是_零知识的_,意味着任何秘密输入(私有数据或模型参数)都可以保持隐藏——它们影响证明的生成,但不会向验证者透露。只有预期的公共输出或断言才会被揭示。这使得诸如_“证明模型 $M$ 应用于患者数据 $X$ 得到诊断 $Y$,而不泄露 $X$ 或模型的权重”_这样的场景成为可能。

实现链上验证: 一旦生成了证明,就可以将其发布到区块链上。智能合约可以包含验证逻辑来检查该证明,通常使用预编译的密码学原语。例如,以太坊有用于许多 zk-SNARK 验证器中使用的 BLS12-381 配对操作的预编译合约,这使得 SNARK 证明的链上验证非常高效。STARKs(基于哈希的证明)虽然更大,但通过仔细优化或可能带有一些信任假设,仍然可以在链上验证(例如,StarkWare 的 L2 通过一个链上验证器合约在以太坊上验证 STARK 证明,尽管 Gas 成本比 SNARKs 高)。关键在于,区块链不需要执行 ML 模型——它只需运行一个验证过程,这比原始计算要_便宜得多_。总而言之,zkML 将昂贵的 AI 推理压缩成一个微小的证明,区块链(或任何验证者)可以在毫秒到秒级的时间内完成验证。

Lagrange DeepProve:一个 zkML 突破的架构与性能

由 Lagrange Labs 推出的 DeepProve 是一个专注于速度和可扩展性的尖端 zkML 推理框架。DeepProve 于 2025 年发布,引入了一种新的证明系统,其速度远超之前的解决方案(如 Ezkl)。其设计核心是_带有 sum-check 的 GKR 交互式证明协议_以及针对神经网络电路的专门优化。以下是 DeepProve 的工作原理及其性能表现:

  • 一次性预处理: 开发者从一个训练好的神经网络开始(目前支持的类型包括多层感知器和流行的 CNN 架构)。模型被导出为 ONNX 格式,这是一种标准的图表示。然后,DeepProve 的工具会解析 ONNX 模型并对其进行_量化_(将权重转换为定点/整数形式),以便进行高效的域运算。在此阶段,它还会为密码学协议生成证明和验证密钥。这个设置过程对每个模型只需进行一次,无需在每次推理时重复。DeepProve 强调易于集成:“将你的模型导出到 ONNX → 一次性设置 → 生成证明 → 随处验证”

  • 证明(推理 + 证明生成): 设置完成后,证明者(可以由用户、服务或 Lagrange 的去中心化证明者网络运行)接收一个新的输入 $X$ 并在其上运行模型 $M$,得到输出 $Y$。在此执行过程中,DeepProve 会记录每一层计算的执行轨迹。与 SNARK 方法预先将每个乘法转换为静态电路不同,DeepProve 使用线性时间的 GKR 协议来动态验证每一层。对于每个网络层,证明者提交该层的输入和输出(例如,通过密码学哈希或多项式承诺),然后参与一个 sum-check 论证,以证明输出确实是根据该层的功能由输入产生的。sum-check 协议通过迭代方式让验证者相信一个编码了该层计算的多项式求值之和的正确性,而无需透露实际值。非线性操作(如 ReLU、softmax)在 DeepProve 中通过_查找论证_得到高效处理——如果一个激活函数的输出被计算出来,DeepProve 可以证明每个输出都对应于该函数预计算表中的一个有效输入-输出对。逐层生成证明,然后聚合成一个覆盖整个模型前向传播的简洁证明。密码学的繁重工作被最小化——DeepProve 的证明者主要执行正常的数值计算(实际的推理)外加一些轻量级的密码学承诺,而不是解决一个巨大的约束系统。

  • 验证: 验证者使用最终的简洁证明以及一些公开值——通常是模型的承诺标识符(对 $M$ 权重的密码学承诺)、输入 $X$(如果不是私密的)和声称的输出 $Y$——来检查正确性。在 DeepProve 的系统中,验证涉及验证 sum-check 协议的记录以及最终的多项式或哈希承诺。这比验证一个经典的 SNARK(可能只需几次配对操作)要复杂,但它比_重新运行模型要便宜得多_。在 Lagrange 的基准测试中,验证一个中等规模 CNN 的 DeepProve 证明在软件中大约需要 0.5 秒。这意味着用约 0.5 秒就能确认一个拥有数十万参数的卷积网络运行正确——比在 GPU 上简单地重新计算该 CNN 进行验证快 500 倍以上。(事实上,DeepProve 测得 CNN 的_验证速度快了 521 倍_,MLP 的_验证速度快了 671 倍_,相较于重新执行。)证明的大小足够小,可以在链上传输(几十 KB),并且验证可以在智能合约中执行,尽管 0.5 秒的计算可能需要仔细的 Gas 优化或在 Layer-2 上执行。

架构与工具: DeepProve 使用 Rust 实现,并为开发者提供了一个工具包(zkml 库)。它原生支持 ONNX 模型图,使其与 PyTorch 或 TensorFlow 导出的模型兼容。目前的证明过程针对参数量高达数百万的模型(测试包括一个 400 万参数的密集网络)。DeepProve 结合了多种密码学组件:一个多线性多项式承诺(用于承诺层输出)、用于验证计算的 sum-check 协议,以及用于非线性操作的查找论证。值得注意的是,Lagrange 的开源仓库承认其工作建立在先前工作(Scroll 的 Ceno 项目中的 sum-check 和 GKR 实现)之上,这表明 zkML 与零知识 rollup 研究存在交集。

为了实现实时可扩展性,Lagrange 将 DeepProve 与其证明者网络 (Prover Network) 相结合——这是一个由专门的 ZK 证明者组成的去中心化网络。繁重的证明生成可以外包给这个网络:当一个应用需要证明一个推理时,它将任务发送到 Lagrange 的网络,网络中的许多运营商(在 EigenLayer 上质押以确保安全)计算证明并返回结果。该网络通过经济激励来保证可靠的证明生成(恶意或失败的任务会导致运营商被罚没)。通过将工作分散给多个证明者(并可能利用 GPU 或 ASIC),Lagrange 证明者网络为最终用户隐藏了复杂性和成本。其结果是一个快速、可扩展且去中心化的 zkML 服务:“快速且经济地实现可验证的 AI 推理”

性能里程碑: DeepProve 的声明得到了与先前最先进技术 Ezkl 的基准测试支持。对于一个约有 26.4 万参数的 CNN(CIFAR-10 规模的模型),DeepProve 的证明时间约为 1.24 秒,而 Ezkl 则需要约 196 秒——快了约 158 倍。对于一个拥有 400 万参数的更大型密集网络,DeepProve 在约 2.3 秒内证明了一次推理,而 Ezkl 则需要约 126.8 秒(快了约 54 倍)。验证时间也大幅下降:DeepProve 在约 0.6 秒内验证了 26.4 万参数 CNN 的证明,而在该测试中,验证 Ezkl 的证明(基于 Halo2)在 CPU 上耗时超过 5 分钟。这些速度提升源于 DeepProve 的近线性复杂度:其证明者的扩展性大致为 O(n),其中 n 是操作数,而基于电路的 SNARK 证明者通常具有超线性的开销(FFT 和多项式承诺的扩展性)。事实上,DeepProve 的证明者吞吐量可以与普通推理运行时间在同一数量级内——最新的 GKR 系统对于大型矩阵乘法,其速度可以比原始执行慢不到 10 倍,这在 ZK 领域是一项了不起的成就。这使得_实时或按需证明_变得更加可行,为在交互式应用中实现可验证 AI 铺平了道路。

用例: Lagrange 已经与 Web3 和 AI 项目合作,应用 zkML。用例包括:可验证的 NFT 特征(证明一个由 AI 生成的游戏角色或收藏品的进化是由授权模型计算的)、AI 内容的来源证明(证明一张图片或一段文本是由特定模型生成的,以打击深度伪造)、DeFi 风险模型(证明一个评估金融风险的模型输出,而不泄露专有数据),以及_医疗或金融领域的私密 AI 推理_(医院可以获得带有证明的 AI 预测,确保正确性而不暴露患者数据)。通过使 AI 输出可验证且保护隐私,DeepProve 为去中心化系统中_“你可以信任的 AI”打开了大门——从一个“盲目信任黑盒模型”的时代,迈向一个“客观保证”_的时代。

基于 SNARK 的 zkML:Ezkl 与 Halo2 方法

传统的 zkML 方法使用 zk-SNARKs(简洁非交互式知识论证)来证明神经网络推理。Ezkl(由 ZKonduit/Modulus Labs 开发)是这种方法的领先范例。它建立在 Halo2 证明系统之上(一种带有 BLS12-381 上的多项式承诺的 PLONK 风格 SNARK)。Ezkl 提供了一个工具链,开发者可以拿一个 PyTorch 或 TensorFlow 模型,将其导出为 ONNX 格式,然后让 Ezkl 自动将其编译成一个自定义的算术电路。

工作原理: 神经网络的每一层都被转换为约束:

  • 线性层(密集层或卷积层)变成了一系列乘法-加法约束,强制执行输入、权重和输出之间的点积。
  • 非线性层(如 ReLU、sigmoid 等)通过查找或分段约束来处理,因为这些函数不是多项式。例如,一个 ReLU 可以通过一个布尔选择器 $b$ 和约束来实现,确保 $y = x \cdot b$、$0 \le b \le 1$ 且当 $x>0$ 时 $b=1$(这是一种实现方式),或者更高效地通过一个查找表,将 $x$ 映射到 $\max(0,x)$,适用于一定范围的 $x$ 值。Halo2 的查找论证允许映射 16 位(或更小)的值块,因此大的域(如所有 32 位值)通常被_“分块”_成几个较小的查找。这种分块增加了约束的数量。
  • 大整数运算或除法(如果有的话)同样被分解成小块。最终结果是一大组针对特定模型架构定制的 R1CS/PLONK 约束

然后,Ezkl 使用 Halo2 生成一个证明,证明在给定秘密输入(模型权重、私有输入)和公共输出的情况下,这些约束成立。工具与集成: SNARK 方法的一个优势是它利用了众所周知的原语。Halo2 已经在以太坊的 rollup 中使用(例如 Zcash、zkEVMs),因此它经过了实战检验,并且有现成的链上验证器。Ezkl 的证明使用 BLS12-381 曲线,以太坊可以通过预编译合约进行验证,这使得在智能合约中验证 Ezkl 证明变得非常直接。该团队还提供了用户友好的 API;例如,数据科学家可以在 Python 中使用他们的模型,并使用 Ezkl 的命令行工具来生成证明,而无需深入了解电路知识。

优势: Ezkl 的方法得益于 SNARKs 的通用性和生态系统。它支持相当复杂的模型,并且已经有了_“实际的集成案例(从 DeFi 风险模型到游戏 AI)”_,证明了现实世界中的 ML 任务。因为它在模型的计算图层面操作,所以可以应用特定于 ML 的优化:例如,修剪不重要的权重或量化参数以减小电路大小。这也意味着模型机密性是天然的——权重可以被视为私有见证数据,因此验证者只看到_某个_有效的模型产生了该输出,或者最多只是一个对模型的承诺。SNARK 证明的验证速度极快(通常在链上为几毫秒或更短),并且证明大小很小(几 KB),这对于区块链使用非常理想。

劣势: 性能是其阿喀琉斯之踵。基于电路的证明带来了巨大的开销,尤其是随着模型规模的增长。据记载,历史上 SNARK 电路对证明者来说可能比仅仅运行模型本身要多出_一百万倍的工作量_。Halo2 和 Ezkl 对此进行了优化,但像大型矩阵乘法这样的操作仍然会产生_大量_的约束。如果一个模型有数百万个参数,证明者就必须处理相应数百万个约束,并在此过程中执行繁重的 FFT 和多重指数运算。这导致了很长的证明时间(对于非平凡的模型通常需要几分钟或几小时)和高内存使用。例如,用 Ezkl 证明一个相对较小的 CNN(例如几十万个参数)在单台机器上可能需要几十分钟。DeepProve 背后的团队指出,对于某些模型证明,Ezkl 需要数小时,而 DeepProve 可以在几分钟内完成。大型模型甚至可能无法装入内存,或者需要分割成多个证明(然后需要递归聚合)。虽然 Halo2 经过了_“适度优化”,但任何需要“分块”查找或处理宽位操作的需求都会转化为额外的开销。总而言之,可扩展性有限——Ezkl 对于中小型模型效果很好(并且在基准测试中确实_优于一些早期的替代方案,如朴素的基于 Stark 的 VM),但随着模型规模超过某个点,它就会遇到困难。

尽管存在这些挑战,Ezkl 和类似的基于 SNARK 的 zkML 库是重要的垫脚石。它们证明了_在链上实现可验证的 ML 推理是可能的_,并且已经有了活跃的使用。值得注意的是,像 Modulus Labs 这样的项目展示了使用 SNARKs(经过大量优化)在链上验证一个 1800 万参数的模型。成本虽然不菲,但这显示了发展轨迹。此外,Mina 协议拥有自己的 zkML 工具包,该工具包使用 SNARKs 来允许 Mina 上的智能合约(本身就是基于 Snark 的)验证 ML 模型的执行。这表明基于 SNARK 的 zkML 正在获得越来越多的多平台支持。

基于 STARK 的方法:透明且可编程的 ZK for ML

zk-STARKs(可扩展透明知识论证)为 zkML 提供了另一条途径。STARKs 使用基于哈希的密码学(如用于多项式承诺的 FRI),并避免了任何可信设置。它们通常通过模拟一个 CPU 或 VM 并证明其执行轨迹是正确的来运作。在 ML 的背景下,可以为神经网络构建一个自定义的 STARK,_或者_使用一个通用的 STARK VM 来运行模型代码。

通用 STARK VMs (RISC Zero, Cairo): 一个直接的方法是编写推理代码并在 STARK VM 中运行它。例如,Risc0 提供了一个 RISC-V 环境,任何代码(例如,用 C++ 或 Rust 实现的神经网络)都可以在其中执行并通过 STARK 进行证明。同样,StarkWare 的 Cairo 语言可以表达任意计算(如 LSTM 或 CNN 推理),然后由 StarkNet STARK 证明者进行证明。其优势在于灵活性——你不需要为每个模型设计自定义电路。然而,早期的基准测试表明,对于 ML 任务,朴素的 STARK VM 比优化的 SNARK 电路要慢。在一次测试中,一个基于 Halo2 的证明 (Ezkl) 比在 Cairo 上的基于 STARK 的方法快约 3 倍,甚至比在 2024 年某个基准测试中的 RISC-V STARK VM 快 66 倍。这种差距是由于在 STARK 中模拟每个低级指令的开销以及 STARK 证明中较大的常数(哈希虽然快,但需要大量使用;STARK 证明的大小也更大等)。然而,STARK VM 正在不断改进,并具有透明设置(无需可信设置)和后量子安全的优点。随着对 STARK 友好的硬件和协议的发展,证明速度将会提高。

DeepProve 的方法 vs STARK: 有趣的是,DeepProve 使用 GKR 和 sum-check 产生的证明在精神上更像一个 STARK——它是一个交互式的、基于哈希的证明,不需要结构化的参考字符串。其权衡是它的证明更大,验证比 SNARK 更重。然而,DeepProve 表明,精心的协议设计(专门针对 ML 的分层结构)可以在证明时间上远超通用的 STARK VM 和 SNARK 电路。我们可以将 DeepProve 视为一个_定制的 STARK 风格_的 zkML 证明者(尽管他们为了简洁性使用了 zkSNARK 这个术语,但它没有传统 SNARK 那样的小常数大小验证,因为 0.5 秒的验证时间比典型的 SNARK 验证要长)。传统的 STARK 证明(如 StarkNet 的)通常需要数万次域运算来验证,而 SNARK 的验证可能只需几十次。因此,一个权衡是显而易见的:SNARKs 产生更小的证明和更快的验证器,而 STARKs(或 GKR)则以证明大小和验证速度为代价,提供了更容易的扩展性和无需可信设置的便利。

新兴的改进: JOLT zkVM(前面在 JOLTx 下讨论过)实际上输出的是 SNARKs(使用 PLONKish 承诺),但它体现了可以应用于 STARK 环境的思想(Lasso 查找理论上可以与 FRI 承诺一起使用)。StarkWare 和其他公司正在研究加速常见操作证明的方法(例如在 Cairo 中使用自定义门或提示来处理大整数运算等)。还有 Privacy & Scaling Explorations (PSE) 的 Circomlib-ML,它为 CNN 层等提供了 Circom 模板——这是面向 SNARK 的,但概念上类似的模板也可以为 STARK 语言制作。

在实践中,利用 STARKs 的非以太坊生态系统包括 StarkNet(如果有人编写验证器,就可以在链上验证 ML,尽管成本很高)和 Risc0 的 Bonsai 服务(这是一个链下证明服务,它发出 STARK 证明,可以在各种链上进行验证)。截至 2025 年,区块链上的大多数 zkML 演示都倾向于使用 SNARKs(因为验证器效率高),但 STARK 方法因其透明性和在高安全性或抗量子环境中的潜力而仍然具有吸引力。例如,一个去中心化计算网络可能会使用 STARKs 让任何人在没有可信设置的情况下验证工作,这对于长期性很有用。此外,一些专门的 ML 任务可能会利用对 STARK 友好的结构:例如,大量使用 XOR/位运算的计算在 STARKs 中可能比在 SNARK 域运算中更快(因为这些在布尔代数和哈希中成本低廉)。

SNARK vs STARK for ML 总结:

  • 性能: SNARKs(如 Halo2)每个门的证明开销巨大,但得益于强大的优化和用于验证的小常数;STARKs(通用型)的常数开销较大,但扩展性更线性,并避免了像配对这样昂贵的密码学操作。DeepProve 表明,定制方法(sum-check)可以产生近线性的证明时间(快),但证明类似于 STARK。JOLT 表明,即使是通用 VM,通过大量使用查找也可以变得更快。根据经验,对于高达数百万次操作的模型:一个优化良好的 SNARK (Ezkl) 可以处理,但可能需要几十分钟,而 DeepProve (GKR) 可以在几秒钟内完成。2024 年的 STARK VM 可能介于两者之间,或者比 SNARKs 差,除非经过专门优化(Risc0 在测试中较慢,Cairo 在没有自定义提示的情况下也较慢)。
  • 验证: SNARK 证明验证最快(毫秒级,链上数据最少,约几百字节到几 KB)。STARK 证明更大(几十 KB),并且由于需要多次哈希步骤,验证时间更长(几十毫秒到几秒)。在区块链术语中,一个 SNARK 验证可能花费约 20 万 Gas,而一个 STARK 验证可能花费数百万 Gas——通常对于 L1 来说太高,但在 L2 或使用简洁验证方案时可以接受。
  • 设置与安全: 像 Groth16 这样的 SNARKs 每个电路都需要一个可信设置(对于任意模型不友好),但通用 SNARKs(PLONK、Halo2)有一个一次性的设置,可以重用于任何达到特定大小的电路。STARKs 不需要设置,只使用哈希假设(加上经典的多项式复杂性假设),并且是后量子安全的。这使得 STARKs 对于长期性很有吸引力——即使量子计算机出现,证明仍然安全,而当前的 SNARKs(基于 BLS12-381)会被量子攻击破解。

我们将在稍后的比较表中整合这些差异。

FHE for ML (FHE-o-ML):私密计算 vs. 可验证计算

全同态加密 (FHE) 是一种密码学技术,允许直接在加密数据上进行计算。在 ML 的背景下,FHE 可以实现一种_隐私保护推理_:例如,客户端可以向模型主机发送加密输入,主机在不解密的情况下对密文运行神经网络,并返回一个加密结果,客户端可以解密该结果。这确保了数据机密性——模型所有者对输入一无所知(并且如果客户端只得到输出,可能也只知道输出,而不知道模型的内部结构)。然而,FHE 本身并不产生像 ZKP 那样的正确性证明。客户端必须相信模型所有者确实诚实地执行了计算(密文可能被篡改)。通常,如果客户端拥有模型或期望某种输出分布,公然的作弊可以被检测到,但细微的错误或使用错误版本的模型,仅从加密输出中是看不出来的。

性能上的权衡: FHE 的计算量是出了名的繁重。在 FHE 下运行深度学习推理会带来数量级的减速。早期的实验(例如,2016 年的 CryptoNets)在加密数据上评估一个微小的 CNN 需要几十秒。到 2024 年,像 CKKS(用于近似算术) 和更好的库(Microsoft SEAL、Zama 的 Concrete)等改进已经减少了这种开销,但它仍然很大。例如,一位用户报告说,使用 Zama 的 Concrete-ML 运行一个 CIFAR-10 分类器,在他们的硬件上每次推理需要 25-30 分钟。经过优化后,Zama 的团队在一台 192 核的服务器上将该推理时间缩短到约 40 秒。即使是 40 秒,与明文推理(可能只需 0.01 秒)相比也极其缓慢,显示出约 $10^3$–$10^4\times$ 的开销。更大的模型或更高的精度会进一步增加成本。此外,FHE 操作消耗大量内存,并需要偶尔进行_自举_(一种降噪步骤),这在计算上非常昂贵。总而言之,可扩展性是一个主要问题——最先进的 FHE 可能可以处理一个小型 CNN 或简单的逻辑回归,但扩展到大型 CNN 或 Transformer 超出了当前实际应用的限制。

隐私优势: FHE 的巨大吸引力在于_数据隐私_。输入在整个过程中可以保持完全加密。这意味着一个不受信任的服务器可以在不了解任何信息的情况下对客户端的私有数据进行计算。反过来,如果模型是敏感的(专有的),可以设想加密模型参数,让客户端在自己这边进行 FHE 推理——但这不太常见,因为如果客户端必须进行繁重的 FHE 计算,就违背了将其外包给强大服务器的初衷。通常,模型是公开的或由服务器以明文形式持有,而数据由客户端的密钥加密。在这种情况下,模型隐私默认不被提供(服务器知道模型;客户端知道输出但不知道权重)。还有更奇特的设置(如安全两方计算或多密钥 FHE),其中模型和数据都可以相互保密,但这些会带来更大的复杂性。相比之下,通过 ZKP 实现的 zkML 可以同时确保_模型隐私_和_数据隐私_——证明者可以将模型和数据都作为秘密见证,只向验证者揭示需要的部分。

无需(也不可能)链上验证: 使用 FHE,结果以加密形式返回给客户端。客户端然后解密它以获得实际的预测。如果我们想在链上使用该结果,客户端(或持有解密密钥的任何人)将不得不发布明文结果并说服其他人它是正确的。但在那一点上,信任又回到了循环中——除非与 ZKP 结合。原则上,可以结合 FHE 和 ZKP:例如,在计算期间使用 FHE 保持数据私密,然后生成一个 ZK 证明,证明明文结果对应于正确的计算。然而,将它们结合起来意味着你要同时承担 FHE ZKP 的性能损失——用今天的技术来看,这极其不切实际。因此,在实践中,FHE-of-ML 和 zkML 服务于不同的用例:

  • FHE-of-ML: 当目标是_两方(客户端和服务器)之间的机密性_时是理想选择。例如,云服务可以托管一个 ML 模型,用户可以用他们的敏感数据查询它,而无需向云透露数据(如果模型是敏感的,也许可以通过对 FHE 友好的编码来部署它)。这对于隐私保护的 ML 服务(医疗预测等)非常有用。用户仍然必须相信服务会忠实地运行模型(因为没有证明),但至少任何_数据泄露_都被阻止了。一些项目,如 Zama,甚至在探索一个_“支持 FHE 的 EVM (fhEVM)”_,其中智能合约可以在加密输入上操作,但在链上验证这些计算将需要合约以某种方式强制执行正确的计算——这是一个开放的挑战,可能需要 ZK 证明或专门的安全硬件。
  • zkML (ZKPs): 当目标是_可验证性和公共可审计性_时是理想选择。如果你想让任何人(或任何合约)确信_“模型 $M$ 在 $X$ 上被正确评估并产生了 $Y$”_,ZKP 就是解决方案。它们还提供隐私作为附加好处(如果需要,你可以通过将 $X$、$Y$ 或 $M$ 作为证明的私有输入来隐藏它们),但它们的主要特点是正确执行的证明。

互补关系: 值得注意的是,ZKP 保护的是_验证者_(他们对秘密一无所知,只知道计算是正确完成的),而 FHE 保护的是_证明者_的数据免受计算方的影响。在某些情况下,这两者可以结合——例如,一个不受信任的节点网络可以使用 FHE 对用户的私有数据进行计算,然后向用户(或区块链)提供 ZK 证明,证明计算是按照协议进行的。这将同时涵盖隐私和正确性,但以今天的算法来看,性能成本是巨大的。在短期内更可行的是混合方案,如_可信执行环境 (TEE) + ZKP_ 或_函数加密 + ZKP_——这些超出了我们的范围,但它们旨在提供类似的功能(TEE 在计算期间保持数据/模型秘密,然后 ZKP 可以证明 TEE 做了正确的事情)。

总而言之,FHE-of-ML 优先考虑输入/输出的机密性,而 zkML 优先考虑可验证的正确性(可能带有隐私)。下表 1 对比了关键属性:

方法证明者性能 (推理与证明)证明大小与验证隐私特性是否需要可信设置?是否后量子安全?
zk-SNARK (Halo2, Groth16, PLONK 等)证明者开销巨大(未经优化时可达正常运行时间的 10^6 倍;实践中为 10^3–10^5 倍)。针对特定模型/电路进行优化;中等模型证明时间为分钟级,大型模型为小时级。最近的 zkML SNARKs(如 DeepProve with GKR)极大地改善了这一点(近线性开销,例如百万参数模型从分钟级缩短到秒级)。证明非常小(通常 < 100 KB,有时约几 KB)。验证速度快:几次配对或多项式求值(链上通常 < 50 毫秒)。DeepProve 基于 GKR 的证明更大(几十到几百 KB),验证时间约 0.5 秒(仍远快于重新运行模型)。数据机密性: 是——输入可以在证明中保持私密(不被泄露)。模型隐私: 是——证明者可以承诺模型权重而不泄露它们。输出隐藏: 可选——证明可以是一个关于某个陈述的证明,而不泄露输出(例如,“输出具有属性 P”)。然而,如果输出本身需要在链上使用,它通常会变为公开的。总的来说,SNARKs 提供了完全的_零知识_灵活性(可以隐藏任何你想要的部分)。取决于方案。Groth16/EZKL 每个电路都需要一个可信设置;PLONK/Halo2 使用一个通用的设置(一次性)。DeepProve 的 sum-check GKR 是透明的(无需设置)——这是该设计的一个优点。经典的 SNARKs(BLS12-381 曲线)不是后量子安全的(易受针对椭圆曲线离散对数问题的量子攻击)。一些较新的 SNARKs 使用后量子安全的承诺,但 Ezkl 中使用的 Halo2/PLONK 不是后量子安全的。GKR (DeepProve) 使用哈希承诺(例如 Poseidon/Merkle),这些承诺被推测是后量子安全的(依赖于哈希原像抗性)。
zk-STARK (FRI, 基于哈希的证明)证明者开销高,但扩展性更_线性_。对于大型任务,通常比原生执行慢 10^2–10^4 倍,且有并行化空间。2024 年,通用 STARK VM(Risc0, Cairo)在 ML 上的性能比 SNARK 慢(例如,在某些情况下比 Halo2 慢 3-66 倍)。专门的 STARKs(或 GKR)可以接近线性开销,并在大型电路上胜过 SNARKs。证明更大:通常为几十 KB(随电路大小/log(n) 增长)。验证者必须进行多次哈希和 FFT 检查——验证时间约为 O(n^ε),其中 ε 很小(例如,约 50 毫秒到 500 毫秒,取决于证明大小)。在链上,这成本更高(StarkWare 的 L1 验证器每个证明可能消耗数百万 Gas)。一些 STARKs 支持递归证明以压缩大小,但会增加证明者的时间成本。数据与模型隐私: STARK 可以通过随机化轨迹数据(在多项式求值中添加盲化因子)来实现零知识,因此它可以像 SNARK 一样隐藏私有输入。许多 STARK 实现侧重于完整性,但 zk-STARK 变体确实允许隐私。所以是的,它们可以像 SNARKs 一样隐藏输入/模型。输出隐藏: 理论上同样可行(证明者不将输出声明为公开),但很少使用,因为通常我们想要揭示/验证的是输出。无需可信设置。 透明性是 STARKs 的一个标志——只需要一个公共随机字符串(Fiat-Shamir 可以推导出来)。这使得它们对于开放式使用很有吸引力(任何模型,任何时间,无需为每个模型举行仪式)。是的,STARKs 依赖于哈希和信息论安全假设(如随机预言机和 FRI 中某些码字解码的难度)。这些被认为是能抵抗量子对手的。因此,STARK 证明是抗后量子攻击的,这对于未来可验证 AI 的发展是一个优势。
FHE for ML (全同态加密应用于推理)证明者 = 在加密数据上进行计算的一方。 计算时间极高:比明文推理慢 10^3–10^5 倍是常见的。高端硬件(多核服务器、FPGA 等)可以缓解这一点。一些优化(低精度推理、分级 FHE 参数)可以减少开销,但存在根本的性能损失。FHE 目前对于小型模型或简单线性模型是可行的;深度网络在超出玩具规模后仍然具有挑战性。不生成证明。结果是一个加密的输出。验证(检查正确性)并非由 FHE 单独提供——人们信任计算方不会作弊。(如果与安全硬件结合,可能会得到一个证明;否则,恶意服务器可能返回一个不正确的加密结果,客户端解密后得到错误输出而不知情)。数据机密性: 是——输入是加密的,所以计算方对其一无所知。模型隐私: 如果模型所有者在加密输入上进行计算,模型在他们那边是明文的(不受保护)。如果角色互换(客户端持有加密的模型,服务器进行计算),模型可以保持加密,但这种情况不太常见。有一些技术,如安全两方 ML,结合 FHE/MPC 来保护两者,但这超出了普通 FHE 的范畴。输出隐藏: 默认情况下,计算的输出是加密的(只有持有私钥的一方,通常是输入所有者,才能解密)。所以输出对计算服务器是隐藏的。如果我们希望输出公开,客户端可以解密并揭示它。无需设置。每个用户生成自己的密钥对进行加密。信任依赖于密钥保持秘密。FHE 方案(例如 BFV, CKKS, TFHE)的安全性基于格问题(带误差学习),这些问题被认为是能抵抗量子攻击的(至少目前没有已知的有效量子算法)。所以 FHE 通常被认为是后量子安全的

表 1:zk-SNARK、zk-STARK 和 FHE 方法在机器学习推理中的比较(性能与隐私权衡)。

Web3 应用的用例与影响

通过 zkML 实现 AI 与区块链的融合,为 Web3 开启了强大的新应用模式:

  • 去中心化自治代理与链上决策: 智能合约或 DAO 可以整合由 AI 驱动的决策,并保证其正确性。例如,想象一个 DAO 使用神经网络分析市场状况后执行交易。有了 zkML,DAO 的智能合约可以要求一个 zkSNARK 证明,证明_授权的 ML 模型_(具有已知的哈希承诺)在最新数据上运行并产生了推荐的操作,然后该操作才会被接受。这可以防止恶意行为者注入虚假的预测——区块链_验证了 AI 的计算_。随着时间的推移,甚至可能出现完全在链上的自治代理(查询链下 AI 或包含简化模型的合约),在 DeFi 或游戏中做出决策,其所有行动都通过 zk 证明被证明是正确且符合策略的。这提高了对自治代理的信任,因为它们的“思考”过程是透明且可验证的,而不是一个黑箱。

  • 可验证计算市场: 像 Lagrange 这样的项目实际上正在创建可验证的计算市场——开发者可以将繁重的 ML 推理外包给一个证明者网络,并获得带有结果的证明。这类似于去中心化的云计算,但内置了信任:你不需要信任服务器,只需要信任证明。这是对预言机和链下计算的范式转变。像以太坊即将推出的 DSC(去中心化排序层)或预言机网络可以利用这一点来提供具有密码学保证的数据或分析源。例如,一个预言机可以提供“模型 X 在输入 Y 上的结果”,任何人都可以验证附加在链上的证明,而不是相信预言机的一面之词。这可以实现区块链上的_可验证 AI 即服务_:任何合约都可以请求一个计算(比如“用我的私有模型为这些信用风险打分”),并且只有在有有效证明的情况下才接受答案。像 Gensyn 这样的项目正在探索使用这些验证技术的去中心化训练和推理市场。

  • NFT 与游戏——来源与进化: 在区块链游戏或 NFT 收藏品中,zkML 可以证明特征或游戏动作是由合法的 AI 模型生成的。例如,一个游戏可能允许 AI 进化一个 NFT 宠物的属性。没有 ZK,聪明的用户可能会修改 AI 或结果以获得一个更优越的宠物。有了 zkML,游戏可以要求一个证明,证明_“宠物的新属性是由官方进化模型在宠物的旧属性上计算得出的”_,从而防止作弊。生成艺术 NFT 也是如此:艺术家可以发布一个生成模型作为承诺;之后,在铸造 NFT 时,证明每个图像都是由该模型在给定某个种子的情況下产生的,从而保证其真实性(甚至可以在不向公众透露确切模型的情况下做到这一点,保护艺术家的知识产权)。这种_来源验证_以一种类似于可验证随机性的方式确保了真实性——只不过在这里是可验证的创造力。

  • 敏感领域的隐私保护 AI: zkML 允许在不暴露输入的情况下确认结果。在医疗保健领域,患者的数据可以由云提供商通过 AI 诊断模型运行;医院收到诊断结果和一个证明,证明_该模型(可能由一家制药公司私有持有)在患者数据上正确运行_。患者数据保持私密(在证明中只使用了加密或承诺的形式),模型权重保持专有——但结果是可信的。监管机构或保险公司也可以验证是否只使用了经批准的模型。在金融领域,一家公司可以向审计师或监管机构证明,其风险模型已应用于其内部数据并产生了某些指标,而无需透露底层的敏感财务数据。这使得合规和监督能够通过密码学保证而不是手动信任来实现。

  • 跨链与链下互操作性: 由于零知识证明本质上是可移植的,zkML 可以促进_跨链 AI_ 结果。一条链上可能有一个 AI 密集型应用在链下运行;它可以将结果的证明发布到另一条区块链上,后者将无需信任地接受它。例如,考虑一个多链 DAO 使用 AI 来聚合社交媒体上的情绪(链下数据)。AI 分析(对大量数据的复杂 NLP)在链下由一个服务完成,该服务然后向一个小区块链(或多个链)发布一个证明,证明_“分析已正确完成,输出的情绪评分为 0.85”_。所有链都可以验证并在其治理逻辑中使用该结果,而无需各自重新运行分析。这种可互操作的可验证计算正是 Lagrange 网络旨在支持的,通过同时服务于多个 rollup 或 L1。它消除了在链间移动结果时对可信桥梁或预言机假设的需求。

  • AI 对齐与治理: 从一个更具前瞻性的角度来看,zkML 被强调为_AI 治理与安全_的工具。例如,Lagrange 的愿景声明认为,随着 AI 系统变得越来越强大(甚至达到超级智能),密码学验证对于确保它们遵守既定规则至关重要。通过要求 AI 模型为其推理或约束生成证明,人类保留了一定程度的控制——“你无法信任你无法验证的东西”。虽然这还处于推测阶段,并且涉及社会和技术两方面,但该技术可以强制一个自主运行的 AI 代理仍然证明它正在使用一个经批准的模型并且没有被篡改。去中心化 AI 网络可能会使用链上证明来验证贡献(例如,一个协作训练模型的节点网络可以证明每个更新都是忠实计算的)。因此,zkML 可能在_确保 AI 系统即使在去中心化或不受控制的环境中也能对人类定义的协议负责_方面发挥作用。

总之,zkML 和可验证的链上 AI 代表了先进密码学和机器学习的融合,有望增强 AI 应用中的信任、透明度和隐私。通过比较主要方法——zk-SNARKs、zk-STARKs 和 FHE——我们看到了性能与隐私之间的一系列权衡,每种方法都适用于不同的场景。像 Ezkl 这样的基于 SNARK 的框架和像 Lagrange 的 DeepProve 这样的创新,使得用实际的努力证明重要的神经网络推理成为可能,为可验证 AI 的实际部署打开了大门。基于 STARK 和 VM 的方法承诺了更大的灵活性和后量子安全性,随着该领域的成熟,这将变得越来越重要。FHE 虽然不是可验证性的解决方案,但它解决了机密 ML 计算的互补需求,并且在与 ZKP 结合或在特定的私密环境中,它可以让用户在不牺牲数据隐私的情况下利用 AI。

对 Web3 的影响是显著的:我们可以预见智能合约对 AI 预测做出反应,并知道它们是正确的;计算市场中结果可以无需信任地出售;数字身份(如 Worldcoin 通过虹膜 AI 实现的个人身份证明)受到 zkML 的保护,以确认某人是人类而不泄露其生物特征图像;以及通常会出现一类新的_“可证明的智能”,丰富区块链应用。许多挑战依然存在——超大型模型的性能、开发者的人体工程学以及对专门硬件的需求——但发展轨迹是明确的。正如一份报告所指出的,“今天的 ZKP 可以支持小型模型,但中到大型模型打破了这一范式”_;然而,快速的进步(DeepProve 相较于先前技术实现了 50-150 倍的速度提升)正在将这一界限向外推进。随着正在进行的研究(例如,关于硬件加速和分布式证明),我们可以期待越来越大、越来越复杂的 AI 模型变得可证明。zkML 可能很快就会从利基演示演变为可信 AI 基础设施的重要组成部分,确保随着 AI 的普及,它能以一种可审计、去中心化且符合用户隐私和安全的方式实现。

ETHDenver 2025:来自 Web3 嘉年华的关键趋势与洞见

· 阅读需 28 分钟

ETHDenver 2025,被誉为“再生者之年”(Year of The Regenerates),巩固了其作为全球最大 Web3 盛会之一的地位。活动横跨 BUIDLWeek(2 月 23 日至 26 日)、主活动(2 月 27 日至 3 月 2 日)以及会后的山地静修,预计吸引了超过 25,000 名参与者。来自 125 多个国家的构建者、开发者、投资者和创意人士齐聚丹佛,共同庆祝以太坊的去中心化和创新精神。ETHDenver 秉承其社区根基,保持免费参与、社区资助,并充满了丰富的内容——从黑客松、研讨会到专家座谈、项目路演和派对。活动以“再生者”捍卫去中心化的传说为基调,强调了公共物品和协作共建,即便在竞争激烈的技术环境中也是如此。最终,这周充满了高强度的构建者活动和前瞻性讨论,为行业专业人士提供了 Web3 新兴趋势和可行洞见的快照。

ETHDenver 2025

演讲者聚焦的新兴 Web3 趋势

没有单一叙事主导 ETHDenver 2025——相反,广泛的 Web3 趋势占据了中心舞台。 与去年(EigenLayer 的再质押大放异彩)不同,2025 年的议程是百花齐放:从去中心化物理基础设施网络(DePIN)到 AI 代理,从监管合规到现实世界资产代币化(RWA),此外还有隐私、互操作性等等。事实上,ETHDenver 创始人 John Paller 在回应关于多链内容的担忧时指出,“我们 95% 以上的赞助商和 90% 的内容都与 ETH/EVM 相关”——然而,非以太坊生态系统的出现也凸显了互操作性作为一个关键主题。主要演讲者反映了这些趋势领域:例如,Matter Labs/zkSync 的首席执行官 Alex Gluchowski 重点介绍了 zk-rollup 和 Layer-2 扩容,而 Mysten Labs (Sui) 的 Adeniyi Abiodun 和 Injective 的 Albert Chon 则展示了多链创新

AI 与 Web3 的融合成为一股强劲的暗流。 大量演讲和周边活动聚焦于去中心化 AI 代理和“DeFi+AI”的跨界结合。一个专门的 AI 代理日 展示了链上 AI 演示,一个由 14 个团队组成的联盟(包括 Coinbase 的开发者工具包和 NEAR 的 AI 部门)甚至宣布成立开放代理联盟(OAA)——一项旨在通过汇集 Web3 基础设施来提供无需许可、免费的 AI 访问的倡议。这表明,自主代理和 AI 驱动的 dApp 作为构建者的前沿领域,正引起越来越大的兴趣。与 AI 携手并进的**DePIN(去中心化物理基础设施)**是另一个热门词:多个专家座谈(例如 DePIN 日DePIN 峰会)探讨了将区块链与物理网络(从电信到移动出行)连接起来的项目。

Cuckoo AI Network 在 ETHDenver 2025 上掀起波澜,展示了其专为创作者和开发者设计的创新去中心化 AI 模型服务市场。凭借在黑客松和社区主导的周边活动中的强大影响力,Cuckoo AI 吸引了大量开发者的关注,他们对其将 GPU/CPU 资源变现和轻松集成链上 AI API 的能力深感兴趣。在其专门的研讨会和交流会上,Cuckoo AI 强调了去中心化基础设施如何能有效地普及对高级 AI 服务的访问。这与本次活动的更广泛趋势——特别是区块链与 AI、DePIN 和公共物品资助的交集——直接吻合。对于 ETHDenver 的投资者和开发者来说,Cuckoo AI 成为了一个清晰的例子,展示了去中心化方法如何赋能下一代 AI 驱动的 dApp 和基础设施,从而将自己定位为 Web3 生态系统中有吸引力的投资机会。

隐私、身份和安全仍然是重中之重。 演讲者和研讨会讨论了零知识证明(zkSync 的参与)、身份管理和可验证凭证(黑客松中有一个专门的隐私与安全赛道)以及法律/监管问题(一个链上法律峰会是活动赛道的一部分)等议题。另一个值得注意的讨论是融资的未来和资金的去中心化:在主舞台上,Dragonfly Capital 的 Haseeb Qureshi 与 Legion(一个“类似 ICO”的平台)的 Matt O’Connor 之间关于 ICO 与 VC 融资的辩论吸引了与会者。这场辩论凸显了社区代币销售等新兴模式对传统 VC 路径的挑战——这对正在探索融资的 Web3 初创公司来说是一个重要趋势。对专业人士而言,结论是明确的:2025 年的 Web3 是多学科的——横跨金融、AI、现实资产和文化——要保持信息灵通,就必须超越任何单一的炒作周期,关注创新的全貌。

赞助商及其战略重点领域

ETHDenver 2025 的赞助商名单堪称 Layer-1、Layer-2 和 Web3 基础设施项目的“名人录”——每个项目都利用这次活动来推进其战略目标。跨链和多链协议表现抢眼。例如,Polkadot 是顶级赞助商之一,提供了高达 8 万美元的奖金池,激励构建者创建跨链 DApp 和应用链。同样,BNB Chain、Flow、Hedera 和 Base(Coinbase 的 L2) 各自为与自家生态系统集成的项目提供了高达 5 万美元的奖金,这表明它们正努力吸引以太坊开发者。即使是传统上独立的生态系统,如 Solana 和 Internet Computer,也通过赞助挑战赛加入进来(例如,Solana 联合主办了一个 DePIN 活动,而 Internet Computer 则提供了一个“只有在 ICP 上才可能”的赏金)。这种跨生态系统的存在引起了一些社区的审视,但 ETHDenver 团队指出,绝大多数内容仍然与以太坊相关。最终效果是互操作性成为了一个核心主题——赞助商旨在将其平台定位为以太坊宇宙的补充扩展。

扩容解决方案和基础设施提供商也处于前沿和中心位置。主要的以太坊 L2,如 Optimism 和 Arbitrum,都设有大型展位并赞助了挑战赛(Optimism 的赏金高达 4 万美元),加强了它们吸引开发者加入 rollup 的重点。像 ZkSync 和 Zircuit(一个展示 L2 rollup 方法的项目)这样的新进入者则强调零知识技术,甚至贡献了 SDK(ZkSync 推广了其用于用户友好登录的 Smart Sign-On SDK,黑客松团队积极使用)。再质押和模块化区块链基础设施是另一个赞助商的兴趣点——EigenLayer(再质押的先驱)有自己的 5 万美元赛道,甚至联合主办了一个关于“再质押与 DeFAI(去中心化 AI)”的活动,将其安全模型与 AI 主题相结合。预言机和互操作性中间件的代表有 Chainlink 和 Wormhole,它们都为使用其协议的项目发布了赏金。

值得注意的是,Web3 消费应用和工具也得到了赞助商的支持,以改善用户体验。Uniswap 的亮相——拥有最大的展位之一——不仅仅是为了展示:这家 DeFi 巨头利用这次活动宣布了新的钱包功能,如集成的法币出口,这与其赞助重点关注 DeFi 可用性相一致。像 Galxe (Gravity)Lens Protocol 这样的身份和社区平台赞助了围绕链上社交和凭证的挑战赛。甚至主流科技公司也表现出兴趣:PayPal 和 Google Cloud 举办了一场稳定币/支付的欢乐时光活动,讨论加密支付的未来。这种赞助商的组合表明,战略利益从核心基础设施延伸到终端用户应用——所有这些都在 ETHDenver 汇聚,为开发者提供资源(API、SDK、资助)。对于 Web3 专业人士来说,来自 Layer-1、Layer-2 甚至 Web2 金融科技公司的重金赞助,凸显了行业投资的方向:互操作性、可扩展性、安全性,以及让加密货币为下一波用户所用

黑客松亮点:创新项目与获奖者

ETHDenver 的核心是其传奇的 #BUIDLathon——一个已发展成为全球最大的区块链黑客马拉松,吸引了数千名开发者。2025 年,该黑客松提供了创纪录的 1,043,333+ 美元奖金池以激励创新。来自 60 多个赞助商的赏金针对关键的 Web3 领域,将比赛划分为多个赛道,例如:DeFi 与 AINFT 与游戏基础设施与可扩展性隐私与安全以及DAO 与公共物品。这种赛道设计本身就很有见地——例如,将DeFi 与 AI 配对,暗示了 AI 驱动的金融应用的兴起,而专门的公共物品赛道则重申了社区对再生金融和开源开发的关注。每个赛道都由赞助商支持,为最佳使用其技术的项目提供奖品(例如,Polkadot 和 Uniswap 支持 DeFi,Chainlink 支持互操作性,Optimism 支持扩容解决方案)。组织者甚至实施了二次投票进行评审,让社区帮助筛选出顶级项目,最终获奖者由专家评委选出。

结果是涌现出大量前沿项目,其中许多项目让我们得以一窥 Web3 的未来。著名的获奖者包括一款链上多人游戏 “0xCaliber”,这是一款第一人称射击游戏,在经典的 FPS 游戏中实时运行区块链交互。0xCaliber 通过展示真正的链上游戏令评委惊叹——玩家用加密货币买入,“射出”链上子弹,并使用跨链技巧来收集和兑现战利品,所有这些都是实时的。这类项目展示了Web3 游戏日益成熟(将 Unity 游戏引擎与智能合约集成),以及在融合娱乐与加密经济学方面的创造力。另一类杰出的黑客作品是那些将AI 与以太坊结合的项目:团队构建了使用智能合约协调 AI 服务的“代理”平台,灵感来自开放代理联盟的宣布。例如,一个黑客松项目集成了 AI 驱动的智能合约审计器(为合约自动生成安全测试用例)——这与会议上观察到的去中心化 AI 趋势相符。

基础设施和工具类项目也很突出。一些团队致力于账户抽象和用户体验,使用 zkSync 的 Smart Sign-On 等赞助商工具包为 dApp 创建无钱包登录流程。其他团队则致力于跨链桥和 Layer-2 集成,反映了开发者对互操作性的持续兴趣。在公共物品与 DAO 赛道中,一些项目解决了现实世界的社会影响问题,例如一个用于去中心化身份和援助无家可归者的 dApp(利用 NFT 和社区资金,这个想法让人想起之前的 ReFi 黑客作品)。*再生金融(ReFi)*的概念——如通过新颖机制资助公共物品——继续出现,呼应了 ETHDenver 的再生主题。

虽然最终获奖者在主活动结束时受到了庆祝,但真正的价值在于创新的管道:收到了超过 400 个项目提交,其中许多项目将在活动结束后继续存在。ETHDenver 的黑客松有孵化未来初创公司的记录(事实上,一些过去的 BUIDLathon 项目已经成长为赞助商)。对于投资者和技术专家来说,黑客松提供了一个洞察前沿思想的窗口——预示着下一波 Web3 初创公司可能会出现在链上游戏、AI 融合的 dApp、跨链基础设施以及针对社会影响的解决方案等领域。随着近 100 万美元的赏金发放给开发者,赞助商有效地将资金投入到他们所支持的领域,以培育这些创新。

社交活动与投资者互动

ETHDenver 不仅仅是关于编写代码——它同样关乎建立联系。2025 年,这场嘉年华通过为初创公司、投资者和社区建设者量身定制的正式和非正式活动,极大地促进了社交。其中一个标志性活动是 Bufficorn Ventures (BV) 创业竞技场,这是一个充满活力的展示会,20 家精选初创公司以科学展览的形式向投资者展示他们的项目。创业竞技场于 3 月 1 日在主厅举行,被描述为更像是“快速约会”而非路演比赛:创始人们守在桌前,向在场内巡视的所有投资者一对一地推介他们的项目。这种形式确保了即使是早期阶段的团队也能与风险投资家、战略合作伙伴或合作方进行有意义的面对面交流。许多初创公司利用这个机会寻找客户和资金,充分利用了 ETHDenver 上 Web3 基金的高度集中。

在会议的最后一天,BV BuffiTank 路演节在主舞台上大放异彩——这是一场更传统的路演比赛,展示了来自 ETHDenver 社区的 10 家“最具创新性”的早期初创公司。这些团队(与黑客松获奖者不同)向一组顶级风险投资家和行业领袖展示了他们的商业模式,争夺荣誉和潜在的投资机会。路演节说明了 ETHDenver 作为交易流生成器的角色:它明确针对那些*“已经组织好……正在寻找投资、客户和曝光度”*的团队,特别是那些与 SporkDAO 社区有关的团队。获奖者的奖励不是简单的现金奖,而是加入 Bufficorn Ventures 的投资组合或其他加速器项目的承诺。从本质上讲,ETHDenver 为 Web3 创造了自己的迷你“创智赢家”(Shark Tank),催化了投资者对社区最佳项目的关注。

除了这些官方展示活动,这一周还挤满了投资者与创始人的交流会。根据 Belong 策划的一份指南,值得注意的周边活动包括 2 月 27 日由 CertiK Ventures 主办的**“与 VC 见面”欢乐时光**,3 月 1 日的StarkNet VC 与创始人休息室,甚至还有像**“推杆与路演”这样以高尔夫为主题的轻松路演活动。这些聚会为创始人提供了与风险投资家轻松交流的环境,通常会在会后促成后续会议。许多新兴 VC 公司**也出现在专家座谈会上——例如,在 EtherKnight 舞台上的一场会议重点介绍了一些新基金,如 Reflexive Capital、Reforge VC、Topology、Metalayer 和 Hash3,以及他们最感兴趣的趋势。早期迹象表明,这些 VC 对去中心化社交媒体、AI 和新颖的 Layer-1 基础设施等领域非常感兴趣(每个基金都在竞争激烈的 VC 格局中开辟自己的细分市场)。

对于希望利用 ETHDenver 社交机会的专业人士来说,关键的启示是周边活动和有针对性的交流会的价值。交易和合作关系通常是在咖啡或鸡尾酒会上萌芽,而不是在舞台上。ETHDenver 2025 众多的投资者活动表明,即使在市场不景气的情况下,Web3 投资界仍在积极寻找人才和创意。那些准备了精美演示和清晰价值主张的初创公司(通常利用活动的黑客松势头)找到了 receptive 的受众。与此同时,投资者利用这些互动来把握开发者社区的脉搏——今年最聪明的构建者在解决什么问题?总而言之,ETHDenver 再次证明社交与 BUIDLing 同等重要:在这里,一次偶然的相遇可能促成一笔种子投资,或者一次富有洞察力的对话可能点燃下一次重大合作的火花。

Web3 的风险投资趋势与投资机会

在 ETHDenver 2025 期间,一个微妙但重要的叙事是 Web3 风险投资格局本身正在演变。尽管更广泛的加密市场起伏不定,但ETHDenver 的投资者们对有前景的 Web3 项目表现出强烈的兴趣。Blockworks 的现场记者指出,“尽管宏观经济面临阻力,但仍有大量私人资本流入加密领域,”对于最热门的创意,种子阶段的估值往往高得惊人。事实上,从加密原生基金到涉足 Web3 的传统科技投资者,大量 VC 的出席清楚地表明,ETHDenver 仍然是一个交易撮合中心。

从 VC 们讨论和赞助的内容中,可以辨别出新兴的主题焦点AI x Crypto 内容的普遍性(黑客松赛道、专家座谈等)不仅是开发者的趋势;它也反映了风险投资对**“DeFi 遇上 AI”**这一交叉领域的兴趣。许多投资者正在关注那些在区块链上利用机器学习或自主代理的初创公司,这一点从风险投资赞助的 AI 黑客之家和峰会中可见一斑。同样,对 DePIN 和现实世界资产(RWA)代币化的高度关注表明,基金们看到了将区块链与实体经济资产和物理设备连接起来的项目的机会。专门的 RWA 日(2 月 26 日)——一个关于代币化资产未来的 B2B 活动——表明风险投资的探子们正在该领域积极寻找下一个 Goldfinch 或 Centrifuge(即将现实世界金融带入链上的平台)。

另一个可观察到的趋势是融资模式的日益实验性。前述关于 ICO 与 VC 的辩论不仅仅是会议的戏剧效果;它反映了风险投资界向更以社区为中心的融资模式发展的真实动向。ETHDenver 的一些 VC 表示对混合模式持开放态度(例如,由风险投资支持的代币发行,让社区参与早期轮次)。此外,公共物品资助和影响力投资也占有一席之地。在 ETHDenver 的再生精神下,即使是投资者也在讨论如何长期支持开源基础设施和开发者,而不仅仅是追逐下一个 DeFi 或 NFT 的热潮。像*“资助未来:链上初创公司不断演变的模式”*这样的专家座谈会探讨了诸如赠款、DAO 财库投资和二次方融资等替代方案,以补充传统的 VC 资金。这表明该行业在项目资本化方面正在成熟——风险投资、生态系统基金和社区资金协同工作。

从机会的角度来看,Web3 专业人士和投资者可以从 ETHDenver 的风险投资动态中获得一些可行的见解:(1)基础设施仍然为王——许多 VC 表示,作为行业支柱的“镐和铲子”(L2 扩容、安全、开发者工具)仍然是高价值投资。(2)AI/区块链融合和 DePIN 等新垂直领域是新兴的投资前沿——在这些领域加快学习或寻找初创公司可能会带来回报。(3)社区驱动的项目和公共物品可能会看到新颖的融资方式——精明的投资者正在研究如何可持续地支持这些项目(例如,投资于能够实现去中心化治理或共享所有权的协议)。总的来说,ETHDenver 2025 表明,虽然 Web3 风险投资格局竞争激烈,但充满了信心:资本可用于那些正在构建 DeFi、NFT、游戏等未来的人,即使是在熊市中诞生的想法,如果它们瞄准了正确的趋势,也能找到支持。

开发者资源、工具包与支持系统

ETHDenver 始终以构建者为中心,2025 年也不例外——它兼具开源开发者大会的性质,为 Web3 开发者提供了丰富的资源和支持。在 BUIDLWeek 期间,与会者可以参加涵盖各个领域的现场研讨会、技术训练营和迷你峰会。例如,开发者可以参加前沿技术峰会,体验最新的协议,或者参加链上法律峰会,学习合规的智能合约开发。主要赞助商和区块链团队举办了实践课程:Polkadot 团队举办了黑客之家和关于启动平行链的研讨会;EigenLayer 领导了一个“再质押训练营”,教开发者如何利用其安全层;Polygon 和 zkSync 提供了关于使用零知识技术构建可扩展 dApp 的教程。这些课程为开发者提供了与核心工程师宝贵的面对面交流机会,让他们能够获得集成方面的帮助,并亲手学习新的工具包。

在整个主活动期间,会场设有一个专门的 #BUIDLHub 和创客空间,构建者可以在协作环境中编码并获得导师的指导。ETHDenver 的组织者发布了一份详细的构建者指南,并促成了一个现场导师计划(来自赞助商的专家随时为团队解决技术问题)。开发者工具公司也大量到场——从 Alchemy 和 Infura(提供区块链 API)到 Hardhat 和 Foundry(用于智能合约开发)。许多公司在活动中发布了新版本或测试版工具。例如,MetaMask 团队预告了一次重大的钱包更新,其中包括Gas 抽象和改进的 dApp 开发者 SDK,旨在简化应用为用户支付 Gas 费的方式。多个项目推出了 SDK 或开源库:Coinbase 的用于 AI 代理的*“Agent Kit”和协作的开放代理联盟*工具包被引入,Story.xyz 在他们自己的黑客松活动中推广了其用于链上知识产权许可的 Story SDK

赏金和黑客支持进一步增强了开发者的体验。有 62 个赞助商提供了超过 180 个赏金,黑客们实际上可以从一个具体的挑战菜单中进行选择,每个挑战都附有文档、办公时间和有时甚至是定制的沙盒环境。例如,Optimism 的赏金挑战开发者使用最新的 Bedrock 操作码(他们的工程师随时待命提供帮助),而 Uniswap 的挑战则提供了对其新 API 的访问权限,用于法币出口集成。用于协调和学习的工具——如官方的 ETHDenver 移动应用和 Discord 频道——让开发者了解日程变更、支线任务,甚至通过 ETHDenver 的招聘板了解工作机会

一个值得注意的资源是对二次方融资实验和链上投票的强调。ETHDenver 在黑客松评审中集成了二次方投票系统,让许多开发者接触到了这个概念。此外,Gitcoin 和其他公共物品组织的存在意味着开发者可以在活动结束后了解如何为他们的项目申请资助。总而言之,ETHDenver 2025 为开发者配备了前沿工具(SDK、API)专家指导后续支持,以继续他们的项目。对于行业专业人士来说,这提醒我们,通过教育、工具和资金来培育开发者社区至关重要。许多重点介绍的资源(如新的 SDK 或改进的开发环境)现在已经公开可用,为全球各地的团队提供了在 ETHDenver 分享的基础上进行构建的机会。

丰富 ETHDenver 体验的周边活动与社区聚会

真正让 ETHDenver 与众不同的是其节日般的氛围——数十个官方和非官方的周边活动,围绕主会议创造了丰富多彩的体验。2025 年,除了举办官方内容的国家西部综合体外,整个城市都充满了聚会、派对、黑客松和社区集会。这些通常由赞助商或当地 Web3 团体主办的周边活动,极大地丰富了整个 ETHDenver 的体验。

在官方层面,ETHDenver 自己的日程安排包括了主题迷你活动:会场设有NFT 艺术画廊、区块链游乐场、DJ 放松穹顶,甚至还有一个禅意区供人放松。组织者还举办了晚间活动,如开幕和闭幕派对——例如,2 月 26 日由 Story Protocol 举办的**“Crack’d House”非官方开幕派对**,将艺术表演与黑客松颁奖公告融为一体。但真正 proliferate 的是社区主导的周边活动:根据一份活动指南,ETHDenver 的 Luma 日历上追踪了超过 100 个周边活动。

一些例子说明了这些聚会的多样性:

  • 技术峰会与黑客之家: ElizaOS 和 EigenLayer 为 AI+Web3 爱好者举办了一个为期 9 天的 Vault AI 代理黑客之家。StarkNet 团队举办了一个为期多日的黑客之家,最终以其 ZK-rollup 上的项目演示夜告终。这些活动为开发者在主黑客松之外,就特定技术栈进行合作提供了专注的环境。
  • 社交酒会与派对: 每个晚上都有一系列选择。2 月 27 日由 MetaMask、Linea、EigenLayer、Wormhole 等赞助的 Builder Nights Denver,将创新者聚集在一起,边吃边喝边进行轻松交谈。由 Belong 支持的 3VO’s Mischief Minded Club Takeover 是一个为社区代币化领导者举办的高级别社交派对。对于纯粹寻求乐趣的人来说,BEMO Rave(与 Berachain 等合作)和 rAIve the Night(一个以 AI 为主题的锐舞派对)让加密人群跳舞到深夜——将音乐、艺术和加密文化融为一体。
  • 特殊兴趣聚会: 小众社区也找到了自己的空间。Meme Combat 是一个纯粹为 Meme 爱好者举办的活动,庆祝 Meme 在加密世界中的作用。House of Ink 迎合了 NFT 艺术家和收藏家,将一个沉浸式艺术场馆(Meow Wolf Denver)变成了数字艺术的展示平台。2 月 26 日的 SheFi Summit 汇集了 Web3 领域的女性进行演讲和交流,得到了 World of Women 和 Celo 等团体的支持——凸显了对多样性和包容性的承诺。
  • 投资者与内容创作者聚会: 我们已经提到了 VC 活动;此外,2 月 28 日的 KOL(关键意见领袖)聚会让加密影响者和内容创作者讨论参与策略,展示了社交媒体与加密社区的交集。

至关重要的是,这些周边活动不仅仅是娱乐——它们本身常常成为思想和关系的孵化器。例如,2025 年代币化资本峰会深入探讨了链上资本市场的未来,很可能激发了与会的金融科技企业家和区块链开发者之间的合作。链上游戏黑客之家为游戏开发者提供了一个分享最佳实践的空间,这可能会导致区块链游戏项目之间的交叉授粉。

对于参加大型会议的专业人士来说,ETHDenver 的模式强调了价值在主舞台之外和舞台之上同样重要。广泛的非官方活动让与会者可以定制自己的体验——无论目标是会见投资者、学习新技能、寻找联合创始人,还是只是放松和建立友谊,总有一个活动适合你。许多资深人士建议新手:“不要只听讲座——去参加聚会,打个招呼。”在一个像 Web3 这样由社区驱动的空间里,这些人际关系往往会转化为 DAO 合作、投资交易,或者至少是跨越大陆的持久友谊。ETHDenver 2025 充满活力的周边场景放大了核心会议的影响,将丹佛的一周变成了一场多维度的创新盛宴

关键要点与可行洞见

ETHDenver 2025 展示了一个创新与协作全面开花的 Web3 行业。对于该领域的专业人士来说,从这次深度剖析中可以得出几个明确的要点和行动项:

  • 趋势多样化: 本次活动清楚地表明,Web3 不再是单一的。AI 集成、DePIN 和 RWA 代币化等新兴领域与 DeFi 和 NFT 同样突出。可行洞见:保持信息灵通和适应性。 领导者应将研发或投资分配到这些新兴垂直领域(例如,探索 AI 如何增强他们的 dApp,或者现实世界资产如何整合到 DeFi 平台中),以抓住下一波增长浪潮。
  • 跨链是未来: 随着主要的非以太坊协议积极参与,生态系统之间的壁垒正在降低。互操作性和多链用户体验获得了巨大关注,从 MetaMask 增加对 Bitcoin/Solana 的支持,到 Polkadot 和基于 Cosmos 的链吸引以太坊开发者。可行洞见:为多链世界设计。 项目应考虑能够利用其他链上流动性和用户的集成或桥梁,专业人士也应寻求跨社区的合作,而不是固步自封。
  • 社区与公共物品至关重要: “再生者之年”的主题不仅仅是口号——它通过公共物品资助讨论、黑客松的二次方投票以及像 SheFi Summit 这样的活动渗透到内容中。道德、可持续发展和社区所有权是以太坊精神的核心价值观。可行洞见:融入再生原则。 无论是通过支持开源倡议、使用公平启动机制,还是将商业模式与社区增长相结合,Web3 公司都可以通过不纯粹是榨取性的方式获得好感和长久发展。
  • 投资者情绪——谨慎而大胆: 尽管有熊市的传言,ETHDenver 表明VC 们正在积极寻找并愿意在 Web3 的下一篇章中下大注。然而,他们也在重新思考如何投资(例如,更具战略性,可能对产品市场契合度有更多监督,并对社区融资持开放态度)。可行洞见:如果你是初创公司,专注于基本面和讲故事。 脱颖而出的项目有明确的用例,并且通常有可行的原型(有些是在一个周末内构建的!)。如果你是投资者,这次会议证实了基础设施(L2、安全、开发者工具)仍然是高优先级,但通过在 AI、游戏或社交领域的论点来差异化,可以将基金定位在前沿。
  • 开发者体验正在改善: ETHDenver 重点介绍了许多新的工具包、SDK 和框架,降低了 Web3 开发的门槛——从账户抽象工具到链上 AI 库。可行洞见:利用这些资源。 团队应尝试最新发布的开发者工具(例如,尝试 zkSync Smart SSO 以实现更轻松的登录,或使用开放代理联盟的资源进行 AI 项目),以加速开发并保持竞争优势。此外,公司应继续参与黑客松和开放的开发者论坛,作为寻找人才和创意的途径;ETHDenver 将黑客转变为创始人的成功就是该模式的证明。
  • 周边活动的力量: 最后,周边活动的爆炸式增长在社交方面给我们上了一堂重要的课——机会常常出现在非正式场合。在欢乐时光的偶然相遇或在小型聚会上的共同兴趣,都可能创造出职业生涯中决定性的联系。可行洞见:对于参加行业会议的人来说,计划要超越官方议程。 确定与你的目标相符的周边活动(无论是会见投资者、学习小众技能,还是招聘人才),并积极参与。正如在丹佛所见,那些完全沉浸在这一周生态系统中的人,带走的不仅是知识,还有新的合作伙伴、员工和朋友。

总之,ETHDenver 2025 是 Web3 行业发展势头的缩影——融合了前沿技术讨论、热情的社区活力、战略性投资举措,以及一种将严肃创新与乐趣相结合的文化。专业人士应将此次活动的趋势和洞见视为 Web3 未来走向的路线图。可行的下一步是采纳这些学习成果——无论是对 AI 的新关注、与 L2 团队建立的联系,还是从黑客松项目中获得的灵感——并将其转化为战略。本着 ETHDenver 最喜欢的座右铭精神,是时候在这些洞见的基础上 #BUIDL,并帮助塑造丹佛众多人共同构想的去中心化未来。

Altera.al 正在招聘:加入数字人类发展先锋(60万至100万美元薪酬)

· 阅读需 3 分钟

我们很高兴分享 Altera.al 的一项变革性机会——这是一家突破性的 AI 初创公司,近期因其在数字人类开发方面的开创性工作而受到广泛关注。Altera.al 最近被《MIT Technology Review》报道,展示了在创建能够表现类人行为、形成社区并在数字空间中进行有意义互动的 AI 代理方面取得的显著进展。

Altera.al: 加入数字人类发展先锋,薪酬 60 万至 100 万美元

关于 Altera.al

Altera.al 由罗伯特·杨创立,他曾是麻省理工学院计算神经科学系的助理教授,为了追求这一愿景而离职。公司已从包括 A16Z 和埃里克·施密特的前沿科技风险投资公司在内的知名投资者那里获得了超过 1100 万美元的融资。最近的 Sid 项目演示展示了 AI 代理在 Minecraft 中自发形成专门角色、建立社交联系,甚至创造文化体系——这标志着实现真正自主、可大规模协作的 AI 代理目标的重要一步。

为什么现在是加入的绝佳时机

Altera.al 在开发具备基本人类特质的机器方面取得了重要技术突破。他们的工作超越了传统 AI 开发——他们正在打造能够:

  • 形成社区和社会层级
  • 发展专门的角色与职责
  • 创造并传播文化模式
  • 在数字空间中与人类进行有意义的互动

招聘需求

在近期突破之后,Altera.al 正在扩大团队规模,并提供 60 万至 100 万美元的优厚薪酬套餐,面向以下人才:

  • AI 代理研究专家
  • 在以下领域具备强大个人贡献能力的工程师:
    • 分布式系统
    • 安全
    • 操作系统

如何申请

准备好加入这段开创性旅程了吗?请直接通过他们的招聘页面申请:https://jobs.ashbyhq.com/altera.al

加入数字人类发展的未来

这是一次在人工智能与人类行为建模交叉领域工作的独特机会,团队已经展示了令人瞩目的成果。如果你热衷于推动 AI 与人机交互的边界,Altera.al 可能是你的下一个冒险。


想获取更多科技和区块链领域的突破性机会,请关注我们的 Twitter 或加入我们的 Discord 社区。

本帖是我们持续致力于支持创新并将人才与科技行业变革性机会相连接的一部分。

A16Z的加密2025展望:可能重塑下一个互联网的十二个想法

· 阅读需 8 分钟

每年,a16z 都会发布关于定义我们未来的技术的宏大预测。这一次,他们的加密团队描绘了一幅 2025 年区块链、人工智能和先进治理实验相互碰撞的生动画面。

我在下面总结并评论了他们的关键洞见,聚焦于我认为的改变杠杆——以及可能的绊脚石。如果你是技术构建者、投资者,或仅仅对下一波互联网感到好奇,这篇文章适合你。

1. AI 与加密钱包的结合

关键洞见:AI 模型正从后台的“NPC”转变为“主角”,在在线(甚至可能是实体)经济中独立行动。这意味着它们需要自己的加密钱包。

  • 这意味着:AI 不再只是输出答案,它可能持有、支出或投资数字资产——代表其人类所有者或完全自主操作。
  • 潜在收益:更高效的“代理 AI”可以帮助企业进行供应链协调、数据管理或自动化交易。
  • 需警惕:如何确保 AI 真正自主,而不是被人暗中操控?可信执行环境(TEE)可以提供技术保证,但让人们信任“带钱包的机器人”不会一蹴而就。

2. 去中心化自治聊天机器人(DAC)的崛起

关键洞见:在 TEE 中自主运行的聊天机器人可以自行管理密钥、在社交媒体发布内容、获取粉丝,甚至产生收入——全部无需直接的人类控制。

  • 这意味着:想象一个 AI 网红,它不会被任何个人沉默,因为它真正掌控自己。
  • 潜在收益:内容创作者不再是个人,而是拥有数百万(甚至数十亿美元)估值的自我治理算法。
  • 需警惕:如果 AI 触犯法律,谁承担责任?当“实体”是一段分布式服务器上的代码时,监管的护栏将异常棘手。

3. 人格证明(Proof of Personhood)变得必不可少

关键洞见:AI 降低了生成超逼真伪造品的成本,我们需要更好的方式来验证在线交互对象是真正的人类。隐私保护的唯一身份标识应运而生。

  • 这意味着:每位用户最终可能拥有一个经过认证的“人类印章”——希望在不牺牲个人数据的前提下实现。
  • 潜在收益:这可以大幅降低垃圾信息、诈骗和机器人军团的数量,为更可信的社交网络和社区平台奠定基础。
  • 需警惕:采纳是最大障碍。即便是最好的身份验证方案,也需要广泛接受,才能在恶意行为者超前之前发挥作用。

4. 从预测市场到更广泛的信息聚合

关键洞见:2024 年因选举驱动的预测市场抢占头条,但 a16z 看到更大的趋势:利用区块链设计新的真相揭示与聚合方式——无论是治理、金融还是社区决策。

  • 这意味着:分布式激励机制可以奖励人们提供诚实的输入或数据。我们可能会看到针对本地传感网络到全球供应链的专属“真相市场”。
  • 潜在收益:为社会提供更透明、难以被游戏的数据层。
  • 需警惕:流动性和用户参与度仍是挑战。对于小众问题,“预测池”可能规模太小,难以产生有意义的信号。

5. 企业级稳定币

关键洞见:稳定币已经是转移数字美元的最便宜方式,但大型企业尚未广泛采用——尚未

  • 这意味着:中小企业和高交易额商户可能会意识到,通过使用稳定币可以节省大量信用卡费用。年收入数十亿美元的企业同样如此,甚至可能为其利润底线提升 2%。
  • 潜在收益:更快、更便宜的全球支付,加上一波基于稳定币的金融产品创新。
  • 需警惕:企业需要新的欺诈防护、身份验证和退款机制——这些过去由信用卡提供商承担。

6. 区块链上的政府债券

关键洞见:政府探索链上债券可以创建带利息的数字资产,且不涉及央行数字货币的隐私问题。

  • 这意味着:链上债券可以在 DeFi 中作为高质量抵押品,使主权债务无缝接入去中心化借贷协议。
  • 潜在收益:更高透明度、潜在的发行成本降低,以及更民主化的债券市场。
  • 需警惕:监管机构的怀疑态度以及大型机构的惯性。传统清算系统不会轻易消失。

7. ‘DUNA’——DAO 的法律支柱

关键洞见:怀俄明州推出了“去中心化未注册非营利协会”(DUNA)这一新类别,旨在为美国的 DAO 提供法律地位。

  • 这意味着:DAO 现在可以持有资产、签订合同,并限制代币持有者的责任。这为更主流的使用和真实商业活动打开了大门。
  • 潜在收益:如果其他州效仿怀俄明(正如它们对 LLC 的做法),DAO 将成为普通商业实体。
  • 需警惕:公众对 DAO 的认知仍模糊。它们需要成功项目的记录,以转化为现实世界的价值。

8. 实体世界的流动民主

关键洞见:基于区块链的治理实验可能从线上 DAO 社区扩展到地方选举。选民可以委托投票或直接投票——“流动民主”。

  • 这意味着:更灵活的代表制。你可以选择在特定议题上投票,或将责任交给你信任的人。
  • 潜在收益:可能提升公民参与度和动态政策制定。
  • 需警惕:安全顾虑、技术素养以及将区块链与官方选举混合的普遍怀疑。

9. 基于现有基础设施构建(而非重新发明)

关键洞见:创业公司常常花时间重新打造底层技术(共识协议、编程语言),而不是专注于产品‑市场匹配。到 2025 年,他们将更多采用现成组件。

  • 这意味着:更快的上市速度、更可靠的系统以及更高的可组合性。
  • 潜在收益:减少从零构建新区块链的时间;将更多精力投入到要解决的用户问题上。
  • 需警惕:为了性能提升而过度专化是诱人的。但专用语言或共识层会给开发者带来更高的维护成本。

10. 用户体验优先,基础设施其次

关键洞见:加密需要“隐藏线路”。我们不会让消费者学习 SMTP 来发送邮件——为何要强迫他们学习 “EIP” 或 “rollup”?

  • 这意味着:产品团队会选择服务于卓越用户体验的技术底层,而不是相反。
  • 潜在收益:用户 onboarding 大幅提升,降低摩擦和行话。
  • 需警惕: “建好它他们就会来” 只有在真正打磨好体验时才成立。所谓的 “轻松加密 UX” 的营销口号毫无意义,如果用户仍需管理私钥或记忆晦涩缩写。

11. 加密自己的应用商店出现

关键洞见:从 Worldcoin 的 World App 市场到 Solana 的 dApp Store,加密友好平台提供了不受 Apple 或 Google 审核限制的分发与发现渠道。

  • 这意味着:如果你在构建去中心化应用,可以在不担心被突然下架的情况下触达用户。
  • 潜在收益:成千上万(甚至数十万)新用户在数天内发现你的 dApp,而不是在中心化应用商店的海洋中迷失。
  • 需警惕:这些商店需要足够的用户基数和动能,才能与 Apple、Google 竞争。这是巨大的门槛。硬件绑定(如专用加密手机)可能有所帮助。

12. 对‘非传统’资产进行代币化

关键洞见:随着区块链基础设施成熟、费用下降,对从生物特征数据到现实奇珍异宝的代币化变得更可行。

  • 这意味着:一条“长尾”独特资产可以被碎片化并在全球交易。人们甚至可以在受控、基于同意的方式下变现个人数据。
  • 潜在收益:为原本“锁定”的资产打开巨大的新市场,同时为 AI 提供有趣的新数据池。
  • 需警惕:隐私陷阱和伦理雷区。仅因为你可以代币化某物,并不意味着你应该这么做。

A16Z 的 2025 展望展示了一个正向更广泛采纳、更负责任治理以及更深度与 AI 融合的加密行业。相较于以往的投机或炒作周期,这一愿景围绕实用性展开:稳定币为商家每杯咖啡节省 2% 成本,AI 聊天机器人自行经营业务,地方政府尝试流动民主。

然而执行风险依然存在。全球监管机构仍保持警惕,用户体验仍然过于繁琐,难以触达主流。2025 可能是加密与 AI 终于“长大”的一年,也可能只是半步前进——这全取决于团队能否交付人们真正喜爱的产品,而非仅为行家打造的协议。

0G的去中心化AI操作系统真的能在链上大规模驱动AI吗?

· 阅读需 9 分钟

2024 年 11 月 13 日,0G Labs 宣布完成 4000 万美元 融资,由 Hack VC、Delphi Digital、OKX Ventures、Samsung Next 和 Animoca Brands 主导,使得这支致力于去中心化 AI 操作系统的团队一举成名。他们的模块化方案将去中心化存储、数据可用性验证与去中心化结算相结合,以实现链上 AI 应用。但他们真的能达到 GB/s 级别的吞吐量,为 Web3 的下一波 AI 采用提供动力吗?本深度报告评估了 0G 的架构、激励机制、生态吸引力以及潜在风险,帮助你判断 0G 是否能够兑现其承诺。

背景

AI 领域因 ChatGPTERNIE Bot 等大语言模型而呈现爆炸式增长。然而,AI 不仅仅是聊天机器人和生成式文本,还包括 AlphaGo 的围棋胜利、MidJourney 等图像生成工具。许多开发者追求的终极目标是通用人工智能(AGI),即能够学习、感知、决策并执行复杂任务的 AI “代理”。

然而,AI 与 AI 代理应用极度 数据密集,训练与推理都依赖海量数据集。传统上,这些数据存储在中心化基础设施上。区块链的出现催生了 DeAI(去中心化 AI) 的概念,尝试利用去中心化网络进行数据存储、共享与验证,以克服中心化 AI 的局限。

0G Labs 在 DeAI 基础设施领域脱颖而出,致力于构建一个名为 0G去中心化 AI 操作系统

0G Labs 是什么?

在传统计算中,操作系统(OS) 管理硬件与软件资源——如 Windows、Linux、macOS、iOS 或 Android。操作系统抽象底层硬件,使终端用户和开发者都能更便捷地使用计算机。

类比之下,0G OS 旨在在 Web3 中扮演同样的角色:

  • 管理 去中心化存储、计算与数据可用性;
  • 简化 链上 AI 应用的部署。

为何去中心化? 传统 AI 系统将数据存储在中心化孤岛,导致数据透明度、用户隐私以及数据提供者报酬等问题。0G 通过去中心化存储、加密证明和开放激励模型来降低这些风险。

“0G” 代表 “Zero Gravity(零重力)”。团队设想一个数据交换与计算“无重量”的环境——从 AI 训练到推理再到数据可用性,都能在链上无缝进行。

0G 基金会 于 2024 年 10 月正式成立,使命是让 AI 成为公共产品,做到可访问、可验证、对所有人开放。

0G 操作系统的关键组件

从根本上看,0G 是为链上 AI 应用量身定制的模块化架构,核心由 三大支柱 组成:

  1. 0G Storage – 去中心化存储网络。
  2. 0G DA(Data Availability) – 专用的数据可用性层,确保数据完整性。
  3. 0G Compute Network – 去中心化计算资源管理与 AI 推理结算(未来还将支持训练)。

这三大支柱在 0G Chain(Layer1 网络)之下协同工作,负责共识与结算。

根据 0G 白皮书(《0G:迈向 Data Availability 2.0》),0G Storage 与 0G DA 均构建在 0G Chain 之上。开发者可以启动多个自定义 PoS 共识网络,每个网络都作为 0G DA 与 0G Storage 框架的一部分。模块化设计意味着系统负载增长时,0G 能动态添加验证者集合或专用节点实现横向扩容。

0G Storage

0G Storage 是面向大规模数据的去中心化存储系统,节点通过激励机制存储用户数据。关键在于使用 纠删码(Erasure Coding,EC) 将数据切分为 更小且冗余的“块”,并分布到不同存储节点。即使某些节点失效,仍可通过冗余块恢复数据。

支持的数据类型

0G Storage 同时支持 结构化非结构化 数据。

  1. 结构化数据 采用 键值(Key-Value,KV)层,适用于动态、频繁更新的信息(如数据库、协作文档等)。
  2. 非结构化数据 采用 日志(Log)层,按时间顺序追加数据,类似于为大规模写入优化的文件系统。

通过在日志层之上叠加 KV 层,0G Storage 能满足从存储大模型权重(非结构化)到实时用户数据或指标(结构化)的多样化 AI 需求。

PoRA 共识

PoRA(Proof of Random Access) 用于验证存储节点真实持有其声称的块。工作原理:

  • 存储矿工定期 被挑战 提交特定随机块的加密哈希。
  • 矿工必须基于本地数据生成有效哈希(类似 PoW 的 puzzle 求解)。

为保证公平,系统将挖矿竞争限制在 8 TB 的分段内。大矿工可将硬件拆分为多个 8 TB 分区,小矿工则在单一 8 TB 边界内竞争。

激励设计

0G Storage 将数据划分为 8 GB 的 “定价段”。每段拥有 捐赠池奖励池。用户存储数据时支付 0G Token(ZG) 费用,部分用于节点奖励。

  • 基础奖励:存储节点提交有效 PoRA 证明后,立即获得该段的区块奖励。
  • 持续奖励:捐赠池每年释放约 4% 到奖励池,激励节点长期存储数据。存储同一段的节点越少,单节点可获得的份额越大。

用户仅需 一次性 支付永久存储费用,但必须设置高于系统最低值的捐赠额。捐赠越高,矿工复制该数据的意愿越强。

版税机制:0G Storage 还引入 “版税” 或 “数据共享” 机制。早期存储提供者为每个数据块创建版税记录。若新节点想存储相同块,原节点可共享数据。当新节点后续通过 PoRA 证明存储时,原数据提供者持续获得版税。数据复制越广,早期提供者的累计奖励越高。

与 Filecoin 与 Arweave 的对比

相似点

  • 三者均激励去中心化数据存储。
  • 0G Storage 与 Arweave 均追求 永久存储
  • 数据切块与冗余是通用做法。

关键差异

  • 原生集成:0G Storage 不是独立区块链,而是直接集成在 0G Chain,主要面向 AI 场景。
  • 结构化数据:0G 支持 KV 型结构化数据,满足 AI 工作负载的读写需求。
  • 成本:0G 声称 $10–11/TB 的永久存储费用,低于 Arweave。
  • 性能定位:专为 AI 吞吐量设计,而 Filecoin、Arweave 更偏向通用去中心化存储。

0G DA(数据可用性层)

数据可用性 确保每个网络参与者都能完整验证并获取交易数据。若数据缺失或被隐藏,区块链的信任假设即告失效。

在 0G 系统中,数据被切块并离链存储。系统记录这些块的 Merkle 根,DA 节点必须 抽样 检查块是否匹配 Merkle 根与纠删码承诺。只有通过抽样验证后,数据才被视为 “可用”,并写入共识状态。

DA 节点选取与激励

  • DA 节点需 质押 ZG 才能参与。
  • 节点通过 VRF(可验证随机函数) 随机分配到 仲裁组(quorum)
  • 每个节点仅验证 数据子集。若 2/3 的仲裁组确认数据可用且正确,则签署证明并聚合提交至 0G 共识网络。
  • 奖励通过周期性抽样分配,仅抽中随机块的节点可获得当轮奖励。

与 Celestia 与 EigenLayer 的比较

0G DA 借鉴 Celestia(数据可用性抽样)和 EigenLayer(再质押)理念,但目标是实现 更高吞吐。Celestia 当前约 10 MB/s,区块时间 12 秒。EigenDA 主要服务于 Layer2,实现较为复杂。0G 设想 GB/s 级别的吞吐,以满足 50–100 GB/s 数据摄入的 AI 大规模工作负载。

0G Compute Network

0G Compute Network 是去中心化计算层,分阶段演进:

  • 阶段 1:聚焦 AI 推理结算。网络在去中心化市场中匹配 “AI 模型买家”(用户)与计算提供者(卖家)。提供者在智能合约中注册服务与价格,用户发起推理请求并支付 ZG,合约完成结算。
  • 后续阶段:将支持链上训练、批处理等更复杂计算。

0G 生态与治理

0G 基金会通过 治理代币 ZG 实现社区共识。持币者可投票决定协议升级、费用模型以及激励参数。生态合作伙伴包括多家链上 AI 项目、去中心化数据市场以及传统 AI 企业。

潜在风险与挑战

  1. 技术实现难度:GB/s 级别的跨链数据抽样、纠删码恢复以及计算结算需要极高的网络同步效率,当前公链网络仍在探索阶段。
  2. 激励经济模型:永久存储的低成本可能导致质押收益不足,进而影响节点参与度。
  3. 监管不确定性:AI 数据涉及隐私与版权,去中心化存储可能面临合规审查。
  4. 竞争格局:其他 DeAI 项目(如 Fetch.ai、SingularityNET)也在同步推进,市场份额尚未明朗。
  5. 用户采纳:AI 开发者是否愿意将模型权重与推理数据迁移至链上仍是未知数。

结论

0G Labs 已成功完成大额融资,并展示了完整的模块化蓝图:从去中心化存储、数据可用性到计算结算,形成了链上 AI 生态的闭环。若技术实现能够达到宣称的 GB/s 吞吐,0G 将在 Web3 上提供前所未有的 AI 扩展能力。然而,当前仍处于早期阶段,关键在于:

  • 验证 PoRADA 抽样 在真实网络规模下的可靠性;
  • 观察 激励池 是否能够持续吸引节点提供长期存储;
  • 监测 市场需求,即链上 AI 推理与训练的实际使用量。

综合来看,0G 的愿景具有创新性且符合去中心化 AI 的长期趋势,但实现路径仍充满技术与经济的不确定性。投资者与开发者应在关注其进展的同时,保持对潜在风险的警惕。

去中心化物理基础设施网络 (DePIN):经济学、激励机制与人工智能计算时代

· 阅读需 53 分钟
Dora Noda
Software Engineer

引言

去中心化物理基础设施网络 (Decentralized Physical Infrastructure Networks, DePIN) 是指基于区块链的项目,通过激励人们部署真实世界的硬件来换取加密代币。通过利用闲置或未充分利用的资源——从无线电台到硬盘和 GPU——DePIN 项目创建了提供有形服务(连接、存储、计算等)的众包网络。这种模式通过代币奖励贡献者,将通常闲置的基础设施(如未使用的带宽、磁盘空间或 GPU 算力)转变为活跃的、能产生收入的网络。早期的主要例子包括 Helium(众包无线网络)和 Filecoin(分布式数据存储),而新进入者则瞄准了 GPU 计算和 5G 覆盖共享领域(例如 Render NetworkAkashio.net)。

DePIN 的前景在于通过代币激励来分散构建和运营物理网络的成本,从而比传统的中心化模式更快地扩展网络。然而,在实践中,这些项目必须精心设计经济模型,以确保代币激励能转化为真实的服务使用和可持续的价值。下文我们将分析关键 DePIN 网络的经济模型,评估代币奖励在多大程度上有效地推动了实际的基础设施使用,并探讨这些项目如何与人工智能相关计算需求的蓬勃发展相结合。

领先 DePIN 项目的经济模型

Helium (去中心化无线物联网与 5G)

Helium 通过激励个人部署无线电热点,开创了一个去中心化的无线网络。最初专注于物联网 (LoRaWAN),后来扩展到 5G 小基站覆盖,Helium 的模型以其原生代币 HNT 为中心。热点运营商通过参与覆盖证明 (Proof-of-Coverage, PoC) 来赚取 HNT——这实质上是证明他们在特定位置提供了无线覆盖。在 Helium 的双代币系统中,HNT 通过数据积分 (Data Credits, DC) 获得效用:用户必须销毁 HNT 来铸造不可转让的 DC,DC 用于按每 24 字节 0.0001 美元的固定费率支付实际网络使用费(设备连接)。这种销毁机制创造了一个销毁与铸造均衡,即网络使用量(DC 支出)的增加会导致更多 HNT 被销毁,从而随着时间的推移减少供应量。

最初,Helium 在自己的区块链上运行,HNT 的通胀发行量每两年减半(导致供应量逐渐减少,最终流通量上限约为 2.23 亿 HNT)。2023 年,Helium 迁移到 Solana,并引入了一个包含子 DAO 的**“网络中的网络”框架。现在,Helium 的物联网网络和 5G 移动网络各自拥有自己的代币(分别为 IOTMOBILE),奖励给热点运营商,而 HNT 仍然是治理和价值的核心代币**。HNT 可以通过财库池兑换为子 DAO 代币(反之亦然),并且 HNT 也用于 Helium 的 veHNT 治理模型中的质押。这种结构旨在协调每个子网络的激励机制:例如,5G 热点运营商赚取 MOBILE 代币,这些代币可以转换为 HNT,从而有效地将奖励与该特定服务的成功挂钩。

经济价值创造: Helium 的价值是通过提供低成本的无线接入来创造的。通过分发代币奖励,Helium 将网络部署的资本支出 (capex) 转移给了购买和运行热点的个人。理论上,随着企业和物联网设备使用网络(通过花费需要销毁 HNT 的 DC),这种需求应该能支撑 HNT 的价值并为持续的奖励提供资金。Helium 通过一个销毁与支出循环来维持其经济:网络用户购买 HNT(或使用 HNT 奖励)并将其销毁以换取 DC 来使用网络,而协议则(根据固定时间表)铸造 HNT 来支付给热点提供商。在 Helium 的设计中,一部分 HNT 发行量也分配给了创始人和社区储备,但大部分始终用于激励热点运营商建设覆盖范围。如下文所述,Helium 面临的挑战是获得足够的付费需求来平衡慷慨的供应侧激励。

Filecoin (去中心化存储网络)

Filecoin 是一个去中心化的存储市场,任何人都可以在其中贡献磁盘空间并因存储数据而赚取代币。其经济模型建立在 FIL 代币之上。Filecoin 的区块链通过 FIL 区块奖励来回报存储提供商(矿工),以表彰他们提供存储空间并正确存储客户数据——使用加密证明(复制证明时空证明)来验证数据是否被可靠存储。反过来,客户向矿工支付 FIL 以存储或检索他们的数据,并在一个开放市场中协商价格。这创造了一个激励循环:矿工投资硬件并质押 FIL 作为抵押品(以保证服务质量),通过增加存储容量和完成存储交易来赚取 FIL 奖励,而客户则花费 FIL 获得存储服务。

Filecoin 的代币分配严重偏向于激励存储供应。FIL 的最大供应量为 20 亿,其中 70% 保留用于挖矿奖励。(实际上,约 14 亿 FIL 被分配用于在未来多年内作为区块奖励逐步释放给存储矿工。)剩余的 30% 分配给利益相关者:15% 给 Protocol Labs(创始团队),10% 给投资者,5% 给 Filecoin 基金会。区块奖励的释放遵循一个某种程度上前置的时间表(半衰期为六年),这意味着供应通胀在早期最高,以快速引导一个大型存储网络。为了平衡这一点,Filecoin 要求矿工为他们承诺存储的每 GB 数据锁定 FIL 作为抵押品——如果他们未能证明数据被保留,他们可能会因失去部分抵押品而受到惩罚(被罚没)。这种机制使矿工的激励与可靠的服务保持一致。

经济价值创造: Filecoin 通过提供抗审查、冗余的数据存储来创造价值,其成本可能低于中心化的云提供商。FIL 代币的价值与存储需求和网络效用挂钩:客户必须获取 FIL 来支付数据存储费用,而矿工需要 FIL(既作为抵押品,也通常用于覆盖成本或作为收入)。最初,Filecoin 的许多活动是由矿工竞相赚取代币驱动的——甚至存储零价值或重复的数据,只是为了增加他们的存储算力并赚取区块奖励。为了鼓励有用的存储,Filecoin 推出了 Filecoin Plus 计划:拥有经过验证的有用数据(例如开放数据集、档案)的客户可以将交易注册为“已验证”,这使得矿工在这些交易中获得 10 倍的有效算力,从而转化为相应更多的 FIL 奖励。这激励了矿工去寻找真实客户,并极大地增加了网络上存储的有用数据。到 2023 年底,Filecoin 网络的活跃交易量已增长到约 1,800 PiB,同比增长 3.8 倍,存储利用率从 2023 年初的约 3% 上升到总容量的约 20%。换句话说,代币激励引导了巨大的容量,而现在这部分容量中越来越大的比例被付费客户填满——这是该模型开始通过真实需求自我维持的迹象。Filecoin 也在扩展到相邻服务(见下文的_人工智能计算趋势_),这可能会创造新的收入来源(例如去中心化内容分发和数据计算服务),以在简单的存储费用之外巩固 FIL 经济。

Render Network (去中心化 GPU 渲染与计算)

Render Network 是一个基于 GPU 计算的去中心化市场,最初专注于渲染 3D 图形,现在也支持人工智能模型训练/推理任务。其原生代币 RNDR(最近在 Solana 上更新为 RENDER)为该经济体提供动力。创作者(需要 GPU 工作的用户)用 RNDR 支付渲染或计算任务的费用,而节点运营商(GPU 提供商)通过完成这些工作来赚取 RNDR。这种基本模型将闲置的 GPU(来自个人 GPU 所有者或数据中心)转变为一个分布式的云渲染农场。为确保质量和公平,Render 使用托管智能合约:客户提交任务并销毁等值的 RNDR 付款,这笔款项被持有直到节点运营商提交完成工作的证明,然后 RNDR 作为奖励被释放。最初,RNDR 作为一个纯粹的效用/支付代币,但该网络最近对其代币经济学进行了改革,采用了销毁与铸造均衡 (Burn-and-Mint Equilibrium, BME) 模型,以更好地平衡供需。

在 BME 模型下,所有渲染或计算任务都以稳定价值(美元)定价,并以 RENDER 代币支付,这些代币在任务完成后被销毁。与此同时,协议根据预定义的递减发行时间表铸造新的 RENDER 代币,以补偿节点运营商和其他参与者。实际上,用户为工作支付的款项会_销毁_代币,而网络则以受控的速率_通胀_代币作为挖矿奖励——净供应量会根据使用情况随时间增加或减少。社区批准了在 BME 的第一年(2023 年中至 2024 年中)初始发行约 910 万 RENDER 作为网络激励,并设定了约 6.44 亿 RENDER 的长期最大供应量(高于最初在启动时铸造的 5.369 亿 RNDR)。值得注意的是,RENDER 的代币分配严重偏向于生态系统增长:初始供应的 65% 分配给财库(用于未来的网络激励),25% 给投资者,10% 给团队/顾问。通过 BME,该财库正通过受控的发行来奖励 GPU 提供商和其他贡献者,而销毁机制则将这些奖励与平台使用直接挂钩。RNDR 也作为治理代币(代币持有者可以对 Render Network 的提案进行投票)。此外,Render 上的节点运营商可以质押 RNDR 来表明其可靠性,并可能获得更多工作,这增加了另一层激励。

经济价值创造: Render Network 通过提供按需 GPU 计算来创造价值,其成本仅为传统云 GPU 实例的一小部分。到 2023 年底,Render 的创始人指出,工作室已经使用该网络渲染电影质量的图形,并获得了显著的成本和速度优势——“成本仅为十分之一”,并且其聚合容量超过任何单一的云提供商。这种成本优势之所以可能,是因为 Render 利用了全球 dormant 的 GPU(从业余爱好者的设备到专业渲染农场),这些 GPU 否则会处于闲置状态。随着对 GPU 时间(用于图形和人工智能)的需求不断增长,Render 的市场满足了一个关键需求。至关重要的是,BME 代币模型意味着代币价值与服务使用直接相关:随着更多的渲染和人工智能任务通过网络进行,更多的 RENDER 被销毁(产生购买压力或减少供应),而节点激励仅在这些任务完成后才会相应增加。这有助于避免“为无用功付费”——如果网络使用停滞,代币发行最终会超过销毁(导致供应通胀),但如果使用增长,销毁可以抵消甚至超过发行,可能使代币在奖励运营商的同时变得通缩。市场对 Render 模型的浓厚兴趣反映在其价格上:RNDR 的价格在 2023 年飙升价值上涨超过 1,000%,因为投资者预期在人工智能热潮中,对去中心化 GPU 服务的需求将激增。在 OTOY(云渲染软件领域的领导者)的支持下,并被一些主要工作室用于生产,Render Network 已成为 Web3 和高性能计算交叉领域的关键参与者。

Akash Network (去中心化云计算)

Akash 是一个去中心化的云计算市场,使用户能够从拥有闲置服务器容量的提供商那里租用通用计算资源(虚拟机、容器等)。可以把它看作是 AWS 或 Google Cloud 的去中心化替代品,由一个基于区块链的反向拍卖系统驱动。原生代币 AKT 是 Akash 经济的核心:客户用 AKT 支付计算租约,提供商通过供应资源赚取 AKT。Akash 基于 Cosmos SDK 构建,并使用委托权益证明区块链来确保安全和协调。因此,AKT 也作为质押和治理代币——验证者质押 AKT(用户将 AKT 委托给验证者)以保护网络并赚取质押奖励。

Akash 的市场通过一个竞标系统运作:客户定义一个部署(CPU、RAM、存储,可能还有 GPU 要求)和最高价格,多个提供商可以竞标托管它,从而压低价格。一旦客户接受一个出价,一个租约就形成了,工作负载就在选定的提供商的基础设施上运行。租约的支付由区块链处理:客户托管 AKT,随着部署的激活,AKT 会随时间流向提供商。独特的是,Akash 网络对每笔租约收取协议**“抽成率”费用**,以资助生态系统并奖励 AKT 质押者:10% 的租约金额(如果以 AKT 支付)或 20%(如果以其他货币支付)将作为费用转入网络财库和质押者。这意味着 AKT 质押者可以从所有使用中分得一杯羹,将代币的价值与平台的实际需求联系起来。为了提高主流用户的可用性,Akash 集成了稳定币和信用卡支付(通过其控制台应用):客户可以用美元稳定币支付,这在后台会转换为 AKT(手续费率更高)。这降低了用户的波动性风险,同时仍然为 AKT 代币带来价值(因为这些稳定币支付最终会导致 AKT 被购买/销毁或分配给质押者)。

在供应方面,AKT 的代币经济学旨在激励长期参与。Akash 创世时有 1 亿 AKT,通过通胀机制,最大供应量为 3.89 亿。通胀率是自适应的,基于质押的 AKT 比例:如果质押率低,目标年通胀率为 20-25%,如果质押的 AKT 比例高,则约为 15%。这种自适应通胀(在基于 Cosmos 的链中常见的设计)通过在质押参与度低时给予更多奖励,来鼓励持有者进行质押(为网络安全做贡献)。来自通胀的区块奖励用于支付验证者和委托人,并为一个生态系统增长储备金提供资金。AKT 的初始分配为投资者、核心团队 (Overclock Labs) 和一个用于生态系统激励的基金会池预留了份额(例如,2024 年初的一个项目资助了 GPU 提供商加入)。

经济价值创造: Akash 通过提供成本可能远低于现有云提供商的云计算服务来创造价值,利用了全球未充分利用的服务器。通过去中心化云,它还旨在填补区域空白并减少对少数几家大型科技公司的依赖。AKT 代币从多个角度增值:需求侧费用(更多工作负载 = 更多 AKT 费用流向质押者)、供应侧需求(提供商可能持有或质押收益,并需要质押一些 AKT 作为提供服务的抵押品),以及整体网络增长(AKT 用于治理和作为生态系统中的储备货币)。重要的是,随着更多真实工作负载在 Akash 上运行,流通中用于质押和费用存款的 AKT 比例应该会增加,反映出其实用性。最初,Akash 在 Web 服务和加密基础设施托管方面使用量不大,但在 2023 年底,它扩展了对 GPU 工作负载的支持——使得在网络上运行人工智能训练、机器学习和高性能计算任务成为可能。这在 2024 年显著提升了 Akash 的使用量。到 2024 年第三季度,该网络的指标显示出_爆炸性_增长:活跃部署(“租约”)的数量同比增长 1,729%每笔租约的平均费用(工作负载复杂性的一个代理指标)上涨了 688%。实际上,这意味着用户在 Akash 上部署了更多的应用程序,并且愿意运行更大、更长的工作负载(许多涉及 GPU)——这证明了代币激励吸引了真实的付费需求。Akash 的团队报告称,到 2024 年底,网络上有超过 700 个 GPU 在线,利用率约为 78%(即约 78% 的 GPU 容量在任何时候都被租用)。这是代币激励有效转换的一个强烈信号(见下一节)。内置的_费用共享_模型也意味着,随着使用量的增长,AKT 质押者会收到协议收入,有效地将代币奖励与实际服务收入挂钩——这是一个更健康的长期经济设计。

io.net (专注于人工智能的去中心化 GPU 云)

io.net 是一个较新的项目(建立在 Solana 上),旨在成为“全球最大的 GPU 网络”,专门面向人工智能和机器学习工作负载。其经济模型借鉴了 Render 和 Akash 等早期项目的经验。原生代币 IO最大供应量固定为 8 亿。在启动时,预先铸造了 5 亿 IO 并分配给各利益相关方,剩余的 3 亿 IO 将在 20 年内作为挖矿奖励发行(每小时分发给 GPU 提供商和质押者)。值得注意的是,io.net 实施了一种基于收入的销毁机制:一部分网络费用/收入用于销毁 IO 代币,直接将代币供应与平台使用挂钩。这种结合——有上限的供应、定时释放的发行以及由使用驱动的销毁——旨在确保代币经济的长期可持续性。

要作为 GPU 节点加入网络,提供商需要质押最低数量的 IO 作为抵押品。这有两个目的:它能阻止恶意或低质量的节点(因为他们有“切身利益”),并减少奖励代币的即时卖压(因为节点必须锁定一些代币才能参与)。质押者(可以包括提供商和其他参与者)也能获得一部分网络奖励,从而协调整个生态系统的激励。在需求方面,客户(人工智能开发者等)为 io.net 上的 GPU 计算付费,大概是以 IO 代币或可能的稳定币等价物支付——该项目声称提供成本比 AWS 等传统提供商低 90% 的云 GPU 算力。这些使用费驱动了销毁机制:随着收入的流入,一部分代币被销毁,将平台的成功与代币的稀缺性联系起来。

经济价值创造: io.net 的价值主张是从多种来源聚合 GPU 算力(数据中心、重新利用挖矿设备的加密矿工等),形成一个单一网络,能够大规模提供按需的人工智能计算。通过旨在全球范围内接入超过 100 万个 GPU,io.net 试图在规模上超越任何单一云服务,并满足对人工智能模型训练和推理的激增需求。IO 代币通过多种机制捕获价值:供应有限(因此如果对网络服务的需求增长,代币价值可以增长),使用会销毁代币(直接从服务收入中为代币创造价值反馈),以及代币奖励引导供应(逐步将代币分发给贡献 GPU 的人,确保网络增长)。本质上,io.net 的经济模型是一种精炼的 DePIN 方法,其中供应侧激励(每小时的 IO 发行)是可观但有限的,并且它们被与实际使用成比例的代币消耗(销毁)所平衡。这旨在避免因没有需求而导致过度通胀的陷阱。正如我们将看到的,人工智能计算趋势为像 io.net 这样的网络提供了一个巨大且不断增长的市场,这可能会推动理想的均衡状态,即代币激励导致强劲的服务使用。(io.net 仍处于发展初期,其实际指标尚待证明,但其设计明确针对人工智能计算领域的需求。)

表 1:部分 DePIN 项目的关键经济模型特征

项目领域代币 (代码)供应与分配激励机制代币效用与价值流
Helium去中心化无线 (物联网与 5G)Helium Network Token (HNT); 外加子代币 IOT & MOBILE可变供应,发行量递减: HNT 发行量约每 2 年减半(按原始区块链),目标 50 年后流通量约 2.23 亿 HNT。迁移至 Solana 后新增 2 个子代币:IOT 和 MOBILE 分别奖励给物联网和 5G 热点所有者。覆盖证明挖矿: 热点通过提供覆盖(LoRaWAN 或 5G)赚取 IOT 或 MOBILE 代币。这些子代币可通过财库池转换为 HNT。HNT 用于治理质押 (veHNT),是跨网络奖励的基础。通过数据积分实现网络使用: HNT 被销毁以创建用于设备连接的数据积分 (DC)(固定价格为每 24 字节 0.0001 美元)。所有网络费用(DC 购买)实际上都会销毁 HNT(减少供应)。因此,代币价值与物联网/移动数据传输的需求挂钩。HNT 的价值也支持子 DAO 代币(使其可兑换为稀缺资产)。
Filecoin去中心化存储Filecoin (FIL)上限供应 20 亿: 70% 分配给存储挖矿奖励(数十年内释放);约 30% 分配给 Protocol Labs、投资者和基金会。区块奖励遵循六年半衰期(早期通胀较高,后期递减)。存储挖矿: 存储提供商根据其贡献的已验证存储量按比例赚取 FIL 区块奖励。客户支付 FIL 用于存储或检索数据。矿工需提供 FIL 抵押品,若服务失败可能被罚没。Filecoin Plus 为“有用”的客户数据提供 10 倍的算力奖励,以激励真实存储。支付与抵押: FIL 是存储交易的货币——客户花费 FIL 存储数据,为代币创造了有机需求。矿工锁定 FIL 作为抵押品(暂时减少流通供应)并因提供有用服务而赚取 FIL。随着使用量增长,更多 FIL 被锁定在交易和抵押中。网络费用(用于交易)极少(Filecoin 专注于流向矿工的存储费用)。长期来看,FIL 的价值取决于数据存储需求和新兴用例(例如,Filecoin 虚拟机支持数据智能合约,可能产生新的费用消耗)。
Render Network去中心化 GPU 计算 (渲染与人工智能)Render Token (RNDR / RENDER)初始供应约 5.369 亿 RNDR, 通过新发行增至最大约 6.44 亿。销毁与铸造均衡: 新 RENDER 按固定时间表发行(约 5 年内 20% 的通胀池,然后是尾部发行)。发行用于网络激励(节点奖励等)。销毁: 用户支付的 RENDER 在每个任务完成后被销毁。分配:65% 财库(网络运营和奖励),25% 投资者,10% 团队/顾问。GPU 工作市场: 节点运营商执行渲染/计算任务并赚取 RENDER。任务以美元定价,但以 RENDER 支付;所需代币在工作完成后被销毁。在每个周期(例如每周),新的 RENDER 被铸造并根据完成的工作量分发给节点运营商。节点运营商也可以质押 RNDR 以获得更高信任度和潜在的任务优先权。效用与价值流: RENDER 是 GPU 服务的费用代币——内容创作者和人工智能开发者必须获取并花费它来完成工作。因为这些代币被销毁,使用直接减少了供应。新的代币发行补偿了工作者,但按递减的时间表进行。如果网络需求高(销毁 > 发行),RENDER 会变得通缩;如果需求低,通胀可能超过销毁(激励更多供应直到需求赶上)。RENDER 也用于网络治理。因此,代币的价值与平台使用密切相关——事实上,RNDR 在 2023 年上涨了约 10 倍,因为人工智能驱动的 GPU 计算需求飙升,表明市场相信使用量(和销毁量)将会很高。
Akash Network去中心化云 (通用计算与 GPU)Akash Token (AKT)初始供应 1 亿;最大供应 3.89 亿。 通胀型 PoS 代币: 自适应通胀率每年约 15-25%(随着质押率上升而下降)以激励质押。持续的发行用于支付验证者和委托人。分配:34.5% 投资者,27% 团队,19.7% 基金会,8% 生态系统,5% 测试网(有锁仓/归属期)。反向拍卖市场: 提供商竞标托管部署;客户用 AKT 支付租约。费用池: 10% 的 AKT 支付(或 20% 的其他代币支付)作为协议费进入网络(质押者)。Akash 使用权益证明链——验证者质押 AKT 以保护网络并赚取区块奖励。客户可以通过 AKT 或集成的稳定币(带转换)支付。效用与价值流: AKT 用于所有交易(直接或通过稳定币转换)。客户购买 AKT 支付计算租约,随着网络使用增长创造需求。提供商赚取 AKT 并可以出售或质押。质押奖励 + 费用收入: 持有和质押 AKT 可以从通胀中获得奖励,_并_分享所有费用,因此活跃的网络使用直接使质押者受益。该模型将代币价值与云需求对齐:随着更多 CPU/GPU 工作负载在 Akash 上运行,更多 AKT 费用流向持有者(并且更多 AKT 可能被锁定为抵押品或由提供商质押)。治理也通过 AKT 持有量进行。总体而言,代币的健康状况随着利用率的提高而改善,并有通胀控制以鼓励长期参与。
io.net去中心化 GPU 云 (专注于人工智能)IO Token (IO)固定上限 8 亿 IO: 5 亿预先铸造(分配给团队、投资者、社区等),3 亿在约 20 年内作为挖矿奖励发行(每小时分发)。达到上限后不再有通胀。内置销毁: 网络收入触发代币销毁以减少供应。质押:提供商必须质押最低数量的 IO 才能参与(并可质押更多以获得奖励)。GPU 共享网络: 硬件提供商(数据中心、矿工)连接 GPU 并因贡献容量而持续(每小时)赚取 IO 奖励。他们还从客户的使用中赚取费用。质押要求: 运营商质押 IO 作为抵押品以确保良好行为。用户可能用 IO(或转换为 IO 的稳定币)支付人工智能计算任务费用;每笔费用的一部分由协议销毁效用与价值流: IO 是网络上 GPU 计算能力的交换媒介,也是运营商质押的安全代币。代币价值由三方面驱动:(1) 对人工智能计算的需求——客户必须获取 IO 来支付任务费用,更高的使用量意味着更多代币被销毁(减少供应)。(2) 挖矿激励——分发给 GPU 提供商的新 IO 激励网络增长,但固定上限限制了长期通胀。(3) 质押——IO 被提供商(以及可能的用户或委托人)锁定以赚取奖励,减少了流动供应并将参与者与网络成功对齐。总之,io.net 的代币模型设计为,如果它成功地大规模吸引人工智能工作负载,代币供应将因(销毁和质押)而变得日益稀缺,从而使持有者受益。固定供应也施加了纪律,防止无休止的通胀,并旨在实现可持续的**“奖励换收入”**平衡。

来源: 各项目的官方文档和研究(见上文内联引用)。

代币激励与真实世界服务使用的对比

DePIN 项目面临的一个关键问题是,代币激励在多大程度上能有效地转化为真实的服务提供和网络的实际使用。在初始阶段,许多 DePIN 协议强调通过慷慨的代币奖励来引导供应(硬件部署),即使需求极小——这是一种“建好它,(希望)他们会来”的策略。这导致了网络市值和代币发行量远超客户收入的情况。截至 2024 年底,整个 DePIN 行业(约 350 个项目)的总市值约为 500 亿美元,但年化收入仅约 5 亿美元——总估值约为年收入的 100 倍。如此大的差距凸显了早期阶段的_低效率_。然而,最近的趋势显示出改善,因为网络正从纯粹的供应驱动增长转向需求驱动的采用,尤其是在人工智能计算需求激增的推动下。

下面我们评估每个示例项目的代币激励效率,考察使用指标与代币支出的对比:

  • Helium: Helium 的物联网网络在 2021-2022 年间爆炸式增长,全球部署了近 100 万个热点用于 LoRaWAN 覆盖。这种增长几乎完全是由 HNT 挖矿激励和加密货币热情驱动的——_而不是_客户对物联网数据的需求,后者仍然很低。到 2022 年中,很明显 Helium 的数据流量(实际使用网络的设备)相对于巨大的供应侧投资来说微不足道。2022 年的一项分析指出,每月用于数据使用的代币销毁额不到 1,000 美元,而网络当时每月为热点奖励铸造价值数千万美元的 HNT——这是一个严重的不平衡(基本上,网络使用抵消的代币发行量不到 1%)。在 2022 年底和 2023 年,HNT 代币奖励经历了计划中的减半(减少发行量),但使用量仍然滞后。一个 2023 年 11 月的例子:Helium 数据积分销毁的美元价值当天仅约 156 美元——而网络当天仍在向热点所有者支付估计价值 55,000 美元的代币奖励(以美元计价)。换句话说,当天的代币激励“成本”与实际网络使用的比例超过了 350:1。这说明了 Helium 早期物联网阶段激励到使用转换率极低的问题。Helium 的创始人认识到这个“鸡生蛋还是蛋生鸡”的困境:一个网络在吸引用户之前需要覆盖,但没有用户,覆盖范围就难以变现。

    有改善的迹象。2023 年底,Helium 启动了其 5G 移动网络,提供面向消费者的蜂窝服务(由 T-Mobile 漫游支持),并开始以 MOBILE 代币奖励 5G 热点运营商。Helium Mobile (5G) 的推出迅速带来了付费用户(例如,订阅 Helium 每月 20 美元无限移动套餐的用户)和新型的网络使用。几周内,Helium 的网络使用量猛增——到 2024 年初,每日数据积分销毁额达到约 4,300 美元(几个月前几乎为零)。此外,截至 2024 年第一季度,所有消耗的数据积分中有 92% 来自移动网络(5G),这意味着 5G 服务立即超过了物联网的使用量。虽然每天 4,300 美元在绝对值上仍然不大(年化约 160 万美元),但这代表了向真实收入迈出的有意义的一步。Helium 的代币模型正在适应:通过将物联网和移动网络分离为不同的奖励代币,它确保了如果 5G 使用量没有实现,5G 奖励(MOBILE 代币)将会缩减,IOT 代币也类似——有效地控制了低效率。Helium Mobile 的增长也显示了将代币激励与具有即时消费者利益的服务(廉价的蜂窝数据)相结合的力量。在推出后的 6 个月内,Helium 在美国部署了约 93,000 个 MOBILE 热点(以及全球约 100 万个物联网热点),并与 Telefónica 等公司建立了合作伙伴关系以扩大覆盖范围。未来的挑战是大幅增加用户基础(物联网设备客户和 5G 订户),以便用于数据积分的 HNT 销毁量接近 HNT 的发行规模。总而言之,Helium 最初存在极端的供应过剩(以及相应被高估的代币),但其向需求(5G,并定位为其他网络的“基础设施层”)的转型正在逐步提高其代币激励的效率。

  • Filecoin: 在 Filecoin 的案例中,不平衡存在于存储容量与实际存储数据之间。代币激励导致了供应的_过度充裕_:在其顶峰时期,Filecoin 网络有超过 15 艾字节 (EiB) 的原始存储容量由矿工承诺,但很长一段时间里,只有其中几个百分点被真实数据利用。大部分空间被填充了虚拟数据(客户甚至可以存储随机垃圾数据以满足证明要求),只是为了让矿工能赚取 FIL 奖励。这意味着大量的 FIL 被铸造并奖励给了用户实际上并不需要的存储。然而,在 2022-2023 年间,该网络在推动需求方面取得了巨大进展。通过 Filecoin Plus 等举措和积极引入开放数据集,利用率在 2023 年从约 3% 攀升至超过 20%。到 2024 年第四季度,Filecoin 的存储利用率进一步上升至约 30%——这意味着近三分之一的巨大容量被用于存储真实的客户数据。这离 100% 还很远,但趋势是积极的:代币奖励越来越多地流向有用的存储,而不是空洞的填充。另一个衡量标准是:截至 2024 年第一季度,约有 1,900 PiB (1.9 EiB) 的数据存储在 Filecoin 的活跃交易中,同比增长 200%。值得注意的是,现在大多数新交易都通过 Filecoin Plus(已验证客户)进行,这表明矿工非常倾向于将空间用于能为他们带来额外奖励倍数的数据。

    经济效率方面,Filecoin 的协议也经历了一个转变:最初,协议“收入”(用户支付的费用)与挖矿奖励(一些分析将其视为收入,从而夸大了早期数据)相比微不足道。例如,在 2021 年,Filecoin 的区块奖励价值数亿美元(在 FIL 价格高企时),但实际的存储费用微乎其微;2022 年,随着 FIL 价格下跌,报告的收入从 5.96 亿美元下降 98% 至 1300 万美元,这反映出 2021 年的大部分“收入”是代币发行价值而非客户支出。展望未来,平衡正在改善:付费存储客户的渠道正在增长(例如,2023 年底完成了一笔 1 PiB 的企业交易,这是首批大型全额付费交易之一)。Filecoin 引入 FVM(支持智能合约)以及即将推出的存储市场和 DEX,预计将带来更多的链上费用活动(以及可能的 FIL 销毁或锁定)。总之,Filecoin 的代币激励成功地建立了一个庞大的全球存储网络,尽管早期效率不到 5%;到 2024 年,该效率提高到约 20-30%,并有望随着真实需求赶上补贴供应而进一步攀升。该行业对去中心化存储的整体需求(Web3 数据、档案、NFT 元数据、人工智能数据集等)似乎正在上升,这预示着将更多的挖矿奖励转化为实际有用的服务前景良好。

  • Render Network: Render 的代币模型由于其_销毁与铸造均衡_机制,天生就将激励与使用更紧密地联系在一起。在旧模型(2023 年前)中,RNDR 的发行主要由基金会掌握,并基于网络增长目标,而使用则涉及将 RNDR 锁定在托管中以进行任务。这使得分析效率有些困难。然而,随着 BME 在 2023 年全面实施,我们可以衡量销毁的代币相对于铸造的代币数量。由于每个渲染或计算任务都会销毁与其成本成比例的 RNDR,基本上每个作为奖励发行的代币都对应着完成的工作(减去在给定周期内发行量 > 销毁量时的任何净通胀)。升级后 Render 网络的早期数据显示,使用量确实在增加:Render 基金会指出,在“高峰时刻”,网络每秒完成的渲染帧数可能超过以太坊处理的交易量,这突显了其显著的活动。虽然详细的使用统计数据(例如任务数量或消耗的 GPU 小时数)在上述摘要中并未公开,但一个强有力的指标是 RNDR 的价格和需求。2023 年,RNDR 成为表现最好的加密资产之一,从 1 月份的约 0.40 美元上涨到 5 月份的 2.50 美元以上,并在此后继续攀升。到 2023 年 11 月,RNDR 年初至今上涨超过 10 倍,这得益于对人工智能相关计算能力的狂热。这种价格行为表明,用户正在购买 RNDR 来完成渲染和人工智能任务(或者投机者预期他们将需要这样做)。事实上,对人工智能任务的兴趣可能带来了一波新的需求——Render 报告称,其网络正在从媒体渲染扩展到人工智能模型训练,并且传统云中的 GPU 短缺意味着在这个细分市场需求远超供应。本质上,Render 的代币激励(发行)得到了同样强劲的用户需求(销毁)的响应,使其激励到使用的转换率相对较高。值得注意的是,在 BME 的第一年,网络有意分配了一些额外的代币(910 万 RENDER 的发行)来引导节点运营商的收入。如果这些超过了使用量,可能会带来一些暂时的通胀低效率。然而,鉴于网络的增长,RNDR 的销毁率一直在攀升。截至 2024 年中的 Render Network 仪表板显示,累计销毁的 RNDR 稳步增加,表明真实的任务正在被处理。另一个成功的定性迹象是:主要工作室和内容创作者已将 Render 用于备受瞩目的项目,证明了其在现实世界中的采用(这些不仅仅是运行节点的加密爱好者——他们是为渲染付费的_客户_)。总而言之,Render 似乎拥有 DePIN 中最有效的代币到服务转换指标之一:如果网络繁忙,RNDR 就会被销毁,代币持有者能看到切实的价值;如果网络闲置,代币发行将是唯一的产出,但围绕人工智能的热情确保了网络远非闲置。

  • Akash: Akash 的效率可以从_云支出与代币发行_的背景下看待。作为一个权益证明链,Akash 的 AKT 有通胀来奖励验证者,但这种通胀并不算过高(并且很大一部分被质押锁定所抵消)。更有趣的是代币捕获了多少真实使用量。2022 年,Akash 的使用量相对较低(任何时候只有几百个部署,主要是小型应用或测试网)。这意味着 AKT 的价值是投机性的,没有费用支持。然而,在 2023-2024 年,由于人工智能,使用量爆炸式增长。到 2024 年底,Akash 网络每天处理约 1.1 万美元的支出,而 2024 年 1 月每天仅约 1,300 美元——年内日收入增长约 749%。在 2024 年期间,Akash 的累计计算付费支出超过了 160 万美元。这些数字虽然与 AWS 等巨头相比仍然很小,但代表了真实客户在 Akash 上部署工作负载并以 AKT 或 USDC 支付(最终通过转换驱动 AKT 需求)。在此期间的代币激励(通胀奖励)大约是 1.3 亿流通 AKT 的 15-20%(2024 年铸造约 2000-2600 万 AKT,按每 AKT 1-3 美元计算,价值可能在 2000-5000 万美元)。因此,从纯美元角度看,网络发行的代币价值仍然高于其带来的费用——与其他早期网络类似。但趋势是使用量正在迅速赶上。一个有说服力的统计数据是:与 2023 年第三季度相比,2024 年第三季度每笔租约的平均费用从 6.42 美元上升到 18.75 美元。这意味着用户正在运行资源密集得多(因此也更昂贵)的工作负载,很可能是用于人工智能的 GPU,并且他们愿意支付更多,大概是因为网络提供了价值(例如,比替代方案成本更低)。此外,由于 Akash 对租约收取 10-20% 的协议费,这意味着 160 万美元累计支出中的 10-20% 作为真实收益流向了质押者。2024 年第四季度,AKT 的价格创下多年新高(约 4 美元,比 2023 年中低点上涨 8 倍),表明市场认识到其基本面和使用量的改善。2024 年底的链上数据显示,有超过 650 个活跃租约和网络中超过 700 个 GPU,利用率约为 78%——实际上,通过激励增加的大部分 GPU 都已被客户实际使用。这是代币激励向服务的强劲转换:近五分之四的激励 GPU 都在为人工智能开发者服务(用于模型训练等)。Akash 的积极举措,如启用信用卡支付和支持流行的人工智能框架,帮助将加密代币与现实世界用户连接起来(一些用户甚至可能不知道他们底层支付的是 AKT)。总的来说,虽然 Akash 最初也存在 DePIN 普遍的“供应 > 需求”问题,但它正迅速向一个更平衡的状态发展。如果人工智能需求持续,Akash 甚至可能接近一个需求超过代币激励的境地——换句话说,使用量可能比投机性通胀更能驱动 AKT 的价值。该协议与质押者分享费用的设计也意味着,随着效率的提高,AKT 持有者将直接受益(例如,到 2024 年底,质押者从实际费用中获得了可观的收益,而不仅仅是通胀)。

  • io.net: 作为一个非常新的项目(2023/24 年启动),io.net 的效率在很大程度上仍是理论上的,但其模型是明确为最大化激励转换而构建的。通过硬性设定供应上限和实行每小时奖励,io.net 避免了无限通胀失控的情况。并且通过根据收入销毁代币,它确保了只要需求启动,就会有一个自动的制衡机制来对抗代币发行。早期报告声称 io.net 已经聚合了大量的 GPU(可能通过引入现有的矿场和数据中心),使其拥有可观的供应。关键在于这些供应是否能找到来自人工智能客户的相应需求。对该行业的一个积极信号是:截至 2024 年,去中心化 GPU 网络(包括 Render、Akash 和 io.net)通常是容量受限,而非需求受限——这意味着用户对计算的需求超过了网络在任何时刻的在线容量。如果 io.net 能利用这种未满足的需求(通过提供更低的价格或通过 Solana 生态系统的独特集成),其代币销毁可能会加速。另一方面,如果它将 5 亿 IO 初始供应的大部分分发给内部人士或提供商,那么如果使用量滞后,就存在卖压风险。在没有具体使用数据的情况下,io.net 是对精炼代币经济学方法的一次考验:它从一开始就以需求驱动的均衡为目标,试图避免过度供应代币。在未来几年,可以通过追踪 3 亿发行量中有多少百分比被网络收入(销毁)有效“支付”来衡量其成功。DePIN 行业的发展表明,io.net 在一个人工智能需求高涨的有利时机进入,因此它可能比早期项目更快地达到高利用率。

总而言之,早期的 DePIN 项目通常面临代币激励效率低的问题,代币支付远远超过实际使用。Helium 的物联网网络就是一个典型例子,代币奖励建立了一个庞大的网络,但利用率仅为百分之几。Filecoin 同样拥有大量的存储空间,但最初存储的数据很少。然而,通过网络改进和外部需求趋势,这些差距正在缩小。Helium 的 5G 转型使其使用量倍增,Filecoin 的利用率稳步攀升,而 Render 和 Akash 的真实使用量随着人工智能热潮而激增,使其代币经济更接近一个可持续的循环。2024 年的一个普遍趋势是转向**“证明需求”**:DePIN 团队开始专注于获取用户和收入,而不仅仅是硬件和炒作。这体现在像 Helium 这样的网络正在争取物联网和电信领域的企业合作伙伴,Filecoin 正在引入大型 Web2 数据集,以及 Akash 使其平台对人工智能开发者更加友好。最终效果是,代币价值越来越受到_基本面_(例如,存储的数据量、售出的 GPU 小时数)的支持,而不仅仅是投机。虽然还有很长的路要走——整个行业 100 倍的市销率意味着仍然存在大量投机——但轨迹是朝着更有效利用代币激励的方向发展的。那些未能将代币转化为服务(或“落地硬件”)的项目可能会逐渐消失,而那些实现高转换率的项目正在赢得投资者和社区的信心。

与人工智能计算需求的结合:趋势与机遇

DePIN 项目受益的最重要发展之一是人工智能计算需求的爆炸性增长。2023-2024 年,人工智能模型的训练和部署成为一个价值数十亿美元的市场,给传统云提供商和 GPU 供应商的容量带来了压力。去中心化基础设施网络迅速适应以抓住这一机遇,导致了一种有时被称为**“DePIN x AI”**甚至被未来学家称为“去中心化物理人工智能 (DePAI)”的融合。下面,我们概述了我们关注的项目和更广泛的 DePIN 行业如何利用人工智能趋势:

  • 去中心化 GPU 网络与人工智能:Render、Akash、io.net(以及其他如 Golem、Vast.ai 等)这样的项目正处于服务人工智能需求的前沿。如前所述,Render 从渲染扩展到支持人工智能工作负载——例如,出租 GPU 算力来训练 Stable Diffusion 模型或其他机器学习任务。对人工智能的兴趣直接推动了这些网络的使用。2023 年中,用于训练图像和语言模型的 GPU 计算需求飙升。Render Network 从中受益,因为许多开发者甚至一些企业转向它寻求更便宜的 GPU 时间;这是 RNDR 价格飙升 10 倍的一个因素,反映了市场相信 Render 将提供 GPU 来满足人工智能需求。同样,Akash 在 2023 年底推出 GPU 服务恰逢生成式人工智能热潮——几个月内,Akash 上的数百个 GPU 被租用以微调语言模型或提供人工智能 API。到 2024 年底,Akash 上 GPU 的利用率达到约 78%,这表明几乎所有通过激励添加的硬件都找到了来自人工智能用户的需求。io.net 明确将自己定位为“专注于人工智能的去中心化计算网络”。它宣称与人工智能框架集成(他们提到使用在机器学习中流行的 Ray 分布式计算框架,使人工智能开发者能轻松在 io.net 上扩展)。io.net 的价值主张——能够在 90 秒内部署一个 GPU 集群,效率是云的 10-20 倍——完全针对那些受限于昂贵或积压的云 GPU 实例的人工智能初创公司和研究人员。这种定位是战略性的:2024 年出现了极端的 GPU 短缺(例如,NVIDIA 的高端人工智能芯片售罄),而拥有任何类型 GPU(甚至是旧型号或游戏 GPU)的去中心化网络则介入填补了这一空白。世界经济论坛指出了**“去中心化物理人工智能 (DePAI)”的出现,即普通人为人工智能过程贡献计算能力和数据并获得奖励。这一概念与 GPU DePIN 项目相符,这些项目使任何拥有不错 GPU 的人都能通过支持人工智能工作负载来赚取代币。Messari 的研究同样强调,2024 年人工智能行业的强烈需求已成为 DePIN 行业向需求驱动增长转变的“重要加速器”**。

  • 存储网络与人工智能数据: 人工智能热潮不仅关乎计算——它还需要存储_海量数据集_(用于训练)和分发训练好的模型。像 FilecoinArweave 这样的去中心化存储网络在这里找到了新的用例。Filecoin 特别将人工智能视为一个关键的增长载体:2024 年,Filecoin 社区将“计算与人工智能”确定为三个重点领域之一。随着 Filecoin 虚拟机的推出,现在可以在靠近存储在 Filecoin 上的数据的地方运行计算服务。像 Bacalhau(一个分布式数据计算项目)和 Fluence 的计算 L2 这样的项目正在 Filecoin 的基础上构建,让用户可以直接在网络中存储的数据上运行人工智能算法。其理念是,例如,可以在已经存储在 Filecoin 节点上的大型数据集上训练模型,而无需将其移动到中心化的集群。Filecoin 的技术创新,如星际共识 (InterPlanetary Consensus, IPC),允许启动可专用于特定工作负载的子网络(比如一个利用 Filecoin 存储安全的人工智能专用侧链)。此外,Filecoin 正在支持与人工智能高度相关的去中心化数据共享——例如,来自大学、自动驾驶汽车数据或卫星图像的数据集可以托管在 Filecoin 上,然后由人工智能模型访问。该网络自豪地存储了主要的人工智能相关数据集(例如引用的加州大学伯克利分校和互联网档案馆的数据)。在代币方面,这意味着更多客户使用 FIL 进行数据存储——但更令人兴奋的是数据二级市场的潜力:Filecoin 的愿景包括允许存储客户将其数据货币化用于人工智能训练用例。这意味着未来在 Filecoin 上拥有一个大型数据集可能会在你的人工智能公司付费在其上进行训练时为你赚取代币,从而创建一个 FIL 不仅用于存储,还用于数据使用权的生态系统。这还处于萌芽阶段,但突显了 Filecoin 与人工智能趋势的深度结合。

  • 无线网络与边缘数据用于人工智能: 从表面上看,Helium 和类似的无线 DePIN 与人工智能计算的直接联系较少。然而,也存在一些联系。物联网传感器网络(如 Helium 的物联网子 DAO,以及其他如 NodleWeatherXM)可以提供有价值的现实世界数据来喂养人工智能模型。例如,WeatherXM(一个用于气象站数据的 DePIN)提供了一个去中心化的天气数据流,可以改善气候模型或人工智能预测——WeatherXM 的数据正通过 Filecoin 的 Basin L2 集成,正是出于这些原因。Nodle,它使用智能手机作为节点来收集数据(并被认为是一个 DePIN),正在构建一个名为“Click”的应用,用于去中心化的智能摄像头录像;他们计划集成 Filecoin 来存储图像,并可能将其用于人工智能计算机视觉训练。Helium 的角色可能是为这些边缘设备提供连接——例如,一个城市部署 Helium 物联网传感器用于空气质量或交通监测,然后这些数据集被用来训练城市规划人工智能。此外,Helium 5G 网络未来可能作为人工智能的边缘基础设施:想象一下,自动驾驶无人机或车辆使用去中心化的 5G 进行连接——它们生成(和消耗)的数据可能会持续接入人工智能系统。虽然 Helium 尚未宣布具体的“人工智能战略”,但其母公司 Nova Labs 已暗示将 Helium 定位为_其他_ DePIN 项目的通用基础设施层。这可能包括人工智能领域的项目。例如,Helium 可以为一个由人工智能驱动的设备舰队提供物理无线层,而该人工智能舰队的计算需求由像 Akash 这样的网络处理,数据存储由 Filecoin 处理——一个相互连接的 DePIN 堆栈。

  • 协同增长与投资: 加密投资者和传统参与者都注意到了 DePIN 与人工智能的协同效应。Messari 的 2024 年报告预测,如果趋势持续,DePIN 市场到 2028 年可能增长到 3.5 万亿美元(从 2024 年的约 500 亿美元)。这种乐观的前景很大程度上是基于人工智能是去中心化基础设施的“杀手级应用”。DePAI(去中心化物理人工智能)的概念设想了一个未来,即_普通人不仅贡献硬件,还贡献数据给人工智能系统并获得奖励_,打破大型科技公司对人工智能数据集的垄断。例如,某人的自动驾驶汽车可以收集道路数据,通过像 Helium 这样的网络上传,存储在 Filecoin 上,并被在 Akash 上训练的人工智能使用——每个协议都以代币奖励贡献者。虽然有些未来主义,但这一愿景的早期构件正在出现(例如,HiveMapper,一个 DePIN 地图项目,司机的行车记录仪构建地图——这些地图可以训练自动驾驶人工智能;贡献者赚取代币)。我们也看到像 Bittensor (TAO) 这样专注于人工智能的加密项目——一个以去中心化方式训练人工智能模型的网络——达到了数十亿美元的估值,表明投资者对人工智能+加密组合的强烈兴趣。

  • 自主代理与机器对机器经济: 一个即将到来的迷人趋势是人工智能代理自主使用 DePIN 服务。Messari 推测,到 2025 年,人工智能代理网络(如自主机器人)可能会直接从 DePIN 协议采购去中心化计算和存储,以执行人类或其他机器的任务。在这种情况下,一个人工智能代理(比如说,一个去中心化人工智能服务网络的一部分)可以在需要更多计算能力时自动从 Render 或 io.net 租用 GPU,用加密货币支付,将其结果存储在 Filecoin 上,并通过 Helium 进行通信——所有这些都无需人工干预,通过智能合约进行协商和交易。这种机器对机器的经济可能会解锁一波新的需求,这种需求天生就适合 DePIN(因为人工智能代理没有信用卡,但可以使用代币相互支付)。这还为时过早,但像 Fetch.ai 等原型项目暗示了这一方向。如果实现,DePIN 网络将看到_机器驱动的使用量直接涌入_,进一步验证其模型。

  • 能源及其他物理垂直领域: 虽然我们的重点是连接、存储和计算,但人工智能趋势也触及了其他 DePIN 领域。例如,去中心化能源网(有时称为 DeGEN——去中心化能源网络)可能会受益,因为人工智能可以优化能源分配:如果有人将多余的太阳能共享到一个微电网以换取代币,人工智能可以预测并有效地路由这些电力。币安的一份报告中引用的一个项目描述了为向电网贡献多余太阳能而提供的代币。管理此类电网的人工智能算法同样可以在去中心化计算上运行。同样,人工智能可以增强去中心化网络的性能——例如,基于人工智能优化 Helium 的无线电覆盖,或用于 Filecoin 存储节点预测性维护的人工智能操作。这更多是关于在 DePIN 内部_使用_人工智能,但它展示了技术的交叉融合。

本质上,人工智能已成为 DePIN 的顺风车。之前“区块链与现实世界相遇”和“人工智能革命”这两个独立的叙事正在融合成一个共同的叙事:去中心化可以帮助满足人工智能的基础设施需求,而_人工智能反过来又可以为去中心化网络带来大规模的真实世界使用_。这种融合正在吸引大量资本——仅 2024 年就有超过 3.5 亿美元投资于 DePIN 初创公司,其中大部分旨在人工智能相关的基础设施(例如,最近的许多融资都是针对去中心化 GPU 项目、用于人工智能的边缘计算等)。它也促进了项目之间的合作(Filecoin 与 Helium 合作,Akash 与其他人工智能工具提供商集成等)。

结论

像 Helium、Filecoin、Render 和 Akash 这样的 DePIN 项目代表了一个大胆的赌注,即加密激励可以比传统模式更快、更公平地引导现实世界的基础设施。每个项目都制定了独特的经济模型:Helium 使用代币销毁和覆盖证明来众包无线网络,Filecoin 使用加密经济学创建一个去中心化的数据存储市场,Render 和 Akash 通过代币化支付和奖励将 GPU 和服务器转变为全球共享资源。早期,这些模型显示出压力——供应快速增长而需求滞后——但它们已经证明了能够调整和提高效率。代币激励飞轮虽然不是万能药,但已被证明能够组建令人印象深刻的物理网络:一个全球物联网/5G 网络、一个艾字节规模的存储网格和分布式的 GPU 云。现在,随着真实使用(从物联网设备到人工智能实验室)的跟上,这些网络正在向可持续的服务经济转型,其中代币是通过提供价值来赚取的,而不仅仅是作为早期参与者。

人工智能的崛起加速了这一转型。人工智能对计算和数据的无尽需求正中 DePIN 的下怀:未开发的资源可以被利用,闲置的硬件可以投入使用,全球的参与者可以分享回报。2024 年人工智能驱动的需求与 DePIN 供应的对齐是一个关键时刻,可以说为其中一些项目提供了它们一直在等待的“产品-市场契合”。趋势表明,去中心化基础设施将继续乘着人工智能的浪潮——无论是通过托管人工智能模型、收集训练数据,还是实现自主代理经济。在此过程中,支撑这些网络的代币价值可能越来越反映实际使用(例如,售出的 GPU 小时数、存储的 TB 数、连接的设备数),而不仅仅是投机。

尽管如此,挑战依然存在。DePIN 项目必须继续提高投资到效用的转换率——确保增加一个热点或一个 GPU 确实能为用户增加相应的价值。它们还面临来自传统提供商的竞争(他们也并非停滞不前——例如,云巨头正在为承诺的人工智能工作负载降低价格),并且必须克服监管障碍(Helium 的 5G 需要频谱合规等)、加密货币的用户体验摩擦以及在规模上实现可靠性能的需求。代币模型也需要持续校准:例如,Helium 分裂为子代币就是一次调整;Render 的 BME 是另一次;其他项目可能会实施费用销毁、动态奖励,甚至 DAO 治理调整以保持平衡。

从创新和投资的角度来看,DePIN 是 Web3 中最令人兴奋的领域之一,因为它将加密货币与有形服务直接联系起来。投资者正在关注协议收入、利用率和代币价值捕获(市销率)等指标,以辨别赢家。例如,如果一个网络的代币市值很高但使用率很低(高市销率),那么它可能被高估了,除非预期需求会激增。相反,一个能够大幅增加收入的网络(如 Akash 日支出的 749% 增长)可能会看到其代币被从根本上重新估值。分析平台(Messari、Token Terminal)现在跟踪这些数据:例如,Helium 的年化收入(约 350 万美元)与激励(约 4700 万美元)相比存在巨大赤字,而像 Render 这样的项目如果销毁开始抵消发行,可能会显示出更接近的比例。随着时间的推移,我们预计市场将奖励那些为用户展示真实现金流或成本节约的 DePIN 代币——这是该行业从炒作到基本面的成熟过程。

总之,像 Helium 和 Filecoin 这样的成熟网络已经证明了代币化基础设施的力量与陷阱,而像 Render、Akash 和 io.net 这样的新兴网络正在将该模型推向人工智能计算的高需求领域。每个网络背后的经济学在机制上有所不同,但共享一个共同的目标:创建一个自我维持的循环,即代币激励服务的建设,而这些服务的使用反过来又支持代币的价值。实现这种均衡是复杂的,但迄今为止的进展——数百万设备、艾字节数据和数千个 GPU 现已在去中心化网络中上线——表明 DePIN 实验正在结出果实。随着人工智能和 Web3 的持续融合,未来几年可能会看到去中心化基础设施网络从利基替代品转变为互联网结构的重要支柱,由加密经济学驱动提供真实世界的效用。

来源: 官方项目文档和博客、Messari 研究报告以及来自 Token Terminal 等的分析数据。主要参考资料包括 Messari 的 Helium 和 Akash 概述、Filecoin 基金会更新、币安研究院关于 DePIN 和 io.net 的报告,以及 CoinGecko/CoinDesk 在人工智能背景下对代币表现的分析。这些为上述评估提供了事实依据,并在全文中引用。

去中心化 AI:在 BlockEden.xyz 上的无许可 LLM 推理

· 阅读需 5 分钟
Dora Noda
Software Engineer

BlockEden.xyz 以其远程过程调用(RPC)基础设施闻名,如今正向 AI 推理服务拓展。此演进利用其开源、无许可的设计,打造一个模型研究者、硬件运营商、API 提供商和用户无缝交互的市场。网络的 Relay Mining 算法确保服务透明且可验证,为大型模型 AI 研究者提供了无需维护基础设施即可变现的独特机会。

核心问题

AI 领域面临以下重大挑战:

  • 受限的模型服务环境:资源密集型基础设施限制了 AI 研究者对多模型的实验能力。
  • 开源创新的不可持续商业模式:独立工程师难以实现变现,往往依赖大型基础设施提供商。
  • 市场准入不平等:企业级模型占据主导,中端模型和用户则被忽视。

BlockEden.xyz 的独特价值主张

BlockEden.xyz 通过将基础设施层与产品服务层解耦,构建开放且去中心化的框架,从而解决上述问题。这一布局实现了高质量的服务交付,并在所有网络参与者之间对齐激励。

主要优势包括:

  • 成熟网络:利用 BlockEden.xyz 已有的服务网络,简化模型访问并提升服务质量。
  • 关注点分离:各利益相关方专注自身优势,提高整体生态系统效率。
  • 激励对齐:加密证明和性能测量驱动竞争与透明度。
  • 无许可模型与供应:开放的市场提供成本效益高的硬件供应。

去中心化 AI 推理的利益相关者

模型提供者:协调者
协调者管理产品与服务层,优化服务质量,为应用提供无缝访问。协调者通过伪装成普通用户来验证供应商的完整性,提供客观的性能评估。

模型使用者:应用
应用通常使用第一方协调者,也可以通过第三方接入网络,以提升隐私和降低成本。直接接入支持多样化的用例实验,省去中间商费用。

模型供应商:硬件运营商
供应商运行推理节点以赚取代币。他们在 DevOps、硬件维护和日志记录方面的能力对网络增长至关重要。无许可模式鼓励各种硬件提供商参与,包括拥有闲置或休眠资源的提供商。

模型来源:工程师与研究者
开放源码模型的研究者和机构可依据使用量获得收入。该模式在无需维护基础设施的前提下激励创新,为开源贡献者提供可持续的商业模型。

与 Cuckoo Network 的合作

BlockEden.xyz 与 Cuckoo Network 合作,通过去中心化、无许可的基础设施革新 AI 推理。此合作聚焦于发挥双方优势,打造一个高效、无缝的 AI 模型部署与变现生态系统。

关键合作领域

  • 基础设施集成:将 BlockEden.xyz 强大的 RPC 基础设施与 Cuckoo Network 的去中心化模型服务能力相结合,提供可扩展且弹性的 AI 推理服务。
  • 模型分发:在网络中分发开源 AI 模型,使研究者能够触达更广泛的受众并实现变现,无需大量基础设施投入。
  • 质量保证:实现持续监控与评估模型性能及供应商完整性的机制,确保高质量服务交付与可靠性。
  • 经济激励:通过加密证明和基于性能的奖励在所有利益相关方之间对齐经济激励,营造竞争透明的市场。
  • 隐私与安全:利用可信执行环境(TEE)和去中心化数据存储等先进技术,提升隐私保护操作和安全模型推理。
  • 社区与支持:构建面向 AI 研究者和开发者的支持社区,提供资源、指导和激励,推动去中心化 AI 生态系统的创新与采纳。

通过与 Cuckoo Network 的合作,BlockEden.xyz 旨在打造全方位的去中心化 AI 推理方案,为研究者、开发者和用户提供稳健、透明且高效的 AI 模型部署与使用平台。现在即可尝试去中心化的文本生成图像 API: https://blockeden.xyz/api-marketplace/cuckoo-ai。

去中心化推理网络的输入/输出

Cuckoo Network 的 LLM 输入

  • 开源模型
  • 终端用户或应用的需求
  • 来自商品硬件的聚合供应
  • 服务质量保证

Cuckoo Network 的 LLM 输出

  • 零宕机
  • 无缝模型实验
  • 公共模型评估
  • 隐私保护操作
  • 无审查模型

Web3 生态系统集成

BlockEden.xyz 的 RPC 协议可与其他 Web3 协议集成,提升去中心化 AI(DecAI):

  • 数据与存储网络:与 Filecoin/IPFS、Arweave 等去中心化存储解决方案无缝对接,实现模型存储与数据完整性。
  • 计算网络:借助 Akash、Render 等去中心化计算层,支持专用硬件和闲置硬件的混合服务。
  • 推理网络:提供灵活的部署模型和强大的生态系统,支撑多样化的推理任务。
  • 应用层:AI 代理、消费类应用和物联网设备可利用 DecAI 推理,实现个性化服务、数据隐私和边缘决策。

总结

BlockEden.xyz 已有的基础设施与经济设计为开源 AI 开辟了新机遇。通过提供去中心化且可验证的服务,它搭建了开源 AI 与 Web3 之间的桥梁,实现创新、可持续且可靠的服务交付。此方案促进模型多样性、提升中小企业的市场准入,并为开源研究者提供全新商业模型。未来的迭代将继续扩展生态系统,确保 BlockEden.xyz 在不断演进的 AI 与区块链领域保持强大且适应性强的解决方案。

揭示 OpenAI ChatGPT API 在 BlockEden.xyz API 市场的集成

· 阅读需 4 分钟
Dora Noda
Software Engineer

我们很高兴宣布,BlockEden.xyz —— Web3 开发者首选的 API 市场平台,新增了一项强大的功能 —— OpenAI API。是的,你没有听错!开发者、技术爱好者以及 AI 先驱现在可以直接通过 BlockEden 的 API 市场,使用 OpenAI 提供的前沿机器学习模型。

在深入了解使用指南之前,让我们先了解一下 OpenAI API 能带来哪些价值。OpenAI API 是通往 OpenAI 开发的 AI 模型的大门,其中包括业界知名的 GPT‑3,以及以卓越的理解和生成类人文本能力著称的最新 transformer‑based 语言模型。该 API 让开发者能够在各种场景中使用这些先进技术,包括撰写邮件、生成代码、回答问题、创作内容、辅导教学、语言翻译等等。

下面我们来看一下如何通过 BlockEden.xyz 将 OpenAI API 的强大能力集成到你的应用中。你可以通过三种方式实现:使用 Python、使用 JavaScript(Node.js)或直接在命令行使用 curl。在本篇博客中,我们将为每种方法提供最基础的 “Hello, World!” 示例。

下面的 API Key 为公开示例,可能随时更改并受速率限制。请前往 https://blockeden.xyz/dash 获取你自己的 BLOCKEDEN_API_KEY

Python:

使用 Python 时,可参考以下代码片段调用 OpenAI API:

import openai

BLOCKEDEN_API_KEY = "8UuXzatAZYDBJC6YZTKD"
openai.api_key = ""
openai.api_base = "https://api.blockeden.xyz/openai/" + BLOCKEDEN_API_KEY + "/v1"

response = openai.ChatCompletion.create(
model="gpt-3.5-turbo-16k",
messages=[{"role": "user", "content": "hello, world!"}],
temperature=0,
max_tokens=2048,
top_p=1,
frequency_penalty=0,
presence_penalty=0
)

print(response["choices"])

JavaScript (Node.js):

同样可以使用 JavaScript 调用 OpenAI API,示例代码如下:

const { Configuration, OpenAIApi } = require("openai");

const BLOCKEDEN_API_KEY = "8UuXzatAZYDBJC6YZTKD";
const configuration = new Configuration({
basePath: "https://api.blockeden.xyz/openai/" + BLOCKEDEN_API_KEY + "/v1",
});
const openai = new OpenAIApi(configuration);

(async () => {
const response = await openai.createChatCompletion({
model: "gpt-3.5-turbo-16k",
messages: [{ role: "user", content: "hello, world!" }],
temperature: 0,
max_tokens: 2048,
top_p: 1,
frequency_penalty: 0,
presence_penalty: 0,
});

console.log(JSON.stringify(response.data.choices, null, 2));
})();

cURL:

最后,你也可以直接在终端使用 curl 调用 OpenAI API:

curl https://api.blockeden.xyz/openai/8UuXzatAZYDBJC6YZTKD/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-3.5-turbo-16k",
"messages": [{"role": "user", "content": "hello, world!"}],
"temperature": 0,
"max_tokens": 2048,
"top_p": 1,
"frequency_penalty": 0,
"presence_penalty": 0
}'

那么接下来该怎么做?快去尝试吧,探索如何在你的项目中利用 OpenAI API 的强大能力,无论是聊天机器人、内容生成,还是其他任何基于自然语言处理的应用。想象力的边界即是可能性的边界。借助 BlockEden.xyz 与 OpenAI 的无缝集成,让我们一起重新定义可能。

欲了解 OpenAI 的功能、模型及使用细节,请访问官方的 OpenAI 文档

祝编码愉快!

什么是 BlockEden.xyz

BlockEden.xyz 是一个为 Sui、Aptos、Solana 以及 12 条 EVM 公链提供 API 市场的平台,助力各类 DApp 的构建。为什么我们的客户选择我们?

  1. 高可用性。自首个 API —— Aptos 主网上线以来,我们保持了 99.9% 的运行时间。
  2. 丰富的 API 产品与社区。我们的服务已扩展至 Sui、Ethereum、IoTeX、Solana、Polygon、Polygon zkEVM、Filecoin、Harmony、BSC、Arbitrum、Optimism、Gnosis、Arbitrum Nova 与 EthStorage Galileo。社区 10x.pub 拥有 4000+ 来自硅谷、Seattle 与 NYC 的 Web3 创新者。
  3. 安全可靠。已有超过 4500 万美元价值的代币在我们平台质押,客户信赖我们为其 Web3 与区块链需求提供可靠安全的解决方案。

我们提供一整套服务,旨在赋能区块链生态的每一参与者,聚焦以下三大核心领域:

  • 对于区块链 协议构建者,我们通过运营节点并进行长期生态贡献,确保安全性与去中心化。
  • 对于 DApp 开发者,我们构建易用的 API,简化开发流程,释放去中心化应用的全部潜能。
  • 对于 代币持有者,我们提供可靠的质押服务,最大化收益并优化资产管理。