跳到主要内容

8 篇博文 含有标签「AI」

查看所有标签

去中心化 AI 推理市场:Bittensor、Gensyn 与 Cuckoo AI

· 阅读需 79 分钟
Dora Noda
Software Engineer

引言

去中心化 AI 推理/训练市场旨在以无需信任的方式利用全球计算资源和社区模型。像 BittensorGensynCuckoo Network (Cuckoo AI) 这样的项目展示了区块链技术如何为开放的 AI 市场提供动力。每个平台都将关键的 AI 资产——计算能力、机器学习模型,有时还包括数据——代币化为链上经济单位。在下文中,我们将深入探讨支撑这些网络的技术架构、它们如何将资源代币化、它们的治理和激励结构、跟踪模型所有权的方法、收入分成机制,以及由此产生的攻击面(例如女巫攻击、合谋、搭便车、投毒)。文末的对比表格总结了 Bittensor、Gensyn 和 Cuckoo AI 在所有关键维度上的表现。

技术架构

Bittensor:基于子网的去中心化“神经互联网”

Bittensor 构建在一个自定义的 Layer-1 区块链(Subtensor 链,基于 Substrate)之上,该区块链协调着一个由分布在多个专业子网中的 AI 模型节点组成的网络。每个子网都是一个独立的迷你网络,专注于特定的 AI 任务(例如,一个子网用于语言生成,另一个用于图像生成等)。Bittensor 的参与者扮演着不同的角色:

  • 矿工 – 他们在自己的硬件上运行机器学习模型,并为子网的任务提供推理答案(甚至执行训练)。本质上,矿工是一个托管 AI 模型的节点,负责回答查询。
  • 验证者 – 他们用提示查询矿工的模型,并评估响应的质量,从而判断哪些矿工贡献了有价值的结果。验证者有效地对矿工的表现进行评分。
  • 子网所有者 – 他们创建和定义子网,设定该子网中执行任务和进行验证的规则。例如,子网所有者可以指定一个子网用于某个特定的数据集或模态,并定义验证程序。
  • 委托人 – 不运行节点的代币持有者可以将其 Bittensor 代币 (TAO) 委托(质押)给矿工或验证者,以支持表现最佳者并赚取一部分奖励(类似于权益证明网络中的质押)。

Bittensor 的共识机制是新颖的:它不使用传统的区块验证,而是采用 Yuma 共识,这是一种“智能证明”的形式。在 Yuma 共识中,验证者对矿工的评估在链上聚合,以确定奖励分配。每 12 秒一个区块,网络会铸造新的 TAO 代币,并根据验证者对哪些矿工提供了有用工作的共识进行分配。验证者的分数通过一种权益加权的中位数方案进行组合:离群的意见被剔除,诚实的多数意见占主导。这意味着,如果大多数验证者都认为某个矿工是高质量的,那么该矿工将获得丰厚的奖励;如果一个验证者的意见与其他验证者相差甚远(可能是由于合谋或错误),该验证者将因赚取较少奖励而受到惩罚。通过这种方式,Bittensor 的区块链协调了一个矿工-验证者反馈循环:矿工竞争产生最佳的 AI 输出,验证者则策划和排名这些输出,双方都能根据其增加的价值按比例赚取代币。这种架构通常被描述为“去中心化的神经网络”或“全球大脑”,其中模型相互学习信号并共同进化。值得注意的是,Bittensor 最近升级了其链以支持 EVM 兼容性(用于智能合约),并引入了 dTAO,一个子网特定代币和质押系统(稍后解释),以进一步去中心化资源分配的控制。

Gensyn:无需信任的分布式计算协议

Gensyn 从分布式计算协议的角度切入去中心化 AI,专注于机器学习。其架构连接了拥有 AI 任务(如训练模型或运行推理作业)的开发者(提交者)与全球拥有闲置 GPU/TPU 资源的计算提供者(解决者)。最初,Gensyn 计划建立一个 Substrate L1 链,但后来转向在以太坊上构建一个 rollup,以获得更强的安全性和流动性。因此,Gensyn 网络是一个以太坊 Layer-2(一个以太坊 rollup),负责协调作业发布和支付,而计算则在提供者的硬件上离线进行。

Gensyn 设计的一个核心创新是其链下工作验证系统。Gensyn 结合使用**乐观验证(欺诈证明)**和密码学技术,以确保当解决者声称已运行训练/推理任务时,结果是正确的。实际上,该协议涉及多个参与者角色:

  • 提交者 – 请求作业的一方(例如,需要训练模型的人)。他们支付网络费用,并提供模型/数据或任务规范。
  • 解决者 – 竞标并在其硬件上执行机器学习任务的节点。他们会按要求训练模型或运行推理,然后提交结果和计算证明。
  • 验证者/挑战者 – 可以审计或抽查解决者工作的节点。Gensyn 实现了一种类似 Truebit 的方案,默认情况下接受解决者的结果,但如果验证者怀疑计算不正确,可以在一个时间窗口内提出挑战。在挑战中,会使用一种交互式的“二分查找”来遍历计算步骤(一种欺诈证明协议),以精确定位任何差异。这使得链上只需执行计算中最小的关键部分即可解决争议,而无需重新进行整个昂贵的任务。

至关重要的是,Gensyn 的设计旨在避免朴素方法带来的巨大冗余。Gensyn 的**“学习证明”方法不让许多节点都重复相同的机器学习作业(这会破坏成本节约),而是使用训练元数据来验证学习取得了进展。例如,解决者可能会提供中间模型权重的加密哈希或检查点,以及一个简洁的证明,表明这些权重根据训练更新取得了进展。这种概率性的学习证明可以比重新运行整个训练便宜得多地进行检查,从而实现无需完全复制的无需信任验证。只有当验证者检测到异常时,才会触发更繁重的链上计算作为最后手段。与暴力验证相比,这种方法大大减少了开销,使去中心化机器学习训练变得更加可行。因此,Gensyn 的架构非常强调加密经济博弈设计**:解决者需要质押或提供保证金,如果他们作弊(提交错误结果),他们将失去那笔质押金,而抓住他们的诚实验证者将获得这笔钱。通过将区块链协调(用于支付和争议解决)与链下计算和巧妙的验证相结合,Gensyn 创建了一个机器学习计算市场,可以利用任何地方的闲置 GPU,同时保持无需信任。其结果是一个超大规模的“计算协议”,任何开发者都可以按需访问经济实惠的、全球分布式的训练能力。

Cuckoo AI:全栈式去中心化 AI 服务平台

Cuckoo Network(或 Cuckoo AI)采用了一种更加垂直整合的方法,旨在提供端到端的去中心化 AI 服务,而不仅仅是原始计算能力。Cuckoo 构建了自己的区块链(最初是在 Arbitrum Orbit 上称为 Cuckoo Chain 的 Layer-1,这是一个与以太坊兼容的 rollup 框架)来协调一切:它不仅将作业与 GPU 匹配,还在一个系统中托管 AI 应用程序并处理支付。其设计是全栈式的:它将区块链计算AI 应用这三个层次整合在一个平台内。

Cuckoo 的参与者分为四组:

  • AI 应用构建者(协调者) – 这些是将 AI 模型或服务部署到 Cuckoo 上的开发者。例如,一个开发者可能会托管一个 Stable Diffusion 图像生成器或一个 LLM 聊天机器人作为服务。他们运行协调者节点,负责管理他们的服务:接受用户请求,将其拆分为任务,并将这些任务分配给矿工。协调者质押原生代币($CAI)以加入网络并获得利用矿工的权利。他们实际上充当了连接用户和 GPU 提供者的第二层协调者。
  • GPU/CPU 矿工(任务节点) – 这些是资源提供者。矿工运行 Cuckoo 任务客户端,并贡献他们的硬件来为 AI 应用执行推理任务。例如,一个矿工可能会被协调者分配一个图像生成请求(带有给定的模型和提示),并使用他们的 GPU 计算结果。矿工也必须质押 $CAI 以确保承诺和良好行为。他们为正确完成的每个任务赚取代币奖励。
  • 终端用户 – AI 应用程序的消费者。他们通过 Cuckoo 的门户网站或 API 进行交互(例如,通过 CooVerse 生成艺术作品或与 AI 人物聊天)。用户可以为每次使用支付加密货币,或者可能贡献自己的计算能力(或质押)来抵消使用成本。一个重要的方面是抗审查性:如果一个协调者(服务提供者)被封锁或宕机,用户可以切换到另一个提供相同应用程序的协调者,因为在去中心化网络中,多个协调者可以托管相似的模型。
  • 质押者(委托人) – 不运行 AI 服务或挖矿硬件的社区成员仍然可以通过在运行这些服务的人身上质押 $CAI 来参与。通过用他们的质押投票给受信任的协调者或矿工,他们帮助建立声誉,并作为回报获得一部分网络奖励。这种设计构建了一个 Web3 声誉层:好的参与者吸引更多的质押(从而获得信任和奖励),而坏的参与者则失去质押和声誉。甚至终端用户在某些情况下也可以质押,使他们与网络的成功保持一致。

Cuckoo 链(目前正从一个独立的链过渡到一个共享安全的 rollup)跟踪所有这些交互。当用户调用一个 AI 服务时,协调者节点为矿工创建链上任务分配。矿工在链下执行任务并将结果返回给协调者,协调者验证它们(例如,检查输出的图像或文本不是乱码)并将最终结果交付给用户。区块链处理支付结算:对于每个任务,协调者的智能合约以 $CAI 支付给矿工(通常将微支付聚合成每日支付)。Cuckoo 强调无需信任和透明度——所有参与者都质押代币,所有任务的分配和完成都被记录下来,因此作弊行为会因失去质押的威胁和性能的公开可见性而受到抑制。网络的模块化设计意味着可以轻松添加新的 AI 模型或用例:虽然它以文本到图像生成作为概念验证开始,但其架构足够通用,可以支持其他 AI 工作负载(例如,语言模型推理、音频转录等)。

Cuckoo 架构的一个显著特点是,它最初推出了自己的 Layer-1 区块链,以最大化 AI 交易的吞吐量(在测试期间达到每日 30 万笔交易的峰值)。这允许为 AI 任务调度进行自定义优化。然而,团队发现维护一个独立的 L1 成本高昂且复杂,截至 2025 年中期,他们决定弃用自定义链并迁移到以太坊上的 rollup/AVS(主动验证服务)模型。这意味着 Cuckoo 将从以太坊或像 Arbitrum 这样的 L2 继承安全性,而不是运行自己的共识,但将继续在该共享安全层上运营其去中心化 AI 市场。这一改变旨在提高经济安全性(利用以太坊的稳健性),并让 Cuckoo 团队专注于产品而非底层的链维护。总而言之,Cuckoo 的架构创建了一个去中心化的 AI 服务平台,任何人都可以在其中接入硬件或部署 AI 模型服务,全球用户可以以更低的成本和更少对大型科技基础设施的依赖来访问 AI 应用。

资产代币化机制

这些网络的一个共同主题是将计算、模型和数据转换为可以在链上交易或货币化的资产或经济单位。然而,每个项目都以不同的方式专注于将这些资源代币化:

  • 计算能力: 所有三个平台都将计算工作转化为奖励代币。在 Bittensor 中,有用的计算(由矿工完成的推理或训练)通过验证者评分量化,并在每个区块中以 TAO 代币进行奖励。本质上,Bittensor“衡量”贡献的智能,并铸造 TAO 作为代表该贡献的商品。Gensyn 明确将计算视为一种商品——其协议创建了一个市场,其中 GPU 时间是产品,价格由代币的供需决定。开发者使用代币购买计算,提供者通过出售其硬件周期来赚取代币。Gensyn 团队指出,任何数字资源(计算、数据、算法)都可以以类似的无需信任的市场方式进行表示和交易。Cuckoo 通过 ERC-20 代币 $CAI 将计算代币化,作为完成任务的支付。GPU 提供者基本上通过进行 AI 推理工作来“挖掘”CAI。Cuckoo 的系统创建了任务的链上记录,因此可以将每个完成的 GPU 任务视为一个以代币支付的原子工作单元。这三个平台的前提都是,原本闲置或无法访问的计算能力变成了一种代币化的、流动的资产——无论是通过协议级别的代币发行(如 Bittensor 和早期的 Cuckoo)还是通过计算作业的买卖订单开放市场(如 Gensyn)。

  • AI 模型: 将 AI 模型表示为链上资产(例如 NFT 或代币)仍处于初级阶段。Bittensor 将模型本身代币化——模型仍然由矿工在链下拥有。相反,Bittensor 通过奖励表现良好的模型来间接为模型定价。实际上,模型的“智能”被转化为 TAO 收益,但没有一个 NFT 代表模型权重或允许他人使用该模型。Gensyn 的重点是计算交易,而不是明确为模型创建代币。在 Gensyn 中,模型通常由开发者在链下提供(可能是开源或专有的),由解决者训练,然后返回——没有内置机制来创建一个拥有该模型或其 IP 的代币。(也就是说,如果各方选择,Gensyn 市场可能可以促进模型工件或检查点的交易,但协议本身将模型视为计算的内容,而不是代币化资产。)Cuckoo 介于两者之间:它提到了“AI 代理”和集成到网络中的模型,但目前没有代表每个模型的非同质化代币。相反,模型由应用构建者部署,然后通过网络提供服务。该模型的使用权被隐式代币化,因为当模型被使用时(通过部署它的协调者),它可以赚取 $CAI。所有三个平台都承认模型代币化的概念——例如,通过代币让社区拥有模型——但实际实现有限。作为一个行业,将 AI 模型代币化(例如,作为具有所有权和利润分享的 NFT)仍在探索中。Bittensor 的模型相互交换价值的方法是一种*“模型市场”*的形式,但没有为每个模型明确的代币。Cuckoo 团队指出,去中心化的模型所有权有望降低与中心化 AI 相比的门槛,但这需要有效的方法来验证链上的模型输出和使用情况。总而言之,计算能力现在被立即代币化(为完成的工作支付代币是直接的),而模型则是间接或有抱负地被代币化(因其输出而获得奖励,可能由质押或声誉代表,但尚未在这些平台上被视为可转让的 NFT)。

  • 数据: 数据代币化仍然是最困难的。Bittensor、Gensyn 或 Cuckoo 都没有完全集成的通用链上数据市场(其中数据集以可强制执行的使用权进行交易)。Bittensor 节点可能会在各种数据集上进行训练,但这些数据集不是链上系统的一部分。Gensyn 可能允许开发者提供一个用于训练的数据集,但协议不会将该数据代币化——它只是在链下提供给解决者使用。Cuckoo 同样不将用户数据代币化;它主要以短暂的方式处理数据(如用户提示或输出)以进行推理任务。Cuckoo 的博客明确指出,“去中心化数据仍然难以代币化”,尽管它是一种关键资源。数据是敏感的(隐私和所有权问题),并且难以用当前的区块链技术处理。因此,虽然计算正在商品化,模型也开始如此,但数据在很大程度上仍然停留在链下,除非是特殊情况(这三个项目之外的一些项目正在试验数据联盟和数据贡献的代币奖励,但这超出了我们当前的范围)。总而言之,计算能力在这些网络中现在是一种链上商品,模型通过代币进行估值,但尚未作为资产单独代币化,而数据代币化仍然是一个悬而未决的问题(除了承认其重要性之外)。

治理与激励

一个稳健的治理和激励设计对于这些去中心化 AI 网络自主、公平地运作至关重要。在这里,我们审视每个平台如何自我治理(谁做决策,如何进行升级或参数更改),以及它们如何通过代币经济学来协调参与者的激励。

  • Bittensor 治理: 在早期阶段,Bittensor 的开发和子网参数主要由核心团队和主子网上的一组 64 个“根”验证者控制。这是一个中心化点——少数强大的验证者对奖励分配有巨大的影响力,导致了一些人所说的*“寡头投票系统”*。为了解决这个问题,Bittensor 在 2025 年引入了 dTAO(去中心化 TAO)治理。dTAO 系统将资源分配转变为市场驱动和社区控制。具体来说,TAO 持有者可以将其代币质押到子网特定的流动性池中(本质上,他们“投票”决定哪些子网应该获得更多的网络发行),并收到代表这些子网池所有权的 alpha 代币。吸引更多质押的子网将拥有更高的 alpha 代币价格,并获得每日 TAO 发行的更大份额,而不受欢迎或表现不佳的子网将看到资本(以及发行)流失。这就形成了一个反馈循环:如果一个子网产生有价值的 AI 服务,更多的人会向其质押 TAO(寻求奖励),这使得该子网有更多的 TAO 来奖励其参与者,从而促进增长。如果一个子网停滞不前,质押者会撤回到更有利可图的子网。实际上,TAO 持有者通过财务信号集体治理网络的焦点,表明哪些 AI 领域值得更多资源。这是一种通过代币权重进行的链上治理形式,与经济成果保持一致。除了资源分配,重大的协议升级或参数更改可能仍需通过治理提案,由 TAO 持有者投票(Bittensor 有一个由 Bittensor 基金会和选举产生的理事会管理的链上提案和公投机制,类似于 Polkadot 的治理)。随着时间的推移,可以预期 Bittensor 的治理将变得越来越去中心化,基金会会逐渐退后,由社区(通过 TAO 质押)来决定通货膨胀率、新子网批准等事项。向 dTAO 的过渡是朝着这个方向迈出的一大步,用一个激励一致的代币利益相关者市场取代了中心化的决策者。

  • Bittensor 激励: Bittensor 的激励结构与其共识紧密相连。每个区块(12 秒),会新铸造 1 个 TAO,并根据每个子网贡献者的表现进行分配。每个子网的区块奖励默认分配为41% 给矿工,41% 给验证者,18% 给子网所有者。这确保了所有角色都得到奖励:矿工因进行推理工作而获得报酬,验证者因其评估工作而获得报酬,而子网所有者(可能为该子网引导了数据/任务)则因提供“市场”或任务设计而获得剩余收益。这些百分比在协议中是固定的,旨在使每个人的激励都朝着高质量的 AI 输出方向发展。Yuma 共识机制通过根据质量分数加权奖励来进一步完善激励——提供更好答案的矿工(根据验证者共识)将获得那 41% 的更高部分,而紧密遵循诚实共识的验证者将获得验证者部分的更多份额。表现不佳者在经济上被淘汰。此外,委托人(质押者)支持矿工或验证者,通常会收到该节点收益的一部分(节点通常会设定一个佣金,将其余部分分给委托人,类似于 PoS 网络中的质押)。这使得被动的 TAO 持有者能够支持最佳贡献者并获得收益,进一步加强了精英管理。因此,Bittensor 的代币 (TAO) 是一种实用代币:它用于新矿工的注册(矿工必须花费少量 TAO 加入,以对抗女巫垃圾邮件),并且可以质押以增加影响力或通过委托赚取收益。它也被设想为一种支付代币,如果外部用户想从 Bittensor 网络消费服务(例如,支付 TAO 来查询 Bittensor 上的语言模型),尽管内部奖励机制迄今为止一直是主要的“经济体”。总体的激励理念是奖励“有价值的智能”——即帮助产生良好 AI 成果的模型——并创造一个不断提高网络中模型质量的竞争。

  • Gensyn 治理: Gensyn 的治理模型旨在随着网络的成熟从核心团队控制演变为社区控制。最初,Gensyn 将有一个Gensyn 基金会和一个选举产生的理事会,负责监督协议升级和财库决策。预计该理事会最初将由核心团队成员和早期社区领袖组成。Gensyn 计划为其原生代币(通常称为 GENS)进行代币生成事件 (TGE),之后治理权将越来越多地通过链上投票掌握在代币持有者手中。基金会的角色是代表协议的利益,并确保向完全去中心化的平稳过渡。实际上,Gensyn 可能会有链上提案机制,其中对参数的更改(例如,验证博弈的长度、费率)或升级由社区投票决定。因为 Gensyn 正在作为以太坊 rollup 实现,治理也可能与以太坊的安全性相关联(例如,使用 rollup 合约的升级密钥,最终移交给代币持有者的 DAO)。Gensyn 白皮书的去中心化与治理部分强调,该协议最终必须是全球拥有的,这与“机器智能网络”应属于其用户和贡献者的理念相一致。总而言之,Gensyn 的治理始于半中心化,但其架构旨在成为一个 DAO,其中 GENS 代币持有者(可能按质押或参与度加权)共同做出决策。

  • Gensyn 激励: Gensyn 中的经济激励是直接的市场动态,辅以加密经济安全。开发者(客户)用 Gensyn 代币支付机器学习任务,而解决者通过正确完成这些任务来赚取代币。计算周期的价格由公开市场决定——据推测,开发者可以发布带有赏金的任务,解决者可以竞标或在价格符合其期望时直接接受。这确保了只要有闲置 GPU 的供应,竞争就会将成本推低至一个公平的水平(Gensyn 团队预计与云价格相比成本可降低高达 80%,因为网络在全球范围内寻找最便宜的可用硬件)。另一方面,解决者有赚取代币的激励;他们原本可能闲置的硬件现在可以产生收入。为了确保质量,Gensyn 要求解决者在接受工作时质押抵押品——如果他们作弊或产生不正确的结果并被抓住,他们将失去那笔质押(它可能被罚没并奖励给诚实的验证者)。验证者的激励来自于有机会在抓住欺诈性解决者时获得**“大奖”奖励**,类似于 Truebit 的设计,即定期奖励成功识别不正确计算的验证者。这使得解决者保持诚实,并激励一些节点充当监督者。在最优情况下(没有作弊),解决者只赚取任务费用,而验证者角色大多处于闲置状态(或者参与的解决者之一可能兼任其他人的验证者)。因此,Gensyn 的代币既是购买计算的燃料货币,也是保障协议安全的质押抵押品。白皮书提到一个带有非永久性代币的测试网,并且早期测试网参与者将在 TGE 时获得真实代币奖励。这表明 Gensyn 分配了一些代币供应用于引导——奖励早期采用者、测试解决者和社区成员。从长远来看,来自真实工作的费用应该能够维持网络。也可能有一个小的协议费(每个任务支付的一定百分比)进入财库或被销毁;这个细节尚未确认,但许多市场协议都包含一个费用来资助开发或代币回购和销毁。总而言之,Gensyn 的激励围绕着诚实完成机器学习工作:完成工作,获得报酬;试图作弊,失去质押;验证他人,抓住作弊者则获得奖励。这创建了一个旨在实现可靠分布式计算的自我监管经济体系。

  • Cuckoo 治理: Cuckoo Network 从第一天起就将治理融入其生态系统,尽管它仍处于发展阶段。CAI代币除了其效用角色外,明确是一种治理代币。Cuckoo的理念是,GPU节点运营商、应用开发者甚至终端用户都应该在网络的演变中有发言权——这反映了其社区驱动的愿景。实际上,重要决策(如协议升级或经济变化)将由代币加权投票决定,大概是通过DAO机制。例如,Cuckoo可以就改变奖励分配或采用新功能进行链上投票,而CAI 代币除了其效用角色外,明确是一种治理代币。Cuckoo 的理念是,GPU 节点运营商、应用开发者甚至终端用户都应该在网络的演变中有发言权——这反映了其社区驱动的愿景。实际上,重要决策(如协议升级或经济变化)将由代币加权投票决定,大概是通过 DAO 机制。例如,Cuckoo 可以就改变奖励分配或采用新功能进行链上投票,而 CAI 持有者(包括矿工、开发者和用户)将进行投票。链上投票已经被用作声誉系统:Cuckoo 要求每个角色都质押代币,然后社区成员可以投票(或许通过委托质押或通过治理模块)决定哪些协调者或矿工是值得信赖的。这会影响声誉分数,并可能影响任务调度(例如,获得更多投票的协调者可能会吸引更多用户,或者获得更多投票的矿工可能会被分配更多任务)。这是治理和激励的结合——使用治理代币来建立信任。Cuckoo 基金会或核心团队迄今为止一直在指导项目的方向(例如,最近决定弃用 L1 链),但他们的博客表明了向去中心化所有权迈进的承诺。他们认识到运行自己的链会产生高昂的开销,转向 rollup 将允许更开放的开发和与现有生态系统的整合。很可能一旦在一个共享层(如以太坊)上,Cuckoo 将为升级实施一个更传统的 DAO,社区使用 CAI 进行投票。

  • Cuckoo 激励: Cuckoo 的激励设计有两个阶段:初始的引导阶段,有固定的代币分配;以及未来的状态,有基于使用的收入分成。在启动时,Cuckoo 进行了 10 亿 CAI 代币的**“公平启动”**分配。51% 的供应量留给社区,分配如下:

  • 挖矿奖励: 总供应量的 30% 用于支付 GPU 矿工执行 AI 任务。

  • 质押奖励: 总供应量的 11% 用于那些质押并帮助保护网络的人。

  • 空投: 5% 给早期用户和社区成员作为采用激励。

  • (另外 5% 用于开发者资助,以鼓励在 Cuckoo 上构建。)

这种大规模的分配意味着在网络早期,即使实际用户需求很低,矿工和质押者也能从发行池中获得奖励。事实上,Cuckoo 的初始阶段以高 APY 收益为特色,用于质押和挖矿,这成功地吸引了参与者,但也吸引了只为代币而来的“收益农民”。团队注意到,一旦奖励率下降,许多用户就离开了,这表明这些激励措施与真正的使用无关。吸取了这一教训,Cuckoo 正在转向一个奖励与真实 AI 工作负载直接相关的模型。在未来(部分已经实现),当终端用户为 AI 推理付费时,那笔付款(以 CAI 或可能转换为 CAI 的其他接受的代币)将在贡献者之间分配:

  • GPU 矿工将因其提供的计算而获得大部分份额。
  • **协调者(应用开发者)**将作为提供模型和处理请求的服务提供商获得一部分。
  • 质押者委托给这些矿工或协调者的人可能会获得一小部分或通胀奖励,以继续激励支持可靠的节点。
  • 网络/财库可能会保留一笔费用用于持续开发或资助未来的激励措施(或者费用可能为零/名义上的,以最大化用户的可负担性)。

本质上,Cuckoo 正在向收入分成模型迈进:如果 Cuckoo 上的一个 AI 应用产生收益,这些收益将以公平的方式分配给该服务的所有贡献者。这使得激励措施保持一致,参与者从实际使用中受益,而不仅仅是通货膨胀。网络已经要求所有方质押 CAI——这意味着矿工和协调者不仅获得固定的奖励,还可能获得基于质押的奖励(例如,如果许多用户在他们身上质押,或者如果他们自己质押更多,协调者可能会获得更高的奖励,类似于权益证明验证者的收益方式)。在用户激励方面,Cuckoo 还引入了空投门户和水龙头(一些用户利用了这些)来播种初始活动。展望未来,用户可能会通过使用服务的代币返利或通过参与策划的治理奖励(例如,为评级输出或贡献数据赚取少量代币)来获得激励。底线是 Cuckoo 的代币($CAI)是多用途的:它是链上的燃料/费用代币(所有交易和支付都使用它),它用于质押和投票,并且是完成工作的奖励单位。Cuckoo 明确提到,它希望将代币奖励与服务级 KPI(关键绩效指标)挂钩——例如,正常运行时间、查询吞吐量、用户满意度——以避免纯粹的投机性激励。这反映了代币经济从简单的流动性挖矿向更可持续、实用驱动的模型的成熟。

模型所有权与 IP 归属

处理 AI 模型的知识产权 (IP) 和所有权是去中心化 AI 网络的一个复杂方面。每个平台都采取了略有不同的立场,总的来说,这是一个不断发展的领域,目前还没有完整的解决方案:

  • Bittensor: Bittensor 中的模型由矿工节点提供,这些矿工保留对其模型权重的完全控制(这些权重从未在链上发布)。除了模型在某个钱包地址上运行这一事实外,Bittensor 并没有明确跟踪谁“拥有”一个模型。如果一个矿工离开,他们的模型也随之离开。因此,Bittensor 中的 IP 归属是链下的:如果一个矿工使用专有模型,链上没有任何东西可以强制执行甚至知道这一点。Bittensor 的理念鼓励开放贡献(许多矿工可能会使用像 GPT-J 或其他开源模型),网络奖励的是这些模型的性能。可以说,Bittensor 为模型创建了一个声誉分数(通过验证者排名),这是一种承认模型价值的形式,但模型本身的权利并未被代币化或分发。值得注意的是,Bittensor 中的子网所有者可以被视为拥有一部分 IP:他们定义一个任务(可能包括一个数据集或方法)。子网所有者在创建子网时会铸造一个 NFT(称为子网 UID),该 NFT 使他们有权获得该子网 18% 的奖励。这有效地将创建模型市场(即子网)代币化,而不是模型实例。如果将子网的定义(比如一个带有特定数据集的语音识别任务)视为 IP,那么它至少被记录和奖励了。但是,矿工训练的单个模型权重——没有这些权重的链上所有权记录。归属以支付给该矿工地址的奖励形式出现。Bittensor 目前没有实现一个系统,例如,多个人可以共同拥有一个模型并获得自动的收入分成——运行模型的人(矿工)获得奖励,而他们是否遵守所用模型的任何 IP 许可是他们链下的事情。

  • Gensyn: 在 Gensyn 中,模型所有权是直接的,因为提交者(想要训练模型的人)提供模型架构和数据,训练后,他们会收到最终的模型工件。执行工作的解决者对模型没有权利;他们就像为服务付费的承包商。因此,Gensyn 的协议假设了传统的 IP 模型:如果你对提交的模型和数据拥有合法权利,那么在训练后你仍然拥有它们——计算网络不声称任何所有权。Gensyn 确实提到,市场也可以像交易任何其他资源一样交易算法和数据。这暗示了一种情景,即有人可以在网络中提供一个模型或算法供使用,可能需要付费,从而将该模型的访问权代币化。例如,一个模型创建者可能会将其预训练模型放在 Gensyn 上,并允许他人在网络上对其进行微调,并收取费用(这实际上将模型 IP 货币化)。虽然协议不强制执行许可条款,但可以编码支付要求:一个智能合约可以要求支付费用以向解决者解锁模型权重。然而,这些都是推测性的用例——Gensyn 的主要设计是关于促成训练作业。至于归属,如果多方对一个模型做出贡献(比如一方提供数据,另一方提供计算),这很可能由他们在开始使用 Gensyn 之前建立的任何合同或协议来处理(例如,一个智能合约可以在数据提供者和计算提供者之间分配支付)。Gensyn 本身除了记录哪些地址为该工作支付了费用之外,不会在链上跟踪“这个模型是由 X、Y、Z 构建的”。总而言之,Gensyn 中的模型 IP 仍然属于提交者,任何归属或许可都必须通过协议之外的法律协议或在其之上构建的自定义智能合约来处理。

  • Cuckoo: 在 Cuckoo 的生态系统中,模型创建者(AI 应用构建者)是一等参与者——他们部署 AI 服务。如果一个应用构建者微调了一个语言模型或开发了一个自定义模型并将其托管在 Cuckoo 上,那么该模型基本上是他们的财产,他们充当服务所有者。Cuckoo 不会夺取任何所有权;相反,它为他们提供了将使用货币化的基础设施。例如,如果一个开发者部署了一个聊天机器人 AI,用户可以与之互动,开发者(以及矿工)可以从每次互动中赚取 CAI。因此,该平台将使用收入归属于模型创建者,但不会明确发布模型权重或将其变成 NFT。事实上,为了在矿工的 GPU 上运行模型,协调者节点可能需要以某种形式将模型(或运行时)发送给矿工。这就提出了 IP 问题:恶意的矿工是否可以复制模型权重并分发它们?在去中心化网络中,如果使用专有模型,这种风险是存在的。Cuckoo 目前的重点是相当开放的模型(Stable Diffusion、LLaMA 衍生的模型等)和建立社区,所以我们还没有看到通过智能合约强制执行 IP 权利。该平台未来可能会集成像加密模型执行或安全区域之类的工具来保护 IP,但文档中没有提到具体内容。它确实跟踪的是谁为每个任务提供了模型服务——因为协调者是一个链上身份,其模型的所有使用都归于他们,他们会自动获得他们的奖励份额。如果要将模型转交或出售给其他人,实际上他们会转移协调者节点的控制权(如果协调者角色被代币化,甚至可能只是给他们私钥或 NFT)。目前,模型的社区所有权(通过代币份额)尚未实现,但 Cuckoo 的愿景暗示了去中心化的社区驱动 AI,所以他们可能会探索让人们集体资助或治理一个 AI 模型。在这些网络中,模型的代币化超越个人所有权仍然是一个开放领域——它被认为是一个目标(让社区而不是公司拥有 AI 模型),但实际上它需要解决上述 IP 和验证挑战的方案。

总而言之,在 Bittensor、Gensyn 和 Cuckoo 中,模型所有权是通过传统方式在链下处理的:运行或提交模型的人或实体实际上是所有者。这些网络以经济奖励的形式提供归属(为模型的贡献者的 IP 或努力支付报酬)。这三者都还没有在智能合约层面内置模型使用的许可或版税强制执行。归属通过声誉和奖励来实现:例如,Bittensor 的最佳模型获得高声誉分数(这是公开记录)和更多的 TAO,这是对其创建者的隐性认可。随着时间的推移,我们可能会看到像NFT 绑定的模型权重去中心化许可这样的功能来更好地跟踪 IP,但目前的优先事项是让网络运作并激励贡献。所有人都同意,验证模型来源和输出是实现真正的模型资产市场的关键,这方面的研究正在进行中。

收入分成结构

所有三个平台都必须决定,当多方合作产生有价值的 AI 输出时,如何分配经济蛋糕。当一个 AI 服务被使用或代币被发行时,谁得到报酬,以及多少?每个平台都有一个独特的收入分成模型:

  • Bittensor: 如激励部分所述,Bittensor 的收入分配是在区块级别由协议定义的:每个区块的 TAO 发行中,41% 给矿工,41% 给验证者,18% 给子网所有者。这实际上是为每个子网产生的价值内置的收入分成。子网所有者的份额(18%)就像是为“模型/任务设计”或为引导该子网生态系统而收取的版税。矿工和验证者获得相等的份额,确保了没有验证,矿工就得不到奖励(反之亦然)——它们是共生的,各自获得铸造奖励的相等部分。如果我们考虑一个外部用户支付 TAO 来查询一个模型,Bittensor 白皮书设想这笔支付也会在回答的矿工和帮助审查答案的验证者之间类似地分配(具体分配比例可以由协议或市场力量决定)。此外,委托人质押在矿工/验证者身上,实际上是合作伙伴——通常,矿工/验证者会将其赚取的 TAO 的一部分与他们的委托人分享(这是可配置的,但通常大部分给委托人)。所以,如果一个矿工从一个区块中赚取了 1 TAO,根据质押情况,这可能会在他们的委托人和他们自己之间以 80/20 的比例分配。这意味着即使非运营商也能根据他们的支持按比例获得网络收入的一部分。随着 dTAO 的引入,又增加了一层分享:那些质押到子网池中的人会得到 alpha 代币,这使他们有权获得该子网发行的一部分(就像收益农场)。实际上,任何人都可以通过持有 alpha 代币来分享特定子网的成功,并获得矿工/验证者奖励的一部分(alpha 代币会随着子网吸引更多使用和发行而升值)。总而言之,Bittensor 的收入分成是由代码固定的,适用于主要角色,并通过社交/质押安排进一步分享。这是一个相对透明、基于规则的分配——每个区块,参与者都确切地知道 1 TAO 是如何分配的,从而知道他们每次贡献的“收益”。这种清晰度是 Bittensor 有时被比作 AI 领域的比特币的原因之一——一个确定性的货币发行,参与者的奖励是数学上设定的。

  • Gensyn: Gensyn 中的收入分成更加动态和市场驱动,因为任务是单独定价的。当一个提交者创建一个工作时,他们会附上一个他们愿意支付的奖励(比如 X 个代币)。完成工作的解决者会得到那个 X(减去任何网络费用)。如果涉及到验证者,通常有一个规则,比如:如果没有检测到欺诈,解决者保留全部支付;如果检测到欺诈,解决者将被罚没——失去部分或全部质押——而被罚没的金额将作为奖励给予验证者。所以验证者不是从每个任务中赚钱,只有当他们抓住一个坏结果时才赚钱(加上可能参与的少量基准费用,取决于实现方式)。这里没有内置的向模型所有者支付的概念,因为假设提交者要么是模型所有者,要么有权使用该模型。可以想象一种情景,提交者正在微调别人的预训练模型,一部分支付会给原始模型创建者——但这必须在协议之外处理(例如,通过协议或一个单独的智能合约来相应地分配代币支付)。Gensyn 的协议级分享本质上是客户 -> 解决者 (-> 验证者)代币模型可能包括一些分配给协议财库或基金会;例如,每个任务支付的一小部分可能会进入一个财库,用于资助开发或保险池(这在现有文档中没有明确说明,但许多协议都这样做)。此外,在早期,Gensyn 可能会通过通货膨胀来补贴解决者:测试网用户在 TGE 时被承诺奖励,这实际上是来自初始代币分配的收入分成(早期解决者和支持者因帮助引导而获得一部分代币,类似于空投或挖矿奖励)。随着时间的推移,随着真实工作的增多,通胀奖励会逐渐减少,解决者的收入将主要来自用户支付。Gensyn 的方法可以总结为一个按服务收费的收入模型:网络促成需要完成工作的人向完成工作的人直接支付,验证者和可能的代币质押者只有在他们在保障该服务中发挥作用时才分得一杯羹。

  • Cuckoo: Cuckoo 的收入分成已经演变。最初,因为没有太多付费的终端用户,收入分成基本上是通货膨胀分享:来自代币供应的 30% 挖矿和 11% 质押分配意味着矿工和质押者分享网络公平启动池发行的代币。实际上,Cuckoo 运行着像每日 CAI 支付这样的机制,按完成的任务比例支付给矿工。这些支付主要来自挖矿奖励分配(这是保留的固定供应的一部分)。这类似于许多 Layer-1 区块链向矿工/验证者分配区块奖励的方式——它与外部用户的实际使用无关,更多的是为了激励参与和增长。然而,正如他们在 2025 年 7 月的博客中所强调的,这导致了由代币农场而不是真实需求激励的使用。Cuckoo 的下一阶段是一个基于服务费的真正收入分成模型。在这个模型中,当一个终端用户使用,比如说,图像生成服务并支付 1 美元(以加密货币计算)时,那 1 美元价值的代币可能会这样分配:0.70 给完成 GPU 工作的矿工,0.20 给提供模型和接口的应用开发者(协调者),0.10 给质押者或网络财库。(注意:确切的比例是假设的;Cuckoo 尚未公开指定它们,但这说明了概念。)这样,所有为提供服务做出贡献的人都能分得一杯羹。这类似于,例如,共享出行经济,但用于 AI:车辆(GPU 矿工)获得大部分,司机或平台(构建模型服务的协调者)获得一部分,也许平台的治理/质押者获得少量费用。Cuckoo 提到*“收入分成模型和代币奖励直接与使用指标挂钩”*,这表明如果某个特定的服务或节点处理大量流量,其运营商和支持者将赚得更多。他们正在摆脱仅仅锁定代币就能获得固定收益的模式(这在他们最初的质押 APY 中是这样的)。具体来说:如果你在一个最终为非常受欢迎的 AI 应用提供动力的协调者上质押,你可以赚取该应用费用的一部分——这是一个真正的将质押作为对效用投资的场景,而不仅仅是为了通货膨,胀而质押。这使得每个人的激励都朝着吸引为 AI 服务付费的真实用户方向发展,这反过来又将价值反馈给代币持有者。值得注意的是,Cuckoo 的链也有交易费用(gas),所以生产区块的矿工(最初 GPU 矿工也为 Cuckoo 链上的区块生产做出了贡献)也得到了 gas 费用。随着链的关闭和向 rollup 的迁移,gas 费用可能会很小(或者在以太坊上),所以主要收入变成了 AI 服务费用本身。总而言之,Cuckoo 正在从一个补贴驱动的模型(网络从其代币池中支付参与者)过渡到一个需求驱动的模型(参与者从实际用户支付中赚钱)。代币仍将在质押和治理中发挥作用,但矿工和应用开发者的日常收入应越来越多地来自购买 AI 服务的用户。这个模型在长期内更具可持续性,并与 Web2 SaaS 的收入分成密切相似,但通过智能合约和代币实现透明度。

攻击面与漏洞

去中心化 AI 引入了一些激励和安全挑战。我们现在分析关键的攻击向量——女巫攻击、合谋、搭便车以及数据/模型投毒——以及每个平台如何减轻或仍然容易受到这些攻击:

  • 女巫攻击(虚假身份):在一个开放网络中,攻击者可能会创建许多身份(节点)以获得不成比例的奖励或影响力。

  • Bittensor:女巫攻击的抵抗主要来自于进入成本。要在 Bittensor 上注册一个新的矿工或验证者,必须花费或质押 TAO——这可能是一种销毁或保证金要求。这意味着创建 N 个虚假节点会产生 N 倍的成本,使得大规模的女巫攻击变得昂贵。此外,Bittensor 的共识将影响力与质押和性能挂钩;一个没有质押或性能不佳的女巫几乎赚不到钱。攻击者必须投入巨资,并且让他们的女巫节点实际贡献有用的工作才能获得任何显著的奖励(这不是典型的女巫策略)。也就是说,如果一个攻击者确实拥有大量资本,他们可以获得大部分 TAO 并注册许多验证者或矿工——实际上是一种财富女巫。这与 51% 攻击情景重叠:如果单个实体控制了一个子网中超过 50% 的质押 TAO,他们就可以严重影响共识。Bittensor 引入 dTAO 在这里有所帮助:它将影响力分散到各个子网,并要求社区质押支持子网才能发展,这使得单个实体更难控制一切。尽管如此,资金雄厚的对手发起的财富女巫攻击仍然是一个担忧——Arxiv 的分析明确指出,目前的质押相当集中,因此多数攻击的门槛并不像期望的那么高。为了缓解这种情况,有人提出了像每个钱包的质押上限(例如,将有效质押上限设在第 88 百分位数,以防止一个钱包独大)之类的建议。总而言之,Bittensor 依靠质押加权身份(你不能在没有相应质押的情况下廉价地生成身份)来处理女巫攻击;除了在资源非常丰富的攻击者面前,它相当有效。

  • Gensyn:Gensyn 中的女巫攻击将表现为攻击者启动许多解决者或验证者节点来操纵系统。Gensyn 的防御纯粹是经济和密码学的——身份本身不重要,但完成工作或提供抵押品很重要。如果一个攻击者创建了 100 个虚假的解决者节点,但他们没有工作或没有质押,他们什么也得不到。要赢得任务,一个女巫节点必须有竞争力地出价,并拥有完成工作的硬件。如果他们以低于成本的价格出价而没有能力,他们会失败并失去质押。同样,攻击者可以创建许多验证者身份,希望被选中进行验证(如果协议随机选择验证者)。但如果数量太多,网络或工作发布者可能会限制活跃验证者的数量。此外,验证者可能需要执行计算来检查它,这是昂贵的;拥有许多虚假的验证者并没有帮助,除非你真的能验证结果。在 Gensyn 中,一个更相关的女巫攻击角度是,如果攻击者试图用虚假的工作或响应填满网络以浪费他人的时间。这可以通过要求提交者也提供押金来缓解(发布虚假工作的恶意提交者会失去他们的支付或押金)。总的来说,Gensyn 使用必需的质押/保证金随机选择验证意味着攻击者除非也带来相应的资源,否则通过拥有多个身份获得的收益甚微。这变成了一种成本高昂的攻击,而不是廉价的攻击。乐观安全模型假设至少有一个诚实的验证者——女巫必须压倒并成为所有验证者才能持续作弊,这又回到了拥有大部分质押或计算能力的问题。因此,Gensyn 的女巫抵抗能力与乐观 rollup 相当:只要有一个诚实的参与者,女巫就很难轻易造成系统性损害。

  • Cuckoo:Cuckoo 中防止女巫攻击依赖于质押和社区审查。Cuckoo 中的每个角色(矿工、协调者,甚至在某些情况下的用户)都需要质押 $CAI。这立即提高了女巫身份的成本——一个制造 100 个虚假矿工的攻击者需要为每个矿工获取并锁定质押。此外,Cuckoo 的设计有一个人为/社区因素:新节点需要通过链上投票来获得声誉。一个没有声誉的新节点女巫大军不太可能被分配到很多任务或被用户信任。特别是协调者必须吸引用户;一个没有记录的虚假协调者不会得到使用。对于矿工,协调者可以在 Cuckoo Scan 上看到他们的性能统计数据(成功任务等),并且会偏爱可靠的矿工。Cuckoo 的矿工数量也相对较少(在 beta 测试中一度只有 40 个 GPU),所以任何大量节点的奇怪涌入都会很明显。潜在的弱点是,如果攻击者也操纵声誉系统——例如,他们在自己的女巫节点上质押大量 CAI,使它们看起来信誉良好,或者创建虚假的“用户”账户来为自己点赞。这在理论上是可能的,但由于这一切都是代币策划的,这样做需要花费代币(你基本上是用自己的质押在自己的节点上投票)。Cuckoo 团队也可以在观察到女巫行为时调整质押和奖励参数(特别是现在它正在成为一个更中心化的 rollup 服务;他们可以暂停或罚没不良行为者)。总而言之,女巫通过要求投入(质押)需要社区批准来得到控制。没有人可以仅仅带着数百个虚假的 GPU 进来就 reaping 奖励,而无需大量投资,而诚实的参与者可以更好地将这些投资用于真实的硬件和质押。

  • 合谋: 这里我们考虑多个参与者合谋操纵系统——例如,Bittensor 中的验证者和矿工合谋,或 Gensyn 中的解决者和验证者合谋等。

  • Bittensor:合谋已被确定为一个真正的问题。在最初的设计中,少数验证者可以合谋总是支持某些矿工或他们自己,从而不公平地扭曲奖励分配(这在根子网中被观察为权力集中)。Yuma 共识提供了一些防御:通过取验证者分数的中位数并惩罚偏离者,它防止了一个小的合谋团体大幅提升一个目标,除非他们是多数。换句话说,如果 10 个验证者中有 3 个合谋给一个矿工一个超高的分数,但其他 7 个没有,那么合谋者的离群分数会被剔除,矿工的奖励将基于中位数分数(所以合谋未能显著帮助)。然而,如果合谋者构成了超过 50% 的验证者(或验证者中超过 50% 的质押),他们实际上就是共识——他们可以就虚假的高分达成一致,中位数将反映他们的观点。这是经典的 51% 攻击情景。不幸的是,Arxiv 的研究发现,在一些 Bittensor 子网中,仅占参与者数量 1-2% 的联盟就控制了大部分质押,这是由于代币高度集中。这意味着少数大户的合谋是一个可信的威胁。Bittensor 通过 dTAO 追求的缓解措施是民主化影响力:通过让任何 TAO 持有者将质押导向子网,它稀释了封闭验证者团体的权力。此外,像凹形质押(对超大质押的收益递减)和质押上限等提案旨在打破单个合谋实体聚集过多投票权的能力。Bittensor 的安全假设现在类似于权益证明:没有单个实体(或卡特尔)控制超过 50% 的活跃质押。只要这一点成立,合谋就是有限的,因为诚实的验证者会覆盖不良评分,合谋的子网所有者也不能任意提升自己的奖励。最后,关于子网所有者和验证者之间的合谋(例如,一个子网所有者贿赂验证者以高评价其子网的矿工),dTAO 消除了直接的验证者控制,代之以代币持有者的决策。与“市场”合谋更难,除非你买断代币供应——在这种情况下,这就不再是合谋,而是接管。所以 Bittensor 的主要反合谋技术是算法共识(中位数裁剪)广泛的代币分配

  • Gensyn:Gensyn 中的合谋可能涉及一个解决者和一个验证者(或多个验证者)合谋欺骗系统。例如,一个解决者可以产生一个虚假的结果,而一个合谋的验证者可以故意不挑战它(或者如果协议要求验证者签署,甚至证明它是正确的)。为了缓解这种情况,Gensyn 的安全模型要求至少有一个诚实的验证者。如果所有验证者都与解决者合谋,那么一个坏结果就不会受到挑战。Gensyn 通过鼓励许多独立的验证者(任何人都可以验证)以及博弈论来解决这个问题,即一个验证者可以通过脱离合谋并提出挑战来获得巨大的奖励(因为他们会得到解决者的质押)。本质上,即使有一群人同意合谋,每个成员都有动机背叛并为自己索取赏金——这是一个经典的囚徒困境设置。希望这能使合谋团体保持小规模或无效。另一个潜在的合谋是多个解决者之间合谋抬高价格或垄断任务。然而,由于开发者可以选择在哪里发布任务(而且任务不是可以轻易垄断的相同单位),解决者在价格上的合谋很难在全球范围内协调——任何不合谋的解决者都可以以更低的价格赢得工作。开放的市场动态对抗了定价合谋,假设至少有一些竞争参与者。另一个角度:验证者合谋刁难解决者——例如,验证者错误地指控诚实的解决者以窃取他们的质押。Gensyn 的欺诈证明是二元的和链上的;当链上重新计算发现没有错误时,一个错误的指控会失败,并且据推测,恶意的验证者会因此失去一些东西(也许是押金或声誉)。所以,试图破坏解决者的验证者合谋会被协议的验证过程抓住。总而言之,只要任何合谋集合中至少有一方有动机保持诚实,Gensyn 的架构就是稳健的——这是乐观验证的一个特性,类似于要求比特币中至少有一个诚实的矿工最终揭露欺诈。如果一个攻击者可以控制一个任务中的所有验证者和解决者(比如网络的大多数),理论上合谋是可能的,但那时他们就可以直接作弊而不需要合谋。加密经济激励的安排使得维持合谋变得不理性。

  • Cuckoo:Cuckoo 中的合谋可能以几种方式发生:

  1. 一个协调者与矿工合谋——例如,一个协调者可以总是将任务分配给一组友好的矿工并分享奖励,而忽略其他诚实的矿工。由于协调者在任务调度上有自由裁量权,这可能会发生。然而,如果友好的矿工表现不佳,终端用户可能会注意到服务缓慢或质量差而离开,所以协调者没有动机纯粹为了偏袒而损害质量。如果合谋是为了操纵奖励(比如,提交虚假任务给矿工代币),这将在链上被检测到(大量任务可能具有相同的输入或没有实际用户)并可能受到惩罚。Cuckoo 的链上透明度意味着任何不寻常的模式都可能被社区或核心团队标记。此外,因为所有参与者都质押,一个合谋的协调者-矿工团伙如果被发现滥用系统,将面临失去质押的风险(例如,如果治理决定因欺诈而罚没他们)。
  2. 矿工之间合谋——他们可能会分享信息或形成一个卡特尔,比如说,在声誉上互相投票,或者都拒绝为一个特定的协调者服务以索取更高的费用。这些情况不太可能发生:声誉投票是由质押者(包括用户)完成的,而不是矿工自己互相投票。而拒绝服务只会促使协调者寻找其他矿工或发出警报。鉴于目前规模相对较小,任何合谋都很难隐藏。
  3. 合谋操纵治理——大的 CAI 持有者可以合谋通过对他们有利的提案(比如设定过高的费用或重定向财库)。这在任何代币治理中都是一个风险。最好的缓解措施是广泛分配代币(Cuckoo 的公平启动将 51% 分给了社区)并有活跃的社区监督。此外,由于 Cuckoo 从 L1 转型,直接的链上治理可能会受到限制,直到他们在新的链上重新安顿下来;团队在此期间可能会保留一个多签控制,这讽刺地防止了恶意外部人员的合谋,但代价是暂时的中心化。 总的来说,Cuckoo 依靠透明度和质押来处理合谋。在某种程度上,信任协调者会表现良好,因为他们想在竞争环境中吸引用户。如果合谋导致服务质量下降或明显的奖励操纵,利益相关者可以投票淘汰或停止质押不良行为者,网络可以罚没或阻止他们。相当开放的性质(任何人只要质押就可以成为协调者或矿工)意味着合谋需要大规模的协调努力,而这将是显而易见的。它不像 Bittensor 或 Gensyn 那样在数学上被阻止,但经济质押和社区治理的结合提供了一种制衡。
  • 搭便车(搭便车问题):这指的是参与者试图在不贡献同等价值的情况下获得奖励——例如,一个实际上不进行评估但仍然赚钱的验证者,或者一个复制他人答案而不是自己计算的矿工,或者在不提供有用输入的情况下刷奖励的用户。

  • Bittensor:Bittensor 中一个已知的搭便车问题是懒惰验证者的**“权重复制”。一个验证者可以简单地复制多数意见(或其他验证者的分数),而不是独立评估矿工。通过这样做,他们避免了运行 AI 查询的成本,但如果他们提交的分数看起来与共识一致,他们仍然可以获得奖励。Bittensor 通过衡量每个验证者的共识一致性信息贡献来对抗这一点。如果一个验证者总是只是复制他人,他们可能与共识一致(所以他们不会受到重罚),但他们没有增加任何独特的价值。协议开发者已经讨论过给那些提供准确但不纯粹冗余评估的验证者更高的奖励。像噪声注入**(故意给验证者略有不同的查询)这样的技术可以迫使他们实际工作而不是复制——尽管尚不清楚这是否已实现。Arxiv 建议使用性能加权发行和复合评分方法来更好地将验证者的努力与奖励联系起来。至于矿工,一种可能的搭便车行为是,如果一个矿工查询其他矿工并转发答案(一种抄袭形式)。Bittensor 的设计(带有去中心化查询)可能允许一个矿工的模型通过自己的树突调用其他模型。如果一个矿工只是转发别人的答案,一个好的验证者可能会发现这一点,因为答案可能与该矿工声称的模型能力不一致。这在算法上很难检测,但一个从不计算原始结果的矿工最终应该在某些查询上得分很低并失去声誉。另一个搭便车情景是委托人在不做 AI 工作的情况下获得奖励。这是有意的(为了让代币持有者参与),所以不是攻击——但它确实意味着一些代币发行给了只质押的人。Bittensor 将此解释为协调激励,而不是浪费奖励。简而言之,Bittensor 承认验证者搭便车问题,并正在调整激励措施(比如给予验证者信任分数,以提升那些不偏离或复制的人)。他们的解决方案本质上是更明确地奖励努力和正确性,以便什么都不做或盲目复制随着时间的推移会产生更少的 TAO。

  • Gensyn:在 Gensyn 中,搭便车者会发现很难赚钱,因为一个人必须要么提供计算,要么抓住作弊者才能获得代币。一个解决者不能“伪造”工作——他们必须提交一个有效的证明,否则就有被罚没的风险。没有机制可以在不完成任务的情况下获得报酬。一个验证者理论上可以坐等他人抓住欺诈——但那样他们什么也得不到(因为只有提出欺诈证明的人才能获得奖励)。如果太多的验证者试图搭便车(不实际重新计算任务),那么一个欺诈性的解决者可能会溜走,因为没有人在检查。Gensyn 的激励设计通过大奖奖励来解决这个问题:只需要一个活跃的验证者抓住一个作弊者就能获得一大笔报酬,所以至少有一个人总是在工作是理性的。其他人不做工作不会损害网络,只是没用;他们也得不到奖励。所以系统自然会过滤掉搭便车者:只有那些真正验证的验证者才能在长期内获利(其他人将资源花在节点上却一无所获,或者很少有机会偶然获得奖励)。协议也可能随机化哪个验证者有机会挑战,以阻止所有验证者都假设“别人会做的”。由于任务是单独支付的,除了临时的测试网激励外,没有类似于“不工作就有质押奖励”的情况。一个值得关注的领域是多任务优化:一个解决者可能会试图在任务之间重用工作,或者秘密地将其外包给更便宜的人(比如使用中心化的云)——但这并不是真正有害的搭便车;如果他们按时交付正确的结果,他们是如何做到的并不重要。这更像是套利而不是攻击。总而言之,Gensyn 的机制设计几乎没有给搭便车者留下获利的空间,因为每个分发的代币都对应着一个完成的工作或一个被惩罚的作弊行为。

  • Cuckoo:Cuckoo 的初始阶段无意中创造了一个搭便车问题:空投和高收益质押吸引了只为刷代币而来的用户。这些用户会通过水龙头循环代币或操纵空投任务(例如,不断使用免费的测试提示或创建许多账户来领取奖励),而没有为网络的长期价值做出贡献。Cuckoo 认识到这是一个问题——本质上,人们“使用”网络不是为了 AI 输出,而是为了投机性奖励。决定结束 L1 链并重新聚焦,部分原因是为了摆脱这些激励错位。通过将未来的代币奖励与实际使用挂钩(即,你赚钱是因为服务实际上被付费客户使用),搭便车的吸引力就减小了。还有一个矿工端的搭便车情景:一个矿工可以加入,被分配任务,然后以某种方式不执行它们但仍然声称奖励。然而,协调者正在验证结果——如果一个矿工不返回输出或返回坏的输出,协调者不会将其计为已完成的任务,所以矿工不会得到报酬。矿工也可能试图挑选容易的任务而放弃困难的任务(例如,如果一些提示较慢,矿工可能会断开连接以避免它们)。这可能是一个问题,但协调者可以注意到矿工的可靠性。如果一个矿工经常掉线,协调者可以停止向他们分配任务或罚没他们的质押(如果存在这样的机制或干脆不奖励他们)。用户搭便车——由于许多 AI 服务都有免费试用,用户可以滥发请求以获得输出而不付费(如果有补贴的模型)。这与其说是协议层面的问题,不如说是服务层面的问题;每个协调者可以决定如何处理免费使用(例如,要求少量支付或限流)。因为 Cuckoo 最初提供了一些免费服务(比如免费的 AI 图像生成以吸引用户),一些人利用了这一点,但这是预期的增长营销的一部分。随着这些促销活动的结束,用户将不得不付费,因此没有免费的午餐可以利用。总的来说,Cuckoo 的新策略是将代币分配与真实效用挂钩,这明确旨在消除“为了做无意义的循环而挖矿”的搭便车问题。

  • 数据或模型投毒: 这指的是恶意引入不良数据或行为,使得 AI 模型退化或输出被操纵,以及贡献有害或有偏见内容的问题。

  • Bittensor:Bittensor 中的数据投毒意味着一个矿工故意给出不正确或有害的答案,或者验证者故意将好的答案评估为坏的。如果一个矿工持续输出垃圾或恶意内容,验证者会给出低分,该矿工将赚得很少并最终退出——经济激励是提供质量,所以“投毒”他人对攻击者没有好处(除非他们的目标纯粹是自费破坏)。一个恶意的矿工能毒害别人吗?在 Bittensor 中,矿工不直接互相训练(至少在设计上不是——没有一个可以被毒害的全局模型在更新)。每个矿工的模型是独立的。他们确实在某种意义上学习,即一个矿工可以从他人那里获取有趣的样本来微调自己,但这完全是可选的,取决于每个人。如果一个恶意行为者滥发无意义的答案,诚实的验证者会过滤掉这些(他们会给它低分),所以它不会显著影响任何诚实矿工的训练过程(此外,一个矿工可能会使用高分同行的知识,而不是低分的)。所以经典的数据投毒(注入不良训练数据以破坏模型)在 Bittensor 当前的设置中是最小的。更相关的风险是模型响应操纵:例如,一个矿工输出微妙的偏见或危险内容,而这对验证者来说并不明显。然而,由于验证者也是人类设计的或至少是算法代理,公然的毒性或错误很可能被发现(一些子网甚至可能有 AI 验证者检查不安全内容)。最坏的情况是,如果一个攻击者以某种方式拥有大多数验证者和矿工合谋将某个不正确的输出推为“正确”——他们就可以偏袒网络对响应的共识(比如所有合谋的验证者都支持一个恶意答案)。但要让外部用户因此受到伤害,他们必须实际查询网络并信任输出。Bittensor 仍处于一个构建能力的阶段,尚未被终端用户广泛用于关键查询。到那时,希望它将有内容过滤和验证者的多样性来减轻这种风险。在验证者方面,一个恶意的验证者可以提供有毒的评估——例如,持续地给某个诚实的矿工低分以消除竞争。如果有足够的质押,他们可能会成功地将该矿工挤出(如果该矿工的奖励下降到他们离开的程度)。这是对激励机制的攻击。同样,如果他们不是多数,中位数裁剪将挫败一个离群的验证者。如果他们多数,这就与合谋/51% 的情景合并了——任何多数都可以重写规则。解决方案又回到了去中心化:防止任何一个实体占主导地位。总而言之,Bittensor 的设计通过其评分系统固有地惩罚有毒的数据/模型贡献——不良贡献获得低权重,从而获得低奖励。没有一个永久的模型库可以被毒害;一切都是动态的并持续评估。这提供了弹性:网络可以随着不良行为者的贡献被验证者过滤掉而逐渐“忘记”或忽略他们。

  • Gensyn:如果一个解决者想毒害一个正在训练的模型(比如在训练期间引入后门或偏见),他们可以尝试秘密地这样做。Gensyn 协议会验证训练是否按照指定的算法进行(随机梯度下降步骤等),但它不一定能检测到解决者是否引入了一个微妙的后门触发器,而这个触发器在正常的验证指标中不会出现。这是一个更阴险的问题——它不是计算的失败,而是在训练的允许自由度内的操纵(比如将权重调整向一个触发短语)。检测这一点是机器学习安全领域的一个活跃研究问题。Gensyn 除了提交者可以在他们选择的测试集上评估最终模型这一事实外,没有特殊的模型投毒机制。一个精明的提交者应该总是测试返回的模型;如果他们发现它在某些输入上失败或有奇怪的行为,他们可能会对结果提出异议或拒绝支付。也许协议可以允许提交者指定某些接受标准(比如“模型必须在这个秘密测试集上达到至少 X 的准确率”),如果解决者的结果失败,解决者就得不到全额支付。这将阻止投毒,因为攻击者无法满足评估标准。然而,如果毒药不影响正常测试的准确性,它可能会溜走。Gensyn 中的验证者只检查计算完整性,而不是模型质量,所以他们不会发现故意的过拟合或木马,只要训练日志看起来有效。所以,这仍然是一个任务层面的信任问题:提交者必须要么相信解决者不会毒害模型,要么使用像集成多个来自不同解决者的训练结果这样的方法来稀释任何单个解决者的影响。另一个角度是数据投毒:如果提交者提供训练数据,一个恶意的解决者可以忽略这些数据,而在别的东西上训练或添加垃圾数据。但这可能会降低准确性,提交者会在输出模型的性能中注意到这一点。解决者将因此得不到全额支付(因为据推测他们想达到一个性能目标)。所以降低性能的投毒对解决者的奖励是自取灭亡的。只有性能中性但恶意的毒药(后门)才是真正的危险,而这超出了典型区块链验证的范围——这是一个机器学习安全挑战。Gensyn 最好的缓解措施可能是社会性的:使用知名的信誉良好的模型,进行多次训练运行,使用开源工具。在推理任务上(如果 Gensyn 也用于推理工作),一个合谋的解决者可以返回不正确的输出,从而偏袒某个答案。但如果验证者运行相同的模型,他们会发现错误的输出,所以这与其说是投毒,不如说是作弊,欺诈证明可以解决这个问题。总而言之,Gensyn 保障过程,而不是意图。它确保训练/推理是正确完成的,但不能保证结果是好的或没有隐藏的恶意。这仍然是一个悬而未决的问题,Gensyn 的白皮书可能还没有完全解决这个问题(很少有能解决的)。

  • Cuckoo:由于 Cuckoo 目前专注于推理(服务现有模型),数据/模型投毒的风险相对局限于输出操纵内容投毒。一个恶意的矿工可能会试图篡改他们被给予运行的模型——例如,如果提供了一个 Stable Diffusion 检查点,他们可以用一个不同的模型替换它,这个模型可能会在每张图片中插入一些微妙的水印或广告。然而,协调者(模型所有者)通常会发送带有输出格式期望的任务;如果一个矿工持续返回不符合规格的输出,协调者会标记并禁止该矿工。此外,矿工在不显著影响其输出的情况下很难修改模型。另一种情景是,如果 Cuckoo 引入社区训练的模型:那么矿工或数据提供者可能会试图毒害训练数据(例如,输入大量错误的标签或有偏见的文本)。Cuckoo 将需要实施对众包数据的验证或对贡献者进行加权。这还不是一个功能,但团队对个性化 AI 的兴趣(比如他们提到的 AI 生活教练或学习应用)意味着他们最终可能会处理用户提供的训练数据,这将需要仔细的检查。在内容安全方面,由于 Cuckoo 矿工执行推理,人们可能会担心他们会输出有害内容,即使模型通常不会。但矿工没有动机任意改变输出——他们为正确的计算获得报酬,而不是创造力。如果说有什么的话,一个恶意的矿工可能会为了节省时间而跳过完整的计算(例如,返回一张模糊的图片或一个通用的响应)。协调者或用户会看到这一点并给该矿工差评(并且很可能不会为该任务付费)。隐私是另一个方面:一个恶意的矿工可能会泄露或记录用户数据(比如用户输入了敏感的文本或图片)。这不是投毒,而是对机密性的攻击。Cuckoo 的隐私立场是,它正在探索保护隐私的方法(生态系统中提到一个保护隐私的 VPN 表明了未来的重点)。他们可以结合像安全区域或分割推理这样的技术来保护数据不被矿工看到。尚未实现,但这是一个已知的考虑因素。 最后,Cuckoo 的博客强调有效验证模型输出并确保安全的去中心化模型操作是使模型代币化可行的关键。这表明他们意识到,要真正去中心化 AI,必须防范像有毒输出或功能失常的模型这样的事情。可能他们打算结合使用加密经济激励(对不良行为者进行质押罚没)和用户评级系统(用户可以标记不良输出,那些矿工会失去声誉)。声誉系统在这里可以发挥作用:如果一个矿工返回哪怕一个明显恶意或不正确的结果,用户/协调者可以给他们差评,严重影响他们未来的赚钱能力。知道这一点,矿工就有动力保持一贯的正确性,而不是掺入任何毒药。 本质上,Cuckoo 依赖于信任但验证:它更传统,如果有人行为不端,你识别并移除他们(以失去质押作为惩罚)。它还没有针对微妙模型投毒的专门防御措施,但有特定的应用所有者(协调者)负责的结构增加了一层监督——这些所有者会有动力确保没有任何东西损害他们模型的完整性,因为他们自己的收入和声誉都依赖于此。

总而言之,虽然去中心化 AI 网络引入了新的攻击面,但它们也部署了一系列密码学、博弈论和社区治理的防御措施女巫抵抗主要通过要求参与者投入经济质押来处理。合谋抵抗来自于激励的一致性(诚实行为更有利可图)和限制小合谋团体影响的共识机制。防止搭便车是通过将奖励与实际有用的工作紧密联系,并惩罚或淘汰那些没有贡献的人来实现的。投毒及相关攻击仍然具有挑战性,但系统通过持续评估和罚没或驱逐恶意行为者的能力来减轻公然的案例。这些平台正在积极研究和迭代这些设计——正如 Bittensor 对 Yuma 和 dTAO 的持续调整,以及 Cuckoo 在代币经济学上的转变所证明的那样——以确保一个安全、自我维持的去中心化 AI 生态系统。

对比评估

为了突出 Bittensor、Gensyn 和 Cuckoo AI 的异同,下表从关键维度对它们进行了并排比较:

维度Bittensor (TAO)GensynCuckoo AI (CAI)
技术栈自定义 L1 (基于 Substrate 的 Subtensor 链),拥有 93+ 个专业 AI 子网。近期升级后,在其自有链上实现 EVM 兼容。基于以太坊的 rollup (最初计划为 L1,现为 ETH rollup)。链下计算,链上验证。作为 Arbitrum Orbit Layer-2 链 (EVM rollup) 启动。全栈平台 (自有链 + 计算 + 应用 UI)。正从自定义 L1 迁移到以太坊共享安全 (rollup/AVS)。
主要焦点去中心化 AI 网络,由模型组成的“神经互联网”。节点为跨任务(LLM、视觉等)的集体模型推理和训练做出贡献。去中心化的 ML 计算市场。重点是通过全球 GPU 进行链下模型训练和推理,并通过区块链验证工作。去中心化 AI 服务平台。专注于使用分布式 GPU 矿工进行模型服务/推理(例如生成艺术、LLM API)。将终端用户应用与后端 GPU 市场集成。
关键角色子网所有者: 定义子网中的任务和验证(赚取 18% 奖励)。
矿工: 运行 AI 模型(推理/训练),提供答案。
验证者: 提出查询并对矿工的输出进行评分(策划质量)。
委托人: 将 TAO 质押给矿工/验证者以增强其影响力并赚取份额。
提交者(开发者): 发布 ML 作业(附带模型/数据)和支付。
解决者: 在其硬件上计算任务,提交结果。
验证者(观察者): 检查解决者的结果;如果错误,可通过欺诈证明提出挑战。
(没有明确的“所有者”角色,因为提交者提供模型;治理角色通过代币持有者实现)。
AI 应用构建者(协调者): 部署 AI 模型服务,质押 CAI,管理分配给矿工的任务。
矿工(GPU/CPU 提供者): 质押 CAI,执行分配的推理任务,返回结果。
终端用户: 使用 AI 应用(用加密货币支付或贡献资源)。
质押者(委托人): 在协调者/矿工上质押,参与治理投票,赚取奖励份额。
共识与验证Yuma 共识: 自定义的“智能证明”——验证者对 AI 输出的评分被聚合(权益加权中位数)以确定矿工奖励。底层链共识类似于 PoS (Substrate) 用于区块,但区块有效性取决于每个周期的 AI 共识。能抵抗高达 50% 的离群评分和合谋。乐观验证(类 Truebit): 假设解决者的结果是正确的,除非有验证者提出挑战。使用交互式链上欺诈证明来精确定位任何不正确的步骤。同时也在实施计算的密码学证明(学习证明)以在不重新执行的情况下验证训练进度。以太坊为交易提供基础共识。权益证明链 + 协调者任务验证: Cuckoo 链使用 PoS 验证者进行区块生产(最初,矿工也帮助保护区块)。AI 任务结果由协调者节点验证(他们根据预期的模型行为检查矿工输出)。尚无专门的加密证明——依赖于质押和声誉(其无需信任的程度在于,不当行为会导致罚没或被差评,而不是自动的数学证明检测)。正在向以太坊共识(rollup)过渡以保障账本安全。
代币与效用TAO 代币: Subtensor 上的原生货币。用于质押(注册和影响共识所需)、交易费/支付(例如支付 AI 查询)以及作为贡献的奖励(挖矿/验证)。TAO 有持续的通货膨胀(每 12 秒一个区块 1 TAO),这驱动了奖励机制。也用于治理(dTAO 质押到子网)。Gensyn 代币(ERC-20,名称待定): 协议的支付单位(开发者用它支付给解决者)。作为质押抵押品(解决者/验证者绑定代币,因过错被罚没)。将用于治理(通过 Gensyn 基金会的 DAO 对协议升级进行投票)。供应细节尚未公布;可能有一部分用于激励早期采用(测试网等)。CAI 代币(ERC-20): Cuckoo 链的原生代币(10 亿固定供应)。多用途:Cuckoo 链上交易的燃料费,网络角色的质押(矿工、协调者必须锁定 CAI),协议决策的治理投票,以及贡献的奖励(挖矿/质押奖励来自初始分配)。也具有 meme 吸引力(社区代币方面)。
资产代币化计算:是——AI 计算工作通过 TAO 奖励被代币化(可将 TAO 视为智能的“燃料”)。模型:间接——模型根据性能赚取 TAO,但模型/权重本身不是链上资产(没有模型的 NFT)。子网所有权被代币化(子网所有者 NFT + alpha 代币)以代表模型市场的份额。数据:未代币化(数据在链下;Bittensor 专注于模型输出而非数据集)。计算:是——闲置计算成为链上商品,在作业市场中用代币交易。模型:不明确——模型由开发者在链下提供,结果返回;没有内置的模型代币(尽管如果各方设置,协议可以促进许可)。数据:否——数据集在提交者和解决者之间在链下处理(可以加密或保护,但不表示为链上资产)。Gensyn 的愿景包括可能像计算一样交易算法或数据,但核心实现以计算为中心。计算:是——GPU 时间通过每日 CAI 支付和任务赏金被代币化。网络将计算能力视为矿工“出售”以换取 CAI 的资源。模型:部分——平台将模型作为服务集成;然而,模型本身并未铸造成 NFT。模型的价值体现在协调者从使用它的用户那里赚取 CAI 的能力上。未来计划暗示社区拥有的模型,但目前模型 IP 在链下(由运行协调者的人拥有)。数据:没有通用的数据代币化。用户输入/输出是短暂的。(Cuckoo 与 Beancount 等应用合作,但数据并未在链上由代币表示。)
治理去中心化,代币持有者驱动 (dTAO): 最初有 64 个选举产生的验证者运行根共识;现在治理是开放的——TAO 持有者向子网质押以引导发行(基于市场的资源分配)。协议升级和变更通过链上提案决定(TAO 投票,由 Bittensor 基金会/理事会协助)。目标是完全由社区治理,基金会逐渐交出控制权。渐进式去中心化: Gensyn 基金会 + 选举产生的理事会管理早期决策。代币发行后,治理将过渡到一个 DAO,代币持有者对提案进行投票(类似于许多 DeFi 项目)。以太坊的共享安全环境意味着重大变更涉及社区和潜在的 Layer-1 治理。治理范围包括经济参数、合约升级(需经安全审计)。尚未上线,但在白皮书中为主网上线后规划。社区与基金会混合: Cuckoo 以“公平启动”理念启动(没有为内部人员预挖)。计划建立一个社区 DAO,由 CAI 对关键决策和协议升级进行投票。实际上,核心团队(Cuckoo Network 开发者)主导了重大决策(如链的弃用),但他们透明地分享理由并将其定位为为社区利益的演变。链上治理功能(提案、投票)很可能在新的 rollup 就位后推出。质押也通过声誉系统非正式地赋予治理影响力(对受信任节点的权益加权投票)。
激励模型与贡献挂钩的通胀奖励: 每个区块约 1 TAO 根据表现分配给参与者。质量越高 = 奖励越多。矿工和验证者持续获得收益(逐块),加上委托人也获得一份。终端用户也使用 TAO 支付服务(为代币创造需求方)。代币经济旨在鼓励长期参与(质押)和模型的不断改进,类似于比特币的矿工,但“挖掘 AI”。潜在问题(质押集中导致奖励错位)正在通过激励调整来解决。市场驱动,按结果付费: 没有持续的通胀收益(除了可能的早期激励);解决者只有在成功完成工作时才获得报酬。验证者只有在抓住欺诈时才获得报酬(大奖激励)。这创造了一个直接的经济体:开发者的支出 = 提供者的收入。代币价值与实际的计算需求挂钩。为了引导,Gensyn 可能会在启动时奖励测试网用户(一次性分配),但在稳定状态下,它是基于使用的。这使得激励与网络效用紧密结合(如果 AI 作业增加,代币使用增加,所有持有者都受益)。混合型(从通胀转向使用费): 最初,来自 51% 社区池的挖矿和质押分配奖励 GPU 矿工(供应量的 30%)和质押者(11%),无论外部使用情况如何——这是为了启动网络效应。随着时间的推移,特别是在 L1 弃用后,重点转向收入分成:矿工和应用开发者从实际用户支付中赚钱(例如,分摊图像生成的费用)。质押者的收益将来自真实使用的一部分,或进行调整以鼓励只支持生产性节点。所以早期的激励是“发展网络”(高 APY、空投),后来是“网络只有在真正有用时才会增长”(来自客户的收入)。这种过渡旨在淘汰搭便车者并确保可持续性。
安全与攻击缓解女巫攻击: 昂贵的注册(TAO 质押)阻止了女巫。合谋: 中位数共识能抵抗高达 50% 质押的合谋;dTAO 通过赋予代币持有者投票权打破了验证者寡头。不诚实: 偏离共识的验证者会失去奖励份额(激励诚实评分)。如果质押高度集中,51% 攻击是可能的——研究建议增加质押上限和性能罚没来缓解。模型攻击: 差或恶意的模型输出会因低分而受到惩罚。没有单点故障——网络是全球去中心化的(TAO 矿工遍布世界,伪匿名)。女巫攻击: 参与需要经济质押;没有质押/工作的虚假节点一无所获。验证: 至少需要一个诚实的验证者——如果是这样,任何错误的结果都会被发现并受到惩罚。使用加密经济激励使作弊得不偿失(解决者失去押金,验证者获得)。合谋: 只要不是所有方都合谋,就是安全的——一个诚实者通过揭露欺诈打破了该计划。信任: 不依赖于对硬件或公司的信任,只依赖于经济博弈论和密码学。攻击: 难以审查或 DoS,因为任务是分布式的;攻击者需要出价高于诚实节点或持续击败欺诈证明(没有多数控制不太可能)。然而,微妙的模型后门可能会逃避检测,这是一个已知的挑战(通过用户测试和未来可能超越正确执行的审计来缓解)。总体安全性类似于用于计算的乐观 rollup。女巫攻击: 所有参与者都必须质押 CAI,提高了女巫的门槛。加上一个声誉系统(质押 + 投票)意味着没有声誉的女巫身份不会得到任务。节点不当行为: 协调者可以放弃表现不佳或可疑的矿工;质押者可以撤回支持。协议可以对已证实的欺诈进行质押罚没(L1 有共识的罚没条件;类似的可适用于任务欺诈)。合谋: 部分基于信任——依赖于公开竞争和社区监督来防止合谋占主导。由于任务和支付在链上是公开的,公然的合谋可以被识别并通过社会或治理方式惩罚。用户保护: 如果一个提供商被审查或损坏,用户可以切换提供商,确保没有单点控制。投毒/内容: 设计上,矿工按原样运行提供的模型;如果他们恶意改变输出,他们会失去声誉和奖励。该系统押注于理性行为者:因为每个人都有质押价值和未来的赚钱潜力,他们没有动机进行会破坏网络信任的攻击(从他们 L1 实验中关于将激励与效用对齐的沉重教训中得到加强)。

表格: Bittensor、Gensyn 和 Cuckoo AI 在架构、焦点、角色、共识、代币、资产代币化、治理、激励和安全方面的功能比较。

可验证 AI 动态:Lagrange Labs 的动态 zk-SNARKs 实现持续信任

· 阅读需 5 分钟
Dora Noda
Software Engineer

在人工智能与区块链快速融合的时代,对信任与透明度的需求前所未有。我们如何确保 AI 模型的输出准确且未被篡改?我们又如何在不牺牲安全性或可扩展性的前提下,对海量链上数据执行复杂计算?Lagrange Labs 正在通过其零知识(ZK)基础设施套件正面回应这些问题,致力于构建“可证明的 AI”。本文客观概述其使命、技术以及近期突破,重点聚焦其最新的动态 zk‑SNARKs 论文。

1. 团队与使命

Lagrange Labs 正在构建基础设施,为任何 AI 推理或链上应用生成密码学证明。其目标是让计算可验证,为数字世界注入全新信任层。生态系统围绕三大核心产品线:

  • ZK Prover Network:由超过 85 个证明节点组成的去中心化网络,提供从 AI、Rollup 到去中心化应用(dApp)等多种证明任务所需的计算能力。
  • DeepProve(zkML):专用于生成神经网络推理的 ZK 证明。Lagrange 声称其速度比竞争方案快 158 倍,让可验证 AI 成为可落地的现实。
  • ZK Coprocessor 1.0:首个基于 SQL 的 ZK 协处理器,允许开发者对海量链上数据执行自定义查询,并获得可验证的准确结果。

2. 可验证 AI 的路线图

Lagrange 按部就班执行路线图,逐步解决 AI 可验证性难题。

  • 2024 年 Q3:ZK Coprocessor 1.0 发布:引入超并行递归电路,平均提升约 2 倍。Azuki、Gearbox 等项目已在链上数据需求中 使用该协处理器
  • 2025 年 Q1:DeepProve 正式亮相:Lagrange 宣布推出针对零知识机器学习(zkML)的 DeepProve,支持 MLP、CNN 等主流网络结构。系统在一次性设置、证明生成、验证三个关键阶段均实现数量级加速,最高可达 158 倍
  • 2025 年 Q2:动态 zk‑SNARKs 论文(最新里程碑):该论文提出突破性的 “update” 算法。无需每次数据或计算变更时重新生成完整证明,而是将旧证明 (π) 打补丁 成新证明 (π'),复杂度仅为 O(√n log³n),大幅优于全量重算。此创新尤为适用于持续学习的 AI 模型、实时游戏逻辑以及可演化的智能合约。

3. 动态 zk‑SNARKs 的意义

可更新证明的出现标志着零知识技术成本模型的根本转变。

  • 全新成本范式:行业从“每次都全量重算”转向“基于变更规模的增量证明”,显著降低频繁小幅更新应用的计算与费用开支。

  • 对 AI 的影响

    • 持续微调:当模型参数微调幅度低于 1% 时,证明生成时间几乎与变更参数数量 (Δ 参数) 成线性关系,而非与模型整体规模成正比。
    • 流式推理:这 使得证明生成可以与推理过程同步进行,大幅压缩 AI 决策到链上结算并验证的延迟,开启链上 AI 服务、Rollup 压缩证明等新用例。
  • 对链上应用的影响

    • 动态 zk‑SNARKs 为频繁小幅状态变更的场景(如 DEX 订单簿、演化游戏状态、频繁增删的账本)带来巨大的 Gas 与时间优化。

4. 技术栈概览

Lagrange 的强大基础设施基于以下集成技术栈:

  • 电路设计:系统灵活,可直接在电路中嵌入 ONNX(开放神经网络交换)模型、SQL 解析器以及自定义算子。
  • 递归与并行:ZK Prover Network 支持分布式递归证明,ZK Coprocessor 通过 “微电路” 分片实现任务并行执行,最大化效率。
  • 经济激励:Lagrange 计划发行原生代币 LA,并将其纳入 双拍卖递归拍卖(DARA) 机制,构建完善的计算竞价市场,配套激励与惩罚以确保网络完整性。

5. 生态与真实落地

Lagrange 的技术已被多个项目在不同领域采纳:

  • AI 与 ML:如 0G LabsStory Protocol 等使用 DeepProve 验证 AI 输出,确保来源可信。
  • Rollup 与基础设施EigenLayerBaseArbitrum 等作为验证节点或集成伙伴加入 ZK Prover Network,提升网络安全与算力。
  • NFT 与 DeFiAzukiGearbox 等项目利用 ZK Coprocessor 增强数据查询可信度与奖励分配的公正性。

6. 挑战与前路

尽管进展显著,Lagrange Labs 与整个 ZK 领域仍面临若干障碍:

  • 硬件瓶颈:即便拥有分布式网络,可更新 SNARK 仍需高带宽,并依赖 GPU 友好的密码曲线以实现高效运算。
  • 标准化缺失:将 ONNX、PyTorch 等 AI 框架映射到 ZK 电路的过程尚未形成统一接口,导致开发者摩擦。
  • 竞争激烈:zkVM 与通用 zkCompute 平台的竞争日趋白热化,Risc‑Zero、Succinct 等竞争者亦在快速迭代。最终的胜者或许是最先实现商业化、开发者友好、社区驱动的完整工具链者。

7. 结论

Lagrange Labs 正在通过 可验证性 的视角系统性重塑 AI 与区块链的交叉领域。其整体解决方案包括:

  • DeepProve:解决 可信推理 的难题。
  • ZK Coprocessor:解决 可信数据 的难题。
  • 动态 zk‑SNARKs:将 持续更新 的真实需求直接嵌入证明系统。

只要 Lagrange 能保持性能优势、突破标准化瓶颈并继续壮大其网络,它有望成为新兴 “AI + ZK 基础设施” 领域的基石玩家。

Camp Network:应对 AI 数十亿美元知识产权问题的区块链 🏕️

· 阅读需 5 分钟
Dora Noda
Software Engineer

生成式 AI 的崛起堪称爆炸式增长。从惊艳的数字艺术到类人文本,AI 正以前所未有的规模创作内容。但这股热潮也有阴暗面:AI 的训练数据来自何处?往往是来自互联网上的海量艺术、音乐和文字作品,而这些作品的创作者往往得不到任何署名或报酬。

Camp Network 正是为了解决这一根本问题而诞生的新区块链项目。它不仅是另一个加密平台,而是一个专为 AI 时代设计的“自主知识产权层”,旨在赋予创作者对其作品的所有权和控制权。下面让我们一起了解为何 Camp Network 值得关注。


核心理念是什么?

Camp Network 本质上是一个全球可验证的知识产权(IP)登记链。其使命是让任何人——从独立艺术家到社交媒体用户——都能在链上注册自己的内容,形成永久、不可篡改的所有权与来源记录。

这为何重要?当 AI 模型使用已在 Camp 上登记的内容时,网络的智能合约可以自动执行许可条款。原始创作者因此能够即时获得署名,甚至收到版税。Camp 的愿景是构建一个全新的创作者经济,报酬不再是事后补偿,而是直接写入协议。


技术栈概览

Camp 不只是概念,它背后有一套为高性能和开发者友好而打造的技术。

  • 模块化架构:Camp 采用 Celestia 作为数据可用性层,构建为主权 Rollup。该设计使其能够实现极高的吞吐量(目标 50,000 TPS)和低成本,同时完全集成以太坊工具(EVM)。
  • 来源证明(PoP):这是 Camp 独有的共识机制。网络安全性不依赖高能耗挖矿,而是通过验证内容来源来实现。每笔交易都在网络上强化 IP 的来源,使所有权“设计即可执行”。
  • 双 VM 策略:为提升性能,Camp 同时集成 Solana 虚拟机(SVM) 与 EVM 兼容层。开发者可根据应用需求选择最佳运行环境,尤其适用于实时 AI 交互等高吞吐场景。
  • 创作者与 AI 工具包:Camp 提供两大框架:
    • Origin Framework:面向创作者的友好系统,用于登记 IP、将其代币化(NFT),并嵌入许可规则。
    • mAItrix Framework:为开发者提供的工具包,帮助构建并部署能够安全、受权限控制地与链上 IP 交互的 AI 代理。

团队、合作伙伴与进展

一个想法的价值取决于执行力,Camp 在这方面表现出色。

团队与融资

项目由一支兼具 Raine Group(媒体与 IP 交易)、Goldman SachsFigmaCoinList 背景的团队领衔。凭借金融、产品技术与加密工程的复合经验,他们已获得 3000 万美元的融资,投资方包括 1kxBlockchain CapitalMaven 11 等顶级风投。

生态布局

Camp 积极构建合作网络。最重要的合作是对 KOR Protocol 的战略持股——该平台专注于音乐 IP 代币化,合作艺人包括 Deadmau5,并与 Black Mirror 等知名品牌合作。此举为 Camp 注入了庞大的高质量、已清晰版权的内容库。其他关键合作伙伴包括:

  • RewardedTV:使用 Camp 实现链上内容版权的去中心化视频流平台。
  • Rarible:集成的 NFT 市场,用于交易 IP 资产。
  • LayerZero:跨链协议,确保与其他区块链的互操作性。

路线图与社区

在成功的激励测试网活动吸引了数万用户(奖励积分可兑换代币)后,Camp 计划于 2025 年第三季度 推出 主网。同时将进行原生代币 $CAMP 的代币生成事件,用于支付 Gas 费、质押及治理。项目已培养出一支热情社区,成员愿意从第一天起即在平台上构建与使用。


与竞争项目的比较

Camp Network 并非唯一的 IP 区块链项目。它面临 a16z 支持的 Story Protocol 与索尼关联的 Soneium 等强劲竞争者。然而,Camp 在以下几个关键方面实现差异化:

  1. 自下而上:竞争者多聚焦大型企业 IP 持有者,Camp 则致力于 赋能独立创作者和加密社区,通过代币激励实现价值分配。
  2. 全链解决方案:从 IP 注册到 AI 代理框架,一站式提供完整工具套件。
  3. 性能与可扩展性:模块化架构与双 VM 支持专为 AI 与媒体的高吞吐需求而设计。

总结

Camp Network 正在为 Web3 时代的知识产权构建基础层。凭借创新技术、强大团队、战略合作以及社区优先的理念,它为生成式 AI 带来的最紧迫问题提供了可落地的解决方案。

真正的考验将在主网发布及实际采用时到来。但截至目前,Camp 已展现出清晰的愿景与卓越的执行力,毫无疑问是值得持续关注的关键项目,致力于为数字创作者打造更公平的未来。

通过 MCP 连接 AI 与 Web3:全景分析

· 阅读需 19 分钟
Dora Noda
Software Engineer

引言

AI 与 Web3 正在以强大的方式融合,AI 通用接口如今被设想为去中心化网络的连接组织。在这种融合中出现的一个关键概念是 MCP,它可以是“模型上下文协议”(Model Context Protocol,由 Anthropic 提出),或在更广泛的讨论中被粗略地描述为元宇宙连接协议(Metaverse Connection Protocol)。本质上,MCP 是一个标准化的框架,让 AI 系统能够以自然、安全的方式与外部工具和网络进行交互——这有可能将 AI 代理“接入”到 Web3 生态系统的每一个角落。本报告将全面分析 AI 通用接口(如大型语言模型代理和神经符号系统)如何通过 MCP 连接 Web3 世界中的一切,涵盖其历史背景、技术架构、行业格局、风险及未来潜力。

1. 发展背景

1.1 Web3 的演变与未竟的承诺

“Web3”一词于 2014 年左右被创造出来,用以描述一个由区块链驱动的去中心化网络。其愿景雄心勃勃:一个以用户所有权为中心的无许可互联网。爱好者们曾想象用基于区块链的替代方案取代 Web2 的中心化基础设施——例如,用以太坊域名服务(ENS)替代 DNS,用 Filecoin 或 IPFS 替代存储,用 DeFi 替代金融轨道。理论上,这将从大型科技平台手中夺回控制权,并赋予个人对数据、身份和资产的自我主权。

但现实未能如愿。尽管经过多年的发展和炒作,Web3 的主流影响力仍然微乎其微。普通互联网用户并未涌向去中心化的社交媒体,也没有开始管理自己的私钥。主要原因包括用户体验差、交易缓慢且昂贵、备受瞩目的骗局以及监管不确定性。这个去中心化的“所有权网络”在很大程度上**“未能实现”**,仅限于一个小众社区。到 2020 年代中期,即使是加密货币的支持者也承认,Web3 并未为普通用户带来范式转变。

与此同时,AI 正在经历一场革命。随着资本和开发者人才从加密领域转向 AI,深度学习和基础模型(GPT-3、GPT-4 等)的变革性进展吸引了公众的想象力。生成式 AI 展示了清晰的实用性——生成内容、代码和决策——这是加密应用一直难以做到的。事实上,大型语言模型在短短几年内的影响力,远远超过了区块链十年的用户采用速度。这种对比让一些人调侃道,“Web3 浪费在了加密货币上”,而真正的 Web 3.0 正在从 AI 浪潮中崛起。

1.2 AI 通用接口的兴起

几十年来,用户界面从静态网页(Web1.0)演变为交互式应用(Web2.0)——但始终局限于点击按钮和填写表单。随着现代 AI,尤其是大型语言模型(LLM)的出现,一种新的界面范式已经到来:自然语言。用户只需用通俗的语言表达意图,AI 系统就能跨多个领域执行复杂的操作。这一转变是如此深刻,以至于一些人建议将“Web 3.0”重新定义为 AI 驱动代理的时代(“代理网络”,The Agentic Web),而不是早期以区块链为中心的定义。

然而,早期对自主 AI 代理的实验暴露了一个关键瓶颈。这些代理——例如像 AutoGPT 这样的原型——可以生成文本或代码,但它们缺乏一种稳健的方式来与外部系统和彼此进行通信。当时*“没有通用的 AI 原生语言”*来实现互操作性。每一次与工具或数据源的集成都是一次定制化的修补,而 AI 之间的交互也没有标准协议。实际上,一个 AI 代理可能拥有强大的推理能力,但在执行需要使用 Web 应用或链上服务的任务时却会失败,仅仅因为它不知道如何与这些系统“对话”。这种强大的大脑与原始的输入/输出(I/O)之间的不匹配,就好比一个超级智能的软件被困在一个笨拙的图形用户界面(GUI)之后。

1.3 融合与 MCP 的出现

到 2024 年,情况变得明朗:要让 AI 发挥其全部潜力(并让 Web3 实现其承诺),需要一次融合:AI 代理需要无缝访问 Web3 的能力(去中心化应用、合约、数据),而 Web3 需要更多的智能和可用性,这正是 AI 可以提供的。MCP(模型上下文协议)正是在这样的背景下诞生的。MCP 由 Anthropic 在 2024 年末推出,是一个开放的 AI-工具通信标准,对 LLM 来说感觉很自然。它为 AI“宿主”(如 ChatGPT、Claude 等)提供了一种结构化、可发现的方式,通过 MCP 服务器来查找和使用各种外部工具和资源。换句话说,MCP 是一个通用的接口层,使 AI 代理能够接入 Web 服务、API 甚至区块链功能,而无需为每次集成编写定制代码。

可以把 MCP 想象成**“AI 接口的 USB-C”。就像 USB-C 标准化了设备的连接方式(这样你就不需要为每个设备准备不同的线缆),MCP 标准化了 AI 代理与工具和数据的连接方式。开发者无需为每个服务(Slack、Gmail、以太坊节点等)硬编码不同的 API 调用,只需实现一次 MCP 规范,任何兼容 MCP 的 AI 都能理解如何使用该服务。主要的 AI 参与者很快看到了其重要性:Anthropic 开源了 MCP,像 OpenAI 和 Google 这样的公司正在其模型中构建对它的支持。这一势头表明,MCP(或类似的“元连接协议”**)可能成为最终以可扩展的方式连接 AI 和 Web3 的支柱。

值得注意的是,一些技术专家认为,这种以 AI 为中心的连接才是 Web3.0 的真正实现。用 Simba Khadder 的话来说,“MCP 旨在标准化 LLM 与应用程序之间的 API”,类似于 REST API 如何促成了 Web 2.0——这意味着 Web3 的下一个时代可能由智能代理接口定义,而不仅仅是区块链。与为去中心化而中心化不同,与 AI 的融合可以通过将复杂性隐藏在自然语言和自主代理之后,使去中心化变得有用。本报告的其余部分将深入探讨 AI 通用接口(通过像 MCP 这样的协议)在技术上和实践上如何连接 Web3 世界中的一切

2. 技术架构:连接 Web3 技术的 AI 接口

将 AI 代理嵌入 Web3 技术栈需要在多个层面进行集成:区块链网络和智能合约、去中心化存储、身份系统以及基于代币的经济体。AI 通用接口——从大型基础模型到混合神经符号系统——可以作为连接这些组件的**“通用适配器”**。下面,我们分析这种集成的架构:

图:MCP 架构的概念图,展示了 AI 宿主(如 Claude 或 ChatGPT 等基于 LLM 的应用)如何使用 MCP 客户端接入各种 MCP 服务器。每个服务器都提供一个通往外部工具或服务(如 Slack、Gmail、日历或本地数据)的桥梁,类似于通过一个通用集线器连接的外围设备。这种标准化的 MCP 接口让 AI 代理可以通过一个通用协议访问远程服务和链上资源。

2.1 作为 Web3 客户端的 AI 代理(与区块链集成)

Web3 的核心是区块链和智能合约——能够以无需信任的方式强制执行逻辑的去中心化状态机。AI 接口如何与它们互动?可以从两个方向考虑:

  • AI 从区块链读取数据: AI 代理可能需要链上数据(如代币价格、用户资产余额、DAO 提案)作为其决策的上下文。传统上,检索区块链数据需要与节点 RPC API 或子图数据库进行交互。有了像 MCP 这样的框架,AI 可以查询一个标准化的*“区块链数据”* MCP 服务器来获取实时的链上信息。例如,一个支持 MCP 的代理可以请求某个代币的最新交易量,或某个智能合约的状态,而 MCP 服务器将处理连接到区块链的底层细节,并以 AI 可以使用的格式返回数据。这通过将 AI 与任何特定区块链的 API 格式解耦,提高了互操作性。

  • AI 向区块链写入数据: 更强大的是,AI 代理可以通过 Web3 集成执行智能合约调用或交易。例如,如果满足某些条件,AI 可以自主地在去中心化交易所执行一笔交易,或调整智能合约中的参数。这是通过 AI 调用一个封装了区块链交易功能的 MCP 服务器来实现的。一个具体的例子是用于 EVM 链的 thirdweb MCP 服务器,它允许任何兼容 MCP 的 AI 客户端通过抽象掉特定链的机制来与以太坊、Polygon、BSC 等进行交互。使用这样的工具,AI 代理可以*“无需人工干预”*地触发链上操作,从而实现自主的 dApp——例如,一个由 AI 驱动的 DeFi 金库,当市场条件变化时,通过签署交易来自我重新平衡

在底层,这些交互仍然依赖于钱包、密钥和 Gas 费,但可以给予 AI 接口对钱包的受控访问权限(通过适当的安全沙箱)来执行交易。预言机和跨链桥也发挥了作用:像 Chainlink 这样的预言机网络充当了 AI 与区块链之间的桥梁,允许 AI 的输出以可信的方式被输入到链上。例如,Chainlink 的跨链互操作性协议(CCIP)可以使一个被认为是可靠的 AI 模型代表用户同时在不同链上触发多个合约。总而言之,AI 通用接口可以作为一种新型的 Web3 客户端——一种既能消费区块链数据,又能通过标准化协议产生区块链交易的客户端。

2.2 神经符号协同:结合 AI 推理与智能合约

AI-Web3 集成的一个有趣方面是神经符号架构的潜力,它结合了 AI 的学习能力(神经网络)与智能合约的严谨逻辑(符号规则)。在实践中,这可能意味着 AI 代理处理非结构化的决策,并将某些任务交给智能合约进行可验证的执行。例如,AI 可能会分析市场情绪(一个模糊的任务),然后通过一个遵循预设风险规则的确定性智能合约来执行交易。MCP 框架及相关标准通过为 AI 提供一个通用接口来调用合约函数或在行动前查询 DAO 的规则,使这种交接成为可能。

一个具体的例子是 SingularityNET 的 AI-DSL(AI 领域特定语言),它旨在标准化其去中心化网络上 AI 代理之间的通信。这可以被看作是迈向神经符号集成的一步:一种用于代理之间请求 AI 服务或数据的正式语言(符号)。同样,像 DeepMind 的 AlphaCode 或其他项目最终也可能被连接起来,以便智能合约可以调用 AI 模型进行链上问题解决。尽管今天直接在链上运行大型 AI 模型是不切实际的,但混合方法正在出现:例如,某些区块链允许通过零知识证明或可信执行来验证机器学习计算,从而实现在链上验证链下 AI 结果。总而言之,技术架构将 AI 系统和区块链智能合约设想为互补的组件,通过通用协议进行协调:AI 处理感知和开放式任务,而区块链提供完整性、记忆和对既定规则的执行。

2.3 用于 AI 的去中心化存储和数据

AI 依赖于数据,而 Web3 为数据存储和共享提供了新的范式。去中心化存储网络(如 IPFS/Filecoin、Arweave、Storj 等)既可以作为 AI 模型工件的存储库,也可以作为训练数据的来源,并带有基于区块链的访问控制。一个 AI 通用接口,通过 MCP 或类似协议,可以像从 Web2 API 那样轻松地从去中心化存储中获取文件或知识。例如,如果一个 AI 代理拥有适当的密钥或支付凭证,它可能会从 Ocean Protocol 的市场中提取一个数据集,或从分布式存储中获取一个加密文件。

Ocean Protocol 特别将自己定位为一个**“AI 数据经济”平台——使用区块链来将数据甚至 AI 服务代币化**。在 Ocean 中,数据集由数据代币(datatokens)表示,用于控制访问;一个 AI 代理可以获得一个数据代币(可能通过加密货币支付或某种访问权限),然后使用 Ocean MCP 服务器来检索实际数据进行分析。Ocean 的目标是为 AI 解锁“休眠数据”,在保护隐私的同时激励共享。因此,一个连接到 Web3 的 AI 可能会利用一个庞大的、去中心化的信息语料库——从个人数据保险库到开放的政府数据——这些数据以前是孤立的。区块链确保数据的使用是透明的,并且可以得到公平的回报,从而形成一个良性循环,即更多的数据可供 AI 使用,更多的 AI 贡献(如训练好的模型)可以被货币化。

去中心化身份系统在这里也扮演着一个角色(下一小节将详细讨论):它们可以帮助控制谁或什么被允许访问某些数据。例如,一个医疗 AI 代理可能需要出示一个可验证的凭证(链上证明其符合 HIPAA 或类似法规),然后才能从患者的个人 IPFS 存储中解密医疗数据集。通过这种方式,技术架构确保数据在适当的情况下流向 AI,但带有链上治理和审计跟踪来强制执行权限。

2.4 去中心化环境中的身份与代理管理

当自主 AI 代理在像 Web3 这样的开放生态系统中运行时,身份和信任变得至关重要。去中心化身份(DID)框架提供了一种为 AI 代理建立数字身份的方法,这些身份可以通过密码学进行验证。每个代理(或部署它的人/组织)都可以拥有一个 DID 和相关的可验证凭证,用于指定其属性和权限。例如,一个 AI 交易机器人可以持有一个由监管沙箱颁发的凭证,证明它可以在某些风险限制内操作,或者一个 AI 内容审核员可以证明它是由一个可信的组织创建的,并经过了偏见测试。

通过链上身份注册表和声誉系统,Web3 世界可以对 AI 的行为强制执行问责制。AI 代理执行的每一笔交易都可以追溯到其 ID,如果出现问题,凭证会告诉你是谁构建了它或谁对此负责。这解决了一个关键挑战:没有身份,恶意行为者可以创建虚假的 AI 代理来利用系统或传播错误信息,没有人能区分机器人和合法服务。去中心化身份通过实现强大的身份验证和区分真实的 AI 代理与欺骗性代理,帮助缓解了这一问题。

在实践中,一个与 Web3 集成的 AI 接口将使用身份协议来签署其操作和请求。例如,当一个 AI 代理调用 MCP 服务器使用工具时,它可能会包含一个与其去中心化身份绑定的令牌或签名,以便服务器可以验证该调用来自一个授权的代理。基于区块链的身份系统(如以太坊的 ERC-725 或锚定在账本上的 W3C DID)确保这种验证是无需信任且全球可验证的。新兴的**“AI 钱包”*概念与此相关——本质上是为 AI 代理提供与其身份相关联的加密货币钱包,这样它们就可以管理密钥、支付服务费用,或质押代币作为保证金(如果行为不当,可能会被罚没)。例如,ArcBlock 已经讨论过“AI 代理需要一个钱包”*和一个 DID 才能在去中心化环境中负责任地运作。

总而言之,技术架构预见到 AI 代理将成为 Web3 中的一等公民,每个代理都拥有链上身份,并可能在系统中持有股份,使用像 MCP 这样的协议进行交互。这创造了一个信任之网:智能合约可以在合作前要求 AI 的凭证,用户可以选择只将任务委托给那些满足某些链上认证的 AI。这是AI 能力与区块链信任保证的结合。

2.5 AI 的代币经济与激励机制

代币化是 Web3 的一个标志,它也延伸到了 AI 集成领域。通过代币引入经济激励,网络可以鼓励 AI 开发者和代理本身产生期望的行为。几种模式正在出现:

  • 服务付费: AI 模型和服务可以在链上进行货币化。SingularityNET 开创了这一模式,允许开发者部署 AI 服务,并为每次调用向用户收取原生代币(AGIX)。在支持 MCP 的未来,可以想象任何 AI 工具或模型都成为一个即插即用的服务,其使用通过代币或微支付来计量。例如,如果一个 AI 代理通过 MCP 使用第三方视觉 API,它可以通过将代币转移到服务提供商的智能合约来自动处理支付。Fetch.ai 同样设想了*“自主经济代理”*交易服务和数据的市场,其新的 Web3 LLM(ASI-1)可能会集成加密交易以进行价值交换。

  • 质押与声誉: 为确保质量和可靠性,一些项目要求开发者或代理质押代币。例如,DeMCP 项目(一个去中心化的 MCP 服务器市场)计划使用代币激励来奖励创建有用 MCP 服务器的开发者,并可能让他们质押代币作为对其服务器安全承诺的标志。声誉也可以与代币挂钩;例如,一个表现持续良好的代理可能会积累声誉代币或正面的链上评价,而行为不端的代理可能会失去质押或获得负面标记。这种代币化的声誉可以反馈到上面提到的身份系统中(智能合约或用户在信任代理前检查其链上声誉)。

  • 治理代币: 当 AI 服务成为去中心化平台的一部分时,治理代币允许社区引导其发展。像 SingularityNET 和 Ocean 这样的项目都有 DAO,代币持有者可以对协议变更或资助 AI 计划进行投票。在合并了 SingularityNET、Fetch.ai 和 Ocean Protocol 的新宣布的人工超级智能(ASI)联盟中,一个统一的代币(ASI)将用于治理一个联合的 AI+区块链生态系统的方向。这样的治理代币可以决定采用何种标准(例如,支持 MCP 或 A2A 协议)、孵化哪些 AI 项目,或如何处理 AI 代理的道德准则等政策。

  • 访问与效用: 代币不仅可以控制对数据的访问(如 Ocean 的数据代币),还可以控制对 AI 模型的使用。一种可能的情景是*“模型 NFT”*或类似的东西,其中拥有一个代币可以授予你对 AI 模型输出的权利或其利润的一部分。这可以支撑去中心化的 AI 市场:想象一个代表高性能模型部分所有权的 NFT;每当该模型被用于推理任务时,所有者共同赚取收益,并且他们可以投票决定对其进行微调。虽然这还处于实验阶段,但这与 Web3 将共享所有权理念应用于 AI 资产的精神是一致的。

在技术上,集成代币意味着 AI 代理需要钱包功能(如前所述,许多代理将拥有自己的加密钱包)。通过 MCP,一个 AI 可以拥有一个*“钱包工具”*,让它检查余额、发送代币或调用 DeFi 协议(也许是为了将一种代币换成另一种来支付服务费用)。例如,如果一个在以太坊上运行的 AI 代理需要一些 Ocean 代币来购买数据集,它可能会通过一个 DEX 使用 MCP 插件自动将一些 ETH 换成 $OCEAN,然后继续购买——所有这些都在其所有者设定的策略指导下,无需人工干预。

总的来说,代币经济在 AI-Web3 架构中提供了激励层,确保贡献者(无论是提供数据、模型代码、计算能力还是安全审计)得到回报,并确保 AI 代理有*“切身利益”*,这在某种程度上使它们与人类的意图保持一致。

3. 行业格局

AI 与 Web3 的融合催生了一个充满活力的生态系统,包括项目、公司和联盟。下面我们调查了推动这一领域的关键参与者和倡议,以及新兴的用例。表 1 概述了著名项目及其在 AI-Web3 格局中的角色:

**

通过 zkML 和密码学证明实现可验证的链上 AI

· 阅读需 41 分钟
Dora Noda
Software Engineer

引言:区块链上对可验证 AI 的需求

随着 AI 系统的影响力日益增强,确保其输出的可信度变得至关重要。传统方法依赖于机构担保(本质上是_“相信我们就行”),但这并不能提供任何密码学上的保证。在像区块链这样的去中心化环境中,这个问题尤为突出,因为智能合约或用户必须信任一个由 AI 推导出的结果,却无法在链上重新运行一个计算量巨大的模型。零知识机器学习 (zkML) 通过允许对机器学习 (ML) 计算进行_密码学验证_来解决这个问题。本质上,zkML 使证明者能够生成一个简洁的证明,证明“输出 $Y$ 来自于在输入 $X$ 上运行模型 $M$”——并且无需透露 $X$ 或 $M$ 的内部细节。这些零知识证明 (ZKPs) 可以被任何人(或任何合约)高效地验证,从而将 AI 的信任基础从“策略”转变为“证明”_。

AI 的链上可验证性意味着区块链可以通过验证一个正确执行的证明来整合高级计算(如神经网络推理),而无需亲自执行这些计算。这具有广泛的影响:智能合约可以基于 AI 预测做出决策,去中心化自治代理可以证明它们遵循了其算法,跨链或链下计算服务可以提供可验证的输出,而不是无法验证的预言机。最终,zkML 为实现无需信任且保护隐私的 AI 提供了一条路径——例如,证明一个 AI 模型的决策是正确且经过授权的,_同时_不暴露私有数据或专有模型权重。这对于从安全医疗分析到区块链游戏和 DeFi 预言机等各种应用都至关重要。

zkML 的工作原理:将 ML 推理压缩为简洁证明

从宏观上看,zkML 将密码学证明系统与 ML 推理相结合,使得一个复杂的模型评估可以被“压缩”成一个微小的证明。在内部,ML 模型(例如神经网络)被表示为一个由许多算术运算(矩阵乘法、激活函数等)组成的电路或程序。证明者在链下执行完整的计算,然后使用零知识证明协议来证明每一步都正确完成,而不是揭示所有中间值。验证者仅凭证明和一些公开数据(如最终输出和模型标识符),就能在密码学上确信其正确性,而无需重新执行模型。

为了实现这一点,zkML 框架通常将模型计算转换为一种适合 ZKP 的格式:

  • 电路编译: 在基于 SNARK 的方法中,模型的计算图被编译成一个_算术电路_或一组多项式约束。神经网络的每一层(卷积、矩阵乘法、非线性激活)都成为一个子电路,其约束确保了在给定输入的情况下输出是正确的。由于神经网络涉及非线性操作(如 ReLU、Sigmoid 等),这些操作天然不适合多项式,因此采用查找表等技术来高效处理它们。例如,一个 ReLU(输出 = max(0, 输入))可以通过一个自定义约束或查找来强制执行,该约束或查找验证当输入≥0 时输出等于输入,否则为零。最终结果是一组密码学约束,证明者必须满足这些约束,从而间接证明模型运行正确。
  • 执行轨迹与虚拟机: 另一种方法是将模型推理视为一个程序轨迹,正如在 zkVM 方法中所做的那样。例如,JOLT zkVM 针对 RISC-V 指令集;可以将 ML 模型(或计算它的代码)编译成 RISC-V,然后证明每个 CPU 指令都正确执行。JOLT 引入了一种_“查找奇点”_技术,用快速的表查找替代了昂贵的算术约束,以处理每个有效的 CPU 操作。每个操作(加法、乘法、位运算等)都通过在一个巨大的预计算有效结果表中进行查找来检查,并使用专门的论证(Lasso/SHOUT)来保持其高效性。这大大减少了证明者的工作量:即使是复杂的 64 位操作,在证明中也变成了一次表查找,而不是许多算术约束。
  • 交互式协议 (GKR Sum-Check): 第三种方法使用像 GKR (Goldwasser–Kalai–Rotblum) 这样的交互式证明来验证分层计算。在这里,模型的计算被看作一个分层算术电路(每个神经网络层是电路图的一层)。证明者正常运行模型,然后参与一个 sum-check 协议_来证明每一层的输出相对于其输入是正确的。在 Lagrange 的方法(DeepProve,下文详述)中,证明者和验证者执行一个交互式多项式协议(通过 Fiat-Shamir 变为非交互式),该协议检查每一层计算的一致性,而无需重新进行计算。这种 sum-check 方法避免了生成一个庞大的静态电路;相反,它以逐步的方式验证_计算的一致性,且密码学操作最少(主要是哈希或多项式求值)。

无论采用何种方法,最终都会得到一个简洁的证明(通常为几 KB 到几十 KB),证明整个推理过程的正确性。该证明是_零知识的_,意味着任何秘密输入(私有数据或模型参数)都可以保持隐藏——它们影响证明的生成,但不会向验证者透露。只有预期的公共输出或断言才会被揭示。这使得诸如_“证明模型 $M$ 应用于患者数据 $X$ 得到诊断 $Y$,而不泄露 $X$ 或模型的权重”_这样的场景成为可能。

实现链上验证: 一旦生成了证明,就可以将其发布到区块链上。智能合约可以包含验证逻辑来检查该证明,通常使用预编译的密码学原语。例如,以太坊有用于许多 zk-SNARK 验证器中使用的 BLS12-381 配对操作的预编译合约,这使得 SNARK 证明的链上验证非常高效。STARKs(基于哈希的证明)虽然更大,但通过仔细优化或可能带有一些信任假设,仍然可以在链上验证(例如,StarkWare 的 L2 通过一个链上验证器合约在以太坊上验证 STARK 证明,尽管 Gas 成本比 SNARKs 高)。关键在于,区块链不需要执行 ML 模型——它只需运行一个验证过程,这比原始计算要_便宜得多_。总而言之,zkML 将昂贵的 AI 推理压缩成一个微小的证明,区块链(或任何验证者)可以在毫秒到秒级的时间内完成验证。

Lagrange DeepProve:一个 zkML 突破的架构与性能

由 Lagrange Labs 推出的 DeepProve 是一个专注于速度和可扩展性的尖端 zkML 推理框架。DeepProve 于 2025 年发布,引入了一种新的证明系统,其速度远超之前的解决方案(如 Ezkl)。其设计核心是_带有 sum-check 的 GKR 交互式证明协议_以及针对神经网络电路的专门优化。以下是 DeepProve 的工作原理及其性能表现:

  • 一次性预处理: 开发者从一个训练好的神经网络开始(目前支持的类型包括多层感知器和流行的 CNN 架构)。模型被导出为 ONNX 格式,这是一种标准的图表示。然后,DeepProve 的工具会解析 ONNX 模型并对其进行_量化_(将权重转换为定点/整数形式),以便进行高效的域运算。在此阶段,它还会为密码学协议生成证明和验证密钥。这个设置过程对每个模型只需进行一次,无需在每次推理时重复。DeepProve 强调易于集成:“将你的模型导出到 ONNX → 一次性设置 → 生成证明 → 随处验证”

  • 证明(推理 + 证明生成): 设置完成后,证明者(可以由用户、服务或 Lagrange 的去中心化证明者网络运行)接收一个新的输入 $X$ 并在其上运行模型 $M$,得到输出 $Y$。在此执行过程中,DeepProve 会记录每一层计算的执行轨迹。与 SNARK 方法预先将每个乘法转换为静态电路不同,DeepProve 使用线性时间的 GKR 协议来动态验证每一层。对于每个网络层,证明者提交该层的输入和输出(例如,通过密码学哈希或多项式承诺),然后参与一个 sum-check 论证,以证明输出确实是根据该层的功能由输入产生的。sum-check 协议通过迭代方式让验证者相信一个编码了该层计算的多项式求值之和的正确性,而无需透露实际值。非线性操作(如 ReLU、softmax)在 DeepProve 中通过_查找论证_得到高效处理——如果一个激活函数的输出被计算出来,DeepProve 可以证明每个输出都对应于该函数预计算表中的一个有效输入-输出对。逐层生成证明,然后聚合成一个覆盖整个模型前向传播的简洁证明。密码学的繁重工作被最小化——DeepProve 的证明者主要执行正常的数值计算(实际的推理)外加一些轻量级的密码学承诺,而不是解决一个巨大的约束系统。

  • 验证: 验证者使用最终的简洁证明以及一些公开值——通常是模型的承诺标识符(对 $M$ 权重的密码学承诺)、输入 $X$(如果不是私密的)和声称的输出 $Y$——来检查正确性。在 DeepProve 的系统中,验证涉及验证 sum-check 协议的记录以及最终的多项式或哈希承诺。这比验证一个经典的 SNARK(可能只需几次配对操作)要复杂,但它比_重新运行模型要便宜得多_。在 Lagrange 的基准测试中,验证一个中等规模 CNN 的 DeepProve 证明在软件中大约需要 0.5 秒。这意味着用约 0.5 秒就能确认一个拥有数十万参数的卷积网络运行正确——比在 GPU 上简单地重新计算该 CNN 进行验证快 500 倍以上。(事实上,DeepProve 测得 CNN 的_验证速度快了 521 倍_,MLP 的_验证速度快了 671 倍_,相较于重新执行。)证明的大小足够小,可以在链上传输(几十 KB),并且验证可以在智能合约中执行,尽管 0.5 秒的计算可能需要仔细的 Gas 优化或在 Layer-2 上执行。

架构与工具: DeepProve 使用 Rust 实现,并为开发者提供了一个工具包(zkml 库)。它原生支持 ONNX 模型图,使其与 PyTorch 或 TensorFlow 导出的模型兼容。目前的证明过程针对参数量高达数百万的模型(测试包括一个 400 万参数的密集网络)。DeepProve 结合了多种密码学组件:一个多线性多项式承诺(用于承诺层输出)、用于验证计算的 sum-check 协议,以及用于非线性操作的查找论证。值得注意的是,Lagrange 的开源仓库承认其工作建立在先前工作(Scroll 的 Ceno 项目中的 sum-check 和 GKR 实现)之上,这表明 zkML 与零知识 rollup 研究存在交集。

为了实现实时可扩展性,Lagrange 将 DeepProve 与其证明者网络 (Prover Network) 相结合——这是一个由专门的 ZK 证明者组成的去中心化网络。繁重的证明生成可以外包给这个网络:当一个应用需要证明一个推理时,它将任务发送到 Lagrange 的网络,网络中的许多运营商(在 EigenLayer 上质押以确保安全)计算证明并返回结果。该网络通过经济激励来保证可靠的证明生成(恶意或失败的任务会导致运营商被罚没)。通过将工作分散给多个证明者(并可能利用 GPU 或 ASIC),Lagrange 证明者网络为最终用户隐藏了复杂性和成本。其结果是一个快速、可扩展且去中心化的 zkML 服务:“快速且经济地实现可验证的 AI 推理”

性能里程碑: DeepProve 的声明得到了与先前最先进技术 Ezkl 的基准测试支持。对于一个约有 26.4 万参数的 CNN(CIFAR-10 规模的模型),DeepProve 的证明时间约为 1.24 秒,而 Ezkl 则需要约 196 秒——快了约 158 倍。对于一个拥有 400 万参数的更大型密集网络,DeepProve 在约 2.3 秒内证明了一次推理,而 Ezkl 则需要约 126.8 秒(快了约 54 倍)。验证时间也大幅下降:DeepProve 在约 0.6 秒内验证了 26.4 万参数 CNN 的证明,而在该测试中,验证 Ezkl 的证明(基于 Halo2)在 CPU 上耗时超过 5 分钟。这些速度提升源于 DeepProve 的近线性复杂度:其证明者的扩展性大致为 O(n),其中 n 是操作数,而基于电路的 SNARK 证明者通常具有超线性的开销(FFT 和多项式承诺的扩展性)。事实上,DeepProve 的证明者吞吐量可以与普通推理运行时间在同一数量级内——最新的 GKR 系统对于大型矩阵乘法,其速度可以比原始执行慢不到 10 倍,这在 ZK 领域是一项了不起的成就。这使得_实时或按需证明_变得更加可行,为在交互式应用中实现可验证 AI 铺平了道路。

用例: Lagrange 已经与 Web3 和 AI 项目合作,应用 zkML。用例包括:可验证的 NFT 特征(证明一个由 AI 生成的游戏角色或收藏品的进化是由授权模型计算的)、AI 内容的来源证明(证明一张图片或一段文本是由特定模型生成的,以打击深度伪造)、DeFi 风险模型(证明一个评估金融风险的模型输出,而不泄露专有数据),以及_医疗或金融领域的私密 AI 推理_(医院可以获得带有证明的 AI 预测,确保正确性而不暴露患者数据)。通过使 AI 输出可验证且保护隐私,DeepProve 为去中心化系统中_“你可以信任的 AI”打开了大门——从一个“盲目信任黑盒模型”的时代,迈向一个“客观保证”_的时代。

基于 SNARK 的 zkML:Ezkl 与 Halo2 方法

传统的 zkML 方法使用 zk-SNARKs(简洁非交互式知识论证)来证明神经网络推理。Ezkl(由 ZKonduit/Modulus Labs 开发)是这种方法的领先范例。它建立在 Halo2 证明系统之上(一种带有 BLS12-381 上的多项式承诺的 PLONK 风格 SNARK)。Ezkl 提供了一个工具链,开发者可以拿一个 PyTorch 或 TensorFlow 模型,将其导出为 ONNX 格式,然后让 Ezkl 自动将其编译成一个自定义的算术电路。

工作原理: 神经网络的每一层都被转换为约束:

  • 线性层(密集层或卷积层)变成了一系列乘法-加法约束,强制执行输入、权重和输出之间的点积。
  • 非线性层(如 ReLU、sigmoid 等)通过查找或分段约束来处理,因为这些函数不是多项式。例如,一个 ReLU 可以通过一个布尔选择器 $b$ 和约束来实现,确保 $y = x \cdot b$、$0 \le b \le 1$ 且当 $x>0$ 时 $b=1$(这是一种实现方式),或者更高效地通过一个查找表,将 $x$ 映射到 $\max(0,x)$,适用于一定范围的 $x$ 值。Halo2 的查找论证允许映射 16 位(或更小)的值块,因此大的域(如所有 32 位值)通常被_“分块”_成几个较小的查找。这种分块增加了约束的数量。
  • 大整数运算或除法(如果有的话)同样被分解成小块。最终结果是一大组针对特定模型架构定制的 R1CS/PLONK 约束

然后,Ezkl 使用 Halo2 生成一个证明,证明在给定秘密输入(模型权重、私有输入)和公共输出的情况下,这些约束成立。工具与集成: SNARK 方法的一个优势是它利用了众所周知的原语。Halo2 已经在以太坊的 rollup 中使用(例如 Zcash、zkEVMs),因此它经过了实战检验,并且有现成的链上验证器。Ezkl 的证明使用 BLS12-381 曲线,以太坊可以通过预编译合约进行验证,这使得在智能合约中验证 Ezkl 证明变得非常直接。该团队还提供了用户友好的 API;例如,数据科学家可以在 Python 中使用他们的模型,并使用 Ezkl 的命令行工具来生成证明,而无需深入了解电路知识。

优势: Ezkl 的方法得益于 SNARKs 的通用性和生态系统。它支持相当复杂的模型,并且已经有了_“实际的集成案例(从 DeFi 风险模型到游戏 AI)”_,证明了现实世界中的 ML 任务。因为它在模型的计算图层面操作,所以可以应用特定于 ML 的优化:例如,修剪不重要的权重或量化参数以减小电路大小。这也意味着模型机密性是天然的——权重可以被视为私有见证数据,因此验证者只看到_某个_有效的模型产生了该输出,或者最多只是一个对模型的承诺。SNARK 证明的验证速度极快(通常在链上为几毫秒或更短),并且证明大小很小(几 KB),这对于区块链使用非常理想。

劣势: 性能是其阿喀琉斯之踵。基于电路的证明带来了巨大的开销,尤其是随着模型规模的增长。据记载,历史上 SNARK 电路对证明者来说可能比仅仅运行模型本身要多出_一百万倍的工作量_。Halo2 和 Ezkl 对此进行了优化,但像大型矩阵乘法这样的操作仍然会产生_大量_的约束。如果一个模型有数百万个参数,证明者就必须处理相应数百万个约束,并在此过程中执行繁重的 FFT 和多重指数运算。这导致了很长的证明时间(对于非平凡的模型通常需要几分钟或几小时)和高内存使用。例如,用 Ezkl 证明一个相对较小的 CNN(例如几十万个参数)在单台机器上可能需要几十分钟。DeepProve 背后的团队指出,对于某些模型证明,Ezkl 需要数小时,而 DeepProve 可以在几分钟内完成。大型模型甚至可能无法装入内存,或者需要分割成多个证明(然后需要递归聚合)。虽然 Halo2 经过了_“适度优化”,但任何需要“分块”查找或处理宽位操作的需求都会转化为额外的开销。总而言之,可扩展性有限——Ezkl 对于中小型模型效果很好(并且在基准测试中确实_优于一些早期的替代方案,如朴素的基于 Stark 的 VM),但随着模型规模超过某个点,它就会遇到困难。

尽管存在这些挑战,Ezkl 和类似的基于 SNARK 的 zkML 库是重要的垫脚石。它们证明了_在链上实现可验证的 ML 推理是可能的_,并且已经有了活跃的使用。值得注意的是,像 Modulus Labs 这样的项目展示了使用 SNARKs(经过大量优化)在链上验证一个 1800 万参数的模型。成本虽然不菲,但这显示了发展轨迹。此外,Mina 协议拥有自己的 zkML 工具包,该工具包使用 SNARKs 来允许 Mina 上的智能合约(本身就是基于 Snark 的)验证 ML 模型的执行。这表明基于 SNARK 的 zkML 正在获得越来越多的多平台支持。

基于 STARK 的方法:透明且可编程的 ZK for ML

zk-STARKs(可扩展透明知识论证)为 zkML 提供了另一条途径。STARKs 使用基于哈希的密码学(如用于多项式承诺的 FRI),并避免了任何可信设置。它们通常通过模拟一个 CPU 或 VM 并证明其执行轨迹是正确的来运作。在 ML 的背景下,可以为神经网络构建一个自定义的 STARK,_或者_使用一个通用的 STARK VM 来运行模型代码。

通用 STARK VMs (RISC Zero, Cairo): 一个直接的方法是编写推理代码并在 STARK VM 中运行它。例如,Risc0 提供了一个 RISC-V 环境,任何代码(例如,用 C++ 或 Rust 实现的神经网络)都可以在其中执行并通过 STARK 进行证明。同样,StarkWare 的 Cairo 语言可以表达任意计算(如 LSTM 或 CNN 推理),然后由 StarkNet STARK 证明者进行证明。其优势在于灵活性——你不需要为每个模型设计自定义电路。然而,早期的基准测试表明,对于 ML 任务,朴素的 STARK VM 比优化的 SNARK 电路要慢。在一次测试中,一个基于 Halo2 的证明 (Ezkl) 比在 Cairo 上的基于 STARK 的方法快约 3 倍,甚至比在 2024 年某个基准测试中的 RISC-V STARK VM 快 66 倍。这种差距是由于在 STARK 中模拟每个低级指令的开销以及 STARK 证明中较大的常数(哈希虽然快,但需要大量使用;STARK 证明的大小也更大等)。然而,STARK VM 正在不断改进,并具有透明设置(无需可信设置)和后量子安全的优点。随着对 STARK 友好的硬件和协议的发展,证明速度将会提高。

DeepProve 的方法 vs STARK: 有趣的是,DeepProve 使用 GKR 和 sum-check 产生的证明在精神上更像一个 STARK——它是一个交互式的、基于哈希的证明,不需要结构化的参考字符串。其权衡是它的证明更大,验证比 SNARK 更重。然而,DeepProve 表明,精心的协议设计(专门针对 ML 的分层结构)可以在证明时间上远超通用的 STARK VM 和 SNARK 电路。我们可以将 DeepProve 视为一个_定制的 STARK 风格_的 zkML 证明者(尽管他们为了简洁性使用了 zkSNARK 这个术语,但它没有传统 SNARK 那样的小常数大小验证,因为 0.5 秒的验证时间比典型的 SNARK 验证要长)。传统的 STARK 证明(如 StarkNet 的)通常需要数万次域运算来验证,而 SNARK 的验证可能只需几十次。因此,一个权衡是显而易见的:SNARKs 产生更小的证明和更快的验证器,而 STARKs(或 GKR)则以证明大小和验证速度为代价,提供了更容易的扩展性和无需可信设置的便利。

新兴的改进: JOLT zkVM(前面在 JOLTx 下讨论过)实际上输出的是 SNARKs(使用 PLONKish 承诺),但它体现了可以应用于 STARK 环境的思想(Lasso 查找理论上可以与 FRI 承诺一起使用)。StarkWare 和其他公司正在研究加速常见操作证明的方法(例如在 Cairo 中使用自定义门或提示来处理大整数运算等)。还有 Privacy & Scaling Explorations (PSE) 的 Circomlib-ML,它为 CNN 层等提供了 Circom 模板——这是面向 SNARK 的,但概念上类似的模板也可以为 STARK 语言制作。

在实践中,利用 STARKs 的非以太坊生态系统包括 StarkNet(如果有人编写验证器,就可以在链上验证 ML,尽管成本很高)和 Risc0 的 Bonsai 服务(这是一个链下证明服务,它发出 STARK 证明,可以在各种链上进行验证)。截至 2025 年,区块链上的大多数 zkML 演示都倾向于使用 SNARKs(因为验证器效率高),但 STARK 方法因其透明性和在高安全性或抗量子环境中的潜力而仍然具有吸引力。例如,一个去中心化计算网络可能会使用 STARKs 让任何人在没有可信设置的情况下验证工作,这对于长期性很有用。此外,一些专门的 ML 任务可能会利用对 STARK 友好的结构:例如,大量使用 XOR/位运算的计算在 STARKs 中可能比在 SNARK 域运算中更快(因为这些在布尔代数和哈希中成本低廉)。

SNARK vs STARK for ML 总结:

  • 性能: SNARKs(如 Halo2)每个门的证明开销巨大,但得益于强大的优化和用于验证的小常数;STARKs(通用型)的常数开销较大,但扩展性更线性,并避免了像配对这样昂贵的密码学操作。DeepProve 表明,定制方法(sum-check)可以产生近线性的证明时间(快),但证明类似于 STARK。JOLT 表明,即使是通用 VM,通过大量使用查找也可以变得更快。根据经验,对于高达数百万次操作的模型:一个优化良好的 SNARK (Ezkl) 可以处理,但可能需要几十分钟,而 DeepProve (GKR) 可以在几秒钟内完成。2024 年的 STARK VM 可能介于两者之间,或者比 SNARKs 差,除非经过专门优化(Risc0 在测试中较慢,Cairo 在没有自定义提示的情况下也较慢)。
  • 验证: SNARK 证明验证最快(毫秒级,链上数据最少,约几百字节到几 KB)。STARK 证明更大(几十 KB),并且由于需要多次哈希步骤,验证时间更长(几十毫秒到几秒)。在区块链术语中,一个 SNARK 验证可能花费约 20 万 Gas,而一个 STARK 验证可能花费数百万 Gas——通常对于 L1 来说太高,但在 L2 或使用简洁验证方案时可以接受。
  • 设置与安全: 像 Groth16 这样的 SNARKs 每个电路都需要一个可信设置(对于任意模型不友好),但通用 SNARKs(PLONK、Halo2)有一个一次性的设置,可以重用于任何达到特定大小的电路。STARKs 不需要设置,只使用哈希假设(加上经典的多项式复杂性假设),并且是后量子安全的。这使得 STARKs 对于长期性很有吸引力——即使量子计算机出现,证明仍然安全,而当前的 SNARKs(基于 BLS12-381)会被量子攻击破解。

我们将在稍后的比较表中整合这些差异。

FHE for ML (FHE-o-ML):私密计算 vs. 可验证计算

全同态加密 (FHE) 是一种密码学技术,允许直接在加密数据上进行计算。在 ML 的背景下,FHE 可以实现一种_隐私保护推理_:例如,客户端可以向模型主机发送加密输入,主机在不解密的情况下对密文运行神经网络,并返回一个加密结果,客户端可以解密该结果。这确保了数据机密性——模型所有者对输入一无所知(并且如果客户端只得到输出,可能也只知道输出,而不知道模型的内部结构)。然而,FHE 本身并不产生像 ZKP 那样的正确性证明。客户端必须相信模型所有者确实诚实地执行了计算(密文可能被篡改)。通常,如果客户端拥有模型或期望某种输出分布,公然的作弊可以被检测到,但细微的错误或使用错误版本的模型,仅从加密输出中是看不出来的。

性能上的权衡: FHE 的计算量是出了名的繁重。在 FHE 下运行深度学习推理会带来数量级的减速。早期的实验(例如,2016 年的 CryptoNets)在加密数据上评估一个微小的 CNN 需要几十秒。到 2024 年,像 CKKS(用于近似算术) 和更好的库(Microsoft SEAL、Zama 的 Concrete)等改进已经减少了这种开销,但它仍然很大。例如,一位用户报告说,使用 Zama 的 Concrete-ML 运行一个 CIFAR-10 分类器,在他们的硬件上每次推理需要 25-30 分钟。经过优化后,Zama 的团队在一台 192 核的服务器上将该推理时间缩短到约 40 秒。即使是 40 秒,与明文推理(可能只需 0.01 秒)相比也极其缓慢,显示出约 $10^3$–$10^4\times$ 的开销。更大的模型或更高的精度会进一步增加成本。此外,FHE 操作消耗大量内存,并需要偶尔进行_自举_(一种降噪步骤),这在计算上非常昂贵。总而言之,可扩展性是一个主要问题——最先进的 FHE 可能可以处理一个小型 CNN 或简单的逻辑回归,但扩展到大型 CNN 或 Transformer 超出了当前实际应用的限制。

隐私优势: FHE 的巨大吸引力在于_数据隐私_。输入在整个过程中可以保持完全加密。这意味着一个不受信任的服务器可以在不了解任何信息的情况下对客户端的私有数据进行计算。反过来,如果模型是敏感的(专有的),可以设想加密模型参数,让客户端在自己这边进行 FHE 推理——但这不太常见,因为如果客户端必须进行繁重的 FHE 计算,就违背了将其外包给强大服务器的初衷。通常,模型是公开的或由服务器以明文形式持有,而数据由客户端的密钥加密。在这种情况下,模型隐私默认不被提供(服务器知道模型;客户端知道输出但不知道权重)。还有更奇特的设置(如安全两方计算或多密钥 FHE),其中模型和数据都可以相互保密,但这些会带来更大的复杂性。相比之下,通过 ZKP 实现的 zkML 可以同时确保_模型隐私_和_数据隐私_——证明者可以将模型和数据都作为秘密见证,只向验证者揭示需要的部分。

无需(也不可能)链上验证: 使用 FHE,结果以加密形式返回给客户端。客户端然后解密它以获得实际的预测。如果我们想在链上使用该结果,客户端(或持有解密密钥的任何人)将不得不发布明文结果并说服其他人它是正确的。但在那一点上,信任又回到了循环中——除非与 ZKP 结合。原则上,可以结合 FHE 和 ZKP:例如,在计算期间使用 FHE 保持数据私密,然后生成一个 ZK 证明,证明明文结果对应于正确的计算。然而,将它们结合起来意味着你要同时承担 FHE ZKP 的性能损失——用今天的技术来看,这极其不切实际。因此,在实践中,FHE-of-ML 和 zkML 服务于不同的用例:

  • FHE-of-ML: 当目标是_两方(客户端和服务器)之间的机密性_时是理想选择。例如,云服务可以托管一个 ML 模型,用户可以用他们的敏感数据查询它,而无需向云透露数据(如果模型是敏感的,也许可以通过对 FHE 友好的编码来部署它)。这对于隐私保护的 ML 服务(医疗预测等)非常有用。用户仍然必须相信服务会忠实地运行模型(因为没有证明),但至少任何_数据泄露_都被阻止了。一些项目,如 Zama,甚至在探索一个_“支持 FHE 的 EVM (fhEVM)”_,其中智能合约可以在加密输入上操作,但在链上验证这些计算将需要合约以某种方式强制执行正确的计算——这是一个开放的挑战,可能需要 ZK 证明或专门的安全硬件。
  • zkML (ZKPs): 当目标是_可验证性和公共可审计性_时是理想选择。如果你想让任何人(或任何合约)确信_“模型 $M$ 在 $X$ 上被正确评估并产生了 $Y$”_,ZKP 就是解决方案。它们还提供隐私作为附加好处(如果需要,你可以通过将 $X$、$Y$ 或 $M$ 作为证明的私有输入来隐藏它们),但它们的主要特点是正确执行的证明。

互补关系: 值得注意的是,ZKP 保护的是_验证者_(他们对秘密一无所知,只知道计算是正确完成的),而 FHE 保护的是_证明者_的数据免受计算方的影响。在某些情况下,这两者可以结合——例如,一个不受信任的节点网络可以使用 FHE 对用户的私有数据进行计算,然后向用户(或区块链)提供 ZK 证明,证明计算是按照协议进行的。这将同时涵盖隐私和正确性,但以今天的算法来看,性能成本是巨大的。在短期内更可行的是混合方案,如_可信执行环境 (TEE) + ZKP_ 或_函数加密 + ZKP_——这些超出了我们的范围,但它们旨在提供类似的功能(TEE 在计算期间保持数据/模型秘密,然后 ZKP 可以证明 TEE 做了正确的事情)。

总而言之,FHE-of-ML 优先考虑输入/输出的机密性,而 zkML 优先考虑可验证的正确性(可能带有隐私)。下表 1 对比了关键属性:

方法证明者性能 (推理与证明)证明大小与验证隐私特性是否需要可信设置?是否后量子安全?
zk-SNARK (Halo2, Groth16, PLONK 等)证明者开销巨大(未经优化时可达正常运行时间的 10^6 倍;实践中为 10^3–10^5 倍)。针对特定模型/电路进行优化;中等模型证明时间为分钟级,大型模型为小时级。最近的 zkML SNARKs(如 DeepProve with GKR)极大地改善了这一点(近线性开销,例如百万参数模型从分钟级缩短到秒级)。证明非常小(通常 < 100 KB,有时约几 KB)。验证速度快:几次配对或多项式求值(链上通常 < 50 毫秒)。DeepProve 基于 GKR 的证明更大(几十到几百 KB),验证时间约 0.5 秒(仍远快于重新运行模型)。数据机密性: 是——输入可以在证明中保持私密(不被泄露)。模型隐私: 是——证明者可以承诺模型权重而不泄露它们。输出隐藏: 可选——证明可以是一个关于某个陈述的证明,而不泄露输出(例如,“输出具有属性 P”)。然而,如果输出本身需要在链上使用,它通常会变为公开的。总的来说,SNARKs 提供了完全的_零知识_灵活性(可以隐藏任何你想要的部分)。取决于方案。Groth16/EZKL 每个电路都需要一个可信设置;PLONK/Halo2 使用一个通用的设置(一次性)。DeepProve 的 sum-check GKR 是透明的(无需设置)——这是该设计的一个优点。经典的 SNARKs(BLS12-381 曲线)不是后量子安全的(易受针对椭圆曲线离散对数问题的量子攻击)。一些较新的 SNARKs 使用后量子安全的承诺,但 Ezkl 中使用的 Halo2/PLONK 不是后量子安全的。GKR (DeepProve) 使用哈希承诺(例如 Poseidon/Merkle),这些承诺被推测是后量子安全的(依赖于哈希原像抗性)。
zk-STARK (FRI, 基于哈希的证明)证明者开销高,但扩展性更_线性_。对于大型任务,通常比原生执行慢 10^2–10^4 倍,且有并行化空间。2024 年,通用 STARK VM(Risc0, Cairo)在 ML 上的性能比 SNARK 慢(例如,在某些情况下比 Halo2 慢 3-66 倍)。专门的 STARKs(或 GKR)可以接近线性开销,并在大型电路上胜过 SNARKs。证明更大:通常为几十 KB(随电路大小/log(n) 增长)。验证者必须进行多次哈希和 FFT 检查——验证时间约为 O(n^ε),其中 ε 很小(例如,约 50 毫秒到 500 毫秒,取决于证明大小)。在链上,这成本更高(StarkWare 的 L1 验证器每个证明可能消耗数百万 Gas)。一些 STARKs 支持递归证明以压缩大小,但会增加证明者的时间成本。数据与模型隐私: STARK 可以通过随机化轨迹数据(在多项式求值中添加盲化因子)来实现零知识,因此它可以像 SNARK 一样隐藏私有输入。许多 STARK 实现侧重于完整性,但 zk-STARK 变体确实允许隐私。所以是的,它们可以像 SNARKs 一样隐藏输入/模型。输出隐藏: 理论上同样可行(证明者不将输出声明为公开),但很少使用,因为通常我们想要揭示/验证的是输出。无需可信设置。 透明性是 STARKs 的一个标志——只需要一个公共随机字符串(Fiat-Shamir 可以推导出来)。这使得它们对于开放式使用很有吸引力(任何模型,任何时间,无需为每个模型举行仪式)。是的,STARKs 依赖于哈希和信息论安全假设(如随机预言机和 FRI 中某些码字解码的难度)。这些被认为是能抵抗量子对手的。因此,STARK 证明是抗后量子攻击的,这对于未来可验证 AI 的发展是一个优势。
FHE for ML (全同态加密应用于推理)证明者 = 在加密数据上进行计算的一方。 计算时间极高:比明文推理慢 10^3–10^5 倍是常见的。高端硬件(多核服务器、FPGA 等)可以缓解这一点。一些优化(低精度推理、分级 FHE 参数)可以减少开销,但存在根本的性能损失。FHE 目前对于小型模型或简单线性模型是可行的;深度网络在超出玩具规模后仍然具有挑战性。不生成证明。结果是一个加密的输出。验证(检查正确性)并非由 FHE 单独提供——人们信任计算方不会作弊。(如果与安全硬件结合,可能会得到一个证明;否则,恶意服务器可能返回一个不正确的加密结果,客户端解密后得到错误输出而不知情)。数据机密性: 是——输入是加密的,所以计算方对其一无所知。模型隐私: 如果模型所有者在加密输入上进行计算,模型在他们那边是明文的(不受保护)。如果角色互换(客户端持有加密的模型,服务器进行计算),模型可以保持加密,但这种情况不太常见。有一些技术,如安全两方 ML,结合 FHE/MPC 来保护两者,但这超出了普通 FHE 的范畴。输出隐藏: 默认情况下,计算的输出是加密的(只有持有私钥的一方,通常是输入所有者,才能解密)。所以输出对计算服务器是隐藏的。如果我们希望输出公开,客户端可以解密并揭示它。无需设置。每个用户生成自己的密钥对进行加密。信任依赖于密钥保持秘密。FHE 方案(例如 BFV, CKKS, TFHE)的安全性基于格问题(带误差学习),这些问题被认为是能抵抗量子攻击的(至少目前没有已知的有效量子算法)。所以 FHE 通常被认为是后量子安全的

表 1:zk-SNARK、zk-STARK 和 FHE 方法在机器学习推理中的比较(性能与隐私权衡)。

Web3 应用的用例与影响

通过 zkML 实现 AI 与区块链的融合,为 Web3 开启了强大的新应用模式:

  • 去中心化自治代理与链上决策: 智能合约或 DAO 可以整合由 AI 驱动的决策,并保证其正确性。例如,想象一个 DAO 使用神经网络分析市场状况后执行交易。有了 zkML,DAO 的智能合约可以要求一个 zkSNARK 证明,证明_授权的 ML 模型_(具有已知的哈希承诺)在最新数据上运行并产生了推荐的操作,然后该操作才会被接受。这可以防止恶意行为者注入虚假的预测——区块链_验证了 AI 的计算_。随着时间的推移,甚至可能出现完全在链上的自治代理(查询链下 AI 或包含简化模型的合约),在 DeFi 或游戏中做出决策,其所有行动都通过 zk 证明被证明是正确且符合策略的。这提高了对自治代理的信任,因为它们的“思考”过程是透明且可验证的,而不是一个黑箱。

  • 可验证计算市场: 像 Lagrange 这样的项目实际上正在创建可验证的计算市场——开发者可以将繁重的 ML 推理外包给一个证明者网络,并获得带有结果的证明。这类似于去中心化的云计算,但内置了信任:你不需要信任服务器,只需要信任证明。这是对预言机和链下计算的范式转变。像以太坊即将推出的 DSC(去中心化排序层)或预言机网络可以利用这一点来提供具有密码学保证的数据或分析源。例如,一个预言机可以提供“模型 X 在输入 Y 上的结果”,任何人都可以验证附加在链上的证明,而不是相信预言机的一面之词。这可以实现区块链上的_可验证 AI 即服务_:任何合约都可以请求一个计算(比如“用我的私有模型为这些信用风险打分”),并且只有在有有效证明的情况下才接受答案。像 Gensyn 这样的项目正在探索使用这些验证技术的去中心化训练和推理市场。

  • NFT 与游戏——来源与进化: 在区块链游戏或 NFT 收藏品中,zkML 可以证明特征或游戏动作是由合法的 AI 模型生成的。例如,一个游戏可能允许 AI 进化一个 NFT 宠物的属性。没有 ZK,聪明的用户可能会修改 AI 或结果以获得一个更优越的宠物。有了 zkML,游戏可以要求一个证明,证明_“宠物的新属性是由官方进化模型在宠物的旧属性上计算得出的”_,从而防止作弊。生成艺术 NFT 也是如此:艺术家可以发布一个生成模型作为承诺;之后,在铸造 NFT 时,证明每个图像都是由该模型在给定某个种子的情況下产生的,从而保证其真实性(甚至可以在不向公众透露确切模型的情况下做到这一点,保护艺术家的知识产权)。这种_来源验证_以一种类似于可验证随机性的方式确保了真实性——只不过在这里是可验证的创造力。

  • 敏感领域的隐私保护 AI: zkML 允许在不暴露输入的情况下确认结果。在医疗保健领域,患者的数据可以由云提供商通过 AI 诊断模型运行;医院收到诊断结果和一个证明,证明_该模型(可能由一家制药公司私有持有)在患者数据上正确运行_。患者数据保持私密(在证明中只使用了加密或承诺的形式),模型权重保持专有——但结果是可信的。监管机构或保险公司也可以验证是否只使用了经批准的模型。在金融领域,一家公司可以向审计师或监管机构证明,其风险模型已应用于其内部数据并产生了某些指标,而无需透露底层的敏感财务数据。这使得合规和监督能够通过密码学保证而不是手动信任来实现。

  • 跨链与链下互操作性: 由于零知识证明本质上是可移植的,zkML 可以促进_跨链 AI_ 结果。一条链上可能有一个 AI 密集型应用在链下运行;它可以将结果的证明发布到另一条区块链上,后者将无需信任地接受它。例如,考虑一个多链 DAO 使用 AI 来聚合社交媒体上的情绪(链下数据)。AI 分析(对大量数据的复杂 NLP)在链下由一个服务完成,该服务然后向一个小区块链(或多个链)发布一个证明,证明_“分析已正确完成,输出的情绪评分为 0.85”_。所有链都可以验证并在其治理逻辑中使用该结果,而无需各自重新运行分析。这种可互操作的可验证计算正是 Lagrange 网络旨在支持的,通过同时服务于多个 rollup 或 L1。它消除了在链间移动结果时对可信桥梁或预言机假设的需求。

  • AI 对齐与治理: 从一个更具前瞻性的角度来看,zkML 被强调为_AI 治理与安全_的工具。例如,Lagrange 的愿景声明认为,随着 AI 系统变得越来越强大(甚至达到超级智能),密码学验证对于确保它们遵守既定规则至关重要。通过要求 AI 模型为其推理或约束生成证明,人类保留了一定程度的控制——“你无法信任你无法验证的东西”。虽然这还处于推测阶段,并且涉及社会和技术两方面,但该技术可以强制一个自主运行的 AI 代理仍然证明它正在使用一个经批准的模型并且没有被篡改。去中心化 AI 网络可能会使用链上证明来验证贡献(例如,一个协作训练模型的节点网络可以证明每个更新都是忠实计算的)。因此,zkML 可能在_确保 AI 系统即使在去中心化或不受控制的环境中也能对人类定义的协议负责_方面发挥作用。

总之,zkML 和可验证的链上 AI 代表了先进密码学和机器学习的融合,有望增强 AI 应用中的信任、透明度和隐私。通过比较主要方法——zk-SNARKs、zk-STARKs 和 FHE——我们看到了性能与隐私之间的一系列权衡,每种方法都适用于不同的场景。像 Ezkl 这样的基于 SNARK 的框架和像 Lagrange 的 DeepProve 这样的创新,使得用实际的努力证明重要的神经网络推理成为可能,为可验证 AI 的实际部署打开了大门。基于 STARK 和 VM 的方法承诺了更大的灵活性和后量子安全性,随着该领域的成熟,这将变得越来越重要。FHE 虽然不是可验证性的解决方案,但它解决了机密 ML 计算的互补需求,并且在与 ZKP 结合或在特定的私密环境中,它可以让用户在不牺牲数据隐私的情况下利用 AI。

对 Web3 的影响是显著的:我们可以预见智能合约对 AI 预测做出反应,并知道它们是正确的;计算市场中结果可以无需信任地出售;数字身份(如 Worldcoin 通过虹膜 AI 实现的个人身份证明)受到 zkML 的保护,以确认某人是人类而不泄露其生物特征图像;以及通常会出现一类新的_“可证明的智能”,丰富区块链应用。许多挑战依然存在——超大型模型的性能、开发者的人体工程学以及对专门硬件的需求——但发展轨迹是明确的。正如一份报告所指出的,“今天的 ZKP 可以支持小型模型,但中到大型模型打破了这一范式”_;然而,快速的进步(DeepProve 相较于先前技术实现了 50-150 倍的速度提升)正在将这一界限向外推进。随着正在进行的研究(例如,关于硬件加速和分布式证明),我们可以期待越来越大、越来越复杂的 AI 模型变得可证明。zkML 可能很快就会从利基演示演变为可信 AI 基础设施的重要组成部分,确保随着 AI 的普及,它能以一种可审计、去中心化且符合用户隐私和安全的方式实现。

ETHDenver 2025:来自 Web3 嘉年华的关键趋势与洞见

· 阅读需 28 分钟

ETHDenver 2025,被誉为“再生者之年”(Year of The Regenerates),巩固了其作为全球最大 Web3 盛会之一的地位。活动横跨 BUIDLWeek(2 月 23 日至 26 日)、主活动(2 月 27 日至 3 月 2 日)以及会后的山地静修,预计吸引了超过 25,000 名参与者。来自 125 多个国家的构建者、开发者、投资者和创意人士齐聚丹佛,共同庆祝以太坊的去中心化和创新精神。ETHDenver 秉承其社区根基,保持免费参与、社区资助,并充满了丰富的内容——从黑客松、研讨会到专家座谈、项目路演和派对。活动以“再生者”捍卫去中心化的传说为基调,强调了公共物品和协作共建,即便在竞争激烈的技术环境中也是如此。最终,这周充满了高强度的构建者活动和前瞻性讨论,为行业专业人士提供了 Web3 新兴趋势和可行洞见的快照。

ETHDenver 2025

演讲者聚焦的新兴 Web3 趋势

没有单一叙事主导 ETHDenver 2025——相反,广泛的 Web3 趋势占据了中心舞台。 与去年(EigenLayer 的再质押大放异彩)不同,2025 年的议程是百花齐放:从去中心化物理基础设施网络(DePIN)到 AI 代理,从监管合规到现实世界资产代币化(RWA),此外还有隐私、互操作性等等。事实上,ETHDenver 创始人 John Paller 在回应关于多链内容的担忧时指出,“我们 95% 以上的赞助商和 90% 的内容都与 ETH/EVM 相关”——然而,非以太坊生态系统的出现也凸显了互操作性作为一个关键主题。主要演讲者反映了这些趋势领域:例如,Matter Labs/zkSync 的首席执行官 Alex Gluchowski 重点介绍了 zk-rollup 和 Layer-2 扩容,而 Mysten Labs (Sui) 的 Adeniyi Abiodun 和 Injective 的 Albert Chon 则展示了多链创新

AI 与 Web3 的融合成为一股强劲的暗流。 大量演讲和周边活动聚焦于去中心化 AI 代理和“DeFi+AI”的跨界结合。一个专门的 AI 代理日 展示了链上 AI 演示,一个由 14 个团队组成的联盟(包括 Coinbase 的开发者工具包和 NEAR 的 AI 部门)甚至宣布成立开放代理联盟(OAA)——一项旨在通过汇集 Web3 基础设施来提供无需许可、免费的 AI 访问的倡议。这表明,自主代理和 AI 驱动的 dApp 作为构建者的前沿领域,正引起越来越大的兴趣。与 AI 携手并进的**DePIN(去中心化物理基础设施)**是另一个热门词:多个专家座谈(例如 DePIN 日DePIN 峰会)探讨了将区块链与物理网络(从电信到移动出行)连接起来的项目。

Cuckoo AI Network 在 ETHDenver 2025 上掀起波澜,展示了其专为创作者和开发者设计的创新去中心化 AI 模型服务市场。凭借在黑客松和社区主导的周边活动中的强大影响力,Cuckoo AI 吸引了大量开发者的关注,他们对其将 GPU/CPU 资源变现和轻松集成链上 AI API 的能力深感兴趣。在其专门的研讨会和交流会上,Cuckoo AI 强调了去中心化基础设施如何能有效地普及对高级 AI 服务的访问。这与本次活动的更广泛趋势——特别是区块链与 AI、DePIN 和公共物品资助的交集——直接吻合。对于 ETHDenver 的投资者和开发者来说,Cuckoo AI 成为了一个清晰的例子,展示了去中心化方法如何赋能下一代 AI 驱动的 dApp 和基础设施,从而将自己定位为 Web3 生态系统中有吸引力的投资机会。

隐私、身份和安全仍然是重中之重。 演讲者和研讨会讨论了零知识证明(zkSync 的参与)、身份管理和可验证凭证(黑客松中有一个专门的隐私与安全赛道)以及法律/监管问题(一个链上法律峰会是活动赛道的一部分)等议题。另一个值得注意的讨论是融资的未来和资金的去中心化:在主舞台上,Dragonfly Capital 的 Haseeb Qureshi 与 Legion(一个“类似 ICO”的平台)的 Matt O’Connor 之间关于 ICO 与 VC 融资的辩论吸引了与会者。这场辩论凸显了社区代币销售等新兴模式对传统 VC 路径的挑战——这对正在探索融资的 Web3 初创公司来说是一个重要趋势。对专业人士而言,结论是明确的:2025 年的 Web3 是多学科的——横跨金融、AI、现实资产和文化——要保持信息灵通,就必须超越任何单一的炒作周期,关注创新的全貌。

赞助商及其战略重点领域

ETHDenver 2025 的赞助商名单堪称 Layer-1、Layer-2 和 Web3 基础设施项目的“名人录”——每个项目都利用这次活动来推进其战略目标。跨链和多链协议表现抢眼。例如,Polkadot 是顶级赞助商之一,提供了高达 8 万美元的奖金池,激励构建者创建跨链 DApp 和应用链。同样,BNB Chain、Flow、Hedera 和 Base(Coinbase 的 L2) 各自为与自家生态系统集成的项目提供了高达 5 万美元的奖金,这表明它们正努力吸引以太坊开发者。即使是传统上独立的生态系统,如 Solana 和 Internet Computer,也通过赞助挑战赛加入进来(例如,Solana 联合主办了一个 DePIN 活动,而 Internet Computer 则提供了一个“只有在 ICP 上才可能”的赏金)。这种跨生态系统的存在引起了一些社区的审视,但 ETHDenver 团队指出,绝大多数内容仍然与以太坊相关。最终效果是互操作性成为了一个核心主题——赞助商旨在将其平台定位为以太坊宇宙的补充扩展。

扩容解决方案和基础设施提供商也处于前沿和中心位置。主要的以太坊 L2,如 Optimism 和 Arbitrum,都设有大型展位并赞助了挑战赛(Optimism 的赏金高达 4 万美元),加强了它们吸引开发者加入 rollup 的重点。像 ZkSync 和 Zircuit(一个展示 L2 rollup 方法的项目)这样的新进入者则强调零知识技术,甚至贡献了 SDK(ZkSync 推广了其用于用户友好登录的 Smart Sign-On SDK,黑客松团队积极使用)。再质押和模块化区块链基础设施是另一个赞助商的兴趣点——EigenLayer(再质押的先驱)有自己的 5 万美元赛道,甚至联合主办了一个关于“再质押与 DeFAI(去中心化 AI)”的活动,将其安全模型与 AI 主题相结合。预言机和互操作性中间件的代表有 Chainlink 和 Wormhole,它们都为使用其协议的项目发布了赏金。

值得注意的是,Web3 消费应用和工具也得到了赞助商的支持,以改善用户体验。Uniswap 的亮相——拥有最大的展位之一——不仅仅是为了展示:这家 DeFi 巨头利用这次活动宣布了新的钱包功能,如集成的法币出口,这与其赞助重点关注 DeFi 可用性相一致。像 Galxe (Gravity)Lens Protocol 这样的身份和社区平台赞助了围绕链上社交和凭证的挑战赛。甚至主流科技公司也表现出兴趣:PayPal 和 Google Cloud 举办了一场稳定币/支付的欢乐时光活动,讨论加密支付的未来。这种赞助商的组合表明,战略利益从核心基础设施延伸到终端用户应用——所有这些都在 ETHDenver 汇聚,为开发者提供资源(API、SDK、资助)。对于 Web3 专业人士来说,来自 Layer-1、Layer-2 甚至 Web2 金融科技公司的重金赞助,凸显了行业投资的方向:互操作性、可扩展性、安全性,以及让加密货币为下一波用户所用

黑客松亮点:创新项目与获奖者

ETHDenver 的核心是其传奇的 #BUIDLathon——一个已发展成为全球最大的区块链黑客马拉松,吸引了数千名开发者。2025 年,该黑客松提供了创纪录的 1,043,333+ 美元奖金池以激励创新。来自 60 多个赞助商的赏金针对关键的 Web3 领域,将比赛划分为多个赛道,例如:DeFi 与 AINFT 与游戏基础设施与可扩展性隐私与安全以及DAO 与公共物品。这种赛道设计本身就很有见地——例如,将DeFi 与 AI 配对,暗示了 AI 驱动的金融应用的兴起,而专门的公共物品赛道则重申了社区对再生金融和开源开发的关注。每个赛道都由赞助商支持,为最佳使用其技术的项目提供奖品(例如,Polkadot 和 Uniswap 支持 DeFi,Chainlink 支持互操作性,Optimism 支持扩容解决方案)。组织者甚至实施了二次投票进行评审,让社区帮助筛选出顶级项目,最终获奖者由专家评委选出。

结果是涌现出大量前沿项目,其中许多项目让我们得以一窥 Web3 的未来。著名的获奖者包括一款链上多人游戏 “0xCaliber”,这是一款第一人称射击游戏,在经典的 FPS 游戏中实时运行区块链交互。0xCaliber 通过展示真正的链上游戏令评委惊叹——玩家用加密货币买入,“射出”链上子弹,并使用跨链技巧来收集和兑现战利品,所有这些都是实时的。这类项目展示了Web3 游戏日益成熟(将 Unity 游戏引擎与智能合约集成),以及在融合娱乐与加密经济学方面的创造力。另一类杰出的黑客作品是那些将AI 与以太坊结合的项目:团队构建了使用智能合约协调 AI 服务的“代理”平台,灵感来自开放代理联盟的宣布。例如,一个黑客松项目集成了 AI 驱动的智能合约审计器(为合约自动生成安全测试用例)——这与会议上观察到的去中心化 AI 趋势相符。

基础设施和工具类项目也很突出。一些团队致力于账户抽象和用户体验,使用 zkSync 的 Smart Sign-On 等赞助商工具包为 dApp 创建无钱包登录流程。其他团队则致力于跨链桥和 Layer-2 集成,反映了开发者对互操作性的持续兴趣。在公共物品与 DAO 赛道中,一些项目解决了现实世界的社会影响问题,例如一个用于去中心化身份和援助无家可归者的 dApp(利用 NFT 和社区资金,这个想法让人想起之前的 ReFi 黑客作品)。*再生金融(ReFi)*的概念——如通过新颖机制资助公共物品——继续出现,呼应了 ETHDenver 的再生主题。

虽然最终获奖者在主活动结束时受到了庆祝,但真正的价值在于创新的管道:收到了超过 400 个项目提交,其中许多项目将在活动结束后继续存在。ETHDenver 的黑客松有孵化未来初创公司的记录(事实上,一些过去的 BUIDLathon 项目已经成长为赞助商)。对于投资者和技术专家来说,黑客松提供了一个洞察前沿思想的窗口——预示着下一波 Web3 初创公司可能会出现在链上游戏、AI 融合的 dApp、跨链基础设施以及针对社会影响的解决方案等领域。随着近 100 万美元的赏金发放给开发者,赞助商有效地将资金投入到他们所支持的领域,以培育这些创新。

社交活动与投资者互动

ETHDenver 不仅仅是关于编写代码——它同样关乎建立联系。2025 年,这场嘉年华通过为初创公司、投资者和社区建设者量身定制的正式和非正式活动,极大地促进了社交。其中一个标志性活动是 Bufficorn Ventures (BV) 创业竞技场,这是一个充满活力的展示会,20 家精选初创公司以科学展览的形式向投资者展示他们的项目。创业竞技场于 3 月 1 日在主厅举行,被描述为更像是“快速约会”而非路演比赛:创始人们守在桌前,向在场内巡视的所有投资者一对一地推介他们的项目。这种形式确保了即使是早期阶段的团队也能与风险投资家、战略合作伙伴或合作方进行有意义的面对面交流。许多初创公司利用这个机会寻找客户和资金,充分利用了 ETHDenver 上 Web3 基金的高度集中。

在会议的最后一天,BV BuffiTank 路演节在主舞台上大放异彩——这是一场更传统的路演比赛,展示了来自 ETHDenver 社区的 10 家“最具创新性”的早期初创公司。这些团队(与黑客松获奖者不同)向一组顶级风险投资家和行业领袖展示了他们的商业模式,争夺荣誉和潜在的投资机会。路演节说明了 ETHDenver 作为交易流生成器的角色:它明确针对那些*“已经组织好……正在寻找投资、客户和曝光度”*的团队,特别是那些与 SporkDAO 社区有关的团队。获奖者的奖励不是简单的现金奖,而是加入 Bufficorn Ventures 的投资组合或其他加速器项目的承诺。从本质上讲,ETHDenver 为 Web3 创造了自己的迷你“创智赢家”(Shark Tank),催化了投资者对社区最佳项目的关注。

除了这些官方展示活动,这一周还挤满了投资者与创始人的交流会。根据 Belong 策划的一份指南,值得注意的周边活动包括 2 月 27 日由 CertiK Ventures 主办的**“与 VC 见面”欢乐时光**,3 月 1 日的StarkNet VC 与创始人休息室,甚至还有像**“推杆与路演”这样以高尔夫为主题的轻松路演活动。这些聚会为创始人提供了与风险投资家轻松交流的环境,通常会在会后促成后续会议。许多新兴 VC 公司**也出现在专家座谈会上——例如,在 EtherKnight 舞台上的一场会议重点介绍了一些新基金,如 Reflexive Capital、Reforge VC、Topology、Metalayer 和 Hash3,以及他们最感兴趣的趋势。早期迹象表明,这些 VC 对去中心化社交媒体、AI 和新颖的 Layer-1 基础设施等领域非常感兴趣(每个基金都在竞争激烈的 VC 格局中开辟自己的细分市场)。

对于希望利用 ETHDenver 社交机会的专业人士来说,关键的启示是周边活动和有针对性的交流会的价值。交易和合作关系通常是在咖啡或鸡尾酒会上萌芽,而不是在舞台上。ETHDenver 2025 众多的投资者活动表明,即使在市场不景气的情况下,Web3 投资界仍在积极寻找人才和创意。那些准备了精美演示和清晰价值主张的初创公司(通常利用活动的黑客松势头)找到了 receptive 的受众。与此同时,投资者利用这些互动来把握开发者社区的脉搏——今年最聪明的构建者在解决什么问题?总而言之,ETHDenver 再次证明社交与 BUIDLing 同等重要:在这里,一次偶然的相遇可能促成一笔种子投资,或者一次富有洞察力的对话可能点燃下一次重大合作的火花。

Web3 的风险投资趋势与投资机会

在 ETHDenver 2025 期间,一个微妙但重要的叙事是 Web3 风险投资格局本身正在演变。尽管更广泛的加密市场起伏不定,但ETHDenver 的投资者们对有前景的 Web3 项目表现出强烈的兴趣。Blockworks 的现场记者指出,“尽管宏观经济面临阻力,但仍有大量私人资本流入加密领域,”对于最热门的创意,种子阶段的估值往往高得惊人。事实上,从加密原生基金到涉足 Web3 的传统科技投资者,大量 VC 的出席清楚地表明,ETHDenver 仍然是一个交易撮合中心。

从 VC 们讨论和赞助的内容中,可以辨别出新兴的主题焦点AI x Crypto 内容的普遍性(黑客松赛道、专家座谈等)不仅是开发者的趋势;它也反映了风险投资对**“DeFi 遇上 AI”**这一交叉领域的兴趣。许多投资者正在关注那些在区块链上利用机器学习或自主代理的初创公司,这一点从风险投资赞助的 AI 黑客之家和峰会中可见一斑。同样,对 DePIN 和现实世界资产(RWA)代币化的高度关注表明,基金们看到了将区块链与实体经济资产和物理设备连接起来的项目的机会。专门的 RWA 日(2 月 26 日)——一个关于代币化资产未来的 B2B 活动——表明风险投资的探子们正在该领域积极寻找下一个 Goldfinch 或 Centrifuge(即将现实世界金融带入链上的平台)。

另一个可观察到的趋势是融资模式的日益实验性。前述关于 ICO 与 VC 的辩论不仅仅是会议的戏剧效果;它反映了风险投资界向更以社区为中心的融资模式发展的真实动向。ETHDenver 的一些 VC 表示对混合模式持开放态度(例如,由风险投资支持的代币发行,让社区参与早期轮次)。此外,公共物品资助和影响力投资也占有一席之地。在 ETHDenver 的再生精神下,即使是投资者也在讨论如何长期支持开源基础设施和开发者,而不仅仅是追逐下一个 DeFi 或 NFT 的热潮。像*“资助未来:链上初创公司不断演变的模式”*这样的专家座谈会探讨了诸如赠款、DAO 财库投资和二次方融资等替代方案,以补充传统的 VC 资金。这表明该行业在项目资本化方面正在成熟——风险投资、生态系统基金和社区资金协同工作。

从机会的角度来看,Web3 专业人士和投资者可以从 ETHDenver 的风险投资动态中获得一些可行的见解:(1)基础设施仍然为王——许多 VC 表示,作为行业支柱的“镐和铲子”(L2 扩容、安全、开发者工具)仍然是高价值投资。(2)AI/区块链融合和 DePIN 等新垂直领域是新兴的投资前沿——在这些领域加快学习或寻找初创公司可能会带来回报。(3)社区驱动的项目和公共物品可能会看到新颖的融资方式——精明的投资者正在研究如何可持续地支持这些项目(例如,投资于能够实现去中心化治理或共享所有权的协议)。总的来说,ETHDenver 2025 表明,虽然 Web3 风险投资格局竞争激烈,但充满了信心:资本可用于那些正在构建 DeFi、NFT、游戏等未来的人,即使是在熊市中诞生的想法,如果它们瞄准了正确的趋势,也能找到支持。

开发者资源、工具包与支持系统

ETHDenver 始终以构建者为中心,2025 年也不例外——它兼具开源开发者大会的性质,为 Web3 开发者提供了丰富的资源和支持。在 BUIDLWeek 期间,与会者可以参加涵盖各个领域的现场研讨会、技术训练营和迷你峰会。例如,开发者可以参加前沿技术峰会,体验最新的协议,或者参加链上法律峰会,学习合规的智能合约开发。主要赞助商和区块链团队举办了实践课程:Polkadot 团队举办了黑客之家和关于启动平行链的研讨会;EigenLayer 领导了一个“再质押训练营”,教开发者如何利用其安全层;Polygon 和 zkSync 提供了关于使用零知识技术构建可扩展 dApp 的教程。这些课程为开发者提供了与核心工程师宝贵的面对面交流机会,让他们能够获得集成方面的帮助,并亲手学习新的工具包。

在整个主活动期间,会场设有一个专门的 #BUIDLHub 和创客空间,构建者可以在协作环境中编码并获得导师的指导。ETHDenver 的组织者发布了一份详细的构建者指南,并促成了一个现场导师计划(来自赞助商的专家随时为团队解决技术问题)。开发者工具公司也大量到场——从 Alchemy 和 Infura(提供区块链 API)到 Hardhat 和 Foundry(用于智能合约开发)。许多公司在活动中发布了新版本或测试版工具。例如,MetaMask 团队预告了一次重大的钱包更新,其中包括Gas 抽象和改进的 dApp 开发者 SDK,旨在简化应用为用户支付 Gas 费的方式。多个项目推出了 SDK 或开源库:Coinbase 的用于 AI 代理的*“Agent Kit”和协作的开放代理联盟*工具包被引入,Story.xyz 在他们自己的黑客松活动中推广了其用于链上知识产权许可的 Story SDK

赏金和黑客支持进一步增强了开发者的体验。有 62 个赞助商提供了超过 180 个赏金,黑客们实际上可以从一个具体的挑战菜单中进行选择,每个挑战都附有文档、办公时间和有时甚至是定制的沙盒环境。例如,Optimism 的赏金挑战开发者使用最新的 Bedrock 操作码(他们的工程师随时待命提供帮助),而 Uniswap 的挑战则提供了对其新 API 的访问权限,用于法币出口集成。用于协调和学习的工具——如官方的 ETHDenver 移动应用和 Discord 频道——让开发者了解日程变更、支线任务,甚至通过 ETHDenver 的招聘板了解工作机会

一个值得注意的资源是对二次方融资实验和链上投票的强调。ETHDenver 在黑客松评审中集成了二次方投票系统,让许多开发者接触到了这个概念。此外,Gitcoin 和其他公共物品组织的存在意味着开发者可以在活动结束后了解如何为他们的项目申请资助。总而言之,ETHDenver 2025 为开发者配备了前沿工具(SDK、API)专家指导后续支持,以继续他们的项目。对于行业专业人士来说,这提醒我们,通过教育、工具和资金来培育开发者社区至关重要。许多重点介绍的资源(如新的 SDK 或改进的开发环境)现在已经公开可用,为全球各地的团队提供了在 ETHDenver 分享的基础上进行构建的机会。

丰富 ETHDenver 体验的周边活动与社区聚会

真正让 ETHDenver 与众不同的是其节日般的氛围——数十个官方和非官方的周边活动,围绕主会议创造了丰富多彩的体验。2025 年,除了举办官方内容的国家西部综合体外,整个城市都充满了聚会、派对、黑客松和社区集会。这些通常由赞助商或当地 Web3 团体主办的周边活动,极大地丰富了整个 ETHDenver 的体验。

在官方层面,ETHDenver 自己的日程安排包括了主题迷你活动:会场设有NFT 艺术画廊、区块链游乐场、DJ 放松穹顶,甚至还有一个禅意区供人放松。组织者还举办了晚间活动,如开幕和闭幕派对——例如,2 月 26 日由 Story Protocol 举办的**“Crack’d House”非官方开幕派对**,将艺术表演与黑客松颁奖公告融为一体。但真正 proliferate 的是社区主导的周边活动:根据一份活动指南,ETHDenver 的 Luma 日历上追踪了超过 100 个周边活动。

一些例子说明了这些聚会的多样性:

  • 技术峰会与黑客之家: ElizaOS 和 EigenLayer 为 AI+Web3 爱好者举办了一个为期 9 天的 Vault AI 代理黑客之家。StarkNet 团队举办了一个为期多日的黑客之家,最终以其 ZK-rollup 上的项目演示夜告终。这些活动为开发者在主黑客松之外,就特定技术栈进行合作提供了专注的环境。
  • 社交酒会与派对: 每个晚上都有一系列选择。2 月 27 日由 MetaMask、Linea、EigenLayer、Wormhole 等赞助的 Builder Nights Denver,将创新者聚集在一起,边吃边喝边进行轻松交谈。由 Belong 支持的 3VO’s Mischief Minded Club Takeover 是一个为社区代币化领导者举办的高级别社交派对。对于纯粹寻求乐趣的人来说,BEMO Rave(与 Berachain 等合作)和 rAIve the Night(一个以 AI 为主题的锐舞派对)让加密人群跳舞到深夜——将音乐、艺术和加密文化融为一体。
  • 特殊兴趣聚会: 小众社区也找到了自己的空间。Meme Combat 是一个纯粹为 Meme 爱好者举办的活动,庆祝 Meme 在加密世界中的作用。House of Ink 迎合了 NFT 艺术家和收藏家,将一个沉浸式艺术场馆(Meow Wolf Denver)变成了数字艺术的展示平台。2 月 26 日的 SheFi Summit 汇集了 Web3 领域的女性进行演讲和交流,得到了 World of Women 和 Celo 等团体的支持——凸显了对多样性和包容性的承诺。
  • 投资者与内容创作者聚会: 我们已经提到了 VC 活动;此外,2 月 28 日的 KOL(关键意见领袖)聚会让加密影响者和内容创作者讨论参与策略,展示了社交媒体与加密社区的交集。

至关重要的是,这些周边活动不仅仅是娱乐——它们本身常常成为思想和关系的孵化器。例如,2025 年代币化资本峰会深入探讨了链上资本市场的未来,很可能激发了与会的金融科技企业家和区块链开发者之间的合作。链上游戏黑客之家为游戏开发者提供了一个分享最佳实践的空间,这可能会导致区块链游戏项目之间的交叉授粉。

对于参加大型会议的专业人士来说,ETHDenver 的模式强调了价值在主舞台之外和舞台之上同样重要。广泛的非官方活动让与会者可以定制自己的体验——无论目标是会见投资者、学习新技能、寻找联合创始人,还是只是放松和建立友谊,总有一个活动适合你。许多资深人士建议新手:“不要只听讲座——去参加聚会,打个招呼。”在一个像 Web3 这样由社区驱动的空间里,这些人际关系往往会转化为 DAO 合作、投资交易,或者至少是跨越大陆的持久友谊。ETHDenver 2025 充满活力的周边场景放大了核心会议的影响,将丹佛的一周变成了一场多维度的创新盛宴

关键要点与可行洞见

ETHDenver 2025 展示了一个创新与协作全面开花的 Web3 行业。对于该领域的专业人士来说,从这次深度剖析中可以得出几个明确的要点和行动项:

  • 趋势多样化: 本次活动清楚地表明,Web3 不再是单一的。AI 集成、DePIN 和 RWA 代币化等新兴领域与 DeFi 和 NFT 同样突出。可行洞见:保持信息灵通和适应性。 领导者应将研发或投资分配到这些新兴垂直领域(例如,探索 AI 如何增强他们的 dApp,或者现实世界资产如何整合到 DeFi 平台中),以抓住下一波增长浪潮。
  • 跨链是未来: 随着主要的非以太坊协议积极参与,生态系统之间的壁垒正在降低。互操作性和多链用户体验获得了巨大关注,从 MetaMask 增加对 Bitcoin/Solana 的支持,到 Polkadot 和基于 Cosmos 的链吸引以太坊开发者。可行洞见:为多链世界设计。 项目应考虑能够利用其他链上流动性和用户的集成或桥梁,专业人士也应寻求跨社区的合作,而不是固步自封。
  • 社区与公共物品至关重要: “再生者之年”的主题不仅仅是口号——它通过公共物品资助讨论、黑客松的二次方投票以及像 SheFi Summit 这样的活动渗透到内容中。道德、可持续发展和社区所有权是以太坊精神的核心价值观。可行洞见:融入再生原则。 无论是通过支持开源倡议、使用公平启动机制,还是将商业模式与社区增长相结合,Web3 公司都可以通过不纯粹是榨取性的方式获得好感和长久发展。
  • 投资者情绪——谨慎而大胆: 尽管有熊市的传言,ETHDenver 表明VC 们正在积极寻找并愿意在 Web3 的下一篇章中下大注。然而,他们也在重新思考如何投资(例如,更具战略性,可能对产品市场契合度有更多监督,并对社区融资持开放态度)。可行洞见:如果你是初创公司,专注于基本面和讲故事。 脱颖而出的项目有明确的用例,并且通常有可行的原型(有些是在一个周末内构建的!)。如果你是投资者,这次会议证实了基础设施(L2、安全、开发者工具)仍然是高优先级,但通过在 AI、游戏或社交领域的论点来差异化,可以将基金定位在前沿。
  • 开发者体验正在改善: ETHDenver 重点介绍了许多新的工具包、SDK 和框架,降低了 Web3 开发的门槛——从账户抽象工具到链上 AI 库。可行洞见:利用这些资源。 团队应尝试最新发布的开发者工具(例如,尝试 zkSync Smart SSO 以实现更轻松的登录,或使用开放代理联盟的资源进行 AI 项目),以加速开发并保持竞争优势。此外,公司应继续参与黑客松和开放的开发者论坛,作为寻找人才和创意的途径;ETHDenver 将黑客转变为创始人的成功就是该模式的证明。
  • 周边活动的力量: 最后,周边活动的爆炸式增长在社交方面给我们上了一堂重要的课——机会常常出现在非正式场合。在欢乐时光的偶然相遇或在小型聚会上的共同兴趣,都可能创造出职业生涯中决定性的联系。可行洞见:对于参加行业会议的人来说,计划要超越官方议程。 确定与你的目标相符的周边活动(无论是会见投资者、学习小众技能,还是招聘人才),并积极参与。正如在丹佛所见,那些完全沉浸在这一周生态系统中的人,带走的不仅是知识,还有新的合作伙伴、员工和朋友。

总之,ETHDenver 2025 是 Web3 行业发展势头的缩影——融合了前沿技术讨论、热情的社区活力、战略性投资举措,以及一种将严肃创新与乐趣相结合的文化。专业人士应将此次活动的趋势和洞见视为 Web3 未来走向的路线图。可行的下一步是采纳这些学习成果——无论是对 AI 的新关注、与 L2 团队建立的联系,还是从黑客松项目中获得的灵感——并将其转化为战略。本着 ETHDenver 最喜欢的座右铭精神,是时候在这些洞见的基础上 #BUIDL,并帮助塑造丹佛众多人共同构想的去中心化未来。

Altera.al 正在招聘:加入数字人类发展先锋(60万至100万美元薪酬)

· 阅读需 3 分钟

我们很高兴分享 Altera.al 的一项变革性机会——这是一家突破性的 AI 初创公司,近期因其在数字人类开发方面的开创性工作而受到广泛关注。Altera.al 最近被《MIT Technology Review》报道,展示了在创建能够表现类人行为、形成社区并在数字空间中进行有意义互动的 AI 代理方面取得的显著进展。

Altera.al: 加入数字人类发展先锋,薪酬 60 万至 100 万美元

关于 Altera.al

Altera.al 由罗伯特·杨创立,他曾是麻省理工学院计算神经科学系的助理教授,为了追求这一愿景而离职。公司已从包括 A16Z 和埃里克·施密特的前沿科技风险投资公司在内的知名投资者那里获得了超过 1100 万美元的融资。最近的 Sid 项目演示展示了 AI 代理在 Minecraft 中自发形成专门角色、建立社交联系,甚至创造文化体系——这标志着实现真正自主、可大规模协作的 AI 代理目标的重要一步。

为什么现在是加入的绝佳时机

Altera.al 在开发具备基本人类特质的机器方面取得了重要技术突破。他们的工作超越了传统 AI 开发——他们正在打造能够:

  • 形成社区和社会层级
  • 发展专门的角色与职责
  • 创造并传播文化模式
  • 在数字空间中与人类进行有意义的互动

招聘需求

在近期突破之后,Altera.al 正在扩大团队规模,并提供 60 万至 100 万美元的优厚薪酬套餐,面向以下人才:

  • AI 代理研究专家
  • 在以下领域具备强大个人贡献能力的工程师:
    • 分布式系统
    • 安全
    • 操作系统

如何申请

准备好加入这段开创性旅程了吗?请直接通过他们的招聘页面申请:https://jobs.ashbyhq.com/altera.al

加入数字人类发展的未来

这是一次在人工智能与人类行为建模交叉领域工作的独特机会,团队已经展示了令人瞩目的成果。如果你热衷于推动 AI 与人机交互的边界,Altera.al 可能是你的下一个冒险。


想获取更多科技和区块链领域的突破性机会,请关注我们的 Twitter 或加入我们的 Discord 社区。

本帖是我们持续致力于支持创新并将人才与科技行业变革性机会相连接的一部分。

0G的去中心化AI操作系统真的能在链上大规模驱动AI吗?

· 阅读需 9 分钟

2024 年 11 月 13 日,0G Labs 宣布完成 4000 万美元 融资,由 Hack VC、Delphi Digital、OKX Ventures、Samsung Next 和 Animoca Brands 主导,使得这支致力于去中心化 AI 操作系统的团队一举成名。他们的模块化方案将去中心化存储、数据可用性验证与去中心化结算相结合,以实现链上 AI 应用。但他们真的能达到 GB/s 级别的吞吐量,为 Web3 的下一波 AI 采用提供动力吗?本深度报告评估了 0G 的架构、激励机制、生态吸引力以及潜在风险,帮助你判断 0G 是否能够兑现其承诺。

背景

AI 领域因 ChatGPTERNIE Bot 等大语言模型而呈现爆炸式增长。然而,AI 不仅仅是聊天机器人和生成式文本,还包括 AlphaGo 的围棋胜利、MidJourney 等图像生成工具。许多开发者追求的终极目标是通用人工智能(AGI),即能够学习、感知、决策并执行复杂任务的 AI “代理”。

然而,AI 与 AI 代理应用极度 数据密集,训练与推理都依赖海量数据集。传统上,这些数据存储在中心化基础设施上。区块链的出现催生了 DeAI(去中心化 AI) 的概念,尝试利用去中心化网络进行数据存储、共享与验证,以克服中心化 AI 的局限。

0G Labs 在 DeAI 基础设施领域脱颖而出,致力于构建一个名为 0G去中心化 AI 操作系统

0G Labs 是什么?

在传统计算中,操作系统(OS) 管理硬件与软件资源——如 Windows、Linux、macOS、iOS 或 Android。操作系统抽象底层硬件,使终端用户和开发者都能更便捷地使用计算机。

类比之下,0G OS 旨在在 Web3 中扮演同样的角色:

  • 管理 去中心化存储、计算与数据可用性;
  • 简化 链上 AI 应用的部署。

为何去中心化? 传统 AI 系统将数据存储在中心化孤岛,导致数据透明度、用户隐私以及数据提供者报酬等问题。0G 通过去中心化存储、加密证明和开放激励模型来降低这些风险。

“0G” 代表 “Zero Gravity(零重力)”。团队设想一个数据交换与计算“无重量”的环境——从 AI 训练到推理再到数据可用性,都能在链上无缝进行。

0G 基金会 于 2024 年 10 月正式成立,使命是让 AI 成为公共产品,做到可访问、可验证、对所有人开放。

0G 操作系统的关键组件

从根本上看,0G 是为链上 AI 应用量身定制的模块化架构,核心由 三大支柱 组成:

  1. 0G Storage – 去中心化存储网络。
  2. 0G DA(Data Availability) – 专用的数据可用性层,确保数据完整性。
  3. 0G Compute Network – 去中心化计算资源管理与 AI 推理结算(未来还将支持训练)。

这三大支柱在 0G Chain(Layer1 网络)之下协同工作,负责共识与结算。

根据 0G 白皮书(《0G:迈向 Data Availability 2.0》),0G Storage 与 0G DA 均构建在 0G Chain 之上。开发者可以启动多个自定义 PoS 共识网络,每个网络都作为 0G DA 与 0G Storage 框架的一部分。模块化设计意味着系统负载增长时,0G 能动态添加验证者集合或专用节点实现横向扩容。

0G Storage

0G Storage 是面向大规模数据的去中心化存储系统,节点通过激励机制存储用户数据。关键在于使用 纠删码(Erasure Coding,EC) 将数据切分为 更小且冗余的“块”,并分布到不同存储节点。即使某些节点失效,仍可通过冗余块恢复数据。

支持的数据类型

0G Storage 同时支持 结构化非结构化 数据。

  1. 结构化数据 采用 键值(Key-Value,KV)层,适用于动态、频繁更新的信息(如数据库、协作文档等)。
  2. 非结构化数据 采用 日志(Log)层,按时间顺序追加数据,类似于为大规模写入优化的文件系统。

通过在日志层之上叠加 KV 层,0G Storage 能满足从存储大模型权重(非结构化)到实时用户数据或指标(结构化)的多样化 AI 需求。

PoRA 共识

PoRA(Proof of Random Access) 用于验证存储节点真实持有其声称的块。工作原理:

  • 存储矿工定期 被挑战 提交特定随机块的加密哈希。
  • 矿工必须基于本地数据生成有效哈希(类似 PoW 的 puzzle 求解)。

为保证公平,系统将挖矿竞争限制在 8 TB 的分段内。大矿工可将硬件拆分为多个 8 TB 分区,小矿工则在单一 8 TB 边界内竞争。

激励设计

0G Storage 将数据划分为 8 GB 的 “定价段”。每段拥有 捐赠池奖励池。用户存储数据时支付 0G Token(ZG) 费用,部分用于节点奖励。

  • 基础奖励:存储节点提交有效 PoRA 证明后,立即获得该段的区块奖励。
  • 持续奖励:捐赠池每年释放约 4% 到奖励池,激励节点长期存储数据。存储同一段的节点越少,单节点可获得的份额越大。

用户仅需 一次性 支付永久存储费用,但必须设置高于系统最低值的捐赠额。捐赠越高,矿工复制该数据的意愿越强。

版税机制:0G Storage 还引入 “版税” 或 “数据共享” 机制。早期存储提供者为每个数据块创建版税记录。若新节点想存储相同块,原节点可共享数据。当新节点后续通过 PoRA 证明存储时,原数据提供者持续获得版税。数据复制越广,早期提供者的累计奖励越高。

与 Filecoin 与 Arweave 的对比

相似点

  • 三者均激励去中心化数据存储。
  • 0G Storage 与 Arweave 均追求 永久存储
  • 数据切块与冗余是通用做法。

关键差异

  • 原生集成:0G Storage 不是独立区块链,而是直接集成在 0G Chain,主要面向 AI 场景。
  • 结构化数据:0G 支持 KV 型结构化数据,满足 AI 工作负载的读写需求。
  • 成本:0G 声称 $10–11/TB 的永久存储费用,低于 Arweave。
  • 性能定位:专为 AI 吞吐量设计,而 Filecoin、Arweave 更偏向通用去中心化存储。

0G DA(数据可用性层)

数据可用性 确保每个网络参与者都能完整验证并获取交易数据。若数据缺失或被隐藏,区块链的信任假设即告失效。

在 0G 系统中,数据被切块并离链存储。系统记录这些块的 Merkle 根,DA 节点必须 抽样 检查块是否匹配 Merkle 根与纠删码承诺。只有通过抽样验证后,数据才被视为 “可用”,并写入共识状态。

DA 节点选取与激励

  • DA 节点需 质押 ZG 才能参与。
  • 节点通过 VRF(可验证随机函数) 随机分配到 仲裁组(quorum)
  • 每个节点仅验证 数据子集。若 2/3 的仲裁组确认数据可用且正确,则签署证明并聚合提交至 0G 共识网络。
  • 奖励通过周期性抽样分配,仅抽中随机块的节点可获得当轮奖励。

与 Celestia 与 EigenLayer 的比较

0G DA 借鉴 Celestia(数据可用性抽样)和 EigenLayer(再质押)理念,但目标是实现 更高吞吐。Celestia 当前约 10 MB/s,区块时间 12 秒。EigenDA 主要服务于 Layer2,实现较为复杂。0G 设想 GB/s 级别的吞吐,以满足 50–100 GB/s 数据摄入的 AI 大规模工作负载。

0G Compute Network

0G Compute Network 是去中心化计算层,分阶段演进:

  • 阶段 1:聚焦 AI 推理结算。网络在去中心化市场中匹配 “AI 模型买家”(用户)与计算提供者(卖家)。提供者在智能合约中注册服务与价格,用户发起推理请求并支付 ZG,合约完成结算。
  • 后续阶段:将支持链上训练、批处理等更复杂计算。

0G 生态与治理

0G 基金会通过 治理代币 ZG 实现社区共识。持币者可投票决定协议升级、费用模型以及激励参数。生态合作伙伴包括多家链上 AI 项目、去中心化数据市场以及传统 AI 企业。

潜在风险与挑战

  1. 技术实现难度:GB/s 级别的跨链数据抽样、纠删码恢复以及计算结算需要极高的网络同步效率,当前公链网络仍在探索阶段。
  2. 激励经济模型:永久存储的低成本可能导致质押收益不足,进而影响节点参与度。
  3. 监管不确定性:AI 数据涉及隐私与版权,去中心化存储可能面临合规审查。
  4. 竞争格局:其他 DeAI 项目(如 Fetch.ai、SingularityNET)也在同步推进,市场份额尚未明朗。
  5. 用户采纳:AI 开发者是否愿意将模型权重与推理数据迁移至链上仍是未知数。

结论

0G Labs 已成功完成大额融资,并展示了完整的模块化蓝图:从去中心化存储、数据可用性到计算结算,形成了链上 AI 生态的闭环。若技术实现能够达到宣称的 GB/s 吞吐,0G 将在 Web3 上提供前所未有的 AI 扩展能力。然而,当前仍处于早期阶段,关键在于:

  • 验证 PoRADA 抽样 在真实网络规模下的可靠性;
  • 观察 激励池 是否能够持续吸引节点提供长期存储;
  • 监测 市场需求,即链上 AI 推理与训练的实际使用量。

综合来看,0G 的愿景具有创新性且符合去中心化 AI 的长期趋势,但实现路径仍充满技术与经济的不确定性。投资者与开发者应在关注其进展的同时,保持对潜在风险的警惕。