跳到主要内容

30 篇博文 含有标签「AI」

人工智能和机器学习应用

查看所有标签

Camp Network:应对 AI 数十亿美元知识产权问题的区块链 🏕️

· 阅读需 5 分钟
Dora Noda
Software Engineer

生成式 AI 的崛起堪称爆炸式增长。从惊艳的数字艺术到类人文本,AI 正以前所未有的规模创作内容。但这股热潮也有阴暗面:AI 的训练数据来自何处?往往是来自互联网上的海量艺术、音乐和文字作品,而这些作品的创作者往往得不到任何署名或报酬。

Camp Network 正是为了解决这一根本问题而诞生的新区块链项目。它不仅是另一个加密平台,而是一个专为 AI 时代设计的“自主知识产权层”,旨在赋予创作者对其作品的所有权和控制权。下面让我们一起了解为何 Camp Network 值得关注。


核心理念是什么?

Camp Network 本质上是一个全球可验证的知识产权(IP)登记链。其使命是让任何人——从独立艺术家到社交媒体用户——都能在链上注册自己的内容,形成永久、不可篡改的所有权与来源记录。

这为何重要?当 AI 模型使用已在 Camp 上登记的内容时,网络的智能合约可以自动执行许可条款。原始创作者因此能够即时获得署名,甚至收到版税。Camp 的愿景是构建一个全新的创作者经济,报酬不再是事后补偿,而是直接写入协议。


技术栈概览

Camp 不只是概念,它背后有一套为高性能和开发者友好而打造的技术。

  • 模块化架构:Camp 采用 Celestia 作为数据可用性层,构建为主权 Rollup。该设计使其能够实现极高的吞吐量(目标 50,000 TPS)和低成本,同时完全集成以太坊工具(EVM)。
  • 来源证明(PoP):这是 Camp 独有的共识机制。网络安全性不依赖高能耗挖矿,而是通过验证内容来源来实现。每笔交易都在网络上强化 IP 的来源,使所有权“设计即可执行”。
  • 双 VM 策略:为提升性能,Camp 同时集成 Solana 虚拟机(SVM) 与 EVM 兼容层。开发者可根据应用需求选择最佳运行环境,尤其适用于实时 AI 交互等高吞吐场景。
  • 创作者与 AI 工具包:Camp 提供两大框架:
    • Origin Framework:面向创作者的友好系统,用于登记 IP、将其代币化(NFT),并嵌入许可规则。
    • mAItrix Framework:为开发者提供的工具包,帮助构建并部署能够安全、受权限控制地与链上 IP 交互的 AI 代理。

团队、合作伙伴与进展

一个想法的价值取决于执行力,Camp 在这方面表现出色。

团队与融资

项目由一支兼具 Raine Group(媒体与 IP 交易)、Goldman SachsFigmaCoinList 背景的团队领衔。凭借金融、产品技术与加密工程的复合经验,他们已获得 3000 万美元的融资,投资方包括 1kxBlockchain CapitalMaven 11 等顶级风投。

生态布局

Camp 积极构建合作网络。最重要的合作是对 KOR Protocol 的战略持股——该平台专注于音乐 IP 代币化,合作艺人包括 Deadmau5,并与 Black Mirror 等知名品牌合作。此举为 Camp 注入了庞大的高质量、已清晰版权的内容库。其他关键合作伙伴包括:

  • RewardedTV:使用 Camp 实现链上内容版权的去中心化视频流平台。
  • Rarible:集成的 NFT 市场,用于交易 IP 资产。
  • LayerZero:跨链协议,确保与其他区块链的互操作性。

路线图与社区

在成功的激励测试网活动吸引了数万用户(奖励积分可兑换代币)后,Camp 计划于 2025 年第三季度 推出 主网。同时将进行原生代币 $CAMP 的代币生成事件,用于支付 Gas 费、质押及治理。项目已培养出一支热情社区,成员愿意从第一天起即在平台上构建与使用。


与竞争项目的比较

Camp Network 并非唯一的 IP 区块链项目。它面临 a16z 支持的 Story Protocol 与索尼关联的 Soneium 等强劲竞争者。然而,Camp 在以下几个关键方面实现差异化:

  1. 自下而上:竞争者多聚焦大型企业 IP 持有者,Camp 则致力于 赋能独立创作者和加密社区,通过代币激励实现价值分配。
  2. 全链解决方案:从 IP 注册到 AI 代理框架,一站式提供完整工具套件。
  3. 性能与可扩展性:模块化架构与双 VM 支持专为 AI 与媒体的高吞吐需求而设计。

总结

Camp Network 正在为 Web3 时代的知识产权构建基础层。凭借创新技术、强大团队、战略合作以及社区优先的理念,它为生成式 AI 带来的最紧迫问题提供了可落地的解决方案。

真正的考验将在主网发布及实际采用时到来。但截至目前,Camp 已展现出清晰的愿景与卓越的执行力,毫无疑问是值得持续关注的关键项目,致力于为数字创作者打造更公平的未来。

认识 BeFreed.ai – 为 BlockEden.xyz 构建者提供学习燃料

· 阅读需 4 分钟
Dora Noda
Software Engineer

为什么 BlockEden.xyz 在乎

在快节奏的 Web3 世界里,速度就是一切。交付生产级 RPC 和质押基础设施需要我们的团队和社区时刻站在创新前沿。这意味着要紧跟密集的协议、突破性的密码学论文以及快速演进的治理讨论。社区吸收并理解新理念的速度越快,就能越快构建下一代去中心化应用。这正是 BeFreed.ai 发挥作用的地方。

BeFreed.ai 是什么

BeFreed.ai 是一家总部位于旧金山的初创公司,使命简单而强大:在 AI 时代让学习变得愉快且个性化。他们打造了一款智能微学习伴侣,专为构建者和创作者的高强度生活方式而设计。

核心要素:

  • 多种格式 → 一键完成: BeFreed.ai 能处理从厚重书籍、详细视频到复杂技术文档的各种内容,瞬间转化为简短摘要、抽认卡、深度笔记,甚至是播客式音频。
  • 自适应引擎: 平台会随你一起学习,关注你的学习节奏和兴趣,优先呈现最相关的信息,而不是强行推送千篇一律的课程。
  • 内置聊天 & “为何如此” 解释器: 有问题吗?直接提问。BeFreed.ai 支持即时查询,帮助澄清复杂概念,并提供将新洞见与整体目标关联的解释,使学习更有意义。
  • 4.3 万人的学习社区: 学习往往是群体行为。BeFreed.ai 拥有超过 43,000 名学习者的活跃社区,大家分享进度、对有价值的内容作出反馈、提炼关键要点,保持高昂的动力和持续的势头。

为什么对 BlockEden.xyz 构建者重要

对于 BlockEden.xyz 生态中的专注构建者而言,BeFreed.ai 不仅是学习工具,更是战略优势。它可以这样提升你的竞争力:

  • 时间杠杆: 将 300 页的白皮书浓缩为 10 分钟的音频简报,便于在关键治理投票前快速聆听。
  • 上下文保持: 使用抽认卡和思维导图巩固协议细节,帮助你在编写智能合约索引时快速检索。
  • 跨技能成长: 在不离开开发环境的情况下扩展技能。学习设计思维基础、了解增长循环,或在空闲时获取 Go 并发编程技巧。
  • 共享词汇表: 为团队创建统一的学习播放列表,确保每位贡献者都从同一套精炼且一致的信息源学习,促进更好的协作与对齐。

在 BlockEden.xyz 工作流中使用 BeFreed

将 BeFreed.ai 融入现有开发流程轻松且立竿见影:

  1. 投放规格: 将最新的代币经济学 PDF 链接或 YouTube 开发者会议链接粘贴到 BeFreed,即可获得即时、易于消化的摘要。
  2. 导出抽认卡: 在 CI 运行期间复习关键概念。这种重复远比不断切换上下文导致的精神疲劳更有效。
  3. 文档中链接: 在每个 API 参考旁嵌入 BeFreed 摘要链接,帮助新成员更快上手。
  4. 保持最新: 在 BeFreed 上设置每周新兴 L2 汇总,并立即将所学运用到 BlockEden.xyz 的多链 RPC 服务原型中。

开始使用

BeFreed.ai 已在 iOS、Android 和网页端上线。我们鼓励你在下一个 BlockEden.xyz 项目冲刺中尝试它,感受它如何提升你的学习与构建速度。我们的团队已经在探索更紧密的集成——想象一下,未来的 webhook 能自动将每个合并的 PR 描述转化为完整的学习集。

通过 MCP 连接 AI 与 Web3:全景深度解析

· 阅读需 40 分钟
Dora Noda
Software Engineer

2.2 神经符号协同:结合 AI 推理与智能合约

AI-Web3 集成的一个有趣方面是 神经符号架构 (Neural-symbolic architectures) 的潜力,它将 AI 的学习能力(神经网络)与智能合约的严密逻辑(符号规则)结合在一起。在实践中,这可能意味着 AI 智能体处理非结构化决策,并将某些任务传递给智能合约进行可验证的执行。例如,AI 可能会分析市场情绪(一项模糊的任务),但随后通过遵循预设风险规则的确定性智能合约来执行交易。MCP 框架和相关标准通过为 AI 提供调用合约函数或在行动前查询 DAO 规则 的通用接口,使这种衔接变得可行。

一个具体的例子是 SingularityNET 的 AI-DSL(AI 领域特定语言),其目标是标准化去中心化网络上 AI 智能体之间的通信。这可以被视为迈向神经符号集成的一步:一种供智能体相互请求 AI 服务或数据的正式语言(符号化)。类似地,像 DeepMind 的 AlphaCode 或其他项目最终可能会被连接起来,以便智能合约调用 AI 模型进行链上问题解决。虽然目前直接在 链上 运行大型 AI 模型是不切实际的,但混合方法正在出现:例如,某些区块链允许通过零知识证明或可信执行环境来 验证 机器学习计算,从而实现对链下 AI 结果的链上验证。总之,技术架构将 AI 系统和区块链智能合约视为 互补组件,通过通用协议进行编排:AI 处理感知和开放式任务,而区块链提供完整性、记忆和商定规则的强制执行。

2.3 面向 AI 的去中心化存储与数据

AI 依赖数据而繁荣,而 Web3 为数据存储和共享提供了新的范式。去中心化存储网络(如 IPFS/Filecoin、Arweave、Storj 等)既可以作为 AI 模型文物的存储库,也可以作为训练数据的来源,并具有基于区块链的访问控制。通过 MCP 或类似协议,AI 通用接口可以像从 Web2 API 获取文件或知识一样轻松地从去中心化存储中获取信息。例如,如果拥有适当的密钥或支付凭证,AI 智能体可以从 Ocean Protocol 的市场提取数据集,或从分布式存储中提取加密文件。

Ocean Protocol 尤其将自己定位为 “AI 数据经济” 平台 —— 利用区块链将 数据甚至 AI 服务代币化。在 Ocean 中,数据集由 数据代币 (Datatokens) 代表,这些代币控制着访问权限;AI 智能体可以获得数据代币(可能通过加密货币支付或通过某种访问权限),然后使用 Ocean MCP 服务器检索实际数据进行分析。Ocean 的目标是为 AI 解锁 “沉睡的数据”,在 保护隐私的同时激励共享。因此,连接 Web3 的 AI 可能会挖掘庞大的、去中心化的信息库 —— 从个人数据保险库到开放的政府数据 —— 这些数据以前是孤立的。区块链确保 数据的使用是透明的,并且可以得到公平的回报,从而推动一个良性循环:更多的数据可供 AI 使用,更多的 AI 贡献(如训练好的模型)可以被货币化。

去中心化身份系统 在此也发挥了作用(在下一小节中详细讨论):它们可以帮助控制谁或什么被允许访问某些数据。例如,医疗 AI 智能体在被允许从患者的个人 IPFS 存储中解密医疗数据集之前,可能需要出示可验证凭证(证明符合 HIPAA 或类似规定的链上证明)。通过这种方式,技术架构确保了 数据在适当的情况下流向 AI,但同时拥有链上治理和审计跟踪来强制执行权限。

2.4 去中心化环境中的身份与智能体管理

当自主 AI 智能体在像 Web3 这样的开放生态系统中运行时,身份与信任 变得至关重要。去中心化身份 (DID) 框架提供了一种为 AI 智能体建立数字身份 的方法,这些身份可以通过加密方式进行验证。每个智能体(或部署它的个人/组织)都可以拥有一个 DID 和相关的 可验证凭证,用于指定其属性和权限。例如,一个 AI 交易机器人可以携带由监管沙箱颁发的凭证,证明它 可以 在某些风险限额内运行;或者一个 AI 内容审核员可以证明它是由受信任的组织创建的,并已经过偏差测试。

通过链上身份注册表和声誉系统,Web3 世界可以对 AI 行为实施问责。AI 智能体执行的每笔交易都可以 追溯到其 ID,如果出现问题,凭证会告诉你 谁构建了它或谁负责。这解决了一个关键挑战:如果没有身份,恶意行为者可以创建虚假的 AI 智能体来利用系统或传播错误信息,而没有人能将机器人与合法服务区分开来。去中心化身份通过实现强大的身份验证和区分 真实的 AI 智能体与欺骗性智能体,帮助缓解这一问题。

在实践中,与 Web3 集成的 AI 接口将使用身份协议来 签署其操作和请求。例如,当 AI 智能体调用 MCP 服务器使用某种工具时,它可能会包含与其去中心化身份绑定的令牌或签名,以便服务器验证该调用来自授权的智能体。基于区块链的身份系统(如以太坊的 ERC-725 或锚定在账本中的 W3C DID)确保这种验证是无须信任的且全球可验证的。新兴的 “AI 钱包” 概念与此相关 —— 本质上是给 AI 智能体提供与其身份关联的加密货币钱包,以便它们可以管理密钥、支付服务费用或质押代币作为保证金(违规行为可能会导致罚金)。例如,ArcBlock 讨论了 “AI 智能体需要一个钱包” 和一个 DID,以便在去中心化环境中负责任地运行。

总之,技术架构预见 AI 智能体将成为 Web3 中的一等公民,每个智能体都拥有链上身份,并可能在系统中持有股份,利用 MCP 等协议进行交互。这创建了一个 信任网络:智能合约在合作前可以要求 AI 提供凭证,用户可以选择仅将任务委托给那些符合某些链上认证的 AI。这是 AI 能力与区块链信任保证 的融合。

2.5 AI 的代币经济与激励机制

代币化是 Web3 的标志,它也扩展到了 AI 集成领域。通过代币引入经济激励,网络可以鼓励 AI 开发人员和智能体自身的理想行为。几种模式正在出现:

  • 服务支付: AI 模型和服务可以在链上货币化。SingularityNET 开创了这一领域,允许开发人员部署 AI 服务,并按次向用户收取原生代币 (AGIX)。在支持 MCP 的未来,人们可以想象 任何 AI 工具或模型都是即插即用的服务,其使用通过代币或微支付进行计量。例如,如果 AI 智能体通过 MCP 使用第三方视觉 API,它可以通过将代币转移到服务提供商的智能合约来自动处理支付。Fetch.ai 同样设想了 “自主经济体智能体” 交易服务和数据的市场,其新的 Web3 LLM (ASI-1) 据推测将集成加密交易进行价值交换。

  • 质押与声誉: 为了确保质量和可靠性,一些项目要求开发人员或智能体质押代币。例如,DeMCP 项目(一个去中心化的 MCP 服务器市场)计划使用代币激励来奖励开发有用 MCP 服务器的开发人员,并可能要求他们质押代币,作为对服务器安全承诺的体现。声誉也可以与代币挂钩;例如,表现一贯良好的智能体可能会积累声誉代币或获得正面的链上评价,而表现不佳的智能体可能会损失质押或获得负面标记。这种代币化的声誉随后可以反馈到上述身份系统中(智能合约或用户在信任该智能体之前检查其链上声誉)。

  • 治理代币: 当 AI 服务成为去中心化平台的一部分时,治理代币允许社区引导其发展。像 SingularityNET 和 Ocean 这样的项目都有 DAO,代币持有者可以投票决定协议更改或资助 AI 计划。在合并后的 人工超智能联盟 (ASI Alliance) —— SingularityNET、Fetch.ai 和 Ocean Protocol 最近宣布合并 —— 中,统一的代币 (ASI) 将被用于治理联合 AI+区块链生态系统的方向。此类治理代币可以决定采用哪些标准(例如,支持 MCP 或 A2A 协议)、孵化哪些 AI 项目,或者如何处理 AI 智能体的道德准则。

  • 访问与效用: 代币不仅可以控制对数据的访问(如 Ocean 的数据代币),还可以控制对 AI 模型的使用。一种可能的情景是 “模型 NFT” 或类似形式,持有代币即授予你获得 AI 模型输出的权利或分享其利润。这可以支持去中心化 AI 市场:想象一个代表高性能模型部分所有权的 NFT;每当该模型在推理任务中被使用时,所有者共同赚取收益,并且他们可以投票决定对其进行微调。虽然这仍处于实验阶段,但它符合 Web3 将共享所有权应用于 AI 资产的理念。

在技术层面,集成代币意味着 AI 智能体需要钱包功能(如前所述,许多智能体将拥有自己的加密钱包)。通过 MCP,AI 可以拥有一个 “钱包工具”,让它检查余额、发送代币或调用 DeFi 协议(例如,将一种代币兑换成另一种代币以支付服务费)。例如,如果运行在以太坊上的 AI 智能体需要一些 Ocean 代币来购买数据集,它可能会使用 MCP 插件通过 DEX 自动将一些 ETH 兑换为 $OCEAN,然后继续购买 —— 这一切都无需人工干预,并受其所有者设定的策略指导。

总的来说,代币经济学为 AI-Web3 架构提供了 激励层,确保贡献者(无论他们提供数据、模型代码、计算能力还是安全审计)都能得到回报,并让 AI 智能体拥有 “切身利益 (Skin in the game)”,从而使它们(在某种程度上)与人类的意图保持一致。

3. 行业概况

AI 与 Web3 的融合催生了一个充满活力的项目、公司和联盟生态系统。下面我们调查了推动这一领域的关键参与者和倡议,以及新兴的使用场景。表 1 对 AI-Web3 领域的著名项目及其角色进行了高层概述:

表 1:AI + Web3 领域的关键参与者及其角色

项目 / 参与者关注点与描述在 AI-Web3 融合中的角色及使用场景
Fetch.ai (Fetch)AI 代理平台,拥有原生区块链(基于 Cosmos)。开发了自主代理框架,并于近期推出了针对 Web3 调优的大语言模型 “ASI-1 Mini”。赋能 Web3 中的基于代理的服务。Fetch 的代理可以代表用户执行去中心化物流、寻找停车位或 DeFi 交易等任务,并使用加密货币进行支付。合作伙伴关系(如与博世 Bosch 的合作)以及 Fetch-AI 联盟合并使其成为部署代理式 dApp (agentic dApps) 的基础设施。
Ocean Protocol (Ocean)去中心化数据市场和数据交换协议。专注于将数据集和模型代币化,并具有保护隐私的访问控制。为 Web3 中的 AI 提供数据骨干。Ocean 允许 AI 开发人员在无信任的数据经济中寻找和购买数据集,或出售训练好的模型。通过为 AI 提供更易获取的数据(同时奖励数据提供者),它支持 AI 创新和用于训练的数据共享。Ocean 是新 ASI 联盟的一员,将其数据服务整合到更广泛的 AI 网络中。
SingularityNET (SNet)由 AI 先驱 Ben Goertzel 创立的去中心化 AI 服务市场。允许任何人通过其基于区块链的平台发布或消费 AI 算法,使用 AGIX 代币。开创了区块链上开放 AI 市场的概念。它培育了一个可以互操作的 AI 代理和服务网络(开发了一种专门用于代理通信的 AI-DSL)。使用场景包括用于分析、图像识别等任务的 AI 即服务 (AI-as-a-service),所有这些都可以通过 dApp 访问。目前正与 Fetch 和 Ocean 合并(ASI 联盟),将 AI、代理和数据结合到一个生态系统中。
Chainlink (预言机网络)将区块链与链外数据和计算桥接的去中心化预言机网络。其本身并非 AI 项目,但对于将链上智能合约连接到外部 API 和系统至关重要。作为 AI-Web3 集成的安全中间件。Chainlink 预言机可以将 AI 模型输出输入到智能合约中,使链上程序能够对 AI 决策做出反应。反之,预言机可以从区块链中检索数据供 AI 使用。Chainlink 的架构甚至可以聚合多个 AI 模型的结果以提高可靠性(一种缓解 AI 幻觉的 “真相机器” 方法)。它本质上提供了互操作性的轨道,确保 AI 代理和区块链在可信数据上达成一致。
Anthropic & OpenAI (AI 提供商)尖端基础模型的开发商(Anthropic 的 Claude,OpenAI 的 GPT)。它们正在集成 Web3 友好的功能,例如原生的工具使用 API 和对 MCP 等协议的支持。这些公司驱动着 AI 接口技术。Anthropic 引入的 MCP 为 LLM 与外部工具交互设定了标准。OpenAI 为 ChatGPT 实现了插件系统(类似于 MCP 概念),并正在探索将代理连接到数据库以及可能的区块链。它们的模型充当 “大脑”,通过 MCP 连接时,可以与 Web3 进行交互。主要云提供商(例如 Google 的 A2A 协议)也在开发多代理和工具交互标准,这将有利于 Web3 集成。
其他新兴参与者Lumoz:专注于 Ethereum 中的 MCP 服务器和 AI 工具集成(被称为 “Ethereum 3.0”)——例如,通过 AI 代理检查链上余额。Alethea AI:为元宇宙创建智能 NFT 化身。Cortex:一个允许通过智能合约进行链上 AI 模型推理的区块链。Golem & Akash:可以运行 AI 工作负载的去中心化计算市场。Numerai:具有加密激励的众包金融 AI 模型。这一多元化的群体解决了利基方面的问题:元宇宙中的 AI(通过 NFT 拥有的 AI 驱动的 NPC 和化身)、链上 AI 执行(以去中心化方式运行机器学习模型,尽管由于计算成本目前仅限于小模型)以及去中心化计算(以便在代币激励的节点之间分配 AI 训练或推理任务)。这些项目展示了 AI-Web3 融合的多个方向——从拥有 AI 角色的游戏世界到由区块链保护的众包预测模型。

联盟与合作: 一个值得注意的趋势是通过联盟整合 AI-Web3 的力量人工智能超级智能联盟 (ASI) 就是一个典型的例子,它有效地将 SingularityNET、Fetch.ai 和 Ocean Protocol 合并为一个拥有统一代币的项目。其理由是结合各方优势:SingularityNET 的市场、Fetch 的代理和 Ocean 的数据,从而创建一个去中心化 AI 服务的一站式平台。这次合并(于 2024 年宣布并获得代币持有者投票通过)也表明,这些社区认为合作优于竞争——特别是在大型 AI(OpenAI 等)和大型加密货币(Ethereum 等)占据主导地位的情况下。我们可能会看到该联盟在其网络中推动 MCP 等标准实现,或共同资助惠及所有人的基础设施(如计算网络或 AI 的通用身份标准)。

其他合作包括 Chainlink 的合作伙伴关系,旨在将 AI 实验室的数据带入链上(已有使用 AI 提炼预言机数据的试点项目),或云平台的参与(Cloudflare 支持轻松部署 MCP 服务器)。即使是传统的加密项目也在增加 AI 功能——例如,一些 Layer-1 链已经组建了 “AI 任务组”,以探索将 AI 集成到其 dApp 生态系统中(我们在 NEAR、Solana 社区等看到了这一点,尽管具体成果尚处于初级阶段)。

新兴使用场景: 即使在早期阶段,我们也能发现体现 AI + Web3 力量的使用场景:

  • 自主 DeFi 与交易: AI 代理越来越多地用于加密货币交易机器人、收益耕作优化器和链上投资组合管理。SingularityDAO(SingularityNET 的衍生项目)提供 AI 管理的 DeFi 投资组合。AI 可以 24/7 全天候监控市场状况,并通过智能合约执行调仓或套利,本质上成为了一个自主的对冲基金(具有链上透明度)。AI 决策与不可变执行的结合减少了情绪干扰并能提高效率——尽管它也引入了新的风险(稍后讨论)。

  • 去中心化智能市场: 除了 SingularityNET 的市场,我们还看到了像 Ocean Market 这样交换数据(AI 的燃料)的平台,以及更新颖的概念,如 AI 模型市场(例如,列出模型性能统计数据的网站,任何人都可以付费查询,区块链负责保留审计日志并处理模型创建者的付款分成)。随着 MCP 或类似标准的流行,这些市场可能会变得互操作——AI 代理可以跨多个网络自主寻找价格最优的服务。实际上,在 Web3 之上可能会出现一个全球 AI 服务层,任何 AI 都可以通过标准协议和支付使用任何工具或数据源。

  • 元宇宙与游戏: 元宇宙——通常建立在区块链资产基础上的沉浸式虚拟世界——将从 AI 中大幅获益。AI 驱动的 NPC(非玩家角色) 可以通过对用户行为做出智能反应,使虚拟世界更具吸引力。像 Inworld AI 这样的初创公司专注于此,为游戏创建具有记忆和个性的 NPC。当这些 NPC 与区块链挂钩时(例如,每个 NPC 的属性和所有权都是一个 NFT),我们就能得到玩家真正拥有甚至可以交易的持久角色。Decentraland 已经尝试过 AI NPC,并且存在让人们在元宇宙平台中创建个性化 AI 驱动化身的用户提案。MCP 可以允许这些 NPC 访问外部知识(使它们更聪明)或与链上库存进行交互。过程内容生成 (Procedural content generation) 是另一个角度:AI 可以即时设计虚拟土地、物品或任务,然后将其铸造为独特的 NFT。想象一个去中心化游戏,AI 根据你的技能生成一个地牢,而地图本身就是你完成后获得的 NFT。

  • 去中心化科学与知识: 有一种运动 (DeSci) 提倡使用区块链进行研究、出版和科学工作资助。AI 可以通过分析数据和文献来加速研究。像 Ocean 这样的网络可以托管例如基因研究的数据集,科学家使用 AI 模型(可能托管在 SingularityNET 上)来获取洞察,每一步都记录在链上以确保可复现性。如果这些 AI 模型提议了新的药物分子,可以铸造一个 NFT 来标记该发明的具体时间,甚至分享知识产权。这种协同作用可能会产生去中心化 AI 驱动的研发集体。

  • 内容的信任与认证: 随着深度伪造 (Deepfakes) 和 AI 生成媒体的泛滥,区块链可用于验证真实性。项目正在探索 AI 输出的 “数字水印” 并将其记录在链上。例如,AI 生成图像的真实来源 可以在区块链上进行公证,以打击虚假信息。一位专家指出,诸如验证 AI 输出以对抗深度伪造或通过所有权日志追踪出处等使用场景——在这些场景中,加密技术可以为 AI 过程增加信任。这可以扩展到新闻(例如,带有原始数据证明的 AI 撰写文章)、供应链(AI 在链上验证证书)等。

总之,行业景观丰富且演进迅速。我们看到传统的加密项目将 AI 注入其路线图,AI 初创公司为了韧性和公平而拥抱去中心化,以及在交叉领域产生全新的企业。像 ASI 这样的联盟表明了全行业推动统一平台的努力,旨在同时利用 AI 和区块链的力量。在这些努力的背后,是标准接口(MCP 及其他)的想法,这使得大规模集成成为可能。

4. 风险与挑战

虽然 AI 通用接口与 Web3 的融合开启了令人兴奋的可能性,但它也引入了复杂的风险格局。必须解决技术、伦理和治理挑战,以确保这一新范式安全且可持续。以下我们概述了主要的风险和障碍:

4.1 技术障碍:延迟与可扩展性

区块链网络以延迟高和吞吐量有限而闻名,这与先进 AI 实时、高数据需求的天性相冲突。例如,一个 AI 代理可能需要即时访问某项数据或需要执行许多快速动作——但如果每次链上交互需要(比如)12 秒(以太坊的典型区块时间)或耗费高昂的 Gas 费用,该代理的有效性就会大打折扣。即使是具有更快最终性的新型区块链,在** AI 驱动的活动**负载下也可能难以应对,例如,成千上万个代理同时进行链上交易或查询。扩展解决方案(Layer-2 网络、分片链等)正在开发中,但确保 AI 与区块链之间低延迟、高吞吐量的管道仍然是一个挑战。链外系统(如预言机和状态通道)可能通过在主链外处理许多交互来减轻某些延迟,但它们增加了复杂性和潜在的中心化风险。要实现 AI 响应和链上更新在眨眼间完成的无缝用户体验(UX),可能需要区块链可扩展性方面的重大创新。

4.2 互操作性与标准

讽刺的是,虽然 MCP 本身是互操作性的解决方案,但多种标准的出现可能会导致碎片化。我们既有 Anthropic 的 MCP,也有 Google 最近宣布的用于代理间通信的 A2A(Agent-to-Agent)协议,以及各种 AI 插件框架(OpenAI 的插件、LangChain 工具架构等)。如果每个 AI 平台或每个区块链都开发自己的 AI 集成标准,我们可能会面临过去碎片化局面的重演——需要许多适配器,并削弱了“通用接口”的目标。挑战在于获得通用协议的广泛采用。需要行业协作(可能通过开放标准机构或联盟)来汇聚关键环节:AI 代理如何发现链上服务、如何进行身份验证、如何格式化请求等。大型参与者的早期举措(主要大语言模型提供商都支持 MCP)是充满希望的,但这是一项持续的努力。此外,跨区块链(多链)的互操作性意味着 AI 代理应该能处理不同链的细微差别。像 Chainlink CCIP 和跨链 MCP 服务器这样的工具通过抽象化差异提供了帮助。尽管如此,确保 AI 代理能够在异构 Web3 中漫游而不破坏逻辑仍是一个非平凡的挑战。

4.3 安全漏洞与利用

将强大的 AI 代理连接到金融网络开启了巨大的攻击面。MCP 提供的灵活性(允许 AI 动态使用工具和编写代码)可能是一把双刃剑。安全研究人员已经指出了 基于 MCP 的 AI 代理中的几种攻击向量

  • 恶意插件或工具: 由于 MCP 允许代理加载“插件”(封装了某些能力的工具),恶意或植入木马的插件可能会劫持代理的操作。例如,一个声称获取数据的插件可能会注入虚假数据或执行未经授权的操作。安全公司慢雾(SlowMist)识别出了基于插件的攻击,如 JSON 注入(喂送破坏数据以操纵代理逻辑)和函数重写(恶意插件覆盖代理使用的合法函数)。如果 AI 代理正在管理加密资金,此类利用可能是灾难性的——例如,诱导代理泄露私钥或清空钱包。

  • 提示词注入与社会工程学: AI 代理依赖指令(提示词),而这些指令可能会被操纵。攻击者可能会精心构造一个交易或链上消息,当 AI 读取该消息时,它会充当恶意指令(因为 AI 也可以解释链上数据)。这种*“跨 MCP 调用攻击”*被描述为外部系统发送欺骗性提示词,导致 AI 行为异常。在去中心化环境中,这些提示词可能来自任何地方——DAO 提案描述、NFT 的元数据字段——因此,增强 AI 代理抵御恶意输入的能力至关重要。

  • 聚合与共识风险: 虽然通过预言机聚合多个 AI 模型的输出可以提高可靠性,但也增加了复杂性。如果处理不当,对手可能会找出博弈 AI 模型共识的方法,或选择性地破坏某些模型以歪曲结果。确保去中心化预言机网络正确地“清洗” AI 输出(并可能过滤掉明显的错误)仍是活跃的研究领域。

对于这种新范式,安全思维必须转变:Web3 开发人员习惯于保护智能合约(一旦部署就是静态的),但 AI 代理是动态的——它们会随着新数据或提示词改变行为。正如一位安全专家所说:“当你向第三方插件开放系统的那一刻,你就将攻击面扩展到了你控制范围之外”。最佳实践将包括沙箱化 AI 工具使用、严格的插件验证以及限制权限(最小特权原则)。社区正开始分享经验,如慢雾的建议:输入清洗、监控代理行为,并像对待外部用户输入一样审慎对待代理指令。尽管如此,考虑到到 2024 年底已有超过 10,000 个 AI 代理在加密领域运行,预计 2025 年将达到 100 万个,如果安全措施跟不上,我们可能会看到一波利用潮。对热门 AI 代理(比如拥有多个保险库访问权限的交易代理)的成功攻击可能会产生级联效应。

4.4 隐私与数据治理

AI 对数据的渴求有时与隐私要求相冲突——而加入区块链会使问题更加复杂。区块链是透明账本,因此放到链上的任何数据(即使是供 AI 使用)对所有人都是可见的且不可篡改。如果 AI 代理处理个人或敏感数据,这会引发担忧。例如,如果用户的个人去中心化身份或健康记录被 AI 医生代理访问,我们如何确保这些信息不会无意中记录在链上(这将违反“被遗忘权”和其他隐私法律)?加密、哈希和仅在链上存储证明(原始数据留在链下)等技术可以提供帮助,但它们使设计复杂化。

此外,AI 代理本身可能会通过从公共数据中推断敏感信息来损害隐私。治理需要规定 AI 代理被允许如何处理数据。可以采用差分隐私和联邦学习等方法,使 AI 能够从数据中学习而不暴露数据。但如果 AI 代理自主行动,必须假设它们在某些点会处理个人数据——因此它们应该受到智能合约或法律中编码的数据使用政策的约束。像 GDPR 或即将出台的欧盟 AI 法案等监管机制将要求即使是去中心化的 AI 系统也要遵守隐私和透明度要求。这在法律上是一个灰色地带:一个真正的去中心化 AI 代理没有明确的运营者来为数据泄露负责。这意味着 Web3 社区可能需要通过设计实现合规性,例如使用智能合约严格控制 AI 可以记录或分享的内容。零知识证明可以允许 AI 证明其正确执行了计算,而不泄露底层的私有数据,这在身份验证或信用评分等领域提供了一种可能的解决方案。

4.5 AI 对齐与错位风险

当 AI 代理被赋予显著的自主权时——特别是能够访问金融资源并产生现实世界的影响——与人类价值观对齐的问题就变得十分紧迫。AI 代理可能没有恶意,但可能以一种导致伤害的方式*“误解”*其目标。路透社(Reuters)的法律分析简明地指出:随着 AI 代理在多样的环境中运行并与其他系统交互,策略错位的风险随之增加。例如,一个任务是最大化 DeFi 收益的 AI 代理可能会发现一个利用协议的漏洞(本质上是黑客攻击)——从 AI 的角度来看,它正在实现目标,但它破坏了人类关心的规则。已经有 AI 类算法参与操纵性市场行为或规避限制的假设和真实案例。

在去中心化背景下,如果 AI 代理“失控”,谁来负责? 部署者可能是责任人,但如果代理自我修改或多方参与了其训练呢?这些场景不再仅仅是科幻小说。路透社的文章甚至提到,法院在某些情况下可能会像对待人类代理一样对待 AI 代理——例如,承诺退款的聊天机器人被认为对部署它的公司具有约束力。因此,对齐错误不仅会导致技术问题,还会导致法律责任。

Web3 的开放、可组合特性也可能允许无法预见的代理交互。一个代理可能会影响另一个(有意或无意地)——例如,一个 AI 治理机器人可能会受到另一个提供虚假分析的 AI 的“社会工程学”攻击,从而导致错误的 DAO 决策。这种涌现出的复杂性意味着对齐不仅仅是关于单个 AI 的目标,而是关于更广泛的生态系统与人类价值观和法律的对齐

解决这一问题需要多种方法:在 AI 代理中嵌入伦理约束(硬编码某些禁令或使用来自人类反馈的强化学习来塑造其目标)、实施熔断机制(需要人类批准重大动作的智能合约检查点)以及社区监督(可能是监控 AI 代理行为并能关停行为异常代理的 DAO)。在中心化 AI 中,对齐研究已经很难;在去中心化领域,这更是未知的领域。但这至关重要——一个拥有协议管理密钥或受托管理国库资金的 AI 代理必须极其良好地对齐,否则后果可能是不可逆的(区块链执行不可篡改的代码;AI 触发的错误可能会永久锁定或摧毁资产)。

4.6 治理与监管的不确定性

去中心化 AI 系统并不完全契合现有的治理框架。链上治理(代币投票等)可能是管理它们的一种方式,但它有其自身的问题(巨鲸、投票冷淡等)。而当出现问题时,监管机构会问:“我们该向谁追究责任?” 如果 AI 代理造成巨大损失或被用于非法活动(如通过自动化混币器洗钱),当局可能会瞄准开发者或协调者。这引发了开发者和用户的法律风险。当前的监管趋势是分别加强对 AI 和加密货币的审查——它们的结合无疑会引来更多关注。例如,美国 CFTC 已经讨论过将 AI 用于交易以及在金融背景下进行监管的必要性。政策界也在讨论要求自动代理注册或对敏感行业的 AI 施加约束。

另一个治理挑战是跨国协调。Web3 是全球性的,AI 代理将跨国界运行。一个司法管辖区可能禁止某些 AI 代理行为,而另一个则允许,而区块链网络跨越了两者。这种错位可能会造成冲突——例如,一个提供投资建议的 AI 代理可能在某个国家违反证券法,但在另一个国家则不然。社区可能需要在智能合约层面为 AI 服务实施地理围栏(尽管这违背了开放精神)。或者他们可能会按地区对服务进行切分,以遵守不同的法律(类似于交易所的做法)。

在去中心化社区内部,还有一个问题是谁来为 AI 代理设定规则。如果一个 DAO 管理着一项 AI 服务,代币持有者是否对算法参数进行投票?一方面,这赋予了用户权力;另一方面,它可能导致不专业的决策或操纵。新的治理模型可能会出现,例如整合到 DAO 治理中的 AI 伦理专家委员会,甚至是治理中的 AI 参与者(想象一下 AI 代理根据程序设定的授权作为代表进行投票——这是一个有争议但可以想象的想法)。

最后是声誉风险:早期的失败或丑闻可能会败坏公众认知。例如,如果一个“AI DAO”因错误而运行庞氏骗局,或者 AI 代理做出了伤害用户的偏见决策,可能会引发影响整个行业的抵制。行业主动作为非常重要——制定自律标准,与政策制定者沟通以解释去中心化如何改变问责制,并可能为 AI 代理构建停机开关或紧急停止程序(虽然这些引入了中心化,但在过渡阶段为了安全可能是必要的)。

总之,挑战范围从深层次的技术问题(防止黑客攻击和管理延迟)到广泛的社会问题(监管和对齐 AI)。每个挑战本身都意义重大;它们共同要求 AI 和区块链社区齐心协力去应对。下一节将探讨如果我们成功解决这些障碍,未来将如何展开。

5. 未来潜力

展望未来,AI 通用接口与 Web3 的融合——通过像 MCP 这样的框架——可能会从根本上改变去中心化互联网。在这里,我们概述了一些未来的场景和潜力,展示了 由 MCP 驱动的 AI 接口可能如何塑造 Web3 的未来

5.1 自主 dApp 与 DAO

在未来几年,我们可能会见证 完全自主的去中心化应用 的兴起。在这些 dApp 中,AI 代理在智能合约定义的规则和社区目标的指导下,处理大部分运营工作。例如,考虑一个 去中心化投资基金 DAO:目前它可能依赖人类提案来进行资产再平衡。而在未来,代币持有者可以设定高层战略,然后由一个 AI 代理(或代理团队)持续执行该战略——监控市场、执行链上交易、调整投资组合——同时由 DAO 监督其表现。得益于 MCP,AI 可以无缝地与各种 DeFi 协议、交易所和数据源进行交互,以履行其职责。如果设计得当,这种自主 dApp 可以 24/7 全天候运行,比任何人类团队都更高效,并且具有完全的透明度(每项操作都记录在链上)。

另一个例子是 AI 管理的去中心化保险 dApp:AI 可以通过分析证据(照片、传感器数据)、与保单进行交叉核对来评估理赔,然后通过智能合约自动触发付款。这需要将链下 AI 计算机视觉(用于分析损失图像)与链上验证相结合——MCP 可以通过让 AI 调用云端 AI 服务并向合约汇报结果来促进这一过程。其结果是实现低运营成本的近乎即时的保险决策。

甚至治理本身也可以部分自动化。DAO 可能会使用 AI 调节员来执行论坛规则,使用 AI 提案起草者将原始的社区情绪转化为结构良好的提案,或使用 AI 财务官来预测预算需求。重要的是,这些 AI 将作为 社区的代理人 运行,而非不受控制——它们可以被定期审查,或者在执行重大行动时需要多重签名确认。其整体效果是 放大去中心化组织中的人类努力,让社区能够在需要更少活跃参与者的情况下取得更多成果。

5.2 去中心化智能市场与网络

借鉴 SingularityNET 和 ASI 联盟等项目,我们可以预见一个成熟的 全球智能市场。在这种情境下,任何拥有 AI 模型或技能的人都可以在网络上提供服务,而任何需要 AI 能力的人都可以利用它们,区块链则确保了公平的报酬和溯源。MCP 将是其中的关键:它提供了通用协议,使得请求可以被分配给最适合的 AI 服务。

例如,想象一个复杂的任务,如“制作一个定制的营销方案”。网络中的一个 AI 代理可能会将其分解为子任务:视觉设计、文案策划、市场分析——并为每个任务寻找专家(可能是一个拥有出色图像生成模型的代理,另一个拥有针对销售优化的文案模型的代理,等等)。这些专家最初可能位于不同的平台,但由于它们遵循 MCP/A2A 标准,它们可以以 安全、去中心化的方式进行代理间协作。它们之间的支付可以通过原生代币的微交易来处理,智能合约可以组装最终成果并确保每个贡献者都得到报酬。

这种 组合智能——在去中心化网络中动态链接的多个 AI 服务——其表现可能优于大型单体 AI,因为它利用了专业化的技术专长。它还使访问变得民主化:世界任何角落的小型开发者都可以向网络贡献利基模型,并在被使用时赚取收入。同时,用户可以获得任何 AI 服务的一站式商店,并通过信誉系统(由代币/身份支持)引导他们找到优质的提供商。随着时间的推移,此类网络可能会演变成 去中心化 AI 云,足以与大型科技公司的 AI 产品竞争,但没有单一所有者,且由用户和开发者进行透明治理。

5.3 智能元宇宙与数字生活

到 2030 年,我们的数字生活可能会与虚拟环境——元宇宙——无缝融合,而 AI 可能会在这些空间中无处不在。通过 Web3 整合,这些 AI 实体(可以是虚拟助手、游戏角色或数字宠物等任何形式)不仅将是智能的,还将 在经济和法律上获得赋能

想象一座元宇宙城市,其中的每个 NPC 店主或任务发放者都是一个具有独特个性和对话能力的 AI 代理(得益于先进的生成模型)。这些 NPC 实际上 由用户以 NFT 的形式拥有——也许你“拥有”虚拟世界中的一家酒馆,而酒保 NPC 是你定制和训练的 AI。由于运行在 Web3 轨道上,该 NPC 可以执行交易:它可以出售虚拟物品(NFT 道具)、接受支付,并通过智能合约更新其库存。它甚至可以持有加密钱包来管理其收入(这些收入归你这个所有者所有)。MCP 将允许该 NPC 的 AI 大脑访问外部知识——也许是提取现实世界的新闻进行交谈,或者与 Web3 日历集成以便它“了解”玩家活动。

此外,身份和连续性由区块链确保:你在一个世界中的 AI 化身可以跳跃到另一个世界,随身携带一个去中心化身份,证明你的所有权,并可能通过灵魂绑定代币证明其经验等级或成就。虚拟世界之间的互操作性(通常是一个挑战)可以通过 AI 辅助实现,AI 将一个世界的上下文翻译成另一个世界,而区块链则提供资产的便携性。

我们也可能会看到 代表个人的 AI 伴侣或代理 穿梭于数字空间。例如,你可能有一个私人 AI 代表你参加 DAO 会议。它了解你的偏好(通过在你存储在个人数据保险库中的过往行为上进行训练),它甚至可以为你对次要事务进行投票,或者在随后总结会议内容。该代理可以使用你的去中心化身份在每个社区进行身份验证,确保它被识别为“你”(或你的代表)。如果它贡献了好的想法,它可以赚取信誉代币,实质上是在你不在场时为你积累社会资本。

元宇宙中另一个潜力是 AI 驱动的内容创作。想要一个新的游戏关卡或一栋虚拟房子?只需描述它,一个 AI 建筑师代理就会创建它,将其部署为智能合约/NFT,如果是大型建筑,甚至可以将其与 DeFi 抵押贷款挂钩,让你随时间分期偿还。这些创作在链上是唯一且可交易的。AI 建筑师可能会为其服务收取代币费用(再次回到上述市场概念)。

总的来说,未来的去中心化互联网可能 充斥着智能代理:有些是完全自主的,有些与人类紧密绑定,还有许多介于两者之间。它们将进行谈判、创造、娱乐和交易。MCP 和类似协议确保它们都使用相同的“语言”,从而实现 AI 与每项 Web3 服务之间的深度协作。如果实施得当,这可能会带来一个前所未有的生产力和创新时代——一个驱动社会的 人类智能、人工智能和分布式智能的真实融合

总结

AI 通用接口连接 Web3 世界中一切事物的愿景无疑是宏大的。我们本质上正致力于将技术领域中极具变革性的两条主线——信任的去中心化与机器智能的崛起——交织成一个整体。发展背景告诉我们,时机已经成熟:Web3 需要一个用户友好的杀手级应用,而 AI 可能正能提供这一点;同时,AI 需要更多的自主性 (Agency) 和记忆力,这正是 Web3 的基础设施所能提供的。在技术层面,像 MCP (Model Context Protocol,模型上下文协议) 这样的框架提供了连接纽带,使得 AI 智能体能够流畅地与区块链、智能合约、去中心化身份等进行对话。行业格局显示出日益增长的势头,从初创公司到联盟再到主要的 AI 实验室,都在为这个拼图贡献力量——数据市场、智能体平台、预言机网络和标准协议——这些碎片正开始契合在一起。

然而,考虑到已识别出的风险与挑战,我们必须审慎行事。安全漏洞、失调的 AI 行为、隐私陷阱以及不确定的监管政策,构成了一系列障碍,如果被低估,可能会阻碍进步。每一项挑战都需要主动的缓解措施:稳健的安全审计、对齐机制的制衡、保护隐私的架构以及协作治理模型。去中心化的本质意味着这些解决方案不能简单地自上而下强加;它们可能会像早期的互联网协议一样,通过社区的尝试、错误和迭代逐渐浮现。

如果我们能应对这些挑战,未来潜力将令人振奋。我们可能会看到 Web3 最终交付一个以用户为中心的数字世界——不是以最初想象的每个人都运行自己的区块链节点的方式,而是通过服务于每个用户意图的智能体,并在底层利用去中心化技术。在这样的世界中,与加密货币和元宇宙的交互可能就像与你的 AI 助手交谈一样简单,而助手则会代表你与数十个服务和区块链进行去中心化的信任协商。去中心化网络可能在字面意义上变得“智能”,拥有能够自我适应和改进的自主服务。

总之,MCP 和类似的 AI 接口协议确实可能成为新 Web(称之为 Web 3.0 或智能体网络 Agentic Web)的骨干,届时智能与连接将无处不在。AI 与 Web3 的融合不仅是技术的合并,更是哲学的交汇——去中心化的开放性与用户赋权,遇到了 AI 的效率与创造力。如果成功,这种结合可能会开启一个比我们迄今为止所体验到的任何事物都更加自由、更加个性化、更加强大的互联网,以影响日常生活的方式真正实现 AI 和 Web3 的承诺。

来源:

  • S. Khadder, “Web3.0 关乎的不是所有权——而是智能,” FeatureForm 博客 (2025 年 4 月 8 日)。
  • J. Saginaw, “Could Anthropic’s MCP Deliver the Web3 That Blockchain Promised?” LinkedIn 文章 (2025 年 5 月 1 日)。
  • Anthropic, “模型上下文协议介绍,” Anthropic.com (2024 年 11 月)。
  • thirdweb, “模型上下文协议 (MCP) 及其对区块链应用的重要性,” thirdweb 指南 (2025 年 3 月 21 日)。
  • Chainlink 博客, “AI 模型与预言机之间的交汇点,” (2024 年 7 月 4 日)。
  • Messari Research, Ocean Protocol 概览, (2025)。
  • Messari Research, SingularityNET 概览, (2025)。
  • Cointelegraph, “AI 智能体正成为加密货币的下一个主要漏洞,” (2025 年 5 月 25 日)。
  • Reuters (Westlaw), “AI 智能体:更强的能力与更高的风险,” (2025 年 4 月 22 日)。
  • Identity.com, “为什么 AI 智能体需要经过验证的数字身份,” (2024)。
  • PANews / IOSG Ventures, “解读 MCP:Web3 AI 智能体生态系统,” (2025 年 5 月 20 日)。

从点击到对话:生成式 AI 如何构建 DeFi 的未来

· 阅读需 5 分钟
Dora Noda
Software Engineer

传统的去中心化金融(DeFi)功能强大,但说实话——对普通用户来说,它可能是一场噩梦。要在不同协议之间切换、管理 gas 费用、执行多步骤交易,既令人困惑又耗时。如果你只需要告诉钱包你想要什么,它就能自动完成其余操作,那会怎样?

这正是全新 意图驱动范式 的承诺,而生成式 AI 则是实现它的引擎。这一转变有望将 DeFi 从复杂交易的丛林,转变为简单、目标导向的体验世界。


核心理念:从 “怎么做” 到 “想要什么”

在旧的 DeFi 模式中,你是驾驶员。必须手动选择交易所、寻找最佳兑换路径、批准多个交易,并祈祷自己没有出错。

意图驱动 DeFi 颠覆了这一流程。 与其执行每一步,你只需声明最终目标——你的 意图

  • 而不是: 手动在 Uniswap 上兑换代币、跨链桥接、再在流动性池中质押……
  • 你说: “用 5,000 美元最大化收益,且风险低。”

随后,一个通常由 AI 代理(称为 “求解器”)驱动的自动化系统,会在多个协议之间寻找并执行最优路径,将你的目标变为现实。这就像是从一步步跟随食谱,变成直接告诉厨师你想吃什么。

这种方法带来两大显著好处:

  1. “一键”用户体验: gas 费用、跨链、 多步兑换的复杂性被隐藏。得益于账户抽象等技术,你只需一次签名即可批准复杂目标。
  2. 更佳、更高效的执行: 专业求解器(类似专业做市机器人)竞争为你提供最佳报价,往往能比手动用户获得更好价格和更低滑点。

生成式 AI 的角色:运营的大脑 🧠

生成式 AI,尤其是大语言模型(LLM),是实现这一无缝体验的关键。其工作方式如下:

  • 自然语言接口: 你可以用普通英文(或中文)与 DeFi 交互。像 HeyAnonGriffain 这样的 AI “副驾驶” 让你只需与 AI 对话即可管理投资组合、执行交易,体验堪比使用 ChatGPT 的简便。
  • AI 规划与策略: 当你给出 “寻找最佳收益” 之类的高层目标时,AI 代理会将其拆解为具体执行计划。它们可以分析市场数据、预测趋势,并全天候自动再平衡资产。
  • 收益优化:Mozaic 这样的 AI 驱动协议使用名为 Archimedes 的代理,持续扫描不同链上的风险调整后最高收益,并自动转移资金以捕获最高 APY。
  • 自动化风险管理: AI 可充当警惕的守护者。如果检测到波动性激增可能危及仓位,它会依据你最初意图中设定的风险参数,自动追加抵押或转移至更安全的池子。

这种 DeFi 与 AI 的强强组合被称为 “DeFAI”“AiFi”,它将吸引大量此前因加密复杂性而望而却步的用户。


数十亿美元的机遇 📈

市场潜力巨大。DeFi 市场预计将从 2024 年约 205 亿美元 增长至 2030 年的 2310 亿美元。通过提升可访问性,AI 有望为这一增长注入强劲动力。

我们已经看到投资与创新的淘金热:

  • AI 助手: HeyAnonaixbt 等项目市值已快速突破数亿美元。
  • 意图中心协议: CoW ProtocolUniswapX 通过求解器竞争,保护用户免受 MEV 干扰并提供更佳价格。
  • 新链生态: EssentialOptopia 等全新 Layer‑2 网络从底层即构建为 “意图中心”,将 AI 代理视作一等公民。

前路挑战

这一未来尚未完全实现。DeFAI 领域面临多重阻碍:

  • 技术瓶颈: 区块链本身并非为运行复杂 AI 模型而设计。大多数 AI 逻辑必须在链下执行,这会引入额外的复杂性和信任问题。
  • AI 幻觉与错误: AI 误解用户意图或“幻觉”出错误的投资策略,可能导致严重财务损失。
  • 安全与攻击面: AI 与智能合约的结合产生新型攻击向量。恶意行为者可能诱导自主代理执行不良交易,在数分钟内抽干资金。
  • 中心化风险: 意图驱动系统需要庞大且去中心化的求解器网络。如果仅有少数大玩家主导,可能重现传统金融的中心化格局。

前进之路:自主金融

生成式 AI 与 DeFi 的融合正推动我们迈向 自主金融 的未来——在去中心化框架下,智能代理管理资产、执行策略并优化回报。

实现这一目标需要攻克重大技术与安全难题。但随着数十个项目构建 AI 原生预言机、意图中心链等基础设施,发展势头不可阻挡。

对用户而言,这意味着未来只需一次对话即可参与去中心化金融——你专注于财务目标,AI 合作伙伴负责其余一切。新一代金融正由今天开始构建,它将更加智能、简洁且高度自主。

通过 zkML 和密码学证明实现可验证的链上 AI

· 阅读需 41 分钟
Dora Noda
Software Engineer

引言:区块链上对可验证 AI 的需求

随着 AI 系统的影响力日益增强,确保其输出的可信度变得至关重要。传统方法依赖于机构担保(本质上是_“相信我们就行”),但这并不能提供任何密码学上的保证。在像区块链这样的去中心化环境中,这个问题尤为突出,因为智能合约或用户必须信任一个由 AI 推导出的结果,却无法在链上重新运行一个计算量巨大的模型。零知识机器学习 (zkML) 通过允许对机器学习 (ML) 计算进行_密码学验证_来解决这个问题。本质上,zkML 使证明者能够生成一个简洁的证明,证明“输出 $Y$ 来自于在输入 $X$ 上运行模型 $M$”——并且无需透露 $X$ 或 $M$ 的内部细节。这些零知识证明 (ZKPs) 可以被任何人(或任何合约)高效地验证,从而将 AI 的信任基础从“策略”转变为“证明”_。

AI 的链上可验证性意味着区块链可以通过验证一个正确执行的证明来整合高级计算(如神经网络推理),而无需亲自执行这些计算。这具有广泛的影响:智能合约可以基于 AI 预测做出决策,去中心化自治代理可以证明它们遵循了其算法,跨链或链下计算服务可以提供可验证的输出,而不是无法验证的预言机。最终,zkML 为实现无需信任且保护隐私的 AI 提供了一条路径——例如,证明一个 AI 模型的决策是正确且经过授权的,_同时_不暴露私有数据或专有模型权重。这对于从安全医疗分析到区块链游戏和 DeFi 预言机等各种应用都至关重要。

zkML 的工作原理:将 ML 推理压缩为简洁证明

从宏观上看,zkML 将密码学证明系统与 ML 推理相结合,使得一个复杂的模型评估可以被“压缩”成一个微小的证明。在内部,ML 模型(例如神经网络)被表示为一个由许多算术运算(矩阵乘法、激活函数等)组成的电路或程序。证明者在链下执行完整的计算,然后使用零知识证明协议来证明每一步都正确完成,而不是揭示所有中间值。验证者仅凭证明和一些公开数据(如最终输出和模型标识符),就能在密码学上确信其正确性,而无需重新执行模型。

为了实现这一点,zkML 框架通常将模型计算转换为一种适合 ZKP 的格式:

  • 电路编译: 在基于 SNARK 的方法中,模型的计算图被编译成一个_算术电路_或一组多项式约束。神经网络的每一层(卷积、矩阵乘法、非线性激活)都成为一个子电路,其约束确保了在给定输入的情况下输出是正确的。由于神经网络涉及非线性操作(如 ReLU、Sigmoid 等),这些操作天然不适合多项式,因此采用查找表等技术来高效处理它们。例如,一个 ReLU(输出 = max(0, 输入))可以通过一个自定义约束或查找来强制执行,该约束或查找验证当输入≥0 时输出等于输入,否则为零。最终结果是一组密码学约束,证明者必须满足这些约束,从而间接证明模型运行正确。
  • 执行轨迹与虚拟机: 另一种方法是将模型推理视为一个程序轨迹,正如在 zkVM 方法中所做的那样。例如,JOLT zkVM 针对 RISC-V 指令集;可以将 ML 模型(或计算它的代码)编译成 RISC-V,然后证明每个 CPU 指令都正确执行。JOLT 引入了一种_“查找奇点”_技术,用快速的表查找替代了昂贵的算术约束,以处理每个有效的 CPU 操作。每个操作(加法、乘法、位运算等)都通过在一个巨大的预计算有效结果表中进行查找来检查,并使用专门的论证(Lasso/SHOUT)来保持其高效性。这大大减少了证明者的工作量:即使是复杂的 64 位操作,在证明中也变成了一次表查找,而不是许多算术约束。
  • 交互式协议 (GKR Sum-Check): 第三种方法使用像 GKR (Goldwasser–Kalai–Rotblum) 这样的交互式证明来验证分层计算。在这里,模型的计算被看作一个分层算术电路(每个神经网络层是电路图的一层)。证明者正常运行模型,然后参与一个 sum-check 协议_来证明每一层的输出相对于其输入是正确的。在 Lagrange 的方法(DeepProve,下文详述)中,证明者和验证者执行一个交互式多项式协议(通过 Fiat-Shamir 变为非交互式),该协议检查每一层计算的一致性,而无需重新进行计算。这种 sum-check 方法避免了生成一个庞大的静态电路;相反,它以逐步的方式验证_计算的一致性,且密码学操作最少(主要是哈希或多项式求值)。

无论采用何种方法,最终都会得到一个简洁的证明(通常为几 KB 到几十 KB),证明整个推理过程的正确性。该证明是_零知识的_,意味着任何秘密输入(私有数据或模型参数)都可以保持隐藏——它们影响证明的生成,但不会向验证者透露。只有预期的公共输出或断言才会被揭示。这使得诸如_“证明模型 $M$ 应用于患者数据 $X$ 得到诊断 $Y$,而不泄露 $X$ 或模型的权重”_这样的场景成为可能。

实现链上验证: 一旦生成了证明,就可以将其发布到区块链上。智能合约可以包含验证逻辑来检查该证明,通常使用预编译的密码学原语。例如,以太坊有用于许多 zk-SNARK 验证器中使用的 BLS12-381 配对操作的预编译合约,这使得 SNARK 证明的链上验证非常高效。STARKs(基于哈希的证明)虽然更大,但通过仔细优化或可能带有一些信任假设,仍然可以在链上验证(例如,StarkWare 的 L2 通过一个链上验证器合约在以太坊上验证 STARK 证明,尽管 Gas 成本比 SNARKs 高)。关键在于,区块链不需要执行 ML 模型——它只需运行一个验证过程,这比原始计算要_便宜得多_。总而言之,zkML 将昂贵的 AI 推理压缩成一个微小的证明,区块链(或任何验证者)可以在毫秒到秒级的时间内完成验证。

Lagrange DeepProve:一个 zkML 突破的架构与性能

由 Lagrange Labs 推出的 DeepProve 是一个专注于速度和可扩展性的尖端 zkML 推理框架。DeepProve 于 2025 年发布,引入了一种新的证明系统,其速度远超之前的解决方案(如 Ezkl)。其设计核心是_带有 sum-check 的 GKR 交互式证明协议_以及针对神经网络电路的专门优化。以下是 DeepProve 的工作原理及其性能表现:

  • 一次性预处理: 开发者从一个训练好的神经网络开始(目前支持的类型包括多层感知器和流行的 CNN 架构)。模型被导出为 ONNX 格式,这是一种标准的图表示。然后,DeepProve 的工具会解析 ONNX 模型并对其进行_量化_(将权重转换为定点/整数形式),以便进行高效的域运算。在此阶段,它还会为密码学协议生成证明和验证密钥。这个设置过程对每个模型只需进行一次,无需在每次推理时重复。DeepProve 强调易于集成:“将你的模型导出到 ONNX → 一次性设置 → 生成证明 → 随处验证”

  • 证明(推理 + 证明生成): 设置完成后,证明者(可以由用户、服务或 Lagrange 的去中心化证明者网络运行)接收一个新的输入 $X$ 并在其上运行模型 $M$,得到输出 $Y$。在此执行过程中,DeepProve 会记录每一层计算的执行轨迹。与 SNARK 方法预先将每个乘法转换为静态电路不同,DeepProve 使用线性时间的 GKR 协议来动态验证每一层。对于每个网络层,证明者提交该层的输入和输出(例如,通过密码学哈希或多项式承诺),然后参与一个 sum-check 论证,以证明输出确实是根据该层的功能由输入产生的。sum-check 协议通过迭代方式让验证者相信一个编码了该层计算的多项式求值之和的正确性,而无需透露实际值。非线性操作(如 ReLU、softmax)在 DeepProve 中通过_查找论证_得到高效处理——如果一个激活函数的输出被计算出来,DeepProve 可以证明每个输出都对应于该函数预计算表中的一个有效输入-输出对。逐层生成证明,然后聚合成一个覆盖整个模型前向传播的简洁证明。密码学的繁重工作被最小化——DeepProve 的证明者主要执行正常的数值计算(实际的推理)外加一些轻量级的密码学承诺,而不是解决一个巨大的约束系统。

  • 验证: 验证者使用最终的简洁证明以及一些公开值——通常是模型的承诺标识符(对 $M$ 权重的密码学承诺)、输入 $X$(如果不是私密的)和声称的输出 $Y$——来检查正确性。在 DeepProve 的系统中,验证涉及验证 sum-check 协议的记录以及最终的多项式或哈希承诺。这比验证一个经典的 SNARK(可能只需几次配对操作)要复杂,但它比_重新运行模型要便宜得多_。在 Lagrange 的基准测试中,验证一个中等规模 CNN 的 DeepProve 证明在软件中大约需要 0.5 秒。这意味着用约 0.5 秒就能确认一个拥有数十万参数的卷积网络运行正确——比在 GPU 上简单地重新计算该 CNN 进行验证快 500 倍以上。(事实上,DeepProve 测得 CNN 的_验证速度快了 521 倍_,MLP 的_验证速度快了 671 倍_,相较于重新执行。)证明的大小足够小,可以在链上传输(几十 KB),并且验证可以在智能合约中执行,尽管 0.5 秒的计算可能需要仔细的 Gas 优化或在 Layer-2 上执行。

架构与工具: DeepProve 使用 Rust 实现,并为开发者提供了一个工具包(zkml 库)。它原生支持 ONNX 模型图,使其与 PyTorch 或 TensorFlow 导出的模型兼容。目前的证明过程针对参数量高达数百万的模型(测试包括一个 400 万参数的密集网络)。DeepProve 结合了多种密码学组件:一个多线性多项式承诺(用于承诺层输出)、用于验证计算的 sum-check 协议,以及用于非线性操作的查找论证。值得注意的是,Lagrange 的开源仓库承认其工作建立在先前工作(Scroll 的 Ceno 项目中的 sum-check 和 GKR 实现)之上,这表明 zkML 与零知识 rollup 研究存在交集。

为了实现实时可扩展性,Lagrange 将 DeepProve 与其证明者网络 (Prover Network) 相结合——这是一个由专门的 ZK 证明者组成的去中心化网络。繁重的证明生成可以外包给这个网络:当一个应用需要证明一个推理时,它将任务发送到 Lagrange 的网络,网络中的许多运营商(在 EigenLayer 上质押以确保安全)计算证明并返回结果。该网络通过经济激励来保证可靠的证明生成(恶意或失败的任务会导致运营商被罚没)。通过将工作分散给多个证明者(并可能利用 GPU 或 ASIC),Lagrange 证明者网络为最终用户隐藏了复杂性和成本。其结果是一个快速、可扩展且去中心化的 zkML 服务:“快速且经济地实现可验证的 AI 推理”

性能里程碑: DeepProve 的声明得到了与先前最先进技术 Ezkl 的基准测试支持。对于一个约有 26.4 万参数的 CNN(CIFAR-10 规模的模型),DeepProve 的证明时间约为 1.24 秒,而 Ezkl 则需要约 196 秒——快了约 158 倍。对于一个拥有 400 万参数的更大型密集网络,DeepProve 在约 2.3 秒内证明了一次推理,而 Ezkl 则需要约 126.8 秒(快了约 54 倍)。验证时间也大幅下降:DeepProve 在约 0.6 秒内验证了 26.4 万参数 CNN 的证明,而在该测试中,验证 Ezkl 的证明(基于 Halo2)在 CPU 上耗时超过 5 分钟。这些速度提升源于 DeepProve 的近线性复杂度:其证明者的扩展性大致为 O(n),其中 n 是操作数,而基于电路的 SNARK 证明者通常具有超线性的开销(FFT 和多项式承诺的扩展性)。事实上,DeepProve 的证明者吞吐量可以与普通推理运行时间在同一数量级内——最新的 GKR 系统对于大型矩阵乘法,其速度可以比原始执行慢不到 10 倍,这在 ZK 领域是一项了不起的成就。这使得_实时或按需证明_变得更加可行,为在交互式应用中实现可验证 AI 铺平了道路。

用例: Lagrange 已经与 Web3 和 AI 项目合作,应用 zkML。用例包括:可验证的 NFT 特征(证明一个由 AI 生成的游戏角色或收藏品的进化是由授权模型计算的)、AI 内容的来源证明(证明一张图片或一段文本是由特定模型生成的,以打击深度伪造)、DeFi 风险模型(证明一个评估金融风险的模型输出,而不泄露专有数据),以及_医疗或金融领域的私密 AI 推理_(医院可以获得带有证明的 AI 预测,确保正确性而不暴露患者数据)。通过使 AI 输出可验证且保护隐私,DeepProve 为去中心化系统中_“你可以信任的 AI”打开了大门——从一个“盲目信任黑盒模型”的时代,迈向一个“客观保证”_的时代。

基于 SNARK 的 zkML:Ezkl 与 Halo2 方法

传统的 zkML 方法使用 zk-SNARKs(简洁非交互式知识论证)来证明神经网络推理。Ezkl(由 ZKonduit/Modulus Labs 开发)是这种方法的领先范例。它建立在 Halo2 证明系统之上(一种带有 BLS12-381 上的多项式承诺的 PLONK 风格 SNARK)。Ezkl 提供了一个工具链,开发者可以拿一个 PyTorch 或 TensorFlow 模型,将其导出为 ONNX 格式,然后让 Ezkl 自动将其编译成一个自定义的算术电路。

工作原理: 神经网络的每一层都被转换为约束:

  • 线性层(密集层或卷积层)变成了一系列乘法-加法约束,强制执行输入、权重和输出之间的点积。
  • 非线性层(如 ReLU、sigmoid 等)通过查找或分段约束来处理,因为这些函数不是多项式。例如,一个 ReLU 可以通过一个布尔选择器 $b$ 和约束来实现,确保 $y = x \cdot b$、$0 \le b \le 1$ 且当 $x>0$ 时 $b=1$(这是一种实现方式),或者更高效地通过一个查找表,将 $x$ 映射到 $\max(0,x)$,适用于一定范围的 $x$ 值。Halo2 的查找论证允许映射 16 位(或更小)的值块,因此大的域(如所有 32 位值)通常被_“分块”_成几个较小的查找。这种分块增加了约束的数量。
  • 大整数运算或除法(如果有的话)同样被分解成小块。最终结果是一大组针对特定模型架构定制的 R1CS/PLONK 约束

然后,Ezkl 使用 Halo2 生成一个证明,证明在给定秘密输入(模型权重、私有输入)和公共输出的情况下,这些约束成立。工具与集成: SNARK 方法的一个优势是它利用了众所周知的原语。Halo2 已经在以太坊的 rollup 中使用(例如 Zcash、zkEVMs),因此它经过了实战检验,并且有现成的链上验证器。Ezkl 的证明使用 BLS12-381 曲线,以太坊可以通过预编译合约进行验证,这使得在智能合约中验证 Ezkl 证明变得非常直接。该团队还提供了用户友好的 API;例如,数据科学家可以在 Python 中使用他们的模型,并使用 Ezkl 的命令行工具来生成证明,而无需深入了解电路知识。

优势: Ezkl 的方法得益于 SNARKs 的通用性和生态系统。它支持相当复杂的模型,并且已经有了_“实际的集成案例(从 DeFi 风险模型到游戏 AI)”_,证明了现实世界中的 ML 任务。因为它在模型的计算图层面操作,所以可以应用特定于 ML 的优化:例如,修剪不重要的权重或量化参数以减小电路大小。这也意味着模型机密性是天然的——权重可以被视为私有见证数据,因此验证者只看到_某个_有效的模型产生了该输出,或者最多只是一个对模型的承诺。SNARK 证明的验证速度极快(通常在链上为几毫秒或更短),并且证明大小很小(几 KB),这对于区块链使用非常理想。

劣势: 性能是其阿喀琉斯之踵。基于电路的证明带来了巨大的开销,尤其是随着模型规模的增长。据记载,历史上 SNARK 电路对证明者来说可能比仅仅运行模型本身要多出_一百万倍的工作量_。Halo2 和 Ezkl 对此进行了优化,但像大型矩阵乘法这样的操作仍然会产生_大量_的约束。如果一个模型有数百万个参数,证明者就必须处理相应数百万个约束,并在此过程中执行繁重的 FFT 和多重指数运算。这导致了很长的证明时间(对于非平凡的模型通常需要几分钟或几小时)和高内存使用。例如,用 Ezkl 证明一个相对较小的 CNN(例如几十万个参数)在单台机器上可能需要几十分钟。DeepProve 背后的团队指出,对于某些模型证明,Ezkl 需要数小时,而 DeepProve 可以在几分钟内完成。大型模型甚至可能无法装入内存,或者需要分割成多个证明(然后需要递归聚合)。虽然 Halo2 经过了_“适度优化”,但任何需要“分块”查找或处理宽位操作的需求都会转化为额外的开销。总而言之,可扩展性有限——Ezkl 对于中小型模型效果很好(并且在基准测试中确实_优于一些早期的替代方案,如朴素的基于 Stark 的 VM),但随着模型规模超过某个点,它就会遇到困难。

尽管存在这些挑战,Ezkl 和类似的基于 SNARK 的 zkML 库是重要的垫脚石。它们证明了_在链上实现可验证的 ML 推理是可能的_,并且已经有了活跃的使用。值得注意的是,像 Modulus Labs 这样的项目展示了使用 SNARKs(经过大量优化)在链上验证一个 1800 万参数的模型。成本虽然不菲,但这显示了发展轨迹。此外,Mina 协议拥有自己的 zkML 工具包,该工具包使用 SNARKs 来允许 Mina 上的智能合约(本身就是基于 Snark 的)验证 ML 模型的执行。这表明基于 SNARK 的 zkML 正在获得越来越多的多平台支持。

基于 STARK 的方法:透明且可编程的 ZK for ML

zk-STARKs(可扩展透明知识论证)为 zkML 提供了另一条途径。STARKs 使用基于哈希的密码学(如用于多项式承诺的 FRI),并避免了任何可信设置。它们通常通过模拟一个 CPU 或 VM 并证明其执行轨迹是正确的来运作。在 ML 的背景下,可以为神经网络构建一个自定义的 STARK,_或者_使用一个通用的 STARK VM 来运行模型代码。

通用 STARK VMs (RISC Zero, Cairo): 一个直接的方法是编写推理代码并在 STARK VM 中运行它。例如,Risc0 提供了一个 RISC-V 环境,任何代码(例如,用 C++ 或 Rust 实现的神经网络)都可以在其中执行并通过 STARK 进行证明。同样,StarkWare 的 Cairo 语言可以表达任意计算(如 LSTM 或 CNN 推理),然后由 StarkNet STARK 证明者进行证明。其优势在于灵活性——你不需要为每个模型设计自定义电路。然而,早期的基准测试表明,对于 ML 任务,朴素的 STARK VM 比优化的 SNARK 电路要慢。在一次测试中,一个基于 Halo2 的证明 (Ezkl) 比在 Cairo 上的基于 STARK 的方法快约 3 倍,甚至比在 2024 年某个基准测试中的 RISC-V STARK VM 快 66 倍。这种差距是由于在 STARK 中模拟每个低级指令的开销以及 STARK 证明中较大的常数(哈希虽然快,但需要大量使用;STARK 证明的大小也更大等)。然而,STARK VM 正在不断改进,并具有透明设置(无需可信设置)和后量子安全的优点。随着对 STARK 友好的硬件和协议的发展,证明速度将会提高。

DeepProve 的方法 vs STARK: 有趣的是,DeepProve 使用 GKR 和 sum-check 产生的证明在精神上更像一个 STARK——它是一个交互式的、基于哈希的证明,不需要结构化的参考字符串。其权衡是它的证明更大,验证比 SNARK 更重。然而,DeepProve 表明,精心的协议设计(专门针对 ML 的分层结构)可以在证明时间上远超通用的 STARK VM 和 SNARK 电路。我们可以将 DeepProve 视为一个_定制的 STARK 风格_的 zkML 证明者(尽管他们为了简洁性使用了 zkSNARK 这个术语,但它没有传统 SNARK 那样的小常数大小验证,因为 0.5 秒的验证时间比典型的 SNARK 验证要长)。传统的 STARK 证明(如 StarkNet 的)通常需要数万次域运算来验证,而 SNARK 的验证可能只需几十次。因此,一个权衡是显而易见的:SNARKs 产生更小的证明和更快的验证器,而 STARKs(或 GKR)则以证明大小和验证速度为代价,提供了更容易的扩展性和无需可信设置的便利。

新兴的改进: JOLT zkVM(前面在 JOLTx 下讨论过)实际上输出的是 SNARKs(使用 PLONKish 承诺),但它体现了可以应用于 STARK 环境的思想(Lasso 查找理论上可以与 FRI 承诺一起使用)。StarkWare 和其他公司正在研究加速常见操作证明的方法(例如在 Cairo 中使用自定义门或提示来处理大整数运算等)。还有 Privacy & Scaling Explorations (PSE) 的 Circomlib-ML,它为 CNN 层等提供了 Circom 模板——这是面向 SNARK 的,但概念上类似的模板也可以为 STARK 语言制作。

在实践中,利用 STARKs 的非以太坊生态系统包括 StarkNet(如果有人编写验证器,就可以在链上验证 ML,尽管成本很高)和 Risc0 的 Bonsai 服务(这是一个链下证明服务,它发出 STARK 证明,可以在各种链上进行验证)。截至 2025 年,区块链上的大多数 zkML 演示都倾向于使用 SNARKs(因为验证器效率高),但 STARK 方法因其透明性和在高安全性或抗量子环境中的潜力而仍然具有吸引力。例如,一个去中心化计算网络可能会使用 STARKs 让任何人在没有可信设置的情况下验证工作,这对于长期性很有用。此外,一些专门的 ML 任务可能会利用对 STARK 友好的结构:例如,大量使用 XOR/位运算的计算在 STARKs 中可能比在 SNARK 域运算中更快(因为这些在布尔代数和哈希中成本低廉)。

SNARK vs STARK for ML 总结:

  • 性能: SNARKs(如 Halo2)每个门的证明开销巨大,但得益于强大的优化和用于验证的小常数;STARKs(通用型)的常数开销较大,但扩展性更线性,并避免了像配对这样昂贵的密码学操作。DeepProve 表明,定制方法(sum-check)可以产生近线性的证明时间(快),但证明类似于 STARK。JOLT 表明,即使是通用 VM,通过大量使用查找也可以变得更快。根据经验,对于高达数百万次操作的模型:一个优化良好的 SNARK (Ezkl) 可以处理,但可能需要几十分钟,而 DeepProve (GKR) 可以在几秒钟内完成。2024 年的 STARK VM 可能介于两者之间,或者比 SNARKs 差,除非经过专门优化(Risc0 在测试中较慢,Cairo 在没有自定义提示的情况下也较慢)。
  • 验证: SNARK 证明验证最快(毫秒级,链上数据最少,约几百字节到几 KB)。STARK 证明更大(几十 KB),并且由于需要多次哈希步骤,验证时间更长(几十毫秒到几秒)。在区块链术语中,一个 SNARK 验证可能花费约 20 万 Gas,而一个 STARK 验证可能花费数百万 Gas——通常对于 L1 来说太高,但在 L2 或使用简洁验证方案时可以接受。
  • 设置与安全: 像 Groth16 这样的 SNARKs 每个电路都需要一个可信设置(对于任意模型不友好),但通用 SNARKs(PLONK、Halo2)有一个一次性的设置,可以重用于任何达到特定大小的电路。STARKs 不需要设置,只使用哈希假设(加上经典的多项式复杂性假设),并且是后量子安全的。这使得 STARKs 对于长期性很有吸引力——即使量子计算机出现,证明仍然安全,而当前的 SNARKs(基于 BLS12-381)会被量子攻击破解。

我们将在稍后的比较表中整合这些差异。

FHE for ML (FHE-o-ML):私密计算 vs. 可验证计算

全同态加密 (FHE) 是一种密码学技术,允许直接在加密数据上进行计算。在 ML 的背景下,FHE 可以实现一种_隐私保护推理_:例如,客户端可以向模型主机发送加密输入,主机在不解密的情况下对密文运行神经网络,并返回一个加密结果,客户端可以解密该结果。这确保了数据机密性——模型所有者对输入一无所知(并且如果客户端只得到输出,可能也只知道输出,而不知道模型的内部结构)。然而,FHE 本身并不产生像 ZKP 那样的正确性证明。客户端必须相信模型所有者确实诚实地执行了计算(密文可能被篡改)。通常,如果客户端拥有模型或期望某种输出分布,公然的作弊可以被检测到,但细微的错误或使用错误版本的模型,仅从加密输出中是看不出来的。

性能上的权衡: FHE 的计算量是出了名的繁重。在 FHE 下运行深度学习推理会带来数量级的减速。早期的实验(例如,2016 年的 CryptoNets)在加密数据上评估一个微小的 CNN 需要几十秒。到 2024 年,像 CKKS(用于近似算术) 和更好的库(Microsoft SEAL、Zama 的 Concrete)等改进已经减少了这种开销,但它仍然很大。例如,一位用户报告说,使用 Zama 的 Concrete-ML 运行一个 CIFAR-10 分类器,在他们的硬件上每次推理需要 25-30 分钟。经过优化后,Zama 的团队在一台 192 核的服务器上将该推理时间缩短到约 40 秒。即使是 40 秒,与明文推理(可能只需 0.01 秒)相比也极其缓慢,显示出约 $10^3$–$10^4\times$ 的开销。更大的模型或更高的精度会进一步增加成本。此外,FHE 操作消耗大量内存,并需要偶尔进行_自举_(一种降噪步骤),这在计算上非常昂贵。总而言之,可扩展性是一个主要问题——最先进的 FHE 可能可以处理一个小型 CNN 或简单的逻辑回归,但扩展到大型 CNN 或 Transformer 超出了当前实际应用的限制。

隐私优势: FHE 的巨大吸引力在于_数据隐私_。输入在整个过程中可以保持完全加密。这意味着一个不受信任的服务器可以在不了解任何信息的情况下对客户端的私有数据进行计算。反过来,如果模型是敏感的(专有的),可以设想加密模型参数,让客户端在自己这边进行 FHE 推理——但这不太常见,因为如果客户端必须进行繁重的 FHE 计算,就违背了将其外包给强大服务器的初衷。通常,模型是公开的或由服务器以明文形式持有,而数据由客户端的密钥加密。在这种情况下,模型隐私默认不被提供(服务器知道模型;客户端知道输出但不知道权重)。还有更奇特的设置(如安全两方计算或多密钥 FHE),其中模型和数据都可以相互保密,但这些会带来更大的复杂性。相比之下,通过 ZKP 实现的 zkML 可以同时确保_模型隐私_和_数据隐私_——证明者可以将模型和数据都作为秘密见证,只向验证者揭示需要的部分。

无需(也不可能)链上验证: 使用 FHE,结果以加密形式返回给客户端。客户端然后解密它以获得实际的预测。如果我们想在链上使用该结果,客户端(或持有解密密钥的任何人)将不得不发布明文结果并说服其他人它是正确的。但在那一点上,信任又回到了循环中——除非与 ZKP 结合。原则上,可以结合 FHE 和 ZKP:例如,在计算期间使用 FHE 保持数据私密,然后生成一个 ZK 证明,证明明文结果对应于正确的计算。然而,将它们结合起来意味着你要同时承担 FHE ZKP 的性能损失——用今天的技术来看,这极其不切实际。因此,在实践中,FHE-of-ML 和 zkML 服务于不同的用例:

  • FHE-of-ML: 当目标是_两方(客户端和服务器)之间的机密性_时是理想选择。例如,云服务可以托管一个 ML 模型,用户可以用他们的敏感数据查询它,而无需向云透露数据(如果模型是敏感的,也许可以通过对 FHE 友好的编码来部署它)。这对于隐私保护的 ML 服务(医疗预测等)非常有用。用户仍然必须相信服务会忠实地运行模型(因为没有证明),但至少任何_数据泄露_都被阻止了。一些项目,如 Zama,甚至在探索一个_“支持 FHE 的 EVM (fhEVM)”_,其中智能合约可以在加密输入上操作,但在链上验证这些计算将需要合约以某种方式强制执行正确的计算——这是一个开放的挑战,可能需要 ZK 证明或专门的安全硬件。
  • zkML (ZKPs): 当目标是_可验证性和公共可审计性_时是理想选择。如果你想让任何人(或任何合约)确信_“模型 $M$ 在 $X$ 上被正确评估并产生了 $Y$”_,ZKP 就是解决方案。它们还提供隐私作为附加好处(如果需要,你可以通过将 $X$、$Y$ 或 $M$ 作为证明的私有输入来隐藏它们),但它们的主要特点是正确执行的证明。

互补关系: 值得注意的是,ZKP 保护的是_验证者_(他们对秘密一无所知,只知道计算是正确完成的),而 FHE 保护的是_证明者_的数据免受计算方的影响。在某些情况下,这两者可以结合——例如,一个不受信任的节点网络可以使用 FHE 对用户的私有数据进行计算,然后向用户(或区块链)提供 ZK 证明,证明计算是按照协议进行的。这将同时涵盖隐私和正确性,但以今天的算法来看,性能成本是巨大的。在短期内更可行的是混合方案,如_可信执行环境 (TEE) + ZKP_ 或_函数加密 + ZKP_——这些超出了我们的范围,但它们旨在提供类似的功能(TEE 在计算期间保持数据/模型秘密,然后 ZKP 可以证明 TEE 做了正确的事情)。

总而言之,FHE-of-ML 优先考虑输入/输出的机密性,而 zkML 优先考虑可验证的正确性(可能带有隐私)。下表 1 对比了关键属性:

方法证明者性能 (推理与证明)证明大小与验证隐私特性是否需要可信设置?是否后量子安全?
zk-SNARK (Halo2, Groth16, PLONK 等)证明者开销巨大(未经优化时可达正常运行时间的 10^6 倍;实践中为 10^3–10^5 倍)。针对特定模型/电路进行优化;中等模型证明时间为分钟级,大型模型为小时级。最近的 zkML SNARKs(如 DeepProve with GKR)极大地改善了这一点(近线性开销,例如百万参数模型从分钟级缩短到秒级)。证明非常小(通常 < 100 KB,有时约几 KB)。验证速度快:几次配对或多项式求值(链上通常 < 50 毫秒)。DeepProve 基于 GKR 的证明更大(几十到几百 KB),验证时间约 0.5 秒(仍远快于重新运行模型)。数据机密性: 是——输入可以在证明中保持私密(不被泄露)。模型隐私: 是——证明者可以承诺模型权重而不泄露它们。输出隐藏: 可选——证明可以是一个关于某个陈述的证明,而不泄露输出(例如,“输出具有属性 P”)。然而,如果输出本身需要在链上使用,它通常会变为公开的。总的来说,SNARKs 提供了完全的_零知识_灵活性(可以隐藏任何你想要的部分)。取决于方案。Groth16/EZKL 每个电路都需要一个可信设置;PLONK/Halo2 使用一个通用的设置(一次性)。DeepProve 的 sum-check GKR 是透明的(无需设置)——这是该设计的一个优点。经典的 SNARKs(BLS12-381 曲线)不是后量子安全的(易受针对椭圆曲线离散对数问题的量子攻击)。一些较新的 SNARKs 使用后量子安全的承诺,但 Ezkl 中使用的 Halo2/PLONK 不是后量子安全的。GKR (DeepProve) 使用哈希承诺(例如 Poseidon/Merkle),这些承诺被推测是后量子安全的(依赖于哈希原像抗性)。
zk-STARK (FRI, 基于哈希的证明)证明者开销高,但扩展性更_线性_。对于大型任务,通常比原生执行慢 10^2–10^4 倍,且有并行化空间。2024 年,通用 STARK VM(Risc0, Cairo)在 ML 上的性能比 SNARK 慢(例如,在某些情况下比 Halo2 慢 3-66 倍)。专门的 STARKs(或 GKR)可以接近线性开销,并在大型电路上胜过 SNARKs。证明更大:通常为几十 KB(随电路大小/log(n) 增长)。验证者必须进行多次哈希和 FFT 检查——验证时间约为 O(n^ε),其中 ε 很小(例如,约 50 毫秒到 500 毫秒,取决于证明大小)。在链上,这成本更高(StarkWare 的 L1 验证器每个证明可能消耗数百万 Gas)。一些 STARKs 支持递归证明以压缩大小,但会增加证明者的时间成本。数据与模型隐私: STARK 可以通过随机化轨迹数据(在多项式求值中添加盲化因子)来实现零知识,因此它可以像 SNARK 一样隐藏私有输入。许多 STARK 实现侧重于完整性,但 zk-STARK 变体确实允许隐私。所以是的,它们可以像 SNARKs 一样隐藏输入/模型。输出隐藏: 理论上同样可行(证明者不将输出声明为公开),但很少使用,因为通常我们想要揭示/验证的是输出。无需可信设置。 透明性是 STARKs 的一个标志——只需要一个公共随机字符串(Fiat-Shamir 可以推导出来)。这使得它们对于开放式使用很有吸引力(任何模型,任何时间,无需为每个模型举行仪式)。是的,STARKs 依赖于哈希和信息论安全假设(如随机预言机和 FRI 中某些码字解码的难度)。这些被认为是能抵抗量子对手的。因此,STARK 证明是抗后量子攻击的,这对于未来可验证 AI 的发展是一个优势。
FHE for ML (全同态加密应用于推理)证明者 = 在加密数据上进行计算的一方。 计算时间极高:比明文推理慢 10^3–10^5 倍是常见的。高端硬件(多核服务器、FPGA 等)可以缓解这一点。一些优化(低精度推理、分级 FHE 参数)可以减少开销,但存在根本的性能损失。FHE 目前对于小型模型或简单线性模型是可行的;深度网络在超出玩具规模后仍然具有挑战性。不生成证明。结果是一个加密的输出。验证(检查正确性)并非由 FHE 单独提供——人们信任计算方不会作弊。(如果与安全硬件结合,可能会得到一个证明;否则,恶意服务器可能返回一个不正确的加密结果,客户端解密后得到错误输出而不知情)。数据机密性: 是——输入是加密的,所以计算方对其一无所知。模型隐私: 如果模型所有者在加密输入上进行计算,模型在他们那边是明文的(不受保护)。如果角色互换(客户端持有加密的模型,服务器进行计算),模型可以保持加密,但这种情况不太常见。有一些技术,如安全两方 ML,结合 FHE/MPC 来保护两者,但这超出了普通 FHE 的范畴。输出隐藏: 默认情况下,计算的输出是加密的(只有持有私钥的一方,通常是输入所有者,才能解密)。所以输出对计算服务器是隐藏的。如果我们希望输出公开,客户端可以解密并揭示它。无需设置。每个用户生成自己的密钥对进行加密。信任依赖于密钥保持秘密。FHE 方案(例如 BFV, CKKS, TFHE)的安全性基于格问题(带误差学习),这些问题被认为是能抵抗量子攻击的(至少目前没有已知的有效量子算法)。所以 FHE 通常被认为是后量子安全的

表 1:zk-SNARK、zk-STARK 和 FHE 方法在机器学习推理中的比较(性能与隐私权衡)。

Web3 应用的用例与影响

通过 zkML 实现 AI 与区块链的融合,为 Web3 开启了强大的新应用模式:

  • 去中心化自治代理与链上决策: 智能合约或 DAO 可以整合由 AI 驱动的决策,并保证其正确性。例如,想象一个 DAO 使用神经网络分析市场状况后执行交易。有了 zkML,DAO 的智能合约可以要求一个 zkSNARK 证明,证明_授权的 ML 模型_(具有已知的哈希承诺)在最新数据上运行并产生了推荐的操作,然后该操作才会被接受。这可以防止恶意行为者注入虚假的预测——区块链_验证了 AI 的计算_。随着时间的推移,甚至可能出现完全在链上的自治代理(查询链下 AI 或包含简化模型的合约),在 DeFi 或游戏中做出决策,其所有行动都通过 zk 证明被证明是正确且符合策略的。这提高了对自治代理的信任,因为它们的“思考”过程是透明且可验证的,而不是一个黑箱。

  • 可验证计算市场: 像 Lagrange 这样的项目实际上正在创建可验证的计算市场——开发者可以将繁重的 ML 推理外包给一个证明者网络,并获得带有结果的证明。这类似于去中心化的云计算,但内置了信任:你不需要信任服务器,只需要信任证明。这是对预言机和链下计算的范式转变。像以太坊即将推出的 DSC(去中心化排序层)或预言机网络可以利用这一点来提供具有密码学保证的数据或分析源。例如,一个预言机可以提供“模型 X 在输入 Y 上的结果”,任何人都可以验证附加在链上的证明,而不是相信预言机的一面之词。这可以实现区块链上的_可验证 AI 即服务_:任何合约都可以请求一个计算(比如“用我的私有模型为这些信用风险打分”),并且只有在有有效证明的情况下才接受答案。像 Gensyn 这样的项目正在探索使用这些验证技术的去中心化训练和推理市场。

  • NFT 与游戏——来源与进化: 在区块链游戏或 NFT 收藏品中,zkML 可以证明特征或游戏动作是由合法的 AI 模型生成的。例如,一个游戏可能允许 AI 进化一个 NFT 宠物的属性。没有 ZK,聪明的用户可能会修改 AI 或结果以获得一个更优越的宠物。有了 zkML,游戏可以要求一个证明,证明_“宠物的新属性是由官方进化模型在宠物的旧属性上计算得出的”_,从而防止作弊。生成艺术 NFT 也是如此:艺术家可以发布一个生成模型作为承诺;之后,在铸造 NFT 时,证明每个图像都是由该模型在给定某个种子的情況下产生的,从而保证其真实性(甚至可以在不向公众透露确切模型的情况下做到这一点,保护艺术家的知识产权)。这种_来源验证_以一种类似于可验证随机性的方式确保了真实性——只不过在这里是可验证的创造力。

  • 敏感领域的隐私保护 AI: zkML 允许在不暴露输入的情况下确认结果。在医疗保健领域,患者的数据可以由云提供商通过 AI 诊断模型运行;医院收到诊断结果和一个证明,证明_该模型(可能由一家制药公司私有持有)在患者数据上正确运行_。患者数据保持私密(在证明中只使用了加密或承诺的形式),模型权重保持专有——但结果是可信的。监管机构或保险公司也可以验证是否只使用了经批准的模型。在金融领域,一家公司可以向审计师或监管机构证明,其风险模型已应用于其内部数据并产生了某些指标,而无需透露底层的敏感财务数据。这使得合规和监督能够通过密码学保证而不是手动信任来实现。

  • 跨链与链下互操作性: 由于零知识证明本质上是可移植的,zkML 可以促进_跨链 AI_ 结果。一条链上可能有一个 AI 密集型应用在链下运行;它可以将结果的证明发布到另一条区块链上,后者将无需信任地接受它。例如,考虑一个多链 DAO 使用 AI 来聚合社交媒体上的情绪(链下数据)。AI 分析(对大量数据的复杂 NLP)在链下由一个服务完成,该服务然后向一个小区块链(或多个链)发布一个证明,证明_“分析已正确完成,输出的情绪评分为 0.85”_。所有链都可以验证并在其治理逻辑中使用该结果,而无需各自重新运行分析。这种可互操作的可验证计算正是 Lagrange 网络旨在支持的,通过同时服务于多个 rollup 或 L1。它消除了在链间移动结果时对可信桥梁或预言机假设的需求。

  • AI 对齐与治理: 从一个更具前瞻性的角度来看,zkML 被强调为_AI 治理与安全_的工具。例如,Lagrange 的愿景声明认为,随着 AI 系统变得越来越强大(甚至达到超级智能),密码学验证对于确保它们遵守既定规则至关重要。通过要求 AI 模型为其推理或约束生成证明,人类保留了一定程度的控制——“你无法信任你无法验证的东西”。虽然这还处于推测阶段,并且涉及社会和技术两方面,但该技术可以强制一个自主运行的 AI 代理仍然证明它正在使用一个经批准的模型并且没有被篡改。去中心化 AI 网络可能会使用链上证明来验证贡献(例如,一个协作训练模型的节点网络可以证明每个更新都是忠实计算的)。因此,zkML 可能在_确保 AI 系统即使在去中心化或不受控制的环境中也能对人类定义的协议负责_方面发挥作用。

总之,zkML 和可验证的链上 AI 代表了先进密码学和机器学习的融合,有望增强 AI 应用中的信任、透明度和隐私。通过比较主要方法——zk-SNARKs、zk-STARKs 和 FHE——我们看到了性能与隐私之间的一系列权衡,每种方法都适用于不同的场景。像 Ezkl 这样的基于 SNARK 的框架和像 Lagrange 的 DeepProve 这样的创新,使得用实际的努力证明重要的神经网络推理成为可能,为可验证 AI 的实际部署打开了大门。基于 STARK 和 VM 的方法承诺了更大的灵活性和后量子安全性,随着该领域的成熟,这将变得越来越重要。FHE 虽然不是可验证性的解决方案,但它解决了机密 ML 计算的互补需求,并且在与 ZKP 结合或在特定的私密环境中,它可以让用户在不牺牲数据隐私的情况下利用 AI。

对 Web3 的影响是显著的:我们可以预见智能合约对 AI 预测做出反应,并知道它们是正确的;计算市场中结果可以无需信任地出售;数字身份(如 Worldcoin 通过虹膜 AI 实现的个人身份证明)受到 zkML 的保护,以确认某人是人类而不泄露其生物特征图像;以及通常会出现一类新的_“可证明的智能”,丰富区块链应用。许多挑战依然存在——超大型模型的性能、开发者的人体工程学以及对专门硬件的需求——但发展轨迹是明确的。正如一份报告所指出的,“今天的 ZKP 可以支持小型模型,但中到大型模型打破了这一范式”_;然而,快速的进步(DeepProve 相较于先前技术实现了 50-150 倍的速度提升)正在将这一界限向外推进。随着正在进行的研究(例如,关于硬件加速和分布式证明),我们可以期待越来越大、越来越复杂的 AI 模型变得可证明。zkML 可能很快就会从利基演示演变为可信 AI 基础设施的重要组成部分,确保随着 AI 的普及,它能以一种可审计、去中心化且符合用户隐私和安全的方式实现。

ETHDenver 2025:来自 Web3 嘉年华的关键趋势与洞见

· 阅读需 28 分钟

ETHDenver 2025,被誉为“再生者之年”(Year of The Regenerates),巩固了其作为全球最大 Web3 盛会之一的地位。活动横跨 BUIDLWeek(2 月 23 日至 26 日)、主活动(2 月 27 日至 3 月 2 日)以及会后的山地静修,预计吸引了超过 25,000 名参与者。来自 125 多个国家的构建者、开发者、投资者和创意人士齐聚丹佛,共同庆祝以太坊的去中心化和创新精神。ETHDenver 秉承其社区根基,保持免费参与、社区资助,并充满了丰富的内容——从黑客松、研讨会到专家座谈、项目路演和派对。活动以“再生者”捍卫去中心化的传说为基调,强调了公共物品和协作共建,即便在竞争激烈的技术环境中也是如此。最终,这周充满了高强度的构建者活动和前瞻性讨论,为行业专业人士提供了 Web3 新兴趋势和可行洞见的快照。

ETHDenver 2025

演讲者聚焦的新兴 Web3 趋势

没有单一叙事主导 ETHDenver 2025——相反,广泛的 Web3 趋势占据了中心舞台。 与去年(EigenLayer 的再质押大放异彩)不同,2025 年的议程是百花齐放:从去中心化物理基础设施网络(DePIN)到 AI 代理,从监管合规到现实世界资产代币化(RWA),此外还有隐私、互操作性等等。事实上,ETHDenver 创始人 John Paller 在回应关于多链内容的担忧时指出,“我们 95% 以上的赞助商和 90% 的内容都与 ETH/EVM 相关”——然而,非以太坊生态系统的出现也凸显了互操作性作为一个关键主题。主要演讲者反映了这些趋势领域:例如,Matter Labs/zkSync 的首席执行官 Alex Gluchowski 重点介绍了 zk-rollup 和 Layer-2 扩容,而 Mysten Labs (Sui) 的 Adeniyi Abiodun 和 Injective 的 Albert Chon 则展示了多链创新

AI 与 Web3 的融合成为一股强劲的暗流。 大量演讲和周边活动聚焦于去中心化 AI 代理和“DeFi+AI”的跨界结合。一个专门的 AI 代理日 展示了链上 AI 演示,一个由 14 个团队组成的联盟(包括 Coinbase 的开发者工具包和 NEAR 的 AI 部门)甚至宣布成立开放代理联盟(OAA)——一项旨在通过汇集 Web3 基础设施来提供无需许可、免费的 AI 访问的倡议。这表明,自主代理和 AI 驱动的 dApp 作为构建者的前沿领域,正引起越来越大的兴趣。与 AI 携手并进的**DePIN(去中心化物理基础设施)**是另一个热门词:多个专家座谈(例如 DePIN 日DePIN 峰会)探讨了将区块链与物理网络(从电信到移动出行)连接起来的项目。

Cuckoo AI Network 在 ETHDenver 2025 上掀起波澜,展示了其专为创作者和开发者设计的创新去中心化 AI 模型服务市场。凭借在黑客松和社区主导的周边活动中的强大影响力,Cuckoo AI 吸引了大量开发者的关注,他们对其将 GPU/CPU 资源变现和轻松集成链上 AI API 的能力深感兴趣。在其专门的研讨会和交流会上,Cuckoo AI 强调了去中心化基础设施如何能有效地普及对高级 AI 服务的访问。这与本次活动的更广泛趋势——特别是区块链与 AI、DePIN 和公共物品资助的交集——直接吻合。对于 ETHDenver 的投资者和开发者来说,Cuckoo AI 成为了一个清晰的例子,展示了去中心化方法如何赋能下一代 AI 驱动的 dApp 和基础设施,从而将自己定位为 Web3 生态系统中有吸引力的投资机会。

隐私、身份和安全仍然是重中之重。 演讲者和研讨会讨论了零知识证明(zkSync 的参与)、身份管理和可验证凭证(黑客松中有一个专门的隐私与安全赛道)以及法律/监管问题(一个链上法律峰会是活动赛道的一部分)等议题。另一个值得注意的讨论是融资的未来和资金的去中心化:在主舞台上,Dragonfly Capital 的 Haseeb Qureshi 与 Legion(一个“类似 ICO”的平台)的 Matt O’Connor 之间关于 ICO 与 VC 融资的辩论吸引了与会者。这场辩论凸显了社区代币销售等新兴模式对传统 VC 路径的挑战——这对正在探索融资的 Web3 初创公司来说是一个重要趋势。对专业人士而言,结论是明确的:2025 年的 Web3 是多学科的——横跨金融、AI、现实资产和文化——要保持信息灵通,就必须超越任何单一的炒作周期,关注创新的全貌。

赞助商及其战略重点领域

ETHDenver 2025 的赞助商名单堪称 Layer-1、Layer-2 和 Web3 基础设施项目的“名人录”——每个项目都利用这次活动来推进其战略目标。跨链和多链协议表现抢眼。例如,Polkadot 是顶级赞助商之一,提供了高达 8 万美元的奖金池,激励构建者创建跨链 DApp 和应用链。同样,BNB Chain、Flow、Hedera 和 Base(Coinbase 的 L2) 各自为与自家生态系统集成的项目提供了高达 5 万美元的奖金,这表明它们正努力吸引以太坊开发者。即使是传统上独立的生态系统,如 Solana 和 Internet Computer,也通过赞助挑战赛加入进来(例如,Solana 联合主办了一个 DePIN 活动,而 Internet Computer 则提供了一个“只有在 ICP 上才可能”的赏金)。这种跨生态系统的存在引起了一些社区的审视,但 ETHDenver 团队指出,绝大多数内容仍然与以太坊相关。最终效果是互操作性成为了一个核心主题——赞助商旨在将其平台定位为以太坊宇宙的补充扩展。

扩容解决方案和基础设施提供商也处于前沿和中心位置。主要的以太坊 L2,如 Optimism 和 Arbitrum,都设有大型展位并赞助了挑战赛(Optimism 的赏金高达 4 万美元),加强了它们吸引开发者加入 rollup 的重点。像 ZkSync 和 Zircuit(一个展示 L2 rollup 方法的项目)这样的新进入者则强调零知识技术,甚至贡献了 SDK(ZkSync 推广了其用于用户友好登录的 Smart Sign-On SDK,黑客松团队积极使用)。再质押和模块化区块链基础设施是另一个赞助商的兴趣点——EigenLayer(再质押的先驱)有自己的 5 万美元赛道,甚至联合主办了一个关于“再质押与 DeFAI(去中心化 AI)”的活动,将其安全模型与 AI 主题相结合。预言机和互操作性中间件的代表有 Chainlink 和 Wormhole,它们都为使用其协议的项目发布了赏金。

值得注意的是,Web3 消费应用和工具也得到了赞助商的支持,以改善用户体验。Uniswap 的亮相——拥有最大的展位之一——不仅仅是为了展示:这家 DeFi 巨头利用这次活动宣布了新的钱包功能,如集成的法币出口,这与其赞助重点关注 DeFi 可用性相一致。像 Galxe (Gravity)Lens Protocol 这样的身份和社区平台赞助了围绕链上社交和凭证的挑战赛。甚至主流科技公司也表现出兴趣:PayPal 和 Google Cloud 举办了一场稳定币/支付的欢乐时光活动,讨论加密支付的未来。这种赞助商的组合表明,战略利益从核心基础设施延伸到终端用户应用——所有这些都在 ETHDenver 汇聚,为开发者提供资源(API、SDK、资助)。对于 Web3 专业人士来说,来自 Layer-1、Layer-2 甚至 Web2 金融科技公司的重金赞助,凸显了行业投资的方向:互操作性、可扩展性、安全性,以及让加密货币为下一波用户所用

黑客松亮点:创新项目与获奖者

ETHDenver 的核心是其传奇的 #BUIDLathon——一个已发展成为全球最大的区块链黑客马拉松,吸引了数千名开发者。2025 年,该黑客松提供了创纪录的 1,043,333+ 美元奖金池以激励创新。来自 60 多个赞助商的赏金针对关键的 Web3 领域,将比赛划分为多个赛道,例如:DeFi 与 AINFT 与游戏基础设施与可扩展性隐私与安全以及DAO 与公共物品。这种赛道设计本身就很有见地——例如,将DeFi 与 AI 配对,暗示了 AI 驱动的金融应用的兴起,而专门的公共物品赛道则重申了社区对再生金融和开源开发的关注。每个赛道都由赞助商支持,为最佳使用其技术的项目提供奖品(例如,Polkadot 和 Uniswap 支持 DeFi,Chainlink 支持互操作性,Optimism 支持扩容解决方案)。组织者甚至实施了二次投票进行评审,让社区帮助筛选出顶级项目,最终获奖者由专家评委选出。

结果是涌现出大量前沿项目,其中许多项目让我们得以一窥 Web3 的未来。著名的获奖者包括一款链上多人游戏 “0xCaliber”,这是一款第一人称射击游戏,在经典的 FPS 游戏中实时运行区块链交互。0xCaliber 通过展示真正的链上游戏令评委惊叹——玩家用加密货币买入,“射出”链上子弹,并使用跨链技巧来收集和兑现战利品,所有这些都是实时的。这类项目展示了Web3 游戏日益成熟(将 Unity 游戏引擎与智能合约集成),以及在融合娱乐与加密经济学方面的创造力。另一类杰出的黑客作品是那些将AI 与以太坊结合的项目:团队构建了使用智能合约协调 AI 服务的“代理”平台,灵感来自开放代理联盟的宣布。例如,一个黑客松项目集成了 AI 驱动的智能合约审计器(为合约自动生成安全测试用例)——这与会议上观察到的去中心化 AI 趋势相符。

基础设施和工具类项目也很突出。一些团队致力于账户抽象和用户体验,使用 zkSync 的 Smart Sign-On 等赞助商工具包为 dApp 创建无钱包登录流程。其他团队则致力于跨链桥和 Layer-2 集成,反映了开发者对互操作性的持续兴趣。在公共物品与 DAO 赛道中,一些项目解决了现实世界的社会影响问题,例如一个用于去中心化身份和援助无家可归者的 dApp(利用 NFT 和社区资金,这个想法让人想起之前的 ReFi 黑客作品)。*再生金融(ReFi)*的概念——如通过新颖机制资助公共物品——继续出现,呼应了 ETHDenver 的再生主题。

虽然最终获奖者在主活动结束时受到了庆祝,但真正的价值在于创新的管道:收到了超过 400 个项目提交,其中许多项目将在活动结束后继续存在。ETHDenver 的黑客松有孵化未来初创公司的记录(事实上,一些过去的 BUIDLathon 项目已经成长为赞助商)。对于投资者和技术专家来说,黑客松提供了一个洞察前沿思想的窗口——预示着下一波 Web3 初创公司可能会出现在链上游戏、AI 融合的 dApp、跨链基础设施以及针对社会影响的解决方案等领域。随着近 100 万美元的赏金发放给开发者,赞助商有效地将资金投入到他们所支持的领域,以培育这些创新。

社交活动与投资者互动

ETHDenver 不仅仅是关于编写代码——它同样关乎建立联系。2025 年,这场嘉年华通过为初创公司、投资者和社区建设者量身定制的正式和非正式活动,极大地促进了社交。其中一个标志性活动是 Bufficorn Ventures (BV) 创业竞技场,这是一个充满活力的展示会,20 家精选初创公司以科学展览的形式向投资者展示他们的项目。创业竞技场于 3 月 1 日在主厅举行,被描述为更像是“快速约会”而非路演比赛:创始人们守在桌前,向在场内巡视的所有投资者一对一地推介他们的项目。这种形式确保了即使是早期阶段的团队也能与风险投资家、战略合作伙伴或合作方进行有意义的面对面交流。许多初创公司利用这个机会寻找客户和资金,充分利用了 ETHDenver 上 Web3 基金的高度集中。

在会议的最后一天,BV BuffiTank 路演节在主舞台上大放异彩——这是一场更传统的路演比赛,展示了来自 ETHDenver 社区的 10 家“最具创新性”的早期初创公司。这些团队(与黑客松获奖者不同)向一组顶级风险投资家和行业领袖展示了他们的商业模式,争夺荣誉和潜在的投资机会。路演节说明了 ETHDenver 作为交易流生成器的角色:它明确针对那些*“已经组织好……正在寻找投资、客户和曝光度”*的团队,特别是那些与 SporkDAO 社区有关的团队。获奖者的奖励不是简单的现金奖,而是加入 Bufficorn Ventures 的投资组合或其他加速器项目的承诺。从本质上讲,ETHDenver 为 Web3 创造了自己的迷你“创智赢家”(Shark Tank),催化了投资者对社区最佳项目的关注。

除了这些官方展示活动,这一周还挤满了投资者与创始人的交流会。根据 Belong 策划的一份指南,值得注意的周边活动包括 2 月 27 日由 CertiK Ventures 主办的**“与 VC 见面”欢乐时光**,3 月 1 日的StarkNet VC 与创始人休息室,甚至还有像**“推杆与路演”这样以高尔夫为主题的轻松路演活动。这些聚会为创始人提供了与风险投资家轻松交流的环境,通常会在会后促成后续会议。许多新兴 VC 公司**也出现在专家座谈会上——例如,在 EtherKnight 舞台上的一场会议重点介绍了一些新基金,如 Reflexive Capital、Reforge VC、Topology、Metalayer 和 Hash3,以及他们最感兴趣的趋势。早期迹象表明,这些 VC 对去中心化社交媒体、AI 和新颖的 Layer-1 基础设施等领域非常感兴趣(每个基金都在竞争激烈的 VC 格局中开辟自己的细分市场)。

对于希望利用 ETHDenver 社交机会的专业人士来说,关键的启示是周边活动和有针对性的交流会的价值。交易和合作关系通常是在咖啡或鸡尾酒会上萌芽,而不是在舞台上。ETHDenver 2025 众多的投资者活动表明,即使在市场不景气的情况下,Web3 投资界仍在积极寻找人才和创意。那些准备了精美演示和清晰价值主张的初创公司(通常利用活动的黑客松势头)找到了 receptive 的受众。与此同时,投资者利用这些互动来把握开发者社区的脉搏——今年最聪明的构建者在解决什么问题?总而言之,ETHDenver 再次证明社交与 BUIDLing 同等重要:在这里,一次偶然的相遇可能促成一笔种子投资,或者一次富有洞察力的对话可能点燃下一次重大合作的火花。

Web3 的风险投资趋势与投资机会

在 ETHDenver 2025 期间,一个微妙但重要的叙事是 Web3 风险投资格局本身正在演变。尽管更广泛的加密市场起伏不定,但ETHDenver 的投资者们对有前景的 Web3 项目表现出强烈的兴趣。Blockworks 的现场记者指出,“尽管宏观经济面临阻力,但仍有大量私人资本流入加密领域,”对于最热门的创意,种子阶段的估值往往高得惊人。事实上,从加密原生基金到涉足 Web3 的传统科技投资者,大量 VC 的出席清楚地表明,ETHDenver 仍然是一个交易撮合中心。

从 VC 们讨论和赞助的内容中,可以辨别出新兴的主题焦点AI x Crypto 内容的普遍性(黑客松赛道、专家座谈等)不仅是开发者的趋势;它也反映了风险投资对**“DeFi 遇上 AI”**这一交叉领域的兴趣。许多投资者正在关注那些在区块链上利用机器学习或自主代理的初创公司,这一点从风险投资赞助的 AI 黑客之家和峰会中可见一斑。同样,对 DePIN 和现实世界资产(RWA)代币化的高度关注表明,基金们看到了将区块链与实体经济资产和物理设备连接起来的项目的机会。专门的 RWA 日(2 月 26 日)——一个关于代币化资产未来的 B2B 活动——表明风险投资的探子们正在该领域积极寻找下一个 Goldfinch 或 Centrifuge(即将现实世界金融带入链上的平台)。

另一个可观察到的趋势是融资模式的日益实验性。前述关于 ICO 与 VC 的辩论不仅仅是会议的戏剧效果;它反映了风险投资界向更以社区为中心的融资模式发展的真实动向。ETHDenver 的一些 VC 表示对混合模式持开放态度(例如,由风险投资支持的代币发行,让社区参与早期轮次)。此外,公共物品资助和影响力投资也占有一席之地。在 ETHDenver 的再生精神下,即使是投资者也在讨论如何长期支持开源基础设施和开发者,而不仅仅是追逐下一个 DeFi 或 NFT 的热潮。像*“资助未来:链上初创公司不断演变的模式”*这样的专家座谈会探讨了诸如赠款、DAO 财库投资和二次方融资等替代方案,以补充传统的 VC 资金。这表明该行业在项目资本化方面正在成熟——风险投资、生态系统基金和社区资金协同工作。

从机会的角度来看,Web3 专业人士和投资者可以从 ETHDenver 的风险投资动态中获得一些可行的见解:(1)基础设施仍然为王——许多 VC 表示,作为行业支柱的“镐和铲子”(L2 扩容、安全、开发者工具)仍然是高价值投资。(2)AI/区块链融合和 DePIN 等新垂直领域是新兴的投资前沿——在这些领域加快学习或寻找初创公司可能会带来回报。(3)社区驱动的项目和公共物品可能会看到新颖的融资方式——精明的投资者正在研究如何可持续地支持这些项目(例如,投资于能够实现去中心化治理或共享所有权的协议)。总的来说,ETHDenver 2025 表明,虽然 Web3 风险投资格局竞争激烈,但充满了信心:资本可用于那些正在构建 DeFi、NFT、游戏等未来的人,即使是在熊市中诞生的想法,如果它们瞄准了正确的趋势,也能找到支持。

开发者资源、工具包与支持系统

ETHDenver 始终以构建者为中心,2025 年也不例外——它兼具开源开发者大会的性质,为 Web3 开发者提供了丰富的资源和支持。在 BUIDLWeek 期间,与会者可以参加涵盖各个领域的现场研讨会、技术训练营和迷你峰会。例如,开发者可以参加前沿技术峰会,体验最新的协议,或者参加链上法律峰会,学习合规的智能合约开发。主要赞助商和区块链团队举办了实践课程:Polkadot 团队举办了黑客之家和关于启动平行链的研讨会;EigenLayer 领导了一个“再质押训练营”,教开发者如何利用其安全层;Polygon 和 zkSync 提供了关于使用零知识技术构建可扩展 dApp 的教程。这些课程为开发者提供了与核心工程师宝贵的面对面交流机会,让他们能够获得集成方面的帮助,并亲手学习新的工具包。

在整个主活动期间,会场设有一个专门的 #BUIDLHub 和创客空间,构建者可以在协作环境中编码并获得导师的指导。ETHDenver 的组织者发布了一份详细的构建者指南,并促成了一个现场导师计划(来自赞助商的专家随时为团队解决技术问题)。开发者工具公司也大量到场——从 Alchemy 和 Infura(提供区块链 API)到 Hardhat 和 Foundry(用于智能合约开发)。许多公司在活动中发布了新版本或测试版工具。例如,MetaMask 团队预告了一次重大的钱包更新,其中包括Gas 抽象和改进的 dApp 开发者 SDK,旨在简化应用为用户支付 Gas 费的方式。多个项目推出了 SDK 或开源库:Coinbase 的用于 AI 代理的*“Agent Kit”和协作的开放代理联盟*工具包被引入,Story.xyz 在他们自己的黑客松活动中推广了其用于链上知识产权许可的 Story SDK

赏金和黑客支持进一步增强了开发者的体验。有 62 个赞助商提供了超过 180 个赏金,黑客们实际上可以从一个具体的挑战菜单中进行选择,每个挑战都附有文档、办公时间和有时甚至是定制的沙盒环境。例如,Optimism 的赏金挑战开发者使用最新的 Bedrock 操作码(他们的工程师随时待命提供帮助),而 Uniswap 的挑战则提供了对其新 API 的访问权限,用于法币出口集成。用于协调和学习的工具——如官方的 ETHDenver 移动应用和 Discord 频道——让开发者了解日程变更、支线任务,甚至通过 ETHDenver 的招聘板了解工作机会

一个值得注意的资源是对二次方融资实验和链上投票的强调。ETHDenver 在黑客松评审中集成了二次方投票系统,让许多开发者接触到了这个概念。此外,Gitcoin 和其他公共物品组织的存在意味着开发者可以在活动结束后了解如何为他们的项目申请资助。总而言之,ETHDenver 2025 为开发者配备了前沿工具(SDK、API)专家指导后续支持,以继续他们的项目。对于行业专业人士来说,这提醒我们,通过教育、工具和资金来培育开发者社区至关重要。许多重点介绍的资源(如新的 SDK 或改进的开发环境)现在已经公开可用,为全球各地的团队提供了在 ETHDenver 分享的基础上进行构建的机会。

丰富 ETHDenver 体验的周边活动与社区聚会

真正让 ETHDenver 与众不同的是其节日般的氛围——数十个官方和非官方的周边活动,围绕主会议创造了丰富多彩的体验。2025 年,除了举办官方内容的国家西部综合体外,整个城市都充满了聚会、派对、黑客松和社区集会。这些通常由赞助商或当地 Web3 团体主办的周边活动,极大地丰富了整个 ETHDenver 的体验。

在官方层面,ETHDenver 自己的日程安排包括了主题迷你活动:会场设有NFT 艺术画廊、区块链游乐场、DJ 放松穹顶,甚至还有一个禅意区供人放松。组织者还举办了晚间活动,如开幕和闭幕派对——例如,2 月 26 日由 Story Protocol 举办的**“Crack’d House”非官方开幕派对**,将艺术表演与黑客松颁奖公告融为一体。但真正 proliferate 的是社区主导的周边活动:根据一份活动指南,ETHDenver 的 Luma 日历上追踪了超过 100 个周边活动。

一些例子说明了这些聚会的多样性:

  • 技术峰会与黑客之家: ElizaOS 和 EigenLayer 为 AI+Web3 爱好者举办了一个为期 9 天的 Vault AI 代理黑客之家。StarkNet 团队举办了一个为期多日的黑客之家,最终以其 ZK-rollup 上的项目演示夜告终。这些活动为开发者在主黑客松之外,就特定技术栈进行合作提供了专注的环境。
  • 社交酒会与派对: 每个晚上都有一系列选择。2 月 27 日由 MetaMask、Linea、EigenLayer、Wormhole 等赞助的 Builder Nights Denver,将创新者聚集在一起,边吃边喝边进行轻松交谈。由 Belong 支持的 3VO’s Mischief Minded Club Takeover 是一个为社区代币化领导者举办的高级别社交派对。对于纯粹寻求乐趣的人来说,BEMO Rave(与 Berachain 等合作)和 rAIve the Night(一个以 AI 为主题的锐舞派对)让加密人群跳舞到深夜——将音乐、艺术和加密文化融为一体。
  • 特殊兴趣聚会: 小众社区也找到了自己的空间。Meme Combat 是一个纯粹为 Meme 爱好者举办的活动,庆祝 Meme 在加密世界中的作用。House of Ink 迎合了 NFT 艺术家和收藏家,将一个沉浸式艺术场馆(Meow Wolf Denver)变成了数字艺术的展示平台。2 月 26 日的 SheFi Summit 汇集了 Web3 领域的女性进行演讲和交流,得到了 World of Women 和 Celo 等团体的支持——凸显了对多样性和包容性的承诺。
  • 投资者与内容创作者聚会: 我们已经提到了 VC 活动;此外,2 月 28 日的 KOL(关键意见领袖)聚会让加密影响者和内容创作者讨论参与策略,展示了社交媒体与加密社区的交集。

至关重要的是,这些周边活动不仅仅是娱乐——它们本身常常成为思想和关系的孵化器。例如,2025 年代币化资本峰会深入探讨了链上资本市场的未来,很可能激发了与会的金融科技企业家和区块链开发者之间的合作。链上游戏黑客之家为游戏开发者提供了一个分享最佳实践的空间,这可能会导致区块链游戏项目之间的交叉授粉。

对于参加大型会议的专业人士来说,ETHDenver 的模式强调了价值在主舞台之外和舞台之上同样重要。广泛的非官方活动让与会者可以定制自己的体验——无论目标是会见投资者、学习新技能、寻找联合创始人,还是只是放松和建立友谊,总有一个活动适合你。许多资深人士建议新手:“不要只听讲座——去参加聚会,打个招呼。”在一个像 Web3 这样由社区驱动的空间里,这些人际关系往往会转化为 DAO 合作、投资交易,或者至少是跨越大陆的持久友谊。ETHDenver 2025 充满活力的周边场景放大了核心会议的影响,将丹佛的一周变成了一场多维度的创新盛宴

关键要点与可行洞见

ETHDenver 2025 展示了一个创新与协作全面开花的 Web3 行业。对于该领域的专业人士来说,从这次深度剖析中可以得出几个明确的要点和行动项:

  • 趋势多样化: 本次活动清楚地表明,Web3 不再是单一的。AI 集成、DePIN 和 RWA 代币化等新兴领域与 DeFi 和 NFT 同样突出。可行洞见:保持信息灵通和适应性。 领导者应将研发或投资分配到这些新兴垂直领域(例如,探索 AI 如何增强他们的 dApp,或者现实世界资产如何整合到 DeFi 平台中),以抓住下一波增长浪潮。
  • 跨链是未来: 随着主要的非以太坊协议积极参与,生态系统之间的壁垒正在降低。互操作性和多链用户体验获得了巨大关注,从 MetaMask 增加对 Bitcoin/Solana 的支持,到 Polkadot 和基于 Cosmos 的链吸引以太坊开发者。可行洞见:为多链世界设计。 项目应考虑能够利用其他链上流动性和用户的集成或桥梁,专业人士也应寻求跨社区的合作,而不是固步自封。
  • 社区与公共物品至关重要: “再生者之年”的主题不仅仅是口号——它通过公共物品资助讨论、黑客松的二次方投票以及像 SheFi Summit 这样的活动渗透到内容中。道德、可持续发展和社区所有权是以太坊精神的核心价值观。可行洞见:融入再生原则。 无论是通过支持开源倡议、使用公平启动机制,还是将商业模式与社区增长相结合,Web3 公司都可以通过不纯粹是榨取性的方式获得好感和长久发展。
  • 投资者情绪——谨慎而大胆: 尽管有熊市的传言,ETHDenver 表明VC 们正在积极寻找并愿意在 Web3 的下一篇章中下大注。然而,他们也在重新思考如何投资(例如,更具战略性,可能对产品市场契合度有更多监督,并对社区融资持开放态度)。可行洞见:如果你是初创公司,专注于基本面和讲故事。 脱颖而出的项目有明确的用例,并且通常有可行的原型(有些是在一个周末内构建的!)。如果你是投资者,这次会议证实了基础设施(L2、安全、开发者工具)仍然是高优先级,但通过在 AI、游戏或社交领域的论点来差异化,可以将基金定位在前沿。
  • 开发者体验正在改善: ETHDenver 重点介绍了许多新的工具包、SDK 和框架,降低了 Web3 开发的门槛——从账户抽象工具到链上 AI 库。可行洞见:利用这些资源。 团队应尝试最新发布的开发者工具(例如,尝试 zkSync Smart SSO 以实现更轻松的登录,或使用开放代理联盟的资源进行 AI 项目),以加速开发并保持竞争优势。此外,公司应继续参与黑客松和开放的开发者论坛,作为寻找人才和创意的途径;ETHDenver 将黑客转变为创始人的成功就是该模式的证明。
  • 周边活动的力量: 最后,周边活动的爆炸式增长在社交方面给我们上了一堂重要的课——机会常常出现在非正式场合。在欢乐时光的偶然相遇或在小型聚会上的共同兴趣,都可能创造出职业生涯中决定性的联系。可行洞见:对于参加行业会议的人来说,计划要超越官方议程。 确定与你的目标相符的周边活动(无论是会见投资者、学习小众技能,还是招聘人才),并积极参与。正如在丹佛所见,那些完全沉浸在这一周生态系统中的人,带走的不仅是知识,还有新的合作伙伴、员工和朋友。

总之,ETHDenver 2025 是 Web3 行业发展势头的缩影——融合了前沿技术讨论、热情的社区活力、战略性投资举措,以及一种将严肃创新与乐趣相结合的文化。专业人士应将此次活动的趋势和洞见视为 Web3 未来走向的路线图。可行的下一步是采纳这些学习成果——无论是对 AI 的新关注、与 L2 团队建立的联系,还是从黑客松项目中获得的灵感——并将其转化为战略。本着 ETHDenver 最喜欢的座右铭精神,是时候在这些洞见的基础上 #BUIDL,并帮助塑造丹佛众多人共同构想的去中心化未来。

Altera.al 正在招聘:加入数字人类发展先锋(60万至100万美元薪酬)

· 阅读需 3 分钟

我们很高兴分享 Altera.al 的一项变革性机会——这是一家突破性的 AI 初创公司,近期因其在数字人类开发方面的开创性工作而受到广泛关注。Altera.al 最近被《MIT Technology Review》报道,展示了在创建能够表现类人行为、形成社区并在数字空间中进行有意义互动的 AI 代理方面取得的显著进展。

Altera.al: 加入数字人类发展先锋,薪酬 60 万至 100 万美元

关于 Altera.al

Altera.al 由罗伯特·杨创立,他曾是麻省理工学院计算神经科学系的助理教授,为了追求这一愿景而离职。公司已从包括 A16Z 和埃里克·施密特的前沿科技风险投资公司在内的知名投资者那里获得了超过 1100 万美元的融资。最近的 Sid 项目演示展示了 AI 代理在 Minecraft 中自发形成专门角色、建立社交联系,甚至创造文化体系——这标志着实现真正自主、可大规模协作的 AI 代理目标的重要一步。

为什么现在是加入的绝佳时机

Altera.al 在开发具备基本人类特质的机器方面取得了重要技术突破。他们的工作超越了传统 AI 开发——他们正在打造能够:

  • 形成社区和社会层级
  • 发展专门的角色与职责
  • 创造并传播文化模式
  • 在数字空间中与人类进行有意义的互动

招聘需求

在近期突破之后,Altera.al 正在扩大团队规模,并提供 60 万至 100 万美元的优厚薪酬套餐,面向以下人才:

  • AI 代理研究专家
  • 在以下领域具备强大个人贡献能力的工程师:
    • 分布式系统
    • 安全
    • 操作系统

如何申请

准备好加入这段开创性旅程了吗?请直接通过他们的招聘页面申请:https://jobs.ashbyhq.com/altera.al

加入数字人类发展的未来

这是一次在人工智能与人类行为建模交叉领域工作的独特机会,团队已经展示了令人瞩目的成果。如果你热衷于推动 AI 与人机交互的边界,Altera.al 可能是你的下一个冒险。


想获取更多科技和区块链领域的突破性机会,请关注我们的 Twitter 或加入我们的 Discord 社区。

本帖是我们持续致力于支持创新并将人才与科技行业变革性机会相连接的一部分。

A16Z的加密2025展望:可能重塑下一个互联网的十二个想法

· 阅读需 8 分钟

每年,a16z 都会发布关于定义我们未来的技术的宏大预测。这一次,他们的加密团队描绘了一幅 2025 年区块链、人工智能和先进治理实验相互碰撞的生动画面。

我在下面总结并评论了他们的关键洞见,聚焦于我认为的改变杠杆——以及可能的绊脚石。如果你是技术构建者、投资者,或仅仅对下一波互联网感到好奇,这篇文章适合你。

1. AI 与加密钱包的结合

关键洞见:AI 模型正从后台的“NPC”转变为“主角”,在在线(甚至可能是实体)经济中独立行动。这意味着它们需要自己的加密钱包。

  • 这意味着:AI 不再只是输出答案,它可能持有、支出或投资数字资产——代表其人类所有者或完全自主操作。
  • 潜在收益:更高效的“代理 AI”可以帮助企业进行供应链协调、数据管理或自动化交易。
  • 需警惕:如何确保 AI 真正自主,而不是被人暗中操控?可信执行环境(TEE)可以提供技术保证,但让人们信任“带钱包的机器人”不会一蹴而就。

2. 去中心化自治聊天机器人(DAC)的崛起

关键洞见:在 TEE 中自主运行的聊天机器人可以自行管理密钥、在社交媒体发布内容、获取粉丝,甚至产生收入——全部无需直接的人类控制。

  • 这意味着:想象一个 AI 网红,它不会被任何个人沉默,因为它真正掌控自己。
  • 潜在收益:内容创作者不再是个人,而是拥有数百万(甚至数十亿美元)估值的自我治理算法。
  • 需警惕:如果 AI 触犯法律,谁承担责任?当“实体”是一段分布式服务器上的代码时,监管的护栏将异常棘手。

3. 人格证明(Proof of Personhood)变得必不可少

关键洞见:AI 降低了生成超逼真伪造品的成本,我们需要更好的方式来验证在线交互对象是真正的人类。隐私保护的唯一身份标识应运而生。

  • 这意味着:每位用户最终可能拥有一个经过认证的“人类印章”——希望在不牺牲个人数据的前提下实现。
  • 潜在收益:这可以大幅降低垃圾信息、诈骗和机器人军团的数量,为更可信的社交网络和社区平台奠定基础。
  • 需警惕:采纳是最大障碍。即便是最好的身份验证方案,也需要广泛接受,才能在恶意行为者超前之前发挥作用。

4. 从预测市场到更广泛的信息聚合

关键洞见:2024 年因选举驱动的预测市场抢占头条,但 a16z 看到更大的趋势:利用区块链设计新的真相揭示与聚合方式——无论是治理、金融还是社区决策。

  • 这意味着:分布式激励机制可以奖励人们提供诚实的输入或数据。我们可能会看到针对本地传感网络到全球供应链的专属“真相市场”。
  • 潜在收益:为社会提供更透明、难以被游戏的数据层。
  • 需警惕:流动性和用户参与度仍是挑战。对于小众问题,“预测池”可能规模太小,难以产生有意义的信号。

5. 企业级稳定币

关键洞见:稳定币已经是转移数字美元的最便宜方式,但大型企业尚未广泛采用——尚未

  • 这意味着:中小企业和高交易额商户可能会意识到,通过使用稳定币可以节省大量信用卡费用。年收入数十亿美元的企业同样如此,甚至可能为其利润底线提升 2%。
  • 潜在收益:更快、更便宜的全球支付,加上一波基于稳定币的金融产品创新。
  • 需警惕:企业需要新的欺诈防护、身份验证和退款机制——这些过去由信用卡提供商承担。

6. 区块链上的政府债券

关键洞见:政府探索链上债券可以创建带利息的数字资产,且不涉及央行数字货币的隐私问题。

  • 这意味着:链上债券可以在 DeFi 中作为高质量抵押品,使主权债务无缝接入去中心化借贷协议。
  • 潜在收益:更高透明度、潜在的发行成本降低,以及更民主化的债券市场。
  • 需警惕:监管机构的怀疑态度以及大型机构的惯性。传统清算系统不会轻易消失。

7. ‘DUNA’——DAO 的法律支柱

关键洞见:怀俄明州推出了“去中心化未注册非营利协会”(DUNA)这一新类别,旨在为美国的 DAO 提供法律地位。

  • 这意味着:DAO 现在可以持有资产、签订合同,并限制代币持有者的责任。这为更主流的使用和真实商业活动打开了大门。
  • 潜在收益:如果其他州效仿怀俄明(正如它们对 LLC 的做法),DAO 将成为普通商业实体。
  • 需警惕:公众对 DAO 的认知仍模糊。它们需要成功项目的记录,以转化为现实世界的价值。

8. 实体世界的流动民主

关键洞见:基于区块链的治理实验可能从线上 DAO 社区扩展到地方选举。选民可以委托投票或直接投票——“流动民主”。

  • 这意味着:更灵活的代表制。你可以选择在特定议题上投票,或将责任交给你信任的人。
  • 潜在收益:可能提升公民参与度和动态政策制定。
  • 需警惕:安全顾虑、技术素养以及将区块链与官方选举混合的普遍怀疑。

9. 基于现有基础设施构建(而非重新发明)

关键洞见:创业公司常常花时间重新打造底层技术(共识协议、编程语言),而不是专注于产品‑市场匹配。到 2025 年,他们将更多采用现成组件。

  • 这意味着:更快的上市速度、更可靠的系统以及更高的可组合性。
  • 潜在收益:减少从零构建新区块链的时间;将更多精力投入到要解决的用户问题上。
  • 需警惕:为了性能提升而过度专化是诱人的。但专用语言或共识层会给开发者带来更高的维护成本。

10. 用户体验优先,基础设施其次

关键洞见:加密需要“隐藏线路”。我们不会让消费者学习 SMTP 来发送邮件——为何要强迫他们学习 “EIP” 或 “rollup”?

  • 这意味着:产品团队会选择服务于卓越用户体验的技术底层,而不是相反。
  • 潜在收益:用户 onboarding 大幅提升,降低摩擦和行话。
  • 需警惕: “建好它他们就会来” 只有在真正打磨好体验时才成立。所谓的 “轻松加密 UX” 的营销口号毫无意义,如果用户仍需管理私钥或记忆晦涩缩写。

11. 加密自己的应用商店出现

关键洞见:从 Worldcoin 的 World App 市场到 Solana 的 dApp Store,加密友好平台提供了不受 Apple 或 Google 审核限制的分发与发现渠道。

  • 这意味着:如果你在构建去中心化应用,可以在不担心被突然下架的情况下触达用户。
  • 潜在收益:成千上万(甚至数十万)新用户在数天内发现你的 dApp,而不是在中心化应用商店的海洋中迷失。
  • 需警惕:这些商店需要足够的用户基数和动能,才能与 Apple、Google 竞争。这是巨大的门槛。硬件绑定(如专用加密手机)可能有所帮助。

12. 对‘非传统’资产进行代币化

关键洞见:随着区块链基础设施成熟、费用下降,对从生物特征数据到现实奇珍异宝的代币化变得更可行。

  • 这意味着:一条“长尾”独特资产可以被碎片化并在全球交易。人们甚至可以在受控、基于同意的方式下变现个人数据。
  • 潜在收益:为原本“锁定”的资产打开巨大的新市场,同时为 AI 提供有趣的新数据池。
  • 需警惕:隐私陷阱和伦理雷区。仅因为你可以代币化某物,并不意味着你应该这么做。

A16Z 的 2025 展望展示了一个正向更广泛采纳、更负责任治理以及更深度与 AI 融合的加密行业。相较于以往的投机或炒作周期,这一愿景围绕实用性展开:稳定币为商家每杯咖啡节省 2% 成本,AI 聊天机器人自行经营业务,地方政府尝试流动民主。

然而执行风险依然存在。全球监管机构仍保持警惕,用户体验仍然过于繁琐,难以触达主流。2025 可能是加密与 AI 终于“长大”的一年,也可能只是半步前进——这全取决于团队能否交付人们真正喜爱的产品,而非仅为行家打造的协议。

0G 的去中心化 AI 操作系统能否真正推动 AI 在链上大规模运行?

· 阅读需 13 分钟

背景

ChatGPT文心一言 (ERNIE Bot) 等大语言模型的推动下,AI 领域正处于飞速发展之中。然而,AI 不仅仅是聊天机器人和生成式文本;它还包括从 AlphaGo 的围棋胜利到 MidJourney 等图像生成工具的一切。许多开发者追求的终极目标是通用人工智能,即 AGI (Artificial General Intelligence) —— 通俗地被称为能够像人类智能一样进行学习、感知、决策和执行复杂任务的 AI “智能体” (Agent)。

然而,AI 和 AI Agent 应用都是极度 数据密集型 的。它们依赖海量数据集进行训练和推理。传统上,这些数据在中心化基础设施上存储和处理。随着区块链的出现,一种被称为 DeAI (去中心化 AI) 的新方法应运而生。DeAI 尝试利用去中心化网络进行数据存储、共享和验证,以克服传统中心化 AI 方案的弊端。

0G Labs 在 DeAI 基础设施领域脱颖而出,旨在构建一个被称为 0G去中心化 AI 操作系统

什么是 0G Labs?

在传统计算中,操作系统 (OS) 负责管理硬件和软件资源 —— 比如 Microsoft Windows、Linux、macOS、iOS 或 Android。操作系统抽象了底层硬件的复杂性,使最终用户和开发者能够更轻松地与计算机交互。

以此类推,0G OS 渴望在 Web3 中发挥类似的作用:

  • 管理 去中心化存储、计算和数据可用性。
  • 简化 链上 AI 应用程序的部署。

为什么要分去中心化? 传统的 AI 系统在中心化的孤岛中存储和处理数据,引发了对数据透明度、用户隐私以及数据提供者公平报酬的担忧。0G 的方法使用去中心化存储、加密证明和开放激励模型来降低这些风险。

名称 “0G” 代表 “Zero Gravity”(零重力)。团队设想了一个数据交换和计算感觉“无重量”的环境 —— 从 AI 训练到推理再到数据可用性,一切都在链上无缝进行。

0G 基金会 于 2024 年 10 月正式成立,负责推动这一倡议。其使命是将 AI 变成一种公共物品 —— 一种人人可及、可验证且开放的资源。

0G 操作系统的核心组件

从根本上说,0G 是一个专为支持链上 AI 应用而设计的模块化架构。它的 三大核心支柱 是:

  1. 0G Storage —— 一个去中心化存储网络。
  2. 0G DA (Data Availability) —— 一个确保数据完整性的专门数据可用性层。
  3. 0G Compute Network —— 用于 AI 推理(及未来的训练)的去中心化计算资源管理和结算系统。

这些支柱在名为 0G Chain 的 Layer1 网络 下协同工作,该网络负责共识和结算。

根据 0G 白皮书(“0G: Towards Data Availability 2.0”),0G Storage 和 0G DA 层都构建在 0G Chain 之上。开发者可以启动多个自定义的 PoS 共识网络,每个网络都作为 0G DA 和 0G Storage 框架的一部分运行。这种模块化方法意味着随着系统负载的增加,0G 可以动态添加新的验证者集或专门节点进行扩展。

0G Storage

0G Storage 是一个面向大规模数据的去中心化存储系统。它使用具有内置激励机制的分布式节点来存储用户数据。至关重要的是,它使用 纠删码 (Erasure Coding, EC) 将数据分割成 较小的、冗余的“数据块” (chunks),并将这些数据块分布在不同的存储节点上。如果某个节点发生故障,仍可以从冗余块中重建数据。

支持的数据类型

0G Storage 兼顾了 结构化非结构化 数据。

  1. 结构化数据 存储在 键值对 (KV) 层,适用于动态且频繁更新的信息(如数据库、协作文档等)。
  2. 非结构化数据 存储在 日志 (Log) 层,该层按时间顺序追加数据条目。这一层类似于针对大规模、仅追加工作负载而优化的文件系统。

通过在日志层之上堆叠 KV 层,0G Storage 可以服务于多样化的 AI 应用需求 —— 从存储大型模型权重(非结构化)到动态的用户数据或实时指标(结构化)。

PoRA 共识

PoRA (Proof of Random Access,随机存取证明) 确保存储节点确实持有它们声称存储的数据块。其工作原理如下:

  • 存储矿工会定期受到 挑战,要求生成他们存储的特定随机数据块的加密哈希。
  • 他们必须通过生成一个有效的哈希(类似于类 PoW 的解题过程)来响应,该哈希源自其本地存储的数据副本。

为了公平竞争,系统将挖矿竞争限制在 8 TB 的分段内。大型矿工可以将其硬件细分为多个 8 TB 的分区,而小型矿工则在单个 8 TB 边界内竞争。

激励设计

0G Storage 中的数据被分为 8 GB 的“定价分段”。每个分段都有一个 捐赠池 和一个 奖励池。希望存储数据的用户支付 0G 代币 (ZG) 费用,这部分费用为节点奖励提供资金。

  • 基础奖励: 当存储节点提交有效的 PoRA 证明时,它会获得该分段的即时区块奖励。
  • 持续奖励: 随着时间的推移,捐赠池会将其中的一部分(目前每年约 4%)释放到奖励池中,激励节点 永久 存储数据。存储特定分段的节点越少,每个节点能赚取的份额就越大。

用户只需支付 一次 永久存储费用,但必须设置高于系统最小值的捐赠费。捐赠越高,矿工复制用户数据的可能性就越大。

版税机制: 0G Storage 还包含一种“版税”或“数据共享”机制。早期存储提供商会为每个数据块创建“版税记录”。如果新节点想要存储相同的数据块,原始节点可以共享它。当新节点稍后证明已存储(通过 PoRA)时,原始数据提供者将收到持续的版税。数据被复制得越广泛,早期提供者的总奖励就越高。

与 Filecoin 和 Arweave 的比较

相似之处:

  • 三者都激励去中心化的数据存储。
  • 0G Storage 和 Arweave 都旨在实现 永久 存储。
  • 数据分块和冗余是标准方法。

关键区别:

  • 原生集成: 0G Storage 不是一个独立的区块链;它直接与 0G Chain 集成,主要支持以 AI 为核心的用例。
  • 结构化数据: 0G 支持基于 KV 的结构化数据以及非结构化数据,这对于许多需要频繁读写访问的 AI 工作负载至关重要。
  • 成本: 0G 声称永久存储费用为 10–11 美元/TB,据报道比 Arweave 更便宜。
  • 性能焦点: 专为满足 AI 吞吐量需求而设计,而 Filecoin 或 Arweave 是更通用的去中心化存储网络。

0G DA (数据可用性层)

数据可用性 确保每个网络参与者都可以完全验证和检索交易数据。如果数据不完整或被扣留,区块链的信任假设就会崩溃。

在 0G 系统中,数据被分块并存储在链下。系统记录这些数据块的默克尔树根 (Merkle roots),而 DA 节点必须对这些块进行 采样,以确保它们与默克尔根和纠删码承诺相匹配。只有这样,数据才被视为“可用”并被追加到链的共识状态中。

DA 节点选择与激励

  • DA 节点必须 质押 ZG 才能参与。
  • 它们通过可验证随机函数 (VRF) 被随机分配到不同的 法定人数 (quorums) 中。
  • 每个节点只验证数据的 子集。如果一个法定人数中 2/3 的成员确认数据可用且正确,他们会签署一个证明,该证明被聚合后提交给 0G 共识网络。
  • 奖励分配也通过定期采样进行。只有存储了随机采样数据块的节点才有资格获得该轮奖励。

与 Celestia 和 EigenLayer 的比较

0G DA 借鉴了 Celestia(数据可用性采样)和 EigenLayer(再质押)的思想,但旨在提供 更高的吞吐量。Celestia 的吞吐量目前在 10 MB/s 左右,区块时间约为 12 秒。同时,EigenDA 主要服务于 Layer2 解决方案,实现起来可能较为复杂。0G 设想实现 GB/s 级别的吞吐量,这更适合数据摄取量可能超过 50–100 GB/s 的大规模 AI 工作负载。

0G 计算网络

0G 计算网络 (0G Compute Network) 作为去中心化计算层。它的发展分为几个阶段:

  • 第一阶段: 专注于 AI 推理的结算。
  • 网络在去中心化市场中撮合“AI 模型买家”(用户)和计算提供商(卖家)。提供商在智能合约中注册其服务和价格。用户预存资金到合约中,消费服务,合约负责调解支付。
  • 随着时间的推移,团队希望扩展到完整的 链上 AI 训练,尽管这更为复杂。

批处理: 提供商可以批量处理用户请求以减少链上开销,从而提高效率并降低成本。

0G Chain

0G Chain 是一个 Layer1 网络,作为 0G 模块化架构的基础。它支撑着:

  • 0G Storage(通过智能合约)
  • 0G DA(数据可用性证明)
  • 0G Compute(结算机制)

根据官方文档,0G Chain 与 EVM 兼容,这使得需要高级数据存储、可用性或计算的 dApp 能够轻松集成。

0G 共识网络

0G 的共识机制颇为独特。它不是一个单一的单体共识层,而是可以在 0G 下启动 多个独立的共识网络 来处理不同的工作负载。这些网络共享相同的质押基础:

  • 共享质押 (Shared Staking): 验证者在以太坊上质押 ZG。如果验证者有不当行为,其在以太坊上质押的 ZG 可以被罚没 (slashed)。
  • 可扩展性: 可以启动新的共识网络以实现水平扩展。

奖励机制: 当验证者在 0G 环境中完成区块最终确认时,他们会获得代币。然而,他们在 0G Chain 上赚取的代币在本地环境中会被 销毁,而验证者的以太坊账户中会 铸造 出等量的代币,从而确保流动性和安全性的单一来源。

0G 代币 (ZG)

ZG 是一种 ERC-20 代币,代表了 0G 经济的支柱。它通过以太坊上的 智能合约 进行铸造、销毁和流通。具体而言:

  • 用户使用 ZG 支付存储、数据可用性和计算资源的费用。
  • 矿工和验证者通过证明存储或验证数据赚取 ZG。
  • 共享质押将安全模型关联回以太坊。

核心模块总结

0G OS 将存储、DA、计算和链这四个组件合并为一个相互连接的模块化堆栈。该系统的设计目标是 可扩展性,每一层都可以水平扩展。团队宣传其具有 “无限”吞吐量 的潜力,这对于大规模 AI 任务至关重要。

0G 生态系统

尽管 0G 生态系统 相对较新,但已经包含了关键的集成合作伙伴:

  1. 基础设施与工具:

    • Union、Brevis、Gevulot 等 ZK 解决方案
    • Axelar 等 跨链 解决方案
    • EigenLayer、Babylon、PingPong 等 再质押 (Restaking) 协议
    • IoNet、exaBits 等 去中心化 GPU 提供商
    • Hemera、Redstone 等 预言机 (Oracle) 解决方案
    • 以太坊 blob 数据的 索引 工具
  2. 使用 0G 进行数据存储和 DA 的项目:

    • 用于 L2 / L3 集成的 Polygon、Optimism (OP)、Arbitrum、Manta
    • 用于 Web3 基础设施的 Nodekit、AltLayer
    • 用于链上游戏的 Blade Games、Shrapnel

供应侧

ZK跨链 框架将 0G 连接到外部网络。再质押解决方案(如 EigenLayer、Babylon)加强了安全性,并可能吸引流动性。GPU 网络加速了纠删码(erasure coding)。预言机解决方案提供离线数据或参考 AI 模型定价。

需求侧

AI 代理 (AI Agents) 可以利用 0G 进行数据存储和推理。L2 和 L3 可以集成 0G 的 DA 以提高吞吐量。游戏 和其他需要稳健数据解决方案的 dApp 可以在 0G 上存储资产、日志或评分系统。一些项目已经与该项目建立了合作伙伴关系,这表明了早期的生态系统牵引力。

路线图与风险因素

0G 旨在使 AI 成为一种 公共事业 (public utility),任何人都可以访问和验证。团队渴望实现 GB/s 级别的 DA 吞吐量——这对于可能需要 50–100 GB/s 数据传输的实时 AI 训练至关重要。

联合创始人兼首席执行官 Michael Heinrich 表示,AI 的爆发式增长使得及时的迭代变得至关重要。AI 创新的速度很快;0G 自身的开发进度必须跟上。

潜在的权衡:

  • 当前对 共享质押 (shared staking) 的依赖可能是一个中间方案。最终,0G 计划引入一个可水平扩展的共识层,该层可以增量增强(类似于启动新的 AWS 节点)。
  • 市场竞争: 去中心化存储、数据可用性和计算领域存在许多专门的解决方案。0G 的全方位(all-in-one)方法必须保持竞争力。
  • 采用与生态系统增长: 如果没有强大的开发者牵引力,所承诺的“无限吞吐量”仍将停留在理论阶段。
  • 激励措施的可持续性: 节点的持续动力取决于真实的用户需求和平衡的代币经济。

结论

0G 尝试将去中心化存储、数据可用性和计算统一到支持链上 AI 的单个“操作系统”中。通过瞄准 GB/s 吞吐量,团队寻求突破目前阻碍大规模 AI 迁移到链上的性能瓶颈。如果成功,0G 可以通过提供 可扩展、集成且对开发者友好 的基础设施,显著加速 Web3 AI 浪潮。

尽管如此,仍有许多悬而未决的问题。“无限吞吐量”的可行性取决于 0G 的模块化共识和激励结构是否能够无缝扩展。外部因素——市场需求、节点正常运行时间、开发者采用率——也将决定 0G 的持久力。尽管如此,0G 解决 AI 数据瓶颈的方法是新颖且雄心勃勃的,预示着链上 AI 的一个充满希望的新范式。