跳到主要内容

79 篇博文 含有标签「AI」

人工智能和机器学习应用

查看所有标签

200 亿美元预测市场之战:Kalshi 与 Polymarket 如何将信息转化为华尔街最新的资产类别

· 阅读需 10 分钟
Dora Noda
Software Engineer

当洲际交易所(Intercontinental Exchange)——纽约证券交易所的母公司——在 2025 年 10 月向 Polymarket 开出 20 亿美元的支票时,它押注的不仅仅是一家加密初创公司。它是在为一个更宏大的愿景买单:将信息本身转化为一种可交易的资产类别。六个月后,预测市场的周交易量已达到 59 亿美元,AI 代理贡献了 30% 的交易,对冲基金正利用这些平台以比国债期货更精准的方式对冲美联储的决策。

欢迎来到信息金融(Information Finance)——这是加密领域增长最快的板块,也可能是自稳定币主流化以来最具影响力的基础设施变革。

从投机赌场到机构级基础设施

数据揭示了一个已经实现根本性转型的行业。在 2024 年,预测市场还只是小众的玩物——对于政治发烧友来说很有趣,但被严肃资金所不屑。到 2026 年 1 月,Piper Sandler 预计该行业今年的合约成交量将超过 4450 亿份,名义交易额达 2225 亿美元——高于 2025 年的 950 亿份合约。

催化剂有三点:

监管明晰化:2025 年的《CLARITY 法案》正式将事件合约归类为 CFTC(美国商品期货交易委员会)监管下的“数字商品”。这一监管绿灯解决了曾让大型银行观望的合规障碍。Kalshi 在 2025 年 5 月战胜 CFTC 的法律胜利确立了事件合约是衍生品而非博彩——这创造了一个联邦先例,允许该平台在全国范围内运营,而体育博彩则面临各州逐一授权的困境。

机构投资:Polymarket 从洲际交易所(ICE)获得了 20 亿美元融资,估值达 90 亿美元,纽交所母公司将预测数据整合到了机构数据源中。不甘示弱的 Kalshi 在两轮融资中筹集了 13 亿美元——10 月份筹集了 3 亿美元,随后在 12 月份从 Paradigm、a16z、Sequoia 和 ARK Invest 筹集了 10 亿美元——估值达到 110 亿美元。目前,这两个平台的总价值已达 200 亿美元。

AI 集成:自主 AI 系统现在贡献了总交易量的 30% 以上。诸如 RSS3 的 MCP 服务器等工具使 AI 代理能够扫描新闻源并在无需人工干预的情况下执行交易——将预测市场转变为 24/7 全天候的信息处理引擎。

预测大战:Kalshi vs. Polymarket

截至 2026 年 1 月 23 日,竞争异常激烈。Kalshi 占据了 66.4% 的市场份额,周交易量超过 20 亿美元。然而,Polymarket 有大约 47% 的概率在年底成为交易量领导者,而 Kalshi 的概率为 34%。Robinhood 等后来者正占领 20% 的市场份额——这提醒人们,这个领域仍处于开放竞争状态。

这些平台各自开辟了不同的细分市场:

Kalshi 作为受 CFTC 监管的交易所运营,使其能够接触到美国散户交易者,但也受到更严格的监督。其 430 亿美元名义交易额中约 90% 来自体育相关的事件合约。内华达州和康涅狄格州的博彩监管机构已发出停止令,认为这些合约与无证博彩重合——这种法律摩擦带来了不确定性。

Polymarket 运行在加密网络(Polygon)上,提供全球范围内的无许可访问,但在关键市场面临监管压力。欧洲的 MiCA 法规要求其在 2026 年进入欧盟市场必须获得全面授权。该平台的去中心化架构提供了抗审查性,但在合规要求极高的司法管辖区限制了机构的采用。

双方都在押注,长期的机会远不止于目前的焦点。真正的奖赏不是体育博彩或选举市场——而是成为集体信念的“彭博终端(Bloomberg terminal)”。

对冲不可对冲的风险:华尔街如何利用预测市场

最具革命性的发展并非交易量的增长,而是传统衍生品无法支持的新型对冲策略的出现。

美联储利率对冲:目前的 Kalshi 赔率显示,美联储在 1 月 28 日会议上维持利率不变的概率为 98%。但真正的行动集中在 2026 年 3 月的合约上,其中 74% 的概率显示将降息 25 个基点,这为担心增长放缓的人创造了高额对冲地带。大型基金利用这些二元合约——美联储要么降息,要么不降息——以比国债期货更精准的方式为投资组合“去风险”。

通胀保险:在 2025 年 12 月 CPI 数据显示为 2.7% 后,Polymarket 用户正积极交易 2026 年通胀上限。目前定价显示,通胀反弹并全年保持在 3% 以上的概率为 30%。与需要机构门槛的传统通胀掉期不同,这些合约只需 1 美元即可参与——允许个人投资者为他们的生活成本支出购买“通胀保险”。

政府停摆保护:零售商通过预测合约抵消政府停摆风险。抵押贷款机构对冲监管决策。科技投资者利用 CPI 合约保护股票投资组合。

速度优势:在整个 2025 年,预测市场在主流财经媒体反应过来前几周,就成功预判了三次美联储政策转向。这种“速度差”正是 Saba Capital Management 等公司现在直接利用 Kalshi 的 CPI 合约来对冲通胀,绕过债市代理工具复杂性的原因。

AI 驱动的信息预言机

2026 年预测市场与以往最大的不同之处,或许莫过于 AI 的集成。自主系统不仅是在参与,它们还在从根本上改变这些市场的运作方式。

AI 代理贡献了超过 30% 的交易量,它们扫描新闻资讯、社交媒体和经济数据,执行交易的速度远超人类交易者处理信息的速度。这创造了一个自我强化的循环:AI 驱动的流动性吸引了更多的机构资金流,从而改善了价格发现功能,反过来又使 AI 策略更具盈利性。

其影响超出了交易本身:

  • 实时情绪分析:企业将 AI 驱动的预测反馈集成到仪表板中,用于内部风险评估和销售预测
  • 机构数据授权:平台将丰富的市场数据作为 Alpha 信号授权给对冲基金和交易公司
  • 自动化新闻响应:在重大公告发布的几秒钟内,预测价格就会进行调整——通常早于传统市场的反应

这层 AI 也是为何 Bernstein 的分析师认为“区块链底层架构、AI 分析和新闻反馈”并非互不相关的趋势——它们正在预测平台内部融合,创造出一种全新的金融基础设施类别。

超越博彩:信息作为一种资产类别

从“投机赌场”向“信息基础设施”的转型反映了一个更深层次的洞察:预测市场能够为其他工具无法定价的事物进行定价。

传统衍生品可以让你对冲利率变动、汇率波动和商品价格。但它们在对冲以下方面表现糟糕:

  • 监管决策(新关税、政策变化)
  • 政治结果(选举、组阁)
  • 经济意外(CPI 数据、就业数据)
  • 地缘政治事件(冲突、贸易协定)

预测市场填补了这一空白。关注通胀影响的零售投资者可以花费几美分购买“CPI 超过 3.1%”的合约,这实际上是购买了通胀保险。一家担心贸易政策的跨国公司可以直接对冲关税风险。

这就是为什么洲际交易所 (ICE) 将 Polymarket 的数据集成到机构信息流中的原因——这与博彩平台无关,而与信息层有关。预测市场比民意调查、问卷调查或分析师预测更能高效地聚集信念。它们正成为经济预测的实时真相层。

风险与监管平衡木

尽管增长迅猛,但重大风险依然存在:

监管套利:Kalshi 的联邦先例并不能保护其免受州级博彩监管机构的影响。内华达州和康涅狄格州的禁制令信号预示着潜在的管辖权冲突。如果预测市场在关键州被归类为赌博,国内零售市场可能会四分五裂。

集中度风险:随着 Kalshi 和 Polymarket 的总估值达到 200 亿美元,该行业高度集中。针对任一平台的监管行动都可能导致全行业的信心崩盘。

AI 操纵:由于 AI 贡献了 30% 的交易量,市场诚信问题随之而来。AI 代理会串通吗?平台如何检测自主系统的协同操纵?这些治理问题仍未得到解决。

加密货币依赖:Polymarket 对加密货币底层架构(Polygon、USDC)的依赖,将其命运与加密市场状况和稳定币监管结果紧密联系在一起。如果 USDC 面临限制,Polymarket 的结算基础设施将变得充满不确定性。

下一步:2220 亿美元的机遇

发展轨迹已清晰明了。Piper Sandler 预测 2026 年名义交易量将达到 2225 亿美元,这将使预测市场规模超过许多传统衍生品类别。以下是值得关注的几个发展方向:

新市场类别:除了政治和美联储决策外,预计会出现针对气候事件、AI 发展里程碑、企业财报意外和技术突破的预测市场。

银行集成:主要银行由于合规问题,此前大多处于观望状态。如果监管透明度持续提高,预计将出现针对机构预测交易的托管和主经纪商服务。

保险产品:预测合约与保险之间的界限很模糊。基于预测市场基础设施的参数化保险产品可能会出现——例如根据震级读数赔付的地震保险,或与天气结果挂钩的农作物保险。

全球扩张:Kalshi 和 Polymarket 目前主要专注于美国市场。国际扩张——特别是在亚洲和拉美地区——代表着巨大的增长潜力。

2026 年的预测市场之争不在于谁处理了更多的体育博彩,而在于谁为“信息金融 (Information Finance)”构建了基础设施——在这个资产类别中,信念变得可交易、可对冲,并最终可以货币化。

信息第一次有了市场价格。而这将改变一切。


对于在支撑预测市场和 DeFi 应用的区块链基础设施上进行开发的开发者来说,BlockEden.xyz 跨 Ethereum、Polygon 和其他链提供企业级 API 服务——这些正是像 Polymarket 这样的平台所依赖的基础层。

Sui 为自主智能打造的量子就绪基础

· 阅读需 30 分钟
Dora Noda
Software Engineer

Sui 区块链凭借其基础性的密码学敏捷性和以对象为中心的架构,在竞争对手中脱颖而出,使其成为唯一一个同时推进人工智能集成、机器人协调和抗量子安全的主要 Layer 1 区块链。这并非营销定位,而是架构现实。联合创始人兼首席密码学家 Kostas "Kryptos" Chalkias 自 Sui 诞生之初就系统地将这些能力融入其核心设计,创建了他所描述的“速度甚至超越 Visa”的基础设施,同时在未来十年内抵御可能“摧毁所有现代密码学”的量子威胁。

技术基础已准备就绪:390 毫秒的共识最终性实现了实时 AI 代理协调,并行执行在峰值时每秒处理 297,000 笔交易,而 EdDSA 签名方案则提供了一条无需硬分叉即可迁移到后量子密码学的成熟路径。与此同时,比特币和以太坊面临着量子计算带来的生存威胁,且没有向后兼容的升级路径。Chalkias 的愿景围绕三个融合的支柱:AI 作为协调层、需要亚秒级最终性的自主机器人系统,以及在 2035 年及以后仍保持安全的密码学框架。他在会议、研究论文和技术实现中的声明揭示的并非投机性承诺,而是 Mysten Labs 于 2022 年成立时所确立路线图的系统性执行。

这超越了区块链部落主义的范畴。到 2030 年,NIST 强制要求废弃当前的加密标准。从制造机器人到 AI 代理的自主系统将需要大规模的无需信任协调。Sui 的架构同时解决了这两个必然性,而竞争对手则争相改造解决方案。问题不在于这些技术是否会融合,而在于哪些平台能在融合中保持完整。

以“Kryptos”为子命名的密码学家

Kostas Chalkias 为区块链与新兴技术的交叉领域带来了非凡的信誉。在共同创立 Mysten Labs 之前,他曾担任 Meta Diem 项目和 Novi 钱包的首席密码学家,在 R3 的 Corda 区块链与 Mike Hearn(与中本聪相关的比特币首批开发者之一)合作,并拥有基于身份密码学的博士学位,发表了 50 多篇科学论文,拥有 8 项美国专利,并被学术引用 1,374 次。他对该领域的奉献甚至延伸到给儿子取名 Kryptos——“我如此深入地研究区块链和密码学技术,以至于我真的说服了我的妻子生一个名叫 Kryptos 的孩子,”他在 Sui 博客采访中解释道。

他的职业轨迹表明,他始终专注于大规模的实用密码学。在 Facebook,他为 WhatsApp 构建了安全基础设施,并为数十亿用户提供了身份验证系统。在 R3,他为企业区块链开创了零知识证明和后量子签名。他的早期职业生涯包括创立 Betmanager,一个利用股市技术预测足球结果的 AI 平台——这段经历为他目前对区块链-AI 集成的看法提供了信息。这种 AI 经验、生产级密码学和区块链基础设施的结合,使他能够独特地设计连接这些领域的系统。

Chalkias 的技术理念强调“密码学敏捷性”——将灵活性融入基础协议,而不是假设其永久性。在布拉格的 Emergence 大会(2024 年 12 月)上,他阐述了这一世界观:“最终,区块链的交易速度将超越 Visa。这将成为常态。我看不出我们如何能摆脱这一点。”但仅仅速度是不够的。他的工作始终将性能与前瞻性安全性相结合,认识到量子计算机带来的威胁需要今天就采取行动,而不是等到危险真正出现。这种双重关注——当前性能和未来弹性——定义了 Sui 在 AI、机器人和抗量子方面的架构决策。

为智能代理构建的架构

Sui 的技术基础与以太坊和 Solana 等基于账户的区块链根本不同。每个实体都作为一个具有全球唯一 32 字节 ID、版本号、所有权字段和类型化内容的对象存在。这种以对象为中心的模型并非审美偏好,而是实现大规模并行执行的推动力。当 AI 代理作为自有对象运行时,它们完全绕过共识进行单写入操作,实现约 400 毫秒的最终性。当多个代理通过共享对象进行协调时,Sui 的 Mysticeti 共识提供 390 毫秒的延迟——仍然是亚秒级,但通过拜占庭容错协议实现。

Move 编程语言最初由 Meta 为 Diem 开发,并为 Sui 进行了增强,在类型系统层面强制执行资源安全。未经许可,资产不能被意外复制、销毁或创建。对于管理有价值数据或模型权重的 AI 应用程序,这可以防止困扰 Solidity 智能合约的整个漏洞类别。Chalkias 在迪拜的 Sui Basecamp 2025 上强调了这一点:“我们从第一天起就在 Sui 内部引入了零知识证明和隐私保护技术。因此,现在任何人都可以创建一个具有他们所需隐私程度的 KYC 系统。”

并行交易执行通过显式依赖声明达到理论极限。与需要追溯验证的乐观执行不同,Sui 的调度器通过唯一的对象 ID 预先识别不重叠的交易。独立操作在验证器核心上并发执行,互不干扰。该架构在测试中展示了297,000 TPS 的峰值吞吐量——这不是理论最大值,而是在生产硬件上测得的性能。对于 AI 应用程序,这意味着数千个推理请求同时处理,多个自主代理无需阻塞即可协调,并且实时决策以人类可感知的速度运行。

Mysticeti 共识协议于 2024 年推出,实现了 Chalkias 及其合著者在数学上证明的最佳结果:三轮消息即可完成提交。通过消除显式区块认证并实现未经认证的 DAG 结构,Mysticeti 将延迟从之前的 Narwhal-Bullshark 共识减少了 80%。该协议每轮而不是每两轮提交区块,使用源自 DAG 模式的直接和间接决策规则。对于需要实时控制反馈的机器人应用,这种亚秒级最终性变得不可协商。在 2025 年韩国区块链周期间,Chalkias 将 Sui 定位为“应用程序和 AI 的协调层”,强调支付、游戏和 AI 领域的合作伙伴如何利用这一性能基础。

Walrus:解决 AI 的数据问题

AI 工作负载需要与传统区块链经济学不兼容的存储规模。训练数据集跨越 TB 级,模型权重需要 GB 级,推理日志迅速累积。Sui 通过 Walrus 解决此问题,Walrus 是一种去中心化存储协议,使用擦除码实现 4-5 倍的复制,而不是链上存储典型的 100 倍复制。 “Red Stuff”算法将数据分割成碎片,分布在存储节点上,即使 2/3 的节点不可用,数据仍可恢复。元数据和可用性证明存储在 Sui 区块链上,而实际数据驻留在 Walrus 中,从而创建了 PB 级可加密验证的存储。

在 Walrus 测试网的第一个月,网络在25 个以上社区节点上存储了超过 4,343 GB 的数据,验证了该架构的可行性。TradePort、Tusky 和 Decrypt Media 等项目集成了 Walrus 用于媒体存储和检索。对于 AI 应用程序,这实现了实际场景:将训练数据集代币化为可编程资产,许可条款编码在智能合约中;模型权重通过版本控制持久化;推理结果不可变地记录用于审计追踪;以及经济高效地存储 AI 生成内容。Atoma Network 的 AI 推理层作为 Sui 的首个区块链集成合作伙伴,利用这一存储基础进行自动化代码生成、工作流自动化和 DeFi 风险分析。

这种集成超越了存储,延伸到计算编排。Sui 的可编程交易块(PTB)原子性地捆绑多达 1,024 个异构操作,执行全部或不执行任何操作。一个 AI 工作流可以从 Walrus 检索训练数据,在智能合约中更新模型权重,在链上记录推理结果,并向数据贡献者分发奖励——所有这些都在一个原子交易中完成。这种可组合性,结合 Move 的类型安全,为复杂的 AI 系统创建了构建块,而没有其他环境中跨合约调用的脆弱性。

在 Just The Metrics 播客(2025 年 7 月)中,Chalkias 强调能力而非营销,指出“医疗保健数据管理中的低效率”是实际应用领域。医疗保健 AI 需要跨机构协调、敏感数据的隐私保护以及监管合规的可验证计算。Sui 的架构——结合链上协调、Walrus 存储和零知识隐私——从技术层面而非概念层面解决了这些要求。2024 年宣布的 Google Cloud 合作强化了这一方向,将 Sui 数据集成到 BigQuery 进行分析,并使用 Move 语言训练 Google 的 Vertex AI 平台以进行 AI 辅助开发。

当机器人需要亚秒级结算时

机器人愿景通过技术能力而非已宣布的合作关系更具体地实现。Sui 的对象模型将机器人、工具和任务表示为具有细粒度访问控制的一等链上公民。与机器人通过账户级权限进行交互的基于账户的系统不同,Sui 的对象支持从基本操作到具有多重签名要求的完全控制的多级权限系统。PassKeys 和 FaceID 集成支持人机协作场景,而 zkTunnels 则实现无 Gas 的命令传输,用于实时远程操作。

在社交媒体讨论中,Chalkias(以“Kostas Kryptos”身份发帖)透露,来自 NASA、Meta 和 Uber 背景的 Sui 工程师正在网络上测试狗形四足机器人。基于对象的架构适用于机器人协调:每个机器人拥有代表其状态和能力的对象,任务作为具有执行参数的可转移对象存在,资源分配通过对象组合而非集中协调进行。一个制造工厂可以部署机器人群,其中每个单元自主接受任务,通过共享对象与同行协调,通过密码学验证执行操作,并结算所提供服务的微支付——所有这些都无需中央机构或人工干预。

在 Sui Basecamp 2025 和 London Real 播客(2025 年 4 月)中讨论的“无网络”交易模式解决了机器人技术的实际限制。Chalkias 描述了该系统如何在西班牙和葡萄牙停电期间保持功能,交易大小通过预设格式优化到单个字节。对于在灾区、农村地区或连接不可靠环境中运行的自主系统,这种弹性变得至关重要。机器人可以进行点对点交易以实现即时协调,并在连接恢复时与更广泛的网络同步。

3DOS 项目在实践中例证了这一愿景:一个基于区块链的 3D 打印网络,实现按需制造,机器自主打印零件。未来的迭代设想能够检测组件故障、通过智能合约订购替换件、通过链上发现识别附近的 3D 打印机、协调打印和交付以及安装组件的自修复机器人——所有这些都自主进行。这并非科幻小说,而是现有能力的逻辑延伸:ESP32 和 Arduino 微控制器集成已支持基本的物联网设备,BugDar 为机器人智能合约提供安全审计,多重签名批准则为关键操作提供了有人监督的渐进式自主性。

量子时钟正在滴答作响

当讨论量子计算时,Kostas Chalkias 的语气从哲学转向紧迫。在 2025 年 7 月的一份研究报告中,他直言不讳地警告:“各国政府都清楚量子计算带来的风险。全球各机构已发布指令,要求到 2030 年或 2035 年废弃 ECDSA 和 RSA 等经典算法。”他在 Twitter 上的声明伴随着 Mysten Labs 发布到 IACR ePrint Archive 的突破性研究,该研究表明 Sui、Solana、Near 和 Cosmos 等基于 EdDSA 的区块链在量子过渡方面具有比特币和以太坊所不具备的结构优势

这种威胁源于运行 Shor 算法的量子计算机,该算法能有效地分解大数——这是 RSA、ECDSA 和 BLS 密码学背后的数学难题。谷歌拥有 105 个量子比特的 Willow 量子处理器预示着能够破解经典加密的机器正在加速发展。“先存储,后解密”攻击加剧了紧迫性:攻击者今天收集加密数据,等待量子计算机追溯解密。对于区块链资产,Chalkias 向 Decrypt 杂志解释说:“即使有人仍然持有他们的比特币或以太坊私钥,他们也可能无法生成一个后量子安全的拥有权证明,这取决于该密钥最初是如何生成的,以及其相关数据随着时间的推移暴露了多少。”

比特币的特殊脆弱性源于具有暴露公钥的“休眠”钱包。中本聪估计的 100 万枚 BTC 存在于使用“支付到公钥”格式的早期地址中——公钥在链上可见,而不是隐藏在哈希地址后面。一旦量子计算机规模足够大,这些钱包将立即被盗空。Chalkias 的评估是:“一旦量子计算机到来,包括中本聪在内的数百万个钱包可能会立即被盗空。如果你的公钥是可见的,它最终会被破解。”以太坊面临类似的挑战,尽管暴露的公钥较少,这减轻了即时风险。两条链都需要社区范围内的硬分叉,并进行前所未有的协调才能迁移——前提是围绕后量子算法形成共识。

Sui 的 EdDSA 基础提供了一条优雅的逃生路径。与 ECDSA 的随机私钥不同,EdDSA 根据 RFC 8032 使用哈希函数从种子确定性地派生密钥。这种结构差异使得通过 zk-STARKs(它们是后量子安全的)进行零知识证明成为可能,从而证明对底层种子的了解,而无需暴露椭圆曲线数据。用户从相同的种子随机性构建后量子密钥对,提交 ZK 证明以展示相同的拥有权,并在保留地址的同时过渡到量子安全方案——无需硬分叉。Chalkias 在 2022 年 6 月的 Sui AMA 中详细阐述了这一点:“如果你使用确定性算法,例如 EdDSA,那么有一种方法可以使用 Stark 证明来证明你在 EdDSA 密钥生成中对私钥金字塔的了解,因为它内部使用了哈希函数。”

密码学敏捷性作为战略护城河

Sui 通过代码库中统一的类型别名同时支持多种签名方案——EdDSA (Ed25519)、ECDSA(用于以太坊兼容性)以及计划中的后量子算法。Chalkias 设计了这种“密码学敏捷性”,认识到密码学中的永久性是幻想。该架构类似于“更换锁芯”,而不是重建整个安全系统。当 NIST 推荐的后量子算法部署时——用于签名的 CRYSTALS-Dilithium、用于紧凑替代方案的 FALCON、用于基于哈希方案的 SPHINCS+——Sui 通过直接更新而不是基础协议重写来集成它们。

过渡策略平衡了主动和适应性方法。对于新地址,用户可以生成 PQ-signs-PreQ 配置,其中后量子密钥在创建时签署前量子公钥,从而实现未来平稳迁移。对于现有地址,zk-STARK 证明方法在保留地址的同时证明量子安全所有权。分层防御优先保护高价值数据——钱包私钥立即获得 PQ 保护,而临时隐私数据则遵循较慢的升级路径。哈希函数输出从 256 位扩展到 384 位,以抵抗 Grover 算法的碰撞,对称加密密钥长度加倍(AES 在密钥更大时仍具有抗量子性)。

零知识证明系统需要仔细考虑。Groth16 等线性 PCP(目前为 zkLogin 提供支持)依赖于易受量子攻击的配对友好椭圆曲线。Sui 的过渡路线图转向基于哈希的 STARK 系统——由 Mysten Labs 共同开发的 Winterfell 仅使用哈希函数,并被认为具有后量子安全性。zkLogin 迁移在更新内部电路的同时保持相同的地址,需要与采用 PQ-JWT 令牌的 OpenID 提供商进行协调。随机信标和分布式密钥生成协议从阈值 BLS 签名过渡到基于格的替代方案,如 HashRand 或 HERB 方案——这些内部协议更改对链上 API 不可见。

Chalkias 的专业知识在这里至关重要。作为 **BPQS(区块链后量子签名,XMSS 基于哈希方案的变体)**的作者,他带来了超越理论知识的实现经验。他 2022 年 6 月的承诺被证明是具有先见之明的:“我们将以一种方式构建我们的链,让人们只需轻触按钮即可实际迁移到后量子密钥。”NIST 的截止日期——2030 年废弃经典算法,2035 年完全采用 PQ——极大地压缩了时间表。Sui 的领先优势使其处于有利地位,但 Chalkias 强调紧迫性:“如果你的区块链支持主权资产、加密国家金库、ETF 或 CBDC,那么如果你的社区关心长期信誉和大规模采用,它很快就需要采用后量子密码标准。”

AI 代理已创造 18 亿美元价值

生态系统正从基础设施转向生产应用。Dolphin Agent (DOLA) 专注于区块链数据跟踪和分析,实现了超过 18 亿美元的市值——验证了对 AI 增强区块链工具的需求。SUI Agents 提供一键式 AI 代理部署,包括 Twitter 角色创建、代币化和在去中心化生态系统内的交易。Sentient AI 筹集了 150 万美元用于利用 Sui 的安全性和可扩展性的对话式聊天机器人。DeSci Agents 通过 24/7 全天候 AI 驱动的互动推广 Epitalon 和 Rapamycin 等科学化合物,通过代币配对连接研究和投资。

Atoma Network 作为 Sui 的首个区块链 AI 推理合作伙伴,其集成实现了自动化代码生成和审计、工作流自动化、DeFi 风险分析、游戏资产生成、社交媒体内容分类和 DAO 管理等功能。此次合作选择反映了技术要求:Atoma 需要低延迟以实现交互式 AI、高吞吐量以实现规模化、AI 资产的安全所有权、可验证计算、经济高效的存储以及隐私保护选项。Sui 满足了所有这六项要求。在 Sui Basecamp 2025 期间,Chalkias 强调了 Aeon、Atoma 的 AI 代理以及 Nautilus 在可验证链下计算方面的工作等项目,作为“Sui 如何成为下一波智能去中心化系统基础”的例子。

Google Cloud 合作通过 BigQuery 访问 Sui 区块链数据进行分析、Vertex AI 基于 Move 编程语言进行 AI 辅助开发训练、使用 OAuth 凭证(Google)支持 zkLogin 以简化访问,以及支持网络性能和可扩展性的基础设施,深化了集成。阿里云的 ChainIDE 集成实现了 Move 代码生成的自然语言提示——开发者可以用英语、中文或韩语编写“创建一个年化收益率为 10% 的质押合约”,即可获得语法正确、有文档记录且经过安全检查的 Move 代码。这种 AI 辅助开发在保持 Move 安全保证的同时,使区块链构建民主化。

这些技术优势对 AI 应用而言是复合的。对象所有权模型适用于独立运行的自主代理。并行执行支持数千个同时进行的 AI 操作而互不干扰。亚秒级最终性支持交互式用户体验。Walrus 存储经济高效地处理训练数据集。赞助交易消除了用户的 Gas 摩擦。zkLogin 消除了助记词障碍。可编程交易块原子性地编排复杂工作流。形式化验证选项在数学上证明 AI 代理的正确性。这些并非孤立的功能,而是构成连贯开发环境的集成能力。

竞争者对比

Sui 的 297,000 TPS 峰值和 390 毫秒共识延迟在数量级上超越了以太坊平均 11.3 TPS 和 12-13 分钟的最终性。与 Solana(其最接近的性能竞争对手)相比,Sui 实现了快 32 倍的最终性(0.4 秒对比 12.8 秒),尽管 Solana 的槽时间为 400 毫秒,但 Solana 需要多次确认才能达到经济最终性。Phoenix Group 2025 年 8 月的真实世界测量报告显示,Sui 处理 3,900 TPS,而 Solana 为 92.1 TPS,这反映的是实际运行性能而非理论性能。Sui 上的交易成本保持可预测的低水平(平均约 0.0087 美元,不到一美分),且没有 Solana 历史上的拥堵和中断问题。

架构差异解释了性能差距。Sui 的以对象为中心模型实现了固有的并行化——每秒 300,000 次简单传输不需要共识协调。以太坊和比特币通过完整共识顺序处理每笔交易。Solana 通过 Sealevel 实现并行化,但使用需要追溯验证的乐观执行。同样使用 Move 语言的 Aptos 实现了 Block-STM 乐观执行,而不是 Sui 的状态访问方法。对于需要可预测低延迟的 AI 和机器人应用,Sui 的显式依赖声明提供了乐观方法无法保证的确定性。

量子定位的差异更为显著。比特币和以太坊使用 secp256k1 ECDSA 签名,没有向后兼容的升级路径——量子过渡需要硬分叉、地址更改、资产迁移以及可能导致链分裂的社区治理。Solana 拥有与 Sui 相同的 EdDSA 优势,支持类似的 zk-STARK 过渡策略,并引入了基于 Winternitz Vault 哈希的一次性签名。Near 和 Cosmos 也受益于 EdDSA。Aptos 使用 Ed25519,但其量子就绪路线图发展较少。Chalkias 2025 年 7 月的研究论文明确指出,这些发现“适用于 Sui、Solana、Near、Cosmos 和其他基于 EdDSA 的链,但不适用于比特币和以太坊。”

生态系统成熟度暂时有利于竞争对手。Solana 于 2020 年推出,拥有成熟的 DeFi 协议、NFT 市场和开发者社区。以太坊于 2015 年推出,在智能合约、机构采用和网络效应方面具有先发优势。Sui 于 2023 年 5 月推出——仅两年半——拥有超过 20 亿美元的总锁定价值(TVL)和 6.59 万活跃地址,增长迅速,但远低于 Solana 的 1610 万。技术优势创造了机会:今天在 Sui 上开发的开发者正为生态系统增长做准备,而不是加入成熟、拥挤的平台。Chalkias 在 London Real 采访中表达了这种信心:“老实说,如果 Mysten Labs 及其所触及的一切超越今天的苹果,我一点也不会感到惊讶。”

看似不同愿景之间的协同作用

AI、机器人和抗量子叙事看似不相关,直到认识到它们的技术相互依赖性。AI 代理需要低延迟和高吞吐量——Sui 两者兼备。机器人协调需要没有中央机构的实时操作——Sui 的对象模型和亚秒级最终性提供了这一点。后量子安全需要密码学灵活性和前瞻性架构——Sui 从一开始就构建了这些。这些不是独立的产品线,而是 2030-2035 年技术格局的统一技术要求。

考虑自主制造:AI 系统分析需求预测和材料可用性,确定最佳生产计划。机器人代理通过区块链协调接收经过验证的指令,确保真实性而无需集中控制。每个机器人作为自有对象并行处理任务,必要时通过共享对象进行协调。微支付即时结算所提供的服务——机器人 A 向机器人 B 提供材料,机器人 B 为机器人 C 处理组件。系统在连接中断期间无网络运行,并在网络恢复时同步。至关重要的是,所有通信通过后量子密码方案保持对量子对手的安全,保护知识产权和操作数据免受“先存储,后解密”攻击。

医疗保健数据管理是另一个融合的例子。AI 模型在 Walrus 中存储的医疗数据集上进行训练,并附带密码学可用性证明。零知识证明在保护患者隐私的同时促进研究。机器人手术系统通过区块链进行协调,以实现审计追踪和责任文档。后量子加密保护敏感医疗记录免受长期威胁。协调层(Sui 的区块链)实现了无需信任的机构数据共享、不损害隐私的 AI 计算以及无需定期更换基础设施的未来安全。

Chalkias 在 Sui Basecamp 2025 期间的愿景声明抓住了这种综合:将 Sui 定位为“下一波智能、去中心化系统的基础”,并“不断增长地支持 AI 原生和计算密集型应用”。模块化架构——Sui 用于计算,Walrus 用于存储,Scion 用于连接,zkLogin 用于身份——创建了团队成员所描述的“区块链操作系统”,而不是狭隘的金融账本。无网络模式、量子安全密码学和亚秒级最终性并非功能清单,而是在对抗性环境和不可靠基础设施中运行的自主系统的先决条件。

技术领先背后的创新方法论

理解 Mysten Labs 的方法可以解释其执行的一致性。Chalkias 在他的“Build Beyond”博客文章中阐述了这一理念:“Mysten Labs 非常擅长在没有人实现过的领域中发现新理论,其中一些假设可能不准确。但我们将其与我们现有的技术相结合,最终,这推动我们创造出一种新颖的产品。”这描述了一个系统化的过程:识别具有实际潜力的学术研究,通过严格的工程实践挑战未经测试的假设,与生产系统集成,并通过部署进行验证。

Mysticeti 共识协议就是例证。学术研究确立了三轮消息作为拜占庭共识提交的理论最小值。以前的实现需要每区块 1.5 次往返和法定签名。Mysten Labs 设计了未经认证的 DAG 结构,消除了显式认证,通过 DAG 模式而非投票机制实现了最佳提交规则,并展示了与之前的 Narwhal-Bullshark 共识相比 80% 的延迟降低。结果是:一篇经过同行评审的论文,附有形式化证明,并伴随着处理数十亿笔交易的生产部署。

类似的方法论也适用于密码学。BPQS(Chalkias 的区块链后量子签名方案)针对区块链约束调整了 XMSS 基于哈希的签名。Winterfell 实现了第一个仅使用哈希函数进行后量子安全的开源 STARK 证明器。zkLogin 将 OAuth 身份验证与零知识证明相结合,在消除额外受信任方的同时保护隐私。每项创新都通过新颖的密码学构造并辅以形式化分析,解决了实际障碍(后量子安全性、ZK 证明可访问性、用户入职摩擦)。

团队构成强化了这一能力。来自 Meta 的工程师为数十亿用户构建了身份验证系统,来自 NASA 的工程师开发了安全关键型分布式系统,来自 Uber 的工程师在全球范围内扩展了实时协调。Chalkias 带来了来自 Facebook/Diem、R3/Corda 和学术研究的密码学专业知识。这并非传统的初创团队边学边做,而是经验丰富的专家执行他们以前构建过的系统,现在不受公司优先事项的限制。来自 a16z、Coinbase Ventures 和 Binance Labs 的 3.36 亿美元资金反映了投资者对执行能力而非投机技术的信心。

炒作之外的挑战与考量

技术优势并不能保证市场采用——这是技术史上反复吸取的教训。Sui 的6.59 万活跃地址与 Solana 的 1610 万相比显得苍白无力,尽管其技术可能更优。网络效应是复合的:开发者在用户聚集的地方构建,用户在应用存在的地方到来,为成熟平台创造了锁定优势。以太坊“更慢且昂贵”的区块链通过其纯粹的现有地位,获得了比技术上更优的替代方案高出几个数量级的开发者关注度。

“区块链操作系统”的定位存在稀释风险——试图同时在金融、社交应用、游戏、AI、机器人、物联网和去中心化存储等所有领域都表现出色,可能导致所有领域都平庸,而非在一个领域做到卓越。注意到这一担忧的批评者指出,机器人部署仅限于概念验证,AI 项目主要处于投机阶段而非生产实用阶段,以及量子安全准备应对五到十年后的威胁。反驳观点认为,模块化组件能够实现专注开发——构建 AI 应用的团队使用 Atoma 推理和 Walrus 存储,而无需关注机器人集成。

后量子密码学引入了不可忽视的开销。CRYSTALS-Dilithium 签名在安全级别 2 下测量为 3,293 字节,而 Ed25519 为 64 字节——大 50 多倍。网络带宽、存储成本和处理时间按比例增加。与经典方案的高效批处理相比,批验证的改进仍然有限(相对于独立验证,速度提升 20-50%)。迁移风险包括过渡期间的用户错误、生态系统参与者(钱包、dApp、交易所)之间的协调、向后兼容性要求,以及在没有真实量子计算机的情况下难以进行大规模测试。时间线的不确定性加剧了规划挑战——量子计算进展仍然不可预测,NIST 标准不断演变,并且可能会出现针对 PQ 方案的新密码分析攻击。

市场时机可能是最大的风险。Sui 的优势在 2030-2035 年期间最为显著:当量子计算机威胁经典密码学时,当自主系统激增需要无需信任的协调时,当 AI 代理管理需要安全基础设施的巨大经济价值时。如果区块链采用在此融合之前停滞不前,技术领先地位将变得无关紧要。反之,如果采用更快爆发,Sui 较新的生态系统可能缺乏应用和流动性来吸引用户,尽管其性能优越。投资论点不仅需要相信 Sui 的技术,还需要相信区块链成熟与新兴技术采用之间的时机契合。

基于第一性原理的十年赌注

Kostas Chalkias 给儿子取名 Kryptos 并非迷人的轶事,而是其承诺深度的标志。他的职业轨迹——从 AI 研究到密码学,从学术出版到 Meta 的生产系统,从 R3 的企业区块链到 Mysten Labs 的 Layer 1 架构——都表明他始终专注于大规模的基础技术。抗量子工作在谷歌宣布 Willow 之前就开始了,当时后量子密码学似乎只是理论上的担忧。机器人集成在 AI 代理获得数十亿美元估值之前就开始了。实现这些能力的架构决策早于市场对其重要性的认识。

这种前瞻性导向与加密领域常见的反应式开发形成对比。以太坊在部署后引入 Layer 2 Rollup 以解决出现的扩展瓶颈。Solana 实施 QUIC 通信和基于权益的 QoS 以应对网络中断和拥堵。比特币在交易费用飙升时讨论区块大小增加和闪电网络采用。Sui 在主网启动之前就设计了并行执行、以对象为中心的数据模型和密码学敏捷性——解决的是预期需求而非已发现的问题。

研究文化强化了这种方法。Mysten Labs 在宣称能力之前会发布带有形式化证明的学术论文。Mysticeti 共识论文出现在同行评审的期刊上,附有正确性证明和性能基准。提交给 IACR ePrint Archive 的量子过渡研究通过数学构造而非营销声明展示了 EdDSA 的优势。zkLogin 论文(arXiv 2401.11735)在部署前详细介绍了零知识认证。Chalkias 积极维护 GitHub 贡献 (kchalkias),在 LinkedIn 和 Twitter 上发布技术见解,在 PQCSA 研讨会上介绍量子威胁,并与密码学社区进行实质性互动,而不是仅仅推广 Sui。

最终的验证将在 5-10 年后到来,届时量子计算机成熟,自主系统普及,AI 代理管理着万亿美元经济。如果 Sui 始终如一地执行其路线图——在 2030 年 NIST 截止日期前部署后量子签名,大规模展示机器人协调,并支持处理数百万请求的 AI 推理层——它将成为重塑文明的技术基础设施层。如果量子计算机比预期晚到,自主采用停滞,或者竞争对手成功改造解决方案,Sui 的早期投资可能被证明为时过早。赌注的中心不在于技术能力——Sui 确实提供了承诺的性能——而在于市场时机和问题的紧迫性。

Chalkias 在 Emergence 大会上的观点简洁地概括了这一点:“最终,区块链的交易速度将超越 Visa。这将成为常态。我看不出我们如何能摆脱这一点。”这种必然性主张假设了正确的技术方向、足够的执行质量和恰当的时机。如果这些假设成立,Sui 将抓住机遇。以对象为中心的架构、密码学敏捷性、亚秒级最终性以及系统化的研究方法并非改造,而是为未来十年新兴技术格局而设计的基石选择。无论 Sui 能否占据市场领导地位,或者这些能力是否成为所有区块链的标配,Kostas Chalkias 和 Mysten Labs 都在为量子时代的自主智能构建基础设施——一次一个密码学原语,一次一毫秒的延迟减少,一次一个概念验证机器人。

去中心化 AI 推理市场:Bittensor、Gensyn 与 Cuckoo AI

· 阅读需 79 分钟
Dora Noda
Software Engineer

引言

去中心化 AI 推理/训练市场旨在以无需信任的方式利用全球计算资源和社区模型。像 BittensorGensynCuckoo Network (Cuckoo AI) 这样的项目展示了区块链技术如何为开放的 AI 市场提供动力。每个平台都将关键的 AI 资产——计算能力、机器学习模型,有时还包括数据——代币化为链上经济单位。在下文中,我们将深入探讨支撑这些网络的技术架构、它们如何将资源代币化、它们的治理和激励结构、跟踪模型所有权的方法、收入分成机制,以及由此产生的攻击面(例如女巫攻击、合谋、搭便车、投毒)。文末的对比表格总结了 Bittensor、Gensyn 和 Cuckoo AI 在所有关键维度上的表现。

技术架构

Bittensor:基于子网的去中心化“神经互联网”

Bittensor 构建在一个自定义的 Layer-1 区块链(Subtensor 链,基于 Substrate)之上,该区块链协调着一个由分布在多个专业子网中的 AI 模型节点组成的网络。每个子网都是一个独立的迷你网络,专注于特定的 AI 任务(例如,一个子网用于语言生成,另一个用于图像生成等)。Bittensor 的参与者扮演着不同的角色:

  • 矿工 – 他们在自己的硬件上运行机器学习模型,并为子网的任务提供推理答案(甚至执行训练)。本质上,矿工是一个托管 AI 模型的节点,负责回答查询。
  • 验证者 – 他们用提示查询矿工的模型,并评估响应的质量,从而判断哪些矿工贡献了有价值的结果。验证者有效地对矿工的表现进行评分。
  • 子网所有者 – 他们创建和定义子网,设定该子网中执行任务和进行验证的规则。例如,子网所有者可以指定一个子网用于某个特定的数据集或模态,并定义验证程序。
  • 委托人 – 不运行节点的代币持有者可以将其 Bittensor 代币 (TAO) 委托(质押)给矿工或验证者,以支持表现最佳者并赚取一部分奖励(类似于权益证明网络中的质押)。

Bittensor 的共识机制是新颖的:它不使用传统的区块验证,而是采用 Yuma 共识,这是一种“智能证明”的形式。在 Yuma 共识中,验证者对矿工的评估在链上聚合,以确定奖励分配。每 12 秒一个区块,网络会铸造新的 TAO 代币,并根据验证者对哪些矿工提供了有用工作的共识进行分配。验证者的分数通过一种权益加权的中位数方案进行组合:离群的意见被剔除,诚实的多数意见占主导。这意味着,如果大多数验证者都认为某个矿工是高质量的,那么该矿工将获得丰厚的奖励;如果一个验证者的意见与其他验证者相差甚远(可能是由于合谋或错误),该验证者将因赚取较少奖励而受到惩罚。通过这种方式,Bittensor 的区块链协调了一个矿工-验证者反馈循环:矿工竞争产生最佳的 AI 输出,验证者则策划和排名这些输出,双方都能根据其增加的价值按比例赚取代币。这种架构通常被描述为“去中心化的神经网络”或“全球大脑”,其中模型相互学习信号并共同进化。值得注意的是,Bittensor 最近升级了其链以支持 EVM 兼容性(用于智能合约),并引入了 dTAO,一个子网特定代币和质押系统(稍后解释),以进一步去中心化资源分配的控制。

Gensyn:无需信任的分布式计算协议

Gensyn 从分布式计算协议的角度切入去中心化 AI,专注于机器学习。其架构连接了拥有 AI 任务(如训练模型或运行推理作业)的开发者(提交者)与全球拥有闲置 GPU/TPU 资源的计算提供者(解决者)。最初,Gensyn 计划建立一个 Substrate L1 链,但后来转向在以太坊上构建一个 rollup,以获得更强的安全性和流动性。因此,Gensyn 网络是一个以太坊 Layer-2(一个以太坊 rollup),负责协调作业发布和支付,而计算则在提供者的硬件上离线进行。

Gensyn 设计的一个核心创新是其链下工作验证系统。Gensyn 结合使用**乐观验证(欺诈证明)**和密码学技术,以确保当解决者声称已运行训练/推理任务时,结果是正确的。实际上,该协议涉及多个参与者角色:

  • 提交者 – 请求作业的一方(例如,需要训练模型的人)。他们支付网络费用,并提供模型/数据或任务规范。
  • 解决者 – 竞标并在其硬件上执行机器学习任务的节点。他们会按要求训练模型或运行推理,然后提交结果和计算证明。
  • 验证者/挑战者 – 可以审计或抽查解决者工作的节点。Gensyn 实现了一种类似 Truebit 的方案,默认情况下接受解决者的结果,但如果验证者怀疑计算不正确,可以在一个时间窗口内提出挑战。在挑战中,会使用一种交互式的“二分查找”来遍历计算步骤(一种欺诈证明协议),以精确定位任何差异。这使得链上只需执行计算中最小的关键部分即可解决争议,而无需重新进行整个昂贵的任务。

至关重要的是,Gensyn 的设计旨在避免朴素方法带来的巨大冗余。Gensyn 的**“学习证明”方法不让许多节点都重复相同的机器学习作业(这会破坏成本节约),而是使用训练元数据来验证学习取得了进展。例如,解决者可能会提供中间模型权重的加密哈希或检查点,以及一个简洁的证明,表明这些权重根据训练更新取得了进展。这种概率性的学习证明可以比重新运行整个训练便宜得多地进行检查,从而实现无需完全复制的无需信任验证。只有当验证者检测到异常时,才会触发更繁重的链上计算作为最后手段。与暴力验证相比,这种方法大大减少了开销,使去中心化机器学习训练变得更加可行。因此,Gensyn 的架构非常强调加密经济博弈设计**:解决者需要质押或提供保证金,如果他们作弊(提交错误结果),他们将失去那笔质押金,而抓住他们的诚实验证者将获得这笔钱。通过将区块链协调(用于支付和争议解决)与链下计算和巧妙的验证相结合,Gensyn 创建了一个机器学习计算市场,可以利用任何地方的闲置 GPU,同时保持无需信任。其结果是一个超大规模的“计算协议”,任何开发者都可以按需访问经济实惠的、全球分布式的训练能力。

Cuckoo AI:全栈式去中心化 AI 服务平台

Cuckoo Network(或 Cuckoo AI)采用了一种更加垂直整合的方法,旨在提供端到端的去中心化 AI 服务,而不仅仅是原始计算能力。Cuckoo 构建了自己的区块链(最初是在 Arbitrum Orbit 上称为 Cuckoo Chain 的 Layer-1,这是一个与以太坊兼容的 rollup 框架)来协调一切:它不仅将作业与 GPU 匹配,还在一个系统中托管 AI 应用程序并处理支付。其设计是全栈式的:它将区块链计算AI 应用这三个层次整合在一个平台内。

Cuckoo 的参与者分为四组:

  • AI 应用构建者(协调者) – 这些是将 AI 模型或服务部署到 Cuckoo 上的开发者。例如,一个开发者可能会托管一个 Stable Diffusion 图像生成器或一个 LLM 聊天机器人作为服务。他们运行协调者节点,负责管理他们的服务:接受用户请求,将其拆分为任务,并将这些任务分配给矿工。协调者质押原生代币($CAI)以加入网络并获得利用矿工的权利。他们实际上充当了连接用户和 GPU 提供者的第二层协调者。
  • GPU/CPU 矿工(任务节点) – 这些是资源提供者。矿工运行 Cuckoo 任务客户端,并贡献他们的硬件来为 AI 应用执行推理任务。例如,一个矿工可能会被协调者分配一个图像生成请求(带有给定的模型和提示),并使用他们的 GPU 计算结果。矿工也必须质押 $CAI 以确保承诺和良好行为。他们为正确完成的每个任务赚取代币奖励。
  • 终端用户 – AI 应用程序的消费者。他们通过 Cuckoo 的门户网站或 API 进行交互(例如,通过 CooVerse 生成艺术作品或与 AI 人物聊天)。用户可以为每次使用支付加密货币,或者可能贡献自己的计算能力(或质押)来抵消使用成本。一个重要的方面是抗审查性:如果一个协调者(服务提供者)被封锁或宕机,用户可以切换到另一个提供相同应用程序的协调者,因为在去中心化网络中,多个协调者可以托管相似的模型。
  • 质押者(委托人) – 不运行 AI 服务或挖矿硬件的社区成员仍然可以通过在运行这些服务的人身上质押 $CAI 来参与。通过用他们的质押投票给受信任的协调者或矿工,他们帮助建立声誉,并作为回报获得一部分网络奖励。这种设计构建了一个 Web3 声誉层:好的参与者吸引更多的质押(从而获得信任和奖励),而坏的参与者则失去质押和声誉。甚至终端用户在某些情况下也可以质押,使他们与网络的成功保持一致。

Cuckoo 链(目前正从一个独立的链过渡到一个共享安全的 rollup)跟踪所有这些交互。当用户调用一个 AI 服务时,协调者节点为矿工创建链上任务分配。矿工在链下执行任务并将结果返回给协调者,协调者验证它们(例如,检查输出的图像或文本不是乱码)并将最终结果交付给用户。区块链处理支付结算:对于每个任务,协调者的智能合约以 $CAI 支付给矿工(通常将微支付聚合成每日支付)。Cuckoo 强调无需信任和透明度——所有参与者都质押代币,所有任务的分配和完成都被记录下来,因此作弊行为会因失去质押的威胁和性能的公开可见性而受到抑制。网络的模块化设计意味着可以轻松添加新的 AI 模型或用例:虽然它以文本到图像生成作为概念验证开始,但其架构足够通用,可以支持其他 AI 工作负载(例如,语言模型推理、音频转录等)。

Cuckoo 架构的一个显著特点是,它最初推出了自己的 Layer-1 区块链,以最大化 AI 交易的吞吐量(在测试期间达到每日 30 万笔交易的峰值)。这允许为 AI 任务调度进行自定义优化。然而,团队发现维护一个独立的 L1 成本高昂且复杂,截至 2025 年中期,他们决定弃用自定义链并迁移到以太坊上的 rollup/AVS(主动验证服务)模型。这意味着 Cuckoo 将从以太坊或像 Arbitrum 这样的 L2 继承安全性,而不是运行自己的共识,但将继续在该共享安全层上运营其去中心化 AI 市场。这一改变旨在提高经济安全性(利用以太坊的稳健性),并让 Cuckoo 团队专注于产品而非底层的链维护。总而言之,Cuckoo 的架构创建了一个去中心化的 AI 服务平台,任何人都可以在其中接入硬件或部署 AI 模型服务,全球用户可以以更低的成本和更少对大型科技基础设施的依赖来访问 AI 应用。

资产代币化机制

这些网络的一个共同主题是将计算、模型和数据转换为可以在链上交易或货币化的资产或经济单位。然而,每个项目都以不同的方式专注于将这些资源代币化:

  • 计算能力: 所有三个平台都将计算工作转化为奖励代币。在 Bittensor 中,有用的计算(由矿工完成的推理或训练)通过验证者评分量化,并在每个区块中以 TAO 代币进行奖励。本质上,Bittensor“衡量”贡献的智能,并铸造 TAO 作为代表该贡献的商品。Gensyn 明确将计算视为一种商品——其协议创建了一个市场,其中 GPU 时间是产品,价格由代币的供需决定。开发者使用代币购买计算,提供者通过出售其硬件周期来赚取代币。Gensyn 团队指出,任何数字资源(计算、数据、算法)都可以以类似的无需信任的市场方式进行表示和交易。Cuckoo 通过 ERC-20 代币 $CAI 将计算代币化,作为完成任务的支付。GPU 提供者基本上通过进行 AI 推理工作来“挖掘”CAI。Cuckoo 的系统创建了任务的链上记录,因此可以将每个完成的 GPU 任务视为一个以代币支付的原子工作单元。这三个平台的前提都是,原本闲置或无法访问的计算能力变成了一种代币化的、流动的资产——无论是通过协议级别的代币发行(如 Bittensor 和早期的 Cuckoo)还是通过计算作业的买卖订单开放市场(如 Gensyn)。

  • AI 模型: 将 AI 模型表示为链上资产(例如 NFT 或代币)仍处于初级阶段。Bittensor 将模型本身代币化——模型仍然由矿工在链下拥有。相反,Bittensor 通过奖励表现良好的模型来间接为模型定价。实际上,模型的“智能”被转化为 TAO 收益,但没有一个 NFT 代表模型权重或允许他人使用该模型。Gensyn 的重点是计算交易,而不是明确为模型创建代币。在 Gensyn 中,模型通常由开发者在链下提供(可能是开源或专有的),由解决者训练,然后返回——没有内置机制来创建一个拥有该模型或其 IP 的代币。(也就是说,如果各方选择,Gensyn 市场可能可以促进模型工件或检查点的交易,但协议本身将模型视为计算的内容,而不是代币化资产。)Cuckoo 介于两者之间:它提到了“AI 代理”和集成到网络中的模型,但目前没有代表每个模型的非同质化代币。相反,模型由应用构建者部署,然后通过网络提供服务。该模型的使用权被隐式代币化,因为当模型被使用时(通过部署它的协调者),它可以赚取 $CAI。所有三个平台都承认模型代币化的概念——例如,通过代币让社区拥有模型——但实际实现有限。作为一个行业,将 AI 模型代币化(例如,作为具有所有权和利润分享的 NFT)仍在探索中。Bittensor 的模型相互交换价值的方法是一种*“模型市场”*的形式,但没有为每个模型明确的代币。Cuckoo 团队指出,去中心化的模型所有权有望降低与中心化 AI 相比的门槛,但这需要有效的方法来验证链上的模型输出和使用情况。总而言之,计算能力现在被立即代币化(为完成的工作支付代币是直接的),而模型则是间接或有抱负地被代币化(因其输出而获得奖励,可能由质押或声誉代表,但尚未在这些平台上被视为可转让的 NFT)。

  • 数据: 数据代币化仍然是最困难的。Bittensor、Gensyn 或 Cuckoo 都没有完全集成的通用链上数据市场(其中数据集以可强制执行的使用权进行交易)。Bittensor 节点可能会在各种数据集上进行训练,但这些数据集不是链上系统的一部分。Gensyn 可能允许开发者提供一个用于训练的数据集,但协议不会将该数据代币化——它只是在链下提供给解决者使用。Cuckoo 同样不将用户数据代币化;它主要以短暂的方式处理数据(如用户提示或输出)以进行推理任务。Cuckoo 的博客明确指出,“去中心化数据仍然难以代币化”,尽管它是一种关键资源。数据是敏感的(隐私和所有权问题),并且难以用当前的区块链技术处理。因此,虽然计算正在商品化,模型也开始如此,但数据在很大程度上仍然停留在链下,除非是特殊情况(这三个项目之外的一些项目正在试验数据联盟和数据贡献的代币奖励,但这超出了我们当前的范围)。总而言之,计算能力在这些网络中现在是一种链上商品,模型通过代币进行估值,但尚未作为资产单独代币化,而数据代币化仍然是一个悬而未决的问题(除了承认其重要性之外)。

治理与激励

一个稳健的治理和激励设计对于这些去中心化 AI 网络自主、公平地运作至关重要。在这里,我们审视每个平台如何自我治理(谁做决策,如何进行升级或参数更改),以及它们如何通过代币经济学来协调参与者的激励。

  • Bittensor 治理: 在早期阶段,Bittensor 的开发和子网参数主要由核心团队和主子网上的一组 64 个“根”验证者控制。这是一个中心化点——少数强大的验证者对奖励分配有巨大的影响力,导致了一些人所说的*“寡头投票系统”*。为了解决这个问题,Bittensor 在 2025 年引入了 dTAO(去中心化 TAO)治理。dTAO 系统将资源分配转变为市场驱动和社区控制。具体来说,TAO 持有者可以将其代币质押到子网特定的流动性池中(本质上,他们“投票”决定哪些子网应该获得更多的网络发行),并收到代表这些子网池所有权的 alpha 代币。吸引更多质押的子网将拥有更高的 alpha 代币价格,并获得每日 TAO 发行的更大份额,而不受欢迎或表现不佳的子网将看到资本(以及发行)流失。这就形成了一个反馈循环:如果一个子网产生有价值的 AI 服务,更多的人会向其质押 TAO(寻求奖励),这使得该子网有更多的 TAO 来奖励其参与者,从而促进增长。如果一个子网停滞不前,质押者会撤回到更有利可图的子网。实际上,TAO 持有者通过财务信号集体治理网络的焦点,表明哪些 AI 领域值得更多资源。这是一种通过代币权重进行的链上治理形式,与经济成果保持一致。除了资源分配,重大的协议升级或参数更改可能仍需通过治理提案,由 TAO 持有者投票(Bittensor 有一个由 Bittensor 基金会和选举产生的理事会管理的链上提案和公投机制,类似于 Polkadot 的治理)。随着时间的推移,可以预期 Bittensor 的治理将变得越来越去中心化,基金会会逐渐退后,由社区(通过 TAO 质押)来决定通货膨胀率、新子网批准等事项。向 dTAO 的过渡是朝着这个方向迈出的一大步,用一个激励一致的代币利益相关者市场取代了中心化的决策者。

  • Bittensor 激励: Bittensor 的激励结构与其共识紧密相连。每个区块(12 秒),会新铸造 1 个 TAO,并根据每个子网贡献者的表现进行分配。每个子网的区块奖励默认分配为41% 给矿工,41% 给验证者,18% 给子网所有者。这确保了所有角色都得到奖励:矿工因进行推理工作而获得报酬,验证者因其评估工作而获得报酬,而子网所有者(可能为该子网引导了数据/任务)则因提供“市场”或任务设计而获得剩余收益。这些百分比在协议中是固定的,旨在使每个人的激励都朝着高质量的 AI 输出方向发展。Yuma 共识机制通过根据质量分数加权奖励来进一步完善激励——提供更好答案的矿工(根据验证者共识)将获得那 41% 的更高部分,而紧密遵循诚实共识的验证者将获得验证者部分的更多份额。表现不佳者在经济上被淘汰。此外,委托人(质押者)支持矿工或验证者,通常会收到该节点收益的一部分(节点通常会设定一个佣金,将其余部分分给委托人,类似于 PoS 网络中的质押)。这使得被动的 TAO 持有者能够支持最佳贡献者并获得收益,进一步加强了精英管理。因此,Bittensor 的代币 (TAO) 是一种实用代币:它用于新矿工的注册(矿工必须花费少量 TAO 加入,以对抗女巫垃圾邮件),并且可以质押以增加影响力或通过委托赚取收益。它也被设想为一种支付代币,如果外部用户想从 Bittensor 网络消费服务(例如,支付 TAO 来查询 Bittensor 上的语言模型),尽管内部奖励机制迄今为止一直是主要的“经济体”。总体的激励理念是奖励“有价值的智能”——即帮助产生良好 AI 成果的模型——并创造一个不断提高网络中模型质量的竞争。

  • Gensyn 治理: Gensyn 的治理模型旨在随着网络的成熟从核心团队控制演变为社区控制。最初,Gensyn 将有一个Gensyn 基金会和一个选举产生的理事会,负责监督协议升级和财库决策。预计该理事会最初将由核心团队成员和早期社区领袖组成。Gensyn 计划为其原生代币(通常称为 GENS)进行代币生成事件 (TGE),之后治理权将越来越多地通过链上投票掌握在代币持有者手中。基金会的角色是代表协议的利益,并确保向完全去中心化的平稳过渡。实际上,Gensyn 可能会有链上提案机制,其中对参数的更改(例如,验证博弈的长度、费率)或升级由社区投票决定。因为 Gensyn 正在作为以太坊 rollup 实现,治理也可能与以太坊的安全性相关联(例如,使用 rollup 合约的升级密钥,最终移交给代币持有者的 DAO)。Gensyn 白皮书的去中心化与治理部分强调,该协议最终必须是全球拥有的,这与“机器智能网络”应属于其用户和贡献者的理念相一致。总而言之,Gensyn 的治理始于半中心化,但其架构旨在成为一个 DAO,其中 GENS 代币持有者(可能按质押或参与度加权)共同做出决策。

  • Gensyn 激励: Gensyn 中的经济激励是直接的市场动态,辅以加密经济安全。开发者(客户)用 Gensyn 代币支付机器学习任务,而解决者通过正确完成这些任务来赚取代币。计算周期的价格由公开市场决定——据推测,开发者可以发布带有赏金的任务,解决者可以竞标或在价格符合其期望时直接接受。这确保了只要有闲置 GPU 的供应,竞争就会将成本推低至一个公平的水平(Gensyn 团队预计与云价格相比成本可降低高达 80%,因为网络在全球范围内寻找最便宜的可用硬件)。另一方面,解决者有赚取代币的激励;他们原本可能闲置的硬件现在可以产生收入。为了确保质量,Gensyn 要求解决者在接受工作时质押抵押品——如果他们作弊或产生不正确的结果并被抓住,他们将失去那笔质押(它可能被罚没并奖励给诚实的验证者)。验证者的激励来自于有机会在抓住欺诈性解决者时获得**“大奖”奖励**,类似于 Truebit 的设计,即定期奖励成功识别不正确计算的验证者。这使得解决者保持诚实,并激励一些节点充当监督者。在最优情况下(没有作弊),解决者只赚取任务费用,而验证者角色大多处于闲置状态(或者参与的解决者之一可能兼任其他人的验证者)。因此,Gensyn 的代币既是购买计算的燃料货币,也是保障协议安全的质押抵押品。白皮书提到一个带有非永久性代币的测试网,并且早期测试网参与者将在 TGE 时获得真实代币奖励。这表明 Gensyn 分配了一些代币供应用于引导——奖励早期采用者、测试解决者和社区成员。从长远来看,来自真实工作的费用应该能够维持网络。也可能有一个小的协议费(每个任务支付的一定百分比)进入财库或被销毁;这个细节尚未确认,但许多市场协议都包含一个费用来资助开发或代币回购和销毁。总而言之,Gensyn 的激励围绕着诚实完成机器学习工作:完成工作,获得报酬;试图作弊,失去质押;验证他人,抓住作弊者则获得奖励。这创建了一个旨在实现可靠分布式计算的自我监管经济体系。

  • Cuckoo 治理: Cuckoo Network 从第一天起就将治理融入其生态系统,尽管它仍处于发展阶段。CAI代币除了其效用角色外,明确是一种治理代币。Cuckoo的理念是,GPU节点运营商、应用开发者甚至终端用户都应该在网络的演变中有发言权——这反映了其社区驱动的愿景。实际上,重要决策(如协议升级或经济变化)将由代币加权投票决定,大概是通过DAO机制。例如,Cuckoo可以就改变奖励分配或采用新功能进行链上投票,而CAI 代币除了其效用角色外,明确是一种治理代币。Cuckoo 的理念是,GPU 节点运营商、应用开发者甚至终端用户都应该在网络的演变中有发言权——这反映了其社区驱动的愿景。实际上,重要决策(如协议升级或经济变化)将由代币加权投票决定,大概是通过 DAO 机制。例如,Cuckoo 可以就改变奖励分配或采用新功能进行链上投票,而 CAI 持有者(包括矿工、开发者和用户)将进行投票。链上投票已经被用作声誉系统:Cuckoo 要求每个角色都质押代币,然后社区成员可以投票(或许通过委托质押或通过治理模块)决定哪些协调者或矿工是值得信赖的。这会影响声誉分数,并可能影响任务调度(例如,获得更多投票的协调者可能会吸引更多用户,或者获得更多投票的矿工可能会被分配更多任务)。这是治理和激励的结合——使用治理代币来建立信任。Cuckoo 基金会或核心团队迄今为止一直在指导项目的方向(例如,最近决定弃用 L1 链),但他们的博客表明了向去中心化所有权迈进的承诺。他们认识到运行自己的链会产生高昂的开销,转向 rollup 将允许更开放的开发和与现有生态系统的整合。很可能一旦在一个共享层(如以太坊)上,Cuckoo 将为升级实施一个更传统的 DAO,社区使用 CAI 进行投票。

  • Cuckoo 激励: Cuckoo 的激励设计有两个阶段:初始的引导阶段,有固定的代币分配;以及未来的状态,有基于使用的收入分成。在启动时,Cuckoo 进行了 10 亿 CAI 代币的**“公平启动”**分配。51% 的供应量留给社区,分配如下:

  • 挖矿奖励: 总供应量的 30% 用于支付 GPU 矿工执行 AI 任务。

  • 质押奖励: 总供应量的 11% 用于那些质押并帮助保护网络的人。

  • 空投: 5% 给早期用户和社区成员作为采用激励。

  • (另外 5% 用于开发者资助,以鼓励在 Cuckoo 上构建。)

这种大规模的分配意味着在网络早期,即使实际用户需求很低,矿工和质押者也能从发行池中获得奖励。事实上,Cuckoo 的初始阶段以高 APY 收益为特色,用于质押和挖矿,这成功地吸引了参与者,但也吸引了只为代币而来的“收益农民”。团队注意到,一旦奖励率下降,许多用户就离开了,这表明这些激励措施与真正的使用无关。吸取了这一教训,Cuckoo 正在转向一个奖励与真实 AI 工作负载直接相关的模型。在未来(部分已经实现),当终端用户为 AI 推理付费时,那笔付款(以 CAI 或可能转换为 CAI 的其他接受的代币)将在贡献者之间分配:

  • GPU 矿工将因其提供的计算而获得大部分份额。
  • **协调者(应用开发者)**将作为提供模型和处理请求的服务提供商获得一部分。
  • 质押者委托给这些矿工或协调者的人可能会获得一小部分或通胀奖励,以继续激励支持可靠的节点。
  • 网络/财库可能会保留一笔费用用于持续开发或资助未来的激励措施(或者费用可能为零/名义上的,以最大化用户的可负担性)。

本质上,Cuckoo 正在向收入分成模型迈进:如果 Cuckoo 上的一个 AI 应用产生收益,这些收益将以公平的方式分配给该服务的所有贡献者。这使得激励措施保持一致,参与者从实际使用中受益,而不仅仅是通货膨胀。网络已经要求所有方质押 CAI——这意味着矿工和协调者不仅获得固定的奖励,还可能获得基于质押的奖励(例如,如果许多用户在他们身上质押,或者如果他们自己质押更多,协调者可能会获得更高的奖励,类似于权益证明验证者的收益方式)。在用户激励方面,Cuckoo 还引入了空投门户和水龙头(一些用户利用了这些)来播种初始活动。展望未来,用户可能会通过使用服务的代币返利或通过参与策划的治理奖励(例如,为评级输出或贡献数据赚取少量代币)来获得激励。底线是 Cuckoo 的代币($CAI)是多用途的:它是链上的燃料/费用代币(所有交易和支付都使用它),它用于质押和投票,并且是完成工作的奖励单位。Cuckoo 明确提到,它希望将代币奖励与服务级 KPI(关键绩效指标)挂钩——例如,正常运行时间、查询吞吐量、用户满意度——以避免纯粹的投机性激励。这反映了代币经济从简单的流动性挖矿向更可持续、实用驱动的模型的成熟。

模型所有权与 IP 归属

处理 AI 模型的知识产权 (IP) 和所有权是去中心化 AI 网络的一个复杂方面。每个平台都采取了略有不同的立场,总的来说,这是一个不断发展的领域,目前还没有完整的解决方案:

  • Bittensor: Bittensor 中的模型由矿工节点提供,这些矿工保留对其模型权重的完全控制(这些权重从未在链上发布)。除了模型在某个钱包地址上运行这一事实外,Bittensor 并没有明确跟踪谁“拥有”一个模型。如果一个矿工离开,他们的模型也随之离开。因此,Bittensor 中的 IP 归属是链下的:如果一个矿工使用专有模型,链上没有任何东西可以强制执行甚至知道这一点。Bittensor 的理念鼓励开放贡献(许多矿工可能会使用像 GPT-J 或其他开源模型),网络奖励的是这些模型的性能。可以说,Bittensor 为模型创建了一个声誉分数(通过验证者排名),这是一种承认模型价值的形式,但模型本身的权利并未被代币化或分发。值得注意的是,Bittensor 中的子网所有者可以被视为拥有一部分 IP:他们定义一个任务(可能包括一个数据集或方法)。子网所有者在创建子网时会铸造一个 NFT(称为子网 UID),该 NFT 使他们有权获得该子网 18% 的奖励。这有效地将创建模型市场(即子网)代币化,而不是模型实例。如果将子网的定义(比如一个带有特定数据集的语音识别任务)视为 IP,那么它至少被记录和奖励了。但是,矿工训练的单个模型权重——没有这些权重的链上所有权记录。归属以支付给该矿工地址的奖励形式出现。Bittensor 目前没有实现一个系统,例如,多个人可以共同拥有一个模型并获得自动的收入分成——运行模型的人(矿工)获得奖励,而他们是否遵守所用模型的任何 IP 许可是他们链下的事情。

  • Gensyn: 在 Gensyn 中,模型所有权是直接的,因为提交者(想要训练模型的人)提供模型架构和数据,训练后,他们会收到最终的模型工件。执行工作的解决者对模型没有权利;他们就像为服务付费的承包商。因此,Gensyn 的协议假设了传统的 IP 模型:如果你对提交的模型和数据拥有合法权利,那么在训练后你仍然拥有它们——计算网络不声称任何所有权。Gensyn 确实提到,市场也可以像交易任何其他资源一样交易算法和数据。这暗示了一种情景,即有人可以在网络中提供一个模型或算法供使用,可能需要付费,从而将该模型的访问权代币化。例如,一个模型创建者可能会将其预训练模型放在 Gensyn 上,并允许他人在网络上对其进行微调,并收取费用(这实际上将模型 IP 货币化)。虽然协议不强制执行许可条款,但可以编码支付要求:一个智能合约可以要求支付费用以向解决者解锁模型权重。然而,这些都是推测性的用例——Gensyn 的主要设计是关于促成训练作业。至于归属,如果多方对一个模型做出贡献(比如一方提供数据,另一方提供计算),这很可能由他们在开始使用 Gensyn 之前建立的任何合同或协议来处理(例如,一个智能合约可以在数据提供者和计算提供者之间分配支付)。Gensyn 本身除了记录哪些地址为该工作支付了费用之外,不会在链上跟踪“这个模型是由 X、Y、Z 构建的”。总而言之,Gensyn 中的模型 IP 仍然属于提交者,任何归属或许可都必须通过协议之外的法律协议或在其之上构建的自定义智能合约来处理。

  • Cuckoo: 在 Cuckoo 的生态系统中,模型创建者(AI 应用构建者)是一等参与者——他们部署 AI 服务。如果一个应用构建者微调了一个语言模型或开发了一个自定义模型并将其托管在 Cuckoo 上,那么该模型基本上是他们的财产,他们充当服务所有者。Cuckoo 不会夺取任何所有权;相反,它为他们提供了将使用货币化的基础设施。例如,如果一个开发者部署了一个聊天机器人 AI,用户可以与之互动,开发者(以及矿工)可以从每次互动中赚取 CAI。因此,该平台将使用收入归属于模型创建者,但不会明确发布模型权重或将其变成 NFT。事实上,为了在矿工的 GPU 上运行模型,协调者节点可能需要以某种形式将模型(或运行时)发送给矿工。这就提出了 IP 问题:恶意的矿工是否可以复制模型权重并分发它们?在去中心化网络中,如果使用专有模型,这种风险是存在的。Cuckoo 目前的重点是相当开放的模型(Stable Diffusion、LLaMA 衍生的模型等)和建立社区,所以我们还没有看到通过智能合约强制执行 IP 权利。该平台未来可能会集成像加密模型执行或安全区域之类的工具来保护 IP,但文档中没有提到具体内容。它确实跟踪的是谁为每个任务提供了模型服务——因为协调者是一个链上身份,其模型的所有使用都归于他们,他们会自动获得他们的奖励份额。如果要将模型转交或出售给其他人,实际上他们会转移协调者节点的控制权(如果协调者角色被代币化,甚至可能只是给他们私钥或 NFT)。目前,模型的社区所有权(通过代币份额)尚未实现,但 Cuckoo 的愿景暗示了去中心化的社区驱动 AI,所以他们可能会探索让人们集体资助或治理一个 AI 模型。在这些网络中,模型的代币化超越个人所有权仍然是一个开放领域——它被认为是一个目标(让社区而不是公司拥有 AI 模型),但实际上它需要解决上述 IP 和验证挑战的方案。

总而言之,在 Bittensor、Gensyn 和 Cuckoo 中,模型所有权是通过传统方式在链下处理的:运行或提交模型的人或实体实际上是所有者。这些网络以经济奖励的形式提供归属(为模型的贡献者的 IP 或努力支付报酬)。这三者都还没有在智能合约层面内置模型使用的许可或版税强制执行。归属通过声誉和奖励来实现:例如,Bittensor 的最佳模型获得高声誉分数(这是公开记录)和更多的 TAO,这是对其创建者的隐性认可。随着时间的推移,我们可能会看到像NFT 绑定的模型权重去中心化许可这样的功能来更好地跟踪 IP,但目前的优先事项是让网络运作并激励贡献。所有人都同意,验证模型来源和输出是实现真正的模型资产市场的关键,这方面的研究正在进行中。

收入分成结构

所有三个平台都必须决定,当多方合作产生有价值的 AI 输出时,如何分配经济蛋糕。当一个 AI 服务被使用或代币被发行时,谁得到报酬,以及多少?每个平台都有一个独特的收入分成模型:

  • Bittensor: 如激励部分所述,Bittensor 的收入分配是在区块级别由协议定义的:每个区块的 TAO 发行中,41% 给矿工,41% 给验证者,18% 给子网所有者。这实际上是为每个子网产生的价值内置的收入分成。子网所有者的份额(18%)就像是为“模型/任务设计”或为引导该子网生态系统而收取的版税。矿工和验证者获得相等的份额,确保了没有验证,矿工就得不到奖励(反之亦然)——它们是共生的,各自获得铸造奖励的相等部分。如果我们考虑一个外部用户支付 TAO 来查询一个模型,Bittensor 白皮书设想这笔支付也会在回答的矿工和帮助审查答案的验证者之间类似地分配(具体分配比例可以由协议或市场力量决定)。此外,委托人质押在矿工/验证者身上,实际上是合作伙伴——通常,矿工/验证者会将其赚取的 TAO 的一部分与他们的委托人分享(这是可配置的,但通常大部分给委托人)。所以,如果一个矿工从一个区块中赚取了 1 TAO,根据质押情况,这可能会在他们的委托人和他们自己之间以 80/20 的比例分配。这意味着即使非运营商也能根据他们的支持按比例获得网络收入的一部分。随着 dTAO 的引入,又增加了一层分享:那些质押到子网池中的人会得到 alpha 代币,这使他们有权获得该子网发行的一部分(就像收益农场)。实际上,任何人都可以通过持有 alpha 代币来分享特定子网的成功,并获得矿工/验证者奖励的一部分(alpha 代币会随着子网吸引更多使用和发行而升值)。总而言之,Bittensor 的收入分成是由代码固定的,适用于主要角色,并通过社交/质押安排进一步分享。这是一个相对透明、基于规则的分配——每个区块,参与者都确切地知道 1 TAO 是如何分配的,从而知道他们每次贡献的“收益”。这种清晰度是 Bittensor 有时被比作 AI 领域的比特币的原因之一——一个确定性的货币发行,参与者的奖励是数学上设定的。

  • Gensyn: Gensyn 中的收入分成更加动态和市场驱动,因为任务是单独定价的。当一个提交者创建一个工作时,他们会附上一个他们愿意支付的奖励(比如 X 个代币)。完成工作的解决者会得到那个 X(减去任何网络费用)。如果涉及到验证者,通常有一个规则,比如:如果没有检测到欺诈,解决者保留全部支付;如果检测到欺诈,解决者将被罚没——失去部分或全部质押——而被罚没的金额将作为奖励给予验证者。所以验证者不是从每个任务中赚钱,只有当他们抓住一个坏结果时才赚钱(加上可能参与的少量基准费用,取决于实现方式)。这里没有内置的向模型所有者支付的概念,因为假设提交者要么是模型所有者,要么有权使用该模型。可以想象一种情景,提交者正在微调别人的预训练模型,一部分支付会给原始模型创建者——但这必须在协议之外处理(例如,通过协议或一个单独的智能合约来相应地分配代币支付)。Gensyn 的协议级分享本质上是客户 -> 解决者 (-> 验证者)代币模型可能包括一些分配给协议财库或基金会;例如,每个任务支付的一小部分可能会进入一个财库,用于资助开发或保险池(这在现有文档中没有明确说明,但许多协议都这样做)。此外,在早期,Gensyn 可能会通过通货膨胀来补贴解决者:测试网用户在 TGE 时被承诺奖励,这实际上是来自初始代币分配的收入分成(早期解决者和支持者因帮助引导而获得一部分代币,类似于空投或挖矿奖励)。随着时间的推移,随着真实工作的增多,通胀奖励会逐渐减少,解决者的收入将主要来自用户支付。Gensyn 的方法可以总结为一个按服务收费的收入模型:网络促成需要完成工作的人向完成工作的人直接支付,验证者和可能的代币质押者只有在他们在保障该服务中发挥作用时才分得一杯羹。

  • Cuckoo: Cuckoo 的收入分成已经演变。最初,因为没有太多付费的终端用户,收入分成基本上是通货膨胀分享:来自代币供应的 30% 挖矿和 11% 质押分配意味着矿工和质押者分享网络公平启动池发行的代币。实际上,Cuckoo 运行着像每日 CAI 支付这样的机制,按完成的任务比例支付给矿工。这些支付主要来自挖矿奖励分配(这是保留的固定供应的一部分)。这类似于许多 Layer-1 区块链向矿工/验证者分配区块奖励的方式——它与外部用户的实际使用无关,更多的是为了激励参与和增长。然而,正如他们在 2025 年 7 月的博客中所强调的,这导致了由代币农场而不是真实需求激励的使用。Cuckoo 的下一阶段是一个基于服务费的真正收入分成模型。在这个模型中,当一个终端用户使用,比如说,图像生成服务并支付 1 美元(以加密货币计算)时,那 1 美元价值的代币可能会这样分配:0.70 给完成 GPU 工作的矿工,0.20 给提供模型和接口的应用开发者(协调者),0.10 给质押者或网络财库。(注意:确切的比例是假设的;Cuckoo 尚未公开指定它们,但这说明了概念。)这样,所有为提供服务做出贡献的人都能分得一杯羹。这类似于,例如,共享出行经济,但用于 AI:车辆(GPU 矿工)获得大部分,司机或平台(构建模型服务的协调者)获得一部分,也许平台的治理/质押者获得少量费用。Cuckoo 提到*“收入分成模型和代币奖励直接与使用指标挂钩”*,这表明如果某个特定的服务或节点处理大量流量,其运营商和支持者将赚得更多。他们正在摆脱仅仅锁定代币就能获得固定收益的模式(这在他们最初的质押 APY 中是这样的)。具体来说:如果你在一个最终为非常受欢迎的 AI 应用提供动力的协调者上质押,你可以赚取该应用费用的一部分——这是一个真正的将质押作为对效用投资的场景,而不仅仅是为了通货膨,胀而质押。这使得每个人的激励都朝着吸引为 AI 服务付费的真实用户方向发展,这反过来又将价值反馈给代币持有者。值得注意的是,Cuckoo 的链也有交易费用(gas),所以生产区块的矿工(最初 GPU 矿工也为 Cuckoo 链上的区块生产做出了贡献)也得到了 gas 费用。随着链的关闭和向 rollup 的迁移,gas 费用可能会很小(或者在以太坊上),所以主要收入变成了 AI 服务费用本身。总而言之,Cuckoo 正在从一个补贴驱动的模型(网络从其代币池中支付参与者)过渡到一个需求驱动的模型(参与者从实际用户支付中赚钱)。代币仍将在质押和治理中发挥作用,但矿工和应用开发者的日常收入应越来越多地来自购买 AI 服务的用户。这个模型在长期内更具可持续性,并与 Web2 SaaS 的收入分成密切相似,但通过智能合约和代币实现透明度。

攻击面与漏洞

去中心化 AI 引入了一些激励和安全挑战。我们现在分析关键的攻击向量——女巫攻击、合谋、搭便车以及数据/模型投毒——以及每个平台如何减轻或仍然容易受到这些攻击:

  • 女巫攻击(虚假身份):在一个开放网络中,攻击者可能会创建许多身份(节点)以获得不成比例的奖励或影响力。

  • Bittensor:女巫攻击的抵抗主要来自于进入成本。要在 Bittensor 上注册一个新的矿工或验证者,必须花费或质押 TAO——这可能是一种销毁或保证金要求。这意味着创建 N 个虚假节点会产生 N 倍的成本,使得大规模的女巫攻击变得昂贵。此外,Bittensor 的共识将影响力与质押和性能挂钩;一个没有质押或性能不佳的女巫几乎赚不到钱。攻击者必须投入巨资,并且让他们的女巫节点实际贡献有用的工作才能获得任何显著的奖励(这不是典型的女巫策略)。也就是说,如果一个攻击者确实拥有大量资本,他们可以获得大部分 TAO 并注册许多验证者或矿工——实际上是一种财富女巫。这与 51% 攻击情景重叠:如果单个实体控制了一个子网中超过 50% 的质押 TAO,他们就可以严重影响共识。Bittensor 引入 dTAO 在这里有所帮助:它将影响力分散到各个子网,并要求社区质押支持子网才能发展,这使得单个实体更难控制一切。尽管如此,资金雄厚的对手发起的财富女巫攻击仍然是一个担忧——Arxiv 的分析明确指出,目前的质押相当集中,因此多数攻击的门槛并不像期望的那么高。为了缓解这种情况,有人提出了像每个钱包的质押上限(例如,将有效质押上限设在第 88 百分位数,以防止一个钱包独大)之类的建议。总而言之,Bittensor 依靠质押加权身份(你不能在没有相应质押的情况下廉价地生成身份)来处理女巫攻击;除了在资源非常丰富的攻击者面前,它相当有效。

  • Gensyn:Gensyn 中的女巫攻击将表现为攻击者启动许多解决者或验证者节点来操纵系统。Gensyn 的防御纯粹是经济和密码学的——身份本身不重要,但完成工作或提供抵押品很重要。如果一个攻击者创建了 100 个虚假的解决者节点,但他们没有工作或没有质押,他们什么也得不到。要赢得任务,一个女巫节点必须有竞争力地出价,并拥有完成工作的硬件。如果他们以低于成本的价格出价而没有能力,他们会失败并失去质押。同样,攻击者可以创建许多验证者身份,希望被选中进行验证(如果协议随机选择验证者)。但如果数量太多,网络或工作发布者可能会限制活跃验证者的数量。此外,验证者可能需要执行计算来检查它,这是昂贵的;拥有许多虚假的验证者并没有帮助,除非你真的能验证结果。在 Gensyn 中,一个更相关的女巫攻击角度是,如果攻击者试图用虚假的工作或响应填满网络以浪费他人的时间。这可以通过要求提交者也提供押金来缓解(发布虚假工作的恶意提交者会失去他们的支付或押金)。总的来说,Gensyn 使用必需的质押/保证金随机选择验证意味着攻击者除非也带来相应的资源,否则通过拥有多个身份获得的收益甚微。这变成了一种成本高昂的攻击,而不是廉价的攻击。乐观安全模型假设至少有一个诚实的验证者——女巫必须压倒并成为所有验证者才能持续作弊,这又回到了拥有大部分质押或计算能力的问题。因此,Gensyn 的女巫抵抗能力与乐观 rollup 相当:只要有一个诚实的参与者,女巫就很难轻易造成系统性损害。

  • Cuckoo:Cuckoo 中防止女巫攻击依赖于质押和社区审查。Cuckoo 中的每个角色(矿工、协调者,甚至在某些情况下的用户)都需要质押 $CAI。这立即提高了女巫身份的成本——一个制造 100 个虚假矿工的攻击者需要为每个矿工获取并锁定质押。此外,Cuckoo 的设计有一个人为/社区因素:新节点需要通过链上投票来获得声誉。一个没有声誉的新节点女巫大军不太可能被分配到很多任务或被用户信任。特别是协调者必须吸引用户;一个没有记录的虚假协调者不会得到使用。对于矿工,协调者可以在 Cuckoo Scan 上看到他们的性能统计数据(成功任务等),并且会偏爱可靠的矿工。Cuckoo 的矿工数量也相对较少(在 beta 测试中一度只有 40 个 GPU),所以任何大量节点的奇怪涌入都会很明显。潜在的弱点是,如果攻击者也操纵声誉系统——例如,他们在自己的女巫节点上质押大量 CAI,使它们看起来信誉良好,或者创建虚假的“用户”账户来为自己点赞。这在理论上是可能的,但由于这一切都是代币策划的,这样做需要花费代币(你基本上是用自己的质押在自己的节点上投票)。Cuckoo 团队也可以在观察到女巫行为时调整质押和奖励参数(特别是现在它正在成为一个更中心化的 rollup 服务;他们可以暂停或罚没不良行为者)。总而言之,女巫通过要求投入(质押)需要社区批准来得到控制。没有人可以仅仅带着数百个虚假的 GPU 进来就 reaping 奖励,而无需大量投资,而诚实的参与者可以更好地将这些投资用于真实的硬件和质押。

  • 合谋: 这里我们考虑多个参与者合谋操纵系统——例如,Bittensor 中的验证者和矿工合谋,或 Gensyn 中的解决者和验证者合谋等。

  • Bittensor:合谋已被确定为一个真正的问题。在最初的设计中,少数验证者可以合谋总是支持某些矿工或他们自己,从而不公平地扭曲奖励分配(这在根子网中被观察为权力集中)。Yuma 共识提供了一些防御:通过取验证者分数的中位数并惩罚偏离者,它防止了一个小的合谋团体大幅提升一个目标,除非他们是多数。换句话说,如果 10 个验证者中有 3 个合谋给一个矿工一个超高的分数,但其他 7 个没有,那么合谋者的离群分数会被剔除,矿工的奖励将基于中位数分数(所以合谋未能显著帮助)。然而,如果合谋者构成了超过 50% 的验证者(或验证者中超过 50% 的质押),他们实际上就是共识——他们可以就虚假的高分达成一致,中位数将反映他们的观点。这是经典的 51% 攻击情景。不幸的是,Arxiv 的研究发现,在一些 Bittensor 子网中,仅占参与者数量 1-2% 的联盟就控制了大部分质押,这是由于代币高度集中。这意味着少数大户的合谋是一个可信的威胁。Bittensor 通过 dTAO 追求的缓解措施是民主化影响力:通过让任何 TAO 持有者将质押导向子网,它稀释了封闭验证者团体的权力。此外,像凹形质押(对超大质押的收益递减)和质押上限等提案旨在打破单个合谋实体聚集过多投票权的能力。Bittensor 的安全假设现在类似于权益证明:没有单个实体(或卡特尔)控制超过 50% 的活跃质押。只要这一点成立,合谋就是有限的,因为诚实的验证者会覆盖不良评分,合谋的子网所有者也不能任意提升自己的奖励。最后,关于子网所有者和验证者之间的合谋(例如,一个子网所有者贿赂验证者以高评价其子网的矿工),dTAO 消除了直接的验证者控制,代之以代币持有者的决策。与“市场”合谋更难,除非你买断代币供应——在这种情况下,这就不再是合谋,而是接管。所以 Bittensor 的主要反合谋技术是算法共识(中位数裁剪)广泛的代币分配

  • Gensyn:Gensyn 中的合谋可能涉及一个解决者和一个验证者(或多个验证者)合谋欺骗系统。例如,一个解决者可以产生一个虚假的结果,而一个合谋的验证者可以故意不挑战它(或者如果协议要求验证者签署,甚至证明它是正确的)。为了缓解这种情况,Gensyn 的安全模型要求至少有一个诚实的验证者。如果所有验证者都与解决者合谋,那么一个坏结果就不会受到挑战。Gensyn 通过鼓励许多独立的验证者(任何人都可以验证)以及博弈论来解决这个问题,即一个验证者可以通过脱离合谋并提出挑战来获得巨大的奖励(因为他们会得到解决者的质押)。本质上,即使有一群人同意合谋,每个成员都有动机背叛并为自己索取赏金——这是一个经典的囚徒困境设置。希望这能使合谋团体保持小规模或无效。另一个潜在的合谋是多个解决者之间合谋抬高价格或垄断任务。然而,由于开发者可以选择在哪里发布任务(而且任务不是可以轻易垄断的相同单位),解决者在价格上的合谋很难在全球范围内协调——任何不合谋的解决者都可以以更低的价格赢得工作。开放的市场动态对抗了定价合谋,假设至少有一些竞争参与者。另一个角度:验证者合谋刁难解决者——例如,验证者错误地指控诚实的解决者以窃取他们的质押。Gensyn 的欺诈证明是二元的和链上的;当链上重新计算发现没有错误时,一个错误的指控会失败,并且据推测,恶意的验证者会因此失去一些东西(也许是押金或声誉)。所以,试图破坏解决者的验证者合谋会被协议的验证过程抓住。总而言之,只要任何合谋集合中至少有一方有动机保持诚实,Gensyn 的架构就是稳健的——这是乐观验证的一个特性,类似于要求比特币中至少有一个诚实的矿工最终揭露欺诈。如果一个攻击者可以控制一个任务中的所有验证者和解决者(比如网络的大多数),理论上合谋是可能的,但那时他们就可以直接作弊而不需要合谋。加密经济激励的安排使得维持合谋变得不理性。

  • Cuckoo:Cuckoo 中的合谋可能以几种方式发生:

  1. 一个协调者与矿工合谋——例如,一个协调者可以总是将任务分配给一组友好的矿工并分享奖励,而忽略其他诚实的矿工。由于协调者在任务调度上有自由裁量权,这可能会发生。然而,如果友好的矿工表现不佳,终端用户可能会注意到服务缓慢或质量差而离开,所以协调者没有动机纯粹为了偏袒而损害质量。如果合谋是为了操纵奖励(比如,提交虚假任务给矿工代币),这将在链上被检测到(大量任务可能具有相同的输入或没有实际用户)并可能受到惩罚。Cuckoo 的链上透明度意味着任何不寻常的模式都可能被社区或核心团队标记。此外,因为所有参与者都质押,一个合谋的协调者-矿工团伙如果被发现滥用系统,将面临失去质押的风险(例如,如果治理决定因欺诈而罚没他们)。
  2. 矿工之间合谋——他们可能会分享信息或形成一个卡特尔,比如说,在声誉上互相投票,或者都拒绝为一个特定的协调者服务以索取更高的费用。这些情况不太可能发生:声誉投票是由质押者(包括用户)完成的,而不是矿工自己互相投票。而拒绝服务只会促使协调者寻找其他矿工或发出警报。鉴于目前规模相对较小,任何合谋都很难隐藏。
  3. 合谋操纵治理——大的 CAI 持有者可以合谋通过对他们有利的提案(比如设定过高的费用或重定向财库)。这在任何代币治理中都是一个风险。最好的缓解措施是广泛分配代币(Cuckoo 的公平启动将 51% 分给了社区)并有活跃的社区监督。此外,由于 Cuckoo 从 L1 转型,直接的链上治理可能会受到限制,直到他们在新的链上重新安顿下来;团队在此期间可能会保留一个多签控制,这讽刺地防止了恶意外部人员的合谋,但代价是暂时的中心化。 总的来说,Cuckoo 依靠透明度和质押来处理合谋。在某种程度上,信任协调者会表现良好,因为他们想在竞争环境中吸引用户。如果合谋导致服务质量下降或明显的奖励操纵,利益相关者可以投票淘汰或停止质押不良行为者,网络可以罚没或阻止他们。相当开放的性质(任何人只要质押就可以成为协调者或矿工)意味着合谋需要大规模的协调努力,而这将是显而易见的。它不像 Bittensor 或 Gensyn 那样在数学上被阻止,但经济质押和社区治理的结合提供了一种制衡。
  • 搭便车(搭便车问题):这指的是参与者试图在不贡献同等价值的情况下获得奖励——例如,一个实际上不进行评估但仍然赚钱的验证者,或者一个复制他人答案而不是自己计算的矿工,或者在不提供有用输入的情况下刷奖励的用户。

  • Bittensor:Bittensor 中一个已知的搭便车问题是懒惰验证者的**“权重复制”。一个验证者可以简单地复制多数意见(或其他验证者的分数),而不是独立评估矿工。通过这样做,他们避免了运行 AI 查询的成本,但如果他们提交的分数看起来与共识一致,他们仍然可以获得奖励。Bittensor 通过衡量每个验证者的共识一致性信息贡献来对抗这一点。如果一个验证者总是只是复制他人,他们可能与共识一致(所以他们不会受到重罚),但他们没有增加任何独特的价值。协议开发者已经讨论过给那些提供准确但不纯粹冗余评估的验证者更高的奖励。像噪声注入**(故意给验证者略有不同的查询)这样的技术可以迫使他们实际工作而不是复制——尽管尚不清楚这是否已实现。Arxiv 建议使用性能加权发行和复合评分方法来更好地将验证者的努力与奖励联系起来。至于矿工,一种可能的搭便车行为是,如果一个矿工查询其他矿工并转发答案(一种抄袭形式)。Bittensor 的设计(带有去中心化查询)可能允许一个矿工的模型通过自己的树突调用其他模型。如果一个矿工只是转发别人的答案,一个好的验证者可能会发现这一点,因为答案可能与该矿工声称的模型能力不一致。这在算法上很难检测,但一个从不计算原始结果的矿工最终应该在某些查询上得分很低并失去声誉。另一个搭便车情景是委托人在不做 AI 工作的情况下获得奖励。这是有意的(为了让代币持有者参与),所以不是攻击——但它确实意味着一些代币发行给了只质押的人。Bittensor 将此解释为协调激励,而不是浪费奖励。简而言之,Bittensor 承认验证者搭便车问题,并正在调整激励措施(比如给予验证者信任分数,以提升那些不偏离或复制的人)。他们的解决方案本质上是更明确地奖励努力和正确性,以便什么都不做或盲目复制随着时间的推移会产生更少的 TAO。

  • Gensyn:在 Gensyn 中,搭便车者会发现很难赚钱,因为一个人必须要么提供计算,要么抓住作弊者才能获得代币。一个解决者不能“伪造”工作——他们必须提交一个有效的证明,否则就有被罚没的风险。没有机制可以在不完成任务的情况下获得报酬。一个验证者理论上可以坐等他人抓住欺诈——但那样他们什么也得不到(因为只有提出欺诈证明的人才能获得奖励)。如果太多的验证者试图搭便车(不实际重新计算任务),那么一个欺诈性的解决者可能会溜走,因为没有人在检查。Gensyn 的激励设计通过大奖奖励来解决这个问题:只需要一个活跃的验证者抓住一个作弊者就能获得一大笔报酬,所以至少有一个人总是在工作是理性的。其他人不做工作不会损害网络,只是没用;他们也得不到奖励。所以系统自然会过滤掉搭便车者:只有那些真正验证的验证者才能在长期内获利(其他人将资源花在节点上却一无所获,或者很少有机会偶然获得奖励)。协议也可能随机化哪个验证者有机会挑战,以阻止所有验证者都假设“别人会做的”。由于任务是单独支付的,除了临时的测试网激励外,没有类似于“不工作就有质押奖励”的情况。一个值得关注的领域是多任务优化:一个解决者可能会试图在任务之间重用工作,或者秘密地将其外包给更便宜的人(比如使用中心化的云)——但这并不是真正有害的搭便车;如果他们按时交付正确的结果,他们是如何做到的并不重要。这更像是套利而不是攻击。总而言之,Gensyn 的机制设计几乎没有给搭便车者留下获利的空间,因为每个分发的代币都对应着一个完成的工作或一个被惩罚的作弊行为。

  • Cuckoo:Cuckoo 的初始阶段无意中创造了一个搭便车问题:空投和高收益质押吸引了只为刷代币而来的用户。这些用户会通过水龙头循环代币或操纵空投任务(例如,不断使用免费的测试提示或创建许多账户来领取奖励),而没有为网络的长期价值做出贡献。Cuckoo 认识到这是一个问题——本质上,人们“使用”网络不是为了 AI 输出,而是为了投机性奖励。决定结束 L1 链并重新聚焦,部分原因是为了摆脱这些激励错位。通过将未来的代币奖励与实际使用挂钩(即,你赚钱是因为服务实际上被付费客户使用),搭便车的吸引力就减小了。还有一个矿工端的搭便车情景:一个矿工可以加入,被分配任务,然后以某种方式不执行它们但仍然声称奖励。然而,协调者正在验证结果——如果一个矿工不返回输出或返回坏的输出,协调者不会将其计为已完成的任务,所以矿工不会得到报酬。矿工也可能试图挑选容易的任务而放弃困难的任务(例如,如果一些提示较慢,矿工可能会断开连接以避免它们)。这可能是一个问题,但协调者可以注意到矿工的可靠性。如果一个矿工经常掉线,协调者可以停止向他们分配任务或罚没他们的质押(如果存在这样的机制或干脆不奖励他们)。用户搭便车——由于许多 AI 服务都有免费试用,用户可以滥发请求以获得输出而不付费(如果有补贴的模型)。这与其说是协议层面的问题,不如说是服务层面的问题;每个协调者可以决定如何处理免费使用(例如,要求少量支付或限流)。因为 Cuckoo 最初提供了一些免费服务(比如免费的 AI 图像生成以吸引用户),一些人利用了这一点,但这是预期的增长营销的一部分。随着这些促销活动的结束,用户将不得不付费,因此没有免费的午餐可以利用。总的来说,Cuckoo 的新策略是将代币分配与真实效用挂钩,这明确旨在消除“为了做无意义的循环而挖矿”的搭便车问题。

  • 数据或模型投毒: 这指的是恶意引入不良数据或行为,使得 AI 模型退化或输出被操纵,以及贡献有害或有偏见内容的问题。

  • Bittensor:Bittensor 中的数据投毒意味着一个矿工故意给出不正确或有害的答案,或者验证者故意将好的答案评估为坏的。如果一个矿工持续输出垃圾或恶意内容,验证者会给出低分,该矿工将赚得很少并最终退出——经济激励是提供质量,所以“投毒”他人对攻击者没有好处(除非他们的目标纯粹是自费破坏)。一个恶意的矿工能毒害别人吗?在 Bittensor 中,矿工不直接互相训练(至少在设计上不是——没有一个可以被毒害的全局模型在更新)。每个矿工的模型是独立的。他们确实在某种意义上学习,即一个矿工可以从他人那里获取有趣的样本来微调自己,但这完全是可选的,取决于每个人。如果一个恶意行为者滥发无意义的答案,诚实的验证者会过滤掉这些(他们会给它低分),所以它不会显著影响任何诚实矿工的训练过程(此外,一个矿工可能会使用高分同行的知识,而不是低分的)。所以经典的数据投毒(注入不良训练数据以破坏模型)在 Bittensor 当前的设置中是最小的。更相关的风险是模型响应操纵:例如,一个矿工输出微妙的偏见或危险内容,而这对验证者来说并不明显。然而,由于验证者也是人类设计的或至少是算法代理,公然的毒性或错误很可能被发现(一些子网甚至可能有 AI 验证者检查不安全内容)。最坏的情况是,如果一个攻击者以某种方式拥有大多数验证者和矿工合谋将某个不正确的输出推为“正确”——他们就可以偏袒网络对响应的共识(比如所有合谋的验证者都支持一个恶意答案)。但要让外部用户因此受到伤害,他们必须实际查询网络并信任输出。Bittensor 仍处于一个构建能力的阶段,尚未被终端用户广泛用于关键查询。到那时,希望它将有内容过滤和验证者的多样性来减轻这种风险。在验证者方面,一个恶意的验证者可以提供有毒的评估——例如,持续地给某个诚实的矿工低分以消除竞争。如果有足够的质押,他们可能会成功地将该矿工挤出(如果该矿工的奖励下降到他们离开的程度)。这是对激励机制的攻击。同样,如果他们不是多数,中位数裁剪将挫败一个离群的验证者。如果他们多数,这就与合谋/51% 的情景合并了——任何多数都可以重写规则。解决方案又回到了去中心化:防止任何一个实体占主导地位。总而言之,Bittensor 的设计通过其评分系统固有地惩罚有毒的数据/模型贡献——不良贡献获得低权重,从而获得低奖励。没有一个永久的模型库可以被毒害;一切都是动态的并持续评估。这提供了弹性:网络可以随着不良行为者的贡献被验证者过滤掉而逐渐“忘记”或忽略他们。

  • Gensyn:如果一个解决者想毒害一个正在训练的模型(比如在训练期间引入后门或偏见),他们可以尝试秘密地这样做。Gensyn 协议会验证训练是否按照指定的算法进行(随机梯度下降步骤等),但它不一定能检测到解决者是否引入了一个微妙的后门触发器,而这个触发器在正常的验证指标中不会出现。这是一个更阴险的问题——它不是计算的失败,而是在训练的允许自由度内的操纵(比如将权重调整向一个触发短语)。检测这一点是机器学习安全领域的一个活跃研究问题。Gensyn 除了提交者可以在他们选择的测试集上评估最终模型这一事实外,没有特殊的模型投毒机制。一个精明的提交者应该总是测试返回的模型;如果他们发现它在某些输入上失败或有奇怪的行为,他们可能会对结果提出异议或拒绝支付。也许协议可以允许提交者指定某些接受标准(比如“模型必须在这个秘密测试集上达到至少 X 的准确率”),如果解决者的结果失败,解决者就得不到全额支付。这将阻止投毒,因为攻击者无法满足评估标准。然而,如果毒药不影响正常测试的准确性,它可能会溜走。Gensyn 中的验证者只检查计算完整性,而不是模型质量,所以他们不会发现故意的过拟合或木马,只要训练日志看起来有效。所以,这仍然是一个任务层面的信任问题:提交者必须要么相信解决者不会毒害模型,要么使用像集成多个来自不同解决者的训练结果这样的方法来稀释任何单个解决者的影响。另一个角度是数据投毒:如果提交者提供训练数据,一个恶意的解决者可以忽略这些数据,而在别的东西上训练或添加垃圾数据。但这可能会降低准确性,提交者会在输出模型的性能中注意到这一点。解决者将因此得不到全额支付(因为据推测他们想达到一个性能目标)。所以降低性能的投毒对解决者的奖励是自取灭亡的。只有性能中性但恶意的毒药(后门)才是真正的危险,而这超出了典型区块链验证的范围——这是一个机器学习安全挑战。Gensyn 最好的缓解措施可能是社会性的:使用知名的信誉良好的模型,进行多次训练运行,使用开源工具。在推理任务上(如果 Gensyn 也用于推理工作),一个合谋的解决者可以返回不正确的输出,从而偏袒某个答案。但如果验证者运行相同的模型,他们会发现错误的输出,所以这与其说是投毒,不如说是作弊,欺诈证明可以解决这个问题。总而言之,Gensyn 保障过程,而不是意图。它确保训练/推理是正确完成的,但不能保证结果是好的或没有隐藏的恶意。这仍然是一个悬而未决的问题,Gensyn 的白皮书可能还没有完全解决这个问题(很少有能解决的)。

  • Cuckoo:由于 Cuckoo 目前专注于推理(服务现有模型),数据/模型投毒的风险相对局限于输出操纵内容投毒。一个恶意的矿工可能会试图篡改他们被给予运行的模型——例如,如果提供了一个 Stable Diffusion 检查点,他们可以用一个不同的模型替换它,这个模型可能会在每张图片中插入一些微妙的水印或广告。然而,协调者(模型所有者)通常会发送带有输出格式期望的任务;如果一个矿工持续返回不符合规格的输出,协调者会标记并禁止该矿工。此外,矿工在不显著影响其输出的情况下很难修改模型。另一种情景是,如果 Cuckoo 引入社区训练的模型:那么矿工或数据提供者可能会试图毒害训练数据(例如,输入大量错误的标签或有偏见的文本)。Cuckoo 将需要实施对众包数据的验证或对贡献者进行加权。这还不是一个功能,但团队对个性化 AI 的兴趣(比如他们提到的 AI 生活教练或学习应用)意味着他们最终可能会处理用户提供的训练数据,这将需要仔细的检查。在内容安全方面,由于 Cuckoo 矿工执行推理,人们可能会担心他们会输出有害内容,即使模型通常不会。但矿工没有动机任意改变输出——他们为正确的计算获得报酬,而不是创造力。如果说有什么的话,一个恶意的矿工可能会为了节省时间而跳过完整的计算(例如,返回一张模糊的图片或一个通用的响应)。协调者或用户会看到这一点并给该矿工差评(并且很可能不会为该任务付费)。隐私是另一个方面:一个恶意的矿工可能会泄露或记录用户数据(比如用户输入了敏感的文本或图片)。这不是投毒,而是对机密性的攻击。Cuckoo 的隐私立场是,它正在探索保护隐私的方法(生态系统中提到一个保护隐私的 VPN 表明了未来的重点)。他们可以结合像安全区域或分割推理这样的技术来保护数据不被矿工看到。尚未实现,但这是一个已知的考虑因素。 最后,Cuckoo 的博客强调有效验证模型输出并确保安全的去中心化模型操作是使模型代币化可行的关键。这表明他们意识到,要真正去中心化 AI,必须防范像有毒输出或功能失常的模型这样的事情。可能他们打算结合使用加密经济激励(对不良行为者进行质押罚没)和用户评级系统(用户可以标记不良输出,那些矿工会失去声誉)。声誉系统在这里可以发挥作用:如果一个矿工返回哪怕一个明显恶意或不正确的结果,用户/协调者可以给他们差评,严重影响他们未来的赚钱能力。知道这一点,矿工就有动力保持一贯的正确性,而不是掺入任何毒药。 本质上,Cuckoo 依赖于信任但验证:它更传统,如果有人行为不端,你识别并移除他们(以失去质押作为惩罚)。它还没有针对微妙模型投毒的专门防御措施,但有特定的应用所有者(协调者)负责的结构增加了一层监督——这些所有者会有动力确保没有任何东西损害他们模型的完整性,因为他们自己的收入和声誉都依赖于此。

总而言之,虽然去中心化 AI 网络引入了新的攻击面,但它们也部署了一系列密码学、博弈论和社区治理的防御措施女巫抵抗主要通过要求参与者投入经济质押来处理。合谋抵抗来自于激励的一致性(诚实行为更有利可图)和限制小合谋团体影响的共识机制。防止搭便车是通过将奖励与实际有用的工作紧密联系,并惩罚或淘汰那些没有贡献的人来实现的。投毒及相关攻击仍然具有挑战性,但系统通过持续评估和罚没或驱逐恶意行为者的能力来减轻公然的案例。这些平台正在积极研究和迭代这些设计——正如 Bittensor 对 Yuma 和 dTAO 的持续调整,以及 Cuckoo 在代币经济学上的转变所证明的那样——以确保一个安全、自我维持的去中心化 AI 生态系统。

对比评估

为了突出 Bittensor、Gensyn 和 Cuckoo AI 的异同,下表从关键维度对它们进行了并排比较:

维度Bittensor (TAO)GensynCuckoo AI (CAI)
技术栈自定义 L1 (基于 Substrate 的 Subtensor 链),拥有 93+ 个专业 AI 子网。近期升级后,在其自有链上实现 EVM 兼容。基于以太坊的 rollup (最初计划为 L1,现为 ETH rollup)。链下计算,链上验证。作为 Arbitrum Orbit Layer-2 链 (EVM rollup) 启动。全栈平台 (自有链 + 计算 + 应用 UI)。正从自定义 L1 迁移到以太坊共享安全 (rollup/AVS)。
主要焦点去中心化 AI 网络,由模型组成的“神经互联网”。节点为跨任务(LLM、视觉等)的集体模型推理和训练做出贡献。去中心化的 ML 计算市场。重点是通过全球 GPU 进行链下模型训练和推理,并通过区块链验证工作。去中心化 AI 服务平台。专注于使用分布式 GPU 矿工进行模型服务/推理(例如生成艺术、LLM API)。将终端用户应用与后端 GPU 市场集成。
关键角色子网所有者: 定义子网中的任务和验证(赚取 18% 奖励)。
矿工: 运行 AI 模型(推理/训练),提供答案。
验证者: 提出查询并对矿工的输出进行评分(策划质量)。
委托人: 将 TAO 质押给矿工/验证者以增强其影响力并赚取份额。
提交者(开发者): 发布 ML 作业(附带模型/数据)和支付。
解决者: 在其硬件上计算任务,提交结果。
验证者(观察者): 检查解决者的结果;如果错误,可通过欺诈证明提出挑战。
(没有明确的“所有者”角色,因为提交者提供模型;治理角色通过代币持有者实现)。
AI 应用构建者(协调者): 部署 AI 模型服务,质押 CAI,管理分配给矿工的任务。
矿工(GPU/CPU 提供者): 质押 CAI,执行分配的推理任务,返回结果。
终端用户: 使用 AI 应用(用加密货币支付或贡献资源)。
质押者(委托人): 在协调者/矿工上质押,参与治理投票,赚取奖励份额。
共识与验证Yuma 共识: 自定义的“智能证明”——验证者对 AI 输出的评分被聚合(权益加权中位数)以确定矿工奖励。底层链共识类似于 PoS (Substrate) 用于区块,但区块有效性取决于每个周期的 AI 共识。能抵抗高达 50% 的离群评分和合谋。乐观验证(类 Truebit): 假设解决者的结果是正确的,除非有验证者提出挑战。使用交互式链上欺诈证明来精确定位任何不正确的步骤。同时也在实施计算的密码学证明(学习证明)以在不重新执行的情况下验证训练进度。以太坊为交易提供基础共识。权益证明链 + 协调者任务验证: Cuckoo 链使用 PoS 验证者进行区块生产(最初,矿工也帮助保护区块)。AI 任务结果由协调者节点验证(他们根据预期的模型行为检查矿工输出)。尚无专门的加密证明——依赖于质押和声誉(其无需信任的程度在于,不当行为会导致罚没或被差评,而不是自动的数学证明检测)。正在向以太坊共识(rollup)过渡以保障账本安全。
代币与效用TAO 代币: Subtensor 上的原生货币。用于质押(注册和影响共识所需)、交易费/支付(例如支付 AI 查询)以及作为贡献的奖励(挖矿/验证)。TAO 有持续的通货膨胀(每 12 秒一个区块 1 TAO),这驱动了奖励机制。也用于治理(dTAO 质押到子网)。Gensyn 代币(ERC-20,名称待定): 协议的支付单位(开发者用它支付给解决者)。作为质押抵押品(解决者/验证者绑定代币,因过错被罚没)。将用于治理(通过 Gensyn 基金会的 DAO 对协议升级进行投票)。供应细节尚未公布;可能有一部分用于激励早期采用(测试网等)。CAI 代币(ERC-20): Cuckoo 链的原生代币(10 亿固定供应)。多用途:Cuckoo 链上交易的燃料费,网络角色的质押(矿工、协调者必须锁定 CAI),协议决策的治理投票,以及贡献的奖励(挖矿/质押奖励来自初始分配)。也具有 meme 吸引力(社区代币方面)。
资产代币化计算:是——AI 计算工作通过 TAO 奖励被代币化(可将 TAO 视为智能的“燃料”)。模型:间接——模型根据性能赚取 TAO,但模型/权重本身不是链上资产(没有模型的 NFT)。子网所有权被代币化(子网所有者 NFT + alpha 代币)以代表模型市场的份额。数据:未代币化(数据在链下;Bittensor 专注于模型输出而非数据集)。计算:是——闲置计算成为链上商品,在作业市场中用代币交易。模型:不明确——模型由开发者在链下提供,结果返回;没有内置的模型代币(尽管如果各方设置,协议可以促进许可)。数据:否——数据集在提交者和解决者之间在链下处理(可以加密或保护,但不表示为链上资产)。Gensyn 的愿景包括可能像计算一样交易算法或数据,但核心实现以计算为中心。计算:是——GPU 时间通过每日 CAI 支付和任务赏金被代币化。网络将计算能力视为矿工“出售”以换取 CAI 的资源。模型:部分——平台将模型作为服务集成;然而,模型本身并未铸造成 NFT。模型的价值体现在协调者从使用它的用户那里赚取 CAI 的能力上。未来计划暗示社区拥有的模型,但目前模型 IP 在链下(由运行协调者的人拥有)。数据:没有通用的数据代币化。用户输入/输出是短暂的。(Cuckoo 与 Beancount 等应用合作,但数据并未在链上由代币表示。)
治理去中心化,代币持有者驱动 (dTAO): 最初有 64 个选举产生的验证者运行根共识;现在治理是开放的——TAO 持有者向子网质押以引导发行(基于市场的资源分配)。协议升级和变更通过链上提案决定(TAO 投票,由 Bittensor 基金会/理事会协助)。目标是完全由社区治理,基金会逐渐交出控制权。渐进式去中心化: Gensyn 基金会 + 选举产生的理事会管理早期决策。代币发行后,治理将过渡到一个 DAO,代币持有者对提案进行投票(类似于许多 DeFi 项目)。以太坊的共享安全环境意味着重大变更涉及社区和潜在的 Layer-1 治理。治理范围包括经济参数、合约升级(需经安全审计)。尚未上线,但在白皮书中为主网上线后规划。社区与基金会混合: Cuckoo 以“公平启动”理念启动(没有为内部人员预挖)。计划建立一个社区 DAO,由 CAI 对关键决策和协议升级进行投票。实际上,核心团队(Cuckoo Network 开发者)主导了重大决策(如链的弃用),但他们透明地分享理由并将其定位为为社区利益的演变。链上治理功能(提案、投票)很可能在新的 rollup 就位后推出。质押也通过声誉系统非正式地赋予治理影响力(对受信任节点的权益加权投票)。
激励模型与贡献挂钩的通胀奖励: 每个区块约 1 TAO 根据表现分配给参与者。质量越高 = 奖励越多。矿工和验证者持续获得收益(逐块),加上委托人也获得一份。终端用户也使用 TAO 支付服务(为代币创造需求方)。代币经济旨在鼓励长期参与(质押)和模型的不断改进,类似于比特币的矿工,但“挖掘 AI”。潜在问题(质押集中导致奖励错位)正在通过激励调整来解决。市场驱动,按结果付费: 没有持续的通胀收益(除了可能的早期激励);解决者只有在成功完成工作时才获得报酬。验证者只有在抓住欺诈时才获得报酬(大奖激励)。这创造了一个直接的经济体:开发者的支出 = 提供者的收入。代币价值与实际的计算需求挂钩。为了引导,Gensyn 可能会在启动时奖励测试网用户(一次性分配),但在稳定状态下,它是基于使用的。这使得激励与网络效用紧密结合(如果 AI 作业增加,代币使用增加,所有持有者都受益)。混合型(从通胀转向使用费): 最初,来自 51% 社区池的挖矿和质押分配奖励 GPU 矿工(供应量的 30%)和质押者(11%),无论外部使用情况如何——这是为了启动网络效应。随着时间的推移,特别是在 L1 弃用后,重点转向收入分成:矿工和应用开发者从实际用户支付中赚钱(例如,分摊图像生成的费用)。质押者的收益将来自真实使用的一部分,或进行调整以鼓励只支持生产性节点。所以早期的激励是“发展网络”(高 APY、空投),后来是“网络只有在真正有用时才会增长”(来自客户的收入)。这种过渡旨在淘汰搭便车者并确保可持续性。
安全与攻击缓解女巫攻击: 昂贵的注册(TAO 质押)阻止了女巫。合谋: 中位数共识能抵抗高达 50% 质押的合谋;dTAO 通过赋予代币持有者投票权打破了验证者寡头。不诚实: 偏离共识的验证者会失去奖励份额(激励诚实评分)。如果质押高度集中,51% 攻击是可能的——研究建议增加质押上限和性能罚没来缓解。模型攻击: 差或恶意的模型输出会因低分而受到惩罚。没有单点故障——网络是全球去中心化的(TAO 矿工遍布世界,伪匿名)。女巫攻击: 参与需要经济质押;没有质押/工作的虚假节点一无所获。验证: 至少需要一个诚实的验证者——如果是这样,任何错误的结果都会被发现并受到惩罚。使用加密经济激励使作弊得不偿失(解决者失去押金,验证者获得)。合谋: 只要不是所有方都合谋,就是安全的——一个诚实者通过揭露欺诈打破了该计划。信任: 不依赖于对硬件或公司的信任,只依赖于经济博弈论和密码学。攻击: 难以审查或 DoS,因为任务是分布式的;攻击者需要出价高于诚实节点或持续击败欺诈证明(没有多数控制不太可能)。然而,微妙的模型后门可能会逃避检测,这是一个已知的挑战(通过用户测试和未来可能超越正确执行的审计来缓解)。总体安全性类似于用于计算的乐观 rollup。女巫攻击: 所有参与者都必须质押 CAI,提高了女巫的门槛。加上一个声誉系统(质押 + 投票)意味着没有声誉的女巫身份不会得到任务。节点不当行为: 协调者可以放弃表现不佳或可疑的矿工;质押者可以撤回支持。协议可以对已证实的欺诈进行质押罚没(L1 有共识的罚没条件;类似的可适用于任务欺诈)。合谋: 部分基于信任——依赖于公开竞争和社区监督来防止合谋占主导。由于任务和支付在链上是公开的,公然的合谋可以被识别并通过社会或治理方式惩罚。用户保护: 如果一个提供商被审查或损坏,用户可以切换提供商,确保没有单点控制。投毒/内容: 设计上,矿工按原样运行提供的模型;如果他们恶意改变输出,他们会失去声誉和奖励。该系统押注于理性行为者:因为每个人都有质押价值和未来的赚钱潜力,他们没有动机进行会破坏网络信任的攻击(从他们 L1 实验中关于将激励与效用对齐的沉重教训中得到加强)。

表格: Bittensor、Gensyn 和 Cuckoo AI 在架构、焦点、角色、共识、代币、资产代币化、治理、激励和安全方面的功能比较。

可验证 AI 动态:Lagrange Labs 的动态 zk-SNARKs 实现持续信任

· 阅读需 5 分钟
Dora Noda
Software Engineer

在人工智能与区块链快速融合的时代,对信任与透明度的需求前所未有。我们如何确保 AI 模型的输出准确且未被篡改?我们又如何在不牺牲安全性或可扩展性的前提下,对海量链上数据执行复杂计算?Lagrange Labs 正在通过其零知识(ZK)基础设施套件正面回应这些问题,致力于构建“可证明的 AI”。本文客观概述其使命、技术以及近期突破,重点聚焦其最新的动态 zk‑SNARKs 论文。

1. 团队与使命

Lagrange Labs 正在构建基础设施,为任何 AI 推理或链上应用生成密码学证明。其目标是让计算可验证,为数字世界注入全新信任层。生态系统围绕三大核心产品线:

  • ZK Prover Network:由超过 85 个证明节点组成的去中心化网络,提供从 AI、Rollup 到去中心化应用(dApp)等多种证明任务所需的计算能力。
  • DeepProve(zkML):专用于生成神经网络推理的 ZK 证明。Lagrange 声称其速度比竞争方案快 158 倍,让可验证 AI 成为可落地的现实。
  • ZK Coprocessor 1.0:首个基于 SQL 的 ZK 协处理器,允许开发者对海量链上数据执行自定义查询,并获得可验证的准确结果。

2. 可验证 AI 的路线图

Lagrange 按部就班执行路线图,逐步解决 AI 可验证性难题。

  • 2024 年 Q3:ZK Coprocessor 1.0 发布:引入超并行递归电路,平均提升约 2 倍。Azuki、Gearbox 等项目已在链上数据需求中 使用该协处理器
  • 2025 年 Q1:DeepProve 正式亮相:Lagrange 宣布推出针对零知识机器学习(zkML)的 DeepProve,支持 MLP、CNN 等主流网络结构。系统在一次性设置、证明生成、验证三个关键阶段均实现数量级加速,最高可达 158 倍
  • 2025 年 Q2:动态 zk‑SNARKs 论文(最新里程碑):该论文提出突破性的 “update” 算法。无需每次数据或计算变更时重新生成完整证明,而是将旧证明 (π) 打补丁 成新证明 (π'),复杂度仅为 O(√n log³n),大幅优于全量重算。此创新尤为适用于持续学习的 AI 模型、实时游戏逻辑以及可演化的智能合约。

3. 动态 zk‑SNARKs 的意义

可更新证明的出现标志着零知识技术成本模型的根本转变。

  • 全新成本范式:行业从“每次都全量重算”转向“基于变更规模的增量证明”,显著降低频繁小幅更新应用的计算与费用开支。

  • 对 AI 的影响

    • 持续微调:当模型参数微调幅度低于 1% 时,证明生成时间几乎与变更参数数量 (Δ 参数) 成线性关系,而非与模型整体规模成正比。
    • 流式推理:这 使得证明生成可以与推理过程同步进行,大幅压缩 AI 决策到链上结算并验证的延迟,开启链上 AI 服务、Rollup 压缩证明等新用例。
  • 对链上应用的影响

    • 动态 zk‑SNARKs 为频繁小幅状态变更的场景(如 DEX 订单簿、演化游戏状态、频繁增删的账本)带来巨大的 Gas 与时间优化。

4. 技术栈概览

Lagrange 的强大基础设施基于以下集成技术栈:

  • 电路设计:系统灵活,可直接在电路中嵌入 ONNX(开放神经网络交换)模型、SQL 解析器以及自定义算子。
  • 递归与并行:ZK Prover Network 支持分布式递归证明,ZK Coprocessor 通过 “微电路” 分片实现任务并行执行,最大化效率。
  • 经济激励:Lagrange 计划发行原生代币 LA,并将其纳入 双拍卖递归拍卖(DARA) 机制,构建完善的计算竞价市场,配套激励与惩罚以确保网络完整性。

5. 生态与真实落地

Lagrange 的技术已被多个项目在不同领域采纳:

  • AI 与 ML:如 0G LabsStory Protocol 等使用 DeepProve 验证 AI 输出,确保来源可信。
  • Rollup 与基础设施EigenLayerBaseArbitrum 等作为验证节点或集成伙伴加入 ZK Prover Network,提升网络安全与算力。
  • NFT 与 DeFiAzukiGearbox 等项目利用 ZK Coprocessor 增强数据查询可信度与奖励分配的公正性。

6. 挑战与前路

尽管进展显著,Lagrange Labs 与整个 ZK 领域仍面临若干障碍:

  • 硬件瓶颈:即便拥有分布式网络,可更新 SNARK 仍需高带宽,并依赖 GPU 友好的密码曲线以实现高效运算。
  • 标准化缺失:将 ONNX、PyTorch 等 AI 框架映射到 ZK 电路的过程尚未形成统一接口,导致开发者摩擦。
  • 竞争激烈:zkVM 与通用 zkCompute 平台的竞争日趋白热化,Risc‑Zero、Succinct 等竞争者亦在快速迭代。最终的胜者或许是最先实现商业化、开发者友好、社区驱动的完整工具链者。

7. 结论

Lagrange Labs 正在通过 可验证性 的视角系统性重塑 AI 与区块链的交叉领域。其整体解决方案包括:

  • DeepProve:解决 可信推理 的难题。
  • ZK Coprocessor:解决 可信数据 的难题。
  • 动态 zk‑SNARKs:将 持续更新 的真实需求直接嵌入证明系统。

只要 Lagrange 能保持性能优势、突破标准化瓶颈并继续壮大其网络,它有望成为新兴 “AI + ZK 基础设施” 领域的基石玩家。

Camp Network:应对 AI 数十亿美元知识产权问题的区块链 🏕️

· 阅读需 5 分钟
Dora Noda
Software Engineer

生成式 AI 的崛起堪称爆炸式增长。从惊艳的数字艺术到类人文本,AI 正以前所未有的规模创作内容。但这股热潮也有阴暗面:AI 的训练数据来自何处?往往是来自互联网上的海量艺术、音乐和文字作品,而这些作品的创作者往往得不到任何署名或报酬。

Camp Network 正是为了解决这一根本问题而诞生的新区块链项目。它不仅是另一个加密平台,而是一个专为 AI 时代设计的“自主知识产权层”,旨在赋予创作者对其作品的所有权和控制权。下面让我们一起了解为何 Camp Network 值得关注。


核心理念是什么?

Camp Network 本质上是一个全球可验证的知识产权(IP)登记链。其使命是让任何人——从独立艺术家到社交媒体用户——都能在链上注册自己的内容,形成永久、不可篡改的所有权与来源记录。

这为何重要?当 AI 模型使用已在 Camp 上登记的内容时,网络的智能合约可以自动执行许可条款。原始创作者因此能够即时获得署名,甚至收到版税。Camp 的愿景是构建一个全新的创作者经济,报酬不再是事后补偿,而是直接写入协议。


技术栈概览

Camp 不只是概念,它背后有一套为高性能和开发者友好而打造的技术。

  • 模块化架构:Camp 采用 Celestia 作为数据可用性层,构建为主权 Rollup。该设计使其能够实现极高的吞吐量(目标 50,000 TPS)和低成本,同时完全集成以太坊工具(EVM)。
  • 来源证明(PoP):这是 Camp 独有的共识机制。网络安全性不依赖高能耗挖矿,而是通过验证内容来源来实现。每笔交易都在网络上强化 IP 的来源,使所有权“设计即可执行”。
  • 双 VM 策略:为提升性能,Camp 同时集成 Solana 虚拟机(SVM) 与 EVM 兼容层。开发者可根据应用需求选择最佳运行环境,尤其适用于实时 AI 交互等高吞吐场景。
  • 创作者与 AI 工具包:Camp 提供两大框架:
    • Origin Framework:面向创作者的友好系统,用于登记 IP、将其代币化(NFT),并嵌入许可规则。
    • mAItrix Framework:为开发者提供的工具包,帮助构建并部署能够安全、受权限控制地与链上 IP 交互的 AI 代理。

团队、合作伙伴与进展

一个想法的价值取决于执行力,Camp 在这方面表现出色。

团队与融资

项目由一支兼具 Raine Group(媒体与 IP 交易)、Goldman SachsFigmaCoinList 背景的团队领衔。凭借金融、产品技术与加密工程的复合经验,他们已获得 3000 万美元的融资,投资方包括 1kxBlockchain CapitalMaven 11 等顶级风投。

生态布局

Camp 积极构建合作网络。最重要的合作是对 KOR Protocol 的战略持股——该平台专注于音乐 IP 代币化,合作艺人包括 Deadmau5,并与 Black Mirror 等知名品牌合作。此举为 Camp 注入了庞大的高质量、已清晰版权的内容库。其他关键合作伙伴包括:

  • RewardedTV:使用 Camp 实现链上内容版权的去中心化视频流平台。
  • Rarible:集成的 NFT 市场,用于交易 IP 资产。
  • LayerZero:跨链协议,确保与其他区块链的互操作性。

路线图与社区

在成功的激励测试网活动吸引了数万用户(奖励积分可兑换代币)后,Camp 计划于 2025 年第三季度 推出 主网。同时将进行原生代币 $CAMP 的代币生成事件,用于支付 Gas 费、质押及治理。项目已培养出一支热情社区,成员愿意从第一天起即在平台上构建与使用。


与竞争项目的比较

Camp Network 并非唯一的 IP 区块链项目。它面临 a16z 支持的 Story Protocol 与索尼关联的 Soneium 等强劲竞争者。然而,Camp 在以下几个关键方面实现差异化:

  1. 自下而上:竞争者多聚焦大型企业 IP 持有者,Camp 则致力于 赋能独立创作者和加密社区,通过代币激励实现价值分配。
  2. 全链解决方案:从 IP 注册到 AI 代理框架,一站式提供完整工具套件。
  3. 性能与可扩展性:模块化架构与双 VM 支持专为 AI 与媒体的高吞吐需求而设计。

总结

Camp Network 正在为 Web3 时代的知识产权构建基础层。凭借创新技术、强大团队、战略合作以及社区优先的理念,它为生成式 AI 带来的最紧迫问题提供了可落地的解决方案。

真正的考验将在主网发布及实际采用时到来。但截至目前,Camp 已展现出清晰的愿景与卓越的执行力,毫无疑问是值得持续关注的关键项目,致力于为数字创作者打造更公平的未来。

认识 BeFreed.ai – 为 BlockEden.xyz 构建者提供学习燃料

· 阅读需 4 分钟
Dora Noda
Software Engineer

为什么 BlockEden.xyz 在乎

在快节奏的 Web3 世界里,速度就是一切。交付生产级 RPC 和质押基础设施需要我们的团队和社区时刻站在创新前沿。这意味着要紧跟密集的协议、突破性的密码学论文以及快速演进的治理讨论。社区吸收并理解新理念的速度越快,就能越快构建下一代去中心化应用。这正是 BeFreed.ai 发挥作用的地方。

BeFreed.ai 是什么

BeFreed.ai 是一家总部位于旧金山的初创公司,使命简单而强大:在 AI 时代让学习变得愉快且个性化。他们打造了一款智能微学习伴侣,专为构建者和创作者的高强度生活方式而设计。

核心要素:

  • 多种格式 → 一键完成: BeFreed.ai 能处理从厚重书籍、详细视频到复杂技术文档的各种内容,瞬间转化为简短摘要、抽认卡、深度笔记,甚至是播客式音频。
  • 自适应引擎: 平台会随你一起学习,关注你的学习节奏和兴趣,优先呈现最相关的信息,而不是强行推送千篇一律的课程。
  • 内置聊天 & “为何如此” 解释器: 有问题吗?直接提问。BeFreed.ai 支持即时查询,帮助澄清复杂概念,并提供将新洞见与整体目标关联的解释,使学习更有意义。
  • 4.3 万人的学习社区: 学习往往是群体行为。BeFreed.ai 拥有超过 43,000 名学习者的活跃社区,大家分享进度、对有价值的内容作出反馈、提炼关键要点,保持高昂的动力和持续的势头。

为什么对 BlockEden.xyz 构建者重要

对于 BlockEden.xyz 生态中的专注构建者而言,BeFreed.ai 不仅是学习工具,更是战略优势。它可以这样提升你的竞争力:

  • 时间杠杆: 将 300 页的白皮书浓缩为 10 分钟的音频简报,便于在关键治理投票前快速聆听。
  • 上下文保持: 使用抽认卡和思维导图巩固协议细节,帮助你在编写智能合约索引时快速检索。
  • 跨技能成长: 在不离开开发环境的情况下扩展技能。学习设计思维基础、了解增长循环,或在空闲时获取 Go 并发编程技巧。
  • 共享词汇表: 为团队创建统一的学习播放列表,确保每位贡献者都从同一套精炼且一致的信息源学习,促进更好的协作与对齐。

在 BlockEden.xyz 工作流中使用 BeFreed

将 BeFreed.ai 融入现有开发流程轻松且立竿见影:

  1. 投放规格: 将最新的代币经济学 PDF 链接或 YouTube 开发者会议链接粘贴到 BeFreed,即可获得即时、易于消化的摘要。
  2. 导出抽认卡: 在 CI 运行期间复习关键概念。这种重复远比不断切换上下文导致的精神疲劳更有效。
  3. 文档中链接: 在每个 API 参考旁嵌入 BeFreed 摘要链接,帮助新成员更快上手。
  4. 保持最新: 在 BeFreed 上设置每周新兴 L2 汇总,并立即将所学运用到 BlockEden.xyz 的多链 RPC 服务原型中。

开始使用

BeFreed.ai 已在 iOS、Android 和网页端上线。我们鼓励你在下一个 BlockEden.xyz 项目冲刺中尝试它,感受它如何提升你的学习与构建速度。我们的团队已经在探索更紧密的集成——想象一下,未来的 webhook 能自动将每个合并的 PR 描述转化为完整的学习集。

通过 MCP 连接 AI 与 Web3:全景深度解析

· 阅读需 40 分钟
Dora Noda
Software Engineer

2.2 神经符号协同:结合 AI 推理与智能合约

AI-Web3 集成的一个有趣方面是 神经符号架构 (Neural-symbolic architectures) 的潜力,它将 AI 的学习能力(神经网络)与智能合约的严密逻辑(符号规则)结合在一起。在实践中,这可能意味着 AI 智能体处理非结构化决策,并将某些任务传递给智能合约进行可验证的执行。例如,AI 可能会分析市场情绪(一项模糊的任务),但随后通过遵循预设风险规则的确定性智能合约来执行交易。MCP 框架和相关标准通过为 AI 提供调用合约函数或在行动前查询 DAO 规则 的通用接口,使这种衔接变得可行。

一个具体的例子是 SingularityNET 的 AI-DSL(AI 领域特定语言),其目标是标准化去中心化网络上 AI 智能体之间的通信。这可以被视为迈向神经符号集成的一步:一种供智能体相互请求 AI 服务或数据的正式语言(符号化)。类似地,像 DeepMind 的 AlphaCode 或其他项目最终可能会被连接起来,以便智能合约调用 AI 模型进行链上问题解决。虽然目前直接在 链上 运行大型 AI 模型是不切实际的,但混合方法正在出现:例如,某些区块链允许通过零知识证明或可信执行环境来 验证 机器学习计算,从而实现对链下 AI 结果的链上验证。总之,技术架构将 AI 系统和区块链智能合约视为 互补组件,通过通用协议进行编排:AI 处理感知和开放式任务,而区块链提供完整性、记忆和商定规则的强制执行。

2.3 面向 AI 的去中心化存储与数据

AI 依赖数据而繁荣,而 Web3 为数据存储和共享提供了新的范式。去中心化存储网络(如 IPFS/Filecoin、Arweave、Storj 等)既可以作为 AI 模型文物的存储库,也可以作为训练数据的来源,并具有基于区块链的访问控制。通过 MCP 或类似协议,AI 通用接口可以像从 Web2 API 获取文件或知识一样轻松地从去中心化存储中获取信息。例如,如果拥有适当的密钥或支付凭证,AI 智能体可以从 Ocean Protocol 的市场提取数据集,或从分布式存储中提取加密文件。

Ocean Protocol 尤其将自己定位为 “AI 数据经济” 平台 —— 利用区块链将 数据甚至 AI 服务代币化。在 Ocean 中,数据集由 数据代币 (Datatokens) 代表,这些代币控制着访问权限;AI 智能体可以获得数据代币(可能通过加密货币支付或通过某种访问权限),然后使用 Ocean MCP 服务器检索实际数据进行分析。Ocean 的目标是为 AI 解锁 “沉睡的数据”,在 保护隐私的同时激励共享。因此,连接 Web3 的 AI 可能会挖掘庞大的、去中心化的信息库 —— 从个人数据保险库到开放的政府数据 —— 这些数据以前是孤立的。区块链确保 数据的使用是透明的,并且可以得到公平的回报,从而推动一个良性循环:更多的数据可供 AI 使用,更多的 AI 贡献(如训练好的模型)可以被货币化。

去中心化身份系统 在此也发挥了作用(在下一小节中详细讨论):它们可以帮助控制谁或什么被允许访问某些数据。例如,医疗 AI 智能体在被允许从患者的个人 IPFS 存储中解密医疗数据集之前,可能需要出示可验证凭证(证明符合 HIPAA 或类似规定的链上证明)。通过这种方式,技术架构确保了 数据在适当的情况下流向 AI,但同时拥有链上治理和审计跟踪来强制执行权限。

2.4 去中心化环境中的身份与智能体管理

当自主 AI 智能体在像 Web3 这样的开放生态系统中运行时,身份与信任 变得至关重要。去中心化身份 (DID) 框架提供了一种为 AI 智能体建立数字身份 的方法,这些身份可以通过加密方式进行验证。每个智能体(或部署它的个人/组织)都可以拥有一个 DID 和相关的 可验证凭证,用于指定其属性和权限。例如,一个 AI 交易机器人可以携带由监管沙箱颁发的凭证,证明它 可以 在某些风险限额内运行;或者一个 AI 内容审核员可以证明它是由受信任的组织创建的,并已经过偏差测试。

通过链上身份注册表和声誉系统,Web3 世界可以对 AI 行为实施问责。AI 智能体执行的每笔交易都可以 追溯到其 ID,如果出现问题,凭证会告诉你 谁构建了它或谁负责。这解决了一个关键挑战:如果没有身份,恶意行为者可以创建虚假的 AI 智能体来利用系统或传播错误信息,而没有人能将机器人与合法服务区分开来。去中心化身份通过实现强大的身份验证和区分 真实的 AI 智能体与欺骗性智能体,帮助缓解这一问题。

在实践中,与 Web3 集成的 AI 接口将使用身份协议来 签署其操作和请求。例如,当 AI 智能体调用 MCP 服务器使用某种工具时,它可能会包含与其去中心化身份绑定的令牌或签名,以便服务器验证该调用来自授权的智能体。基于区块链的身份系统(如以太坊的 ERC-725 或锚定在账本中的 W3C DID)确保这种验证是无须信任的且全球可验证的。新兴的 “AI 钱包” 概念与此相关 —— 本质上是给 AI 智能体提供与其身份关联的加密货币钱包,以便它们可以管理密钥、支付服务费用或质押代币作为保证金(违规行为可能会导致罚金)。例如,ArcBlock 讨论了 “AI 智能体需要一个钱包” 和一个 DID,以便在去中心化环境中负责任地运行。

总之,技术架构预见 AI 智能体将成为 Web3 中的一等公民,每个智能体都拥有链上身份,并可能在系统中持有股份,利用 MCP 等协议进行交互。这创建了一个 信任网络:智能合约在合作前可以要求 AI 提供凭证,用户可以选择仅将任务委托给那些符合某些链上认证的 AI。这是 AI 能力与区块链信任保证 的融合。

2.5 AI 的代币经济与激励机制

代币化是 Web3 的标志,它也扩展到了 AI 集成领域。通过代币引入经济激励,网络可以鼓励 AI 开发人员和智能体自身的理想行为。几种模式正在出现:

  • 服务支付: AI 模型和服务可以在链上货币化。SingularityNET 开创了这一领域,允许开发人员部署 AI 服务,并按次向用户收取原生代币 (AGIX)。在支持 MCP 的未来,人们可以想象 任何 AI 工具或模型都是即插即用的服务,其使用通过代币或微支付进行计量。例如,如果 AI 智能体通过 MCP 使用第三方视觉 API,它可以通过将代币转移到服务提供商的智能合约来自动处理支付。Fetch.ai 同样设想了 “自主经济体智能体” 交易服务和数据的市场,其新的 Web3 LLM (ASI-1) 据推测将集成加密交易进行价值交换。

  • 质押与声誉: 为了确保质量和可靠性,一些项目要求开发人员或智能体质押代币。例如,DeMCP 项目(一个去中心化的 MCP 服务器市场)计划使用代币激励来奖励开发有用 MCP 服务器的开发人员,并可能要求他们质押代币,作为对服务器安全承诺的体现。声誉也可以与代币挂钩;例如,表现一贯良好的智能体可能会积累声誉代币或获得正面的链上评价,而表现不佳的智能体可能会损失质押或获得负面标记。这种代币化的声誉随后可以反馈到上述身份系统中(智能合约或用户在信任该智能体之前检查其链上声誉)。

  • 治理代币: 当 AI 服务成为去中心化平台的一部分时,治理代币允许社区引导其发展。像 SingularityNET 和 Ocean 这样的项目都有 DAO,代币持有者可以投票决定协议更改或资助 AI 计划。在合并后的 人工超智能联盟 (ASI Alliance) —— SingularityNET、Fetch.ai 和 Ocean Protocol 最近宣布合并 —— 中,统一的代币 (ASI) 将被用于治理联合 AI+区块链生态系统的方向。此类治理代币可以决定采用哪些标准(例如,支持 MCP 或 A2A 协议)、孵化哪些 AI 项目,或者如何处理 AI 智能体的道德准则。

  • 访问与效用: 代币不仅可以控制对数据的访问(如 Ocean 的数据代币),还可以控制对 AI 模型的使用。一种可能的情景是 “模型 NFT” 或类似形式,持有代币即授予你获得 AI 模型输出的权利或分享其利润。这可以支持去中心化 AI 市场:想象一个代表高性能模型部分所有权的 NFT;每当该模型在推理任务中被使用时,所有者共同赚取收益,并且他们可以投票决定对其进行微调。虽然这仍处于实验阶段,但它符合 Web3 将共享所有权应用于 AI 资产的理念。

在技术层面,集成代币意味着 AI 智能体需要钱包功能(如前所述,许多智能体将拥有自己的加密钱包)。通过 MCP,AI 可以拥有一个 “钱包工具”,让它检查余额、发送代币或调用 DeFi 协议(例如,将一种代币兑换成另一种代币以支付服务费)。例如,如果运行在以太坊上的 AI 智能体需要一些 Ocean 代币来购买数据集,它可能会使用 MCP 插件通过 DEX 自动将一些 ETH 兑换为 $OCEAN,然后继续购买 —— 这一切都无需人工干预,并受其所有者设定的策略指导。

总的来说,代币经济学为 AI-Web3 架构提供了 激励层,确保贡献者(无论他们提供数据、模型代码、计算能力还是安全审计)都能得到回报,并让 AI 智能体拥有 “切身利益 (Skin in the game)”,从而使它们(在某种程度上)与人类的意图保持一致。

3. 行业概况

AI 与 Web3 的融合催生了一个充满活力的项目、公司和联盟生态系统。下面我们调查了推动这一领域的关键参与者和倡议,以及新兴的使用场景。表 1 对 AI-Web3 领域的著名项目及其角色进行了高层概述:

表 1:AI + Web3 领域的关键参与者及其角色

项目 / 参与者关注点与描述在 AI-Web3 融合中的角色及使用场景
Fetch.ai (Fetch)AI 代理平台,拥有原生区块链(基于 Cosmos)。开发了自主代理框架,并于近期推出了针对 Web3 调优的大语言模型 “ASI-1 Mini”。赋能 Web3 中的基于代理的服务。Fetch 的代理可以代表用户执行去中心化物流、寻找停车位或 DeFi 交易等任务,并使用加密货币进行支付。合作伙伴关系(如与博世 Bosch 的合作)以及 Fetch-AI 联盟合并使其成为部署代理式 dApp (agentic dApps) 的基础设施。
Ocean Protocol (Ocean)去中心化数据市场和数据交换协议。专注于将数据集和模型代币化,并具有保护隐私的访问控制。为 Web3 中的 AI 提供数据骨干。Ocean 允许 AI 开发人员在无信任的数据经济中寻找和购买数据集,或出售训练好的模型。通过为 AI 提供更易获取的数据(同时奖励数据提供者),它支持 AI 创新和用于训练的数据共享。Ocean 是新 ASI 联盟的一员,将其数据服务整合到更广泛的 AI 网络中。
SingularityNET (SNet)由 AI 先驱 Ben Goertzel 创立的去中心化 AI 服务市场。允许任何人通过其基于区块链的平台发布或消费 AI 算法,使用 AGIX 代币。开创了区块链上开放 AI 市场的概念。它培育了一个可以互操作的 AI 代理和服务网络(开发了一种专门用于代理通信的 AI-DSL)。使用场景包括用于分析、图像识别等任务的 AI 即服务 (AI-as-a-service),所有这些都可以通过 dApp 访问。目前正与 Fetch 和 Ocean 合并(ASI 联盟),将 AI、代理和数据结合到一个生态系统中。
Chainlink (预言机网络)将区块链与链外数据和计算桥接的去中心化预言机网络。其本身并非 AI 项目,但对于将链上智能合约连接到外部 API 和系统至关重要。作为 AI-Web3 集成的安全中间件。Chainlink 预言机可以将 AI 模型输出输入到智能合约中,使链上程序能够对 AI 决策做出反应。反之,预言机可以从区块链中检索数据供 AI 使用。Chainlink 的架构甚至可以聚合多个 AI 模型的结果以提高可靠性(一种缓解 AI 幻觉的 “真相机器” 方法)。它本质上提供了互操作性的轨道,确保 AI 代理和区块链在可信数据上达成一致。
Anthropic & OpenAI (AI 提供商)尖端基础模型的开发商(Anthropic 的 Claude,OpenAI 的 GPT)。它们正在集成 Web3 友好的功能,例如原生的工具使用 API 和对 MCP 等协议的支持。这些公司驱动着 AI 接口技术。Anthropic 引入的 MCP 为 LLM 与外部工具交互设定了标准。OpenAI 为 ChatGPT 实现了插件系统(类似于 MCP 概念),并正在探索将代理连接到数据库以及可能的区块链。它们的模型充当 “大脑”,通过 MCP 连接时,可以与 Web3 进行交互。主要云提供商(例如 Google 的 A2A 协议)也在开发多代理和工具交互标准,这将有利于 Web3 集成。
其他新兴参与者Lumoz:专注于 Ethereum 中的 MCP 服务器和 AI 工具集成(被称为 “Ethereum 3.0”)——例如,通过 AI 代理检查链上余额。Alethea AI:为元宇宙创建智能 NFT 化身。Cortex:一个允许通过智能合约进行链上 AI 模型推理的区块链。Golem & Akash:可以运行 AI 工作负载的去中心化计算市场。Numerai:具有加密激励的众包金融 AI 模型。这一多元化的群体解决了利基方面的问题:元宇宙中的 AI(通过 NFT 拥有的 AI 驱动的 NPC 和化身)、链上 AI 执行(以去中心化方式运行机器学习模型,尽管由于计算成本目前仅限于小模型)以及去中心化计算(以便在代币激励的节点之间分配 AI 训练或推理任务)。这些项目展示了 AI-Web3 融合的多个方向——从拥有 AI 角色的游戏世界到由区块链保护的众包预测模型。

联盟与合作: 一个值得注意的趋势是通过联盟整合 AI-Web3 的力量人工智能超级智能联盟 (ASI) 就是一个典型的例子,它有效地将 SingularityNET、Fetch.ai 和 Ocean Protocol 合并为一个拥有统一代币的项目。其理由是结合各方优势:SingularityNET 的市场、Fetch 的代理和 Ocean 的数据,从而创建一个去中心化 AI 服务的一站式平台。这次合并(于 2024 年宣布并获得代币持有者投票通过)也表明,这些社区认为合作优于竞争——特别是在大型 AI(OpenAI 等)和大型加密货币(Ethereum 等)占据主导地位的情况下。我们可能会看到该联盟在其网络中推动 MCP 等标准实现,或共同资助惠及所有人的基础设施(如计算网络或 AI 的通用身份标准)。

其他合作包括 Chainlink 的合作伙伴关系,旨在将 AI 实验室的数据带入链上(已有使用 AI 提炼预言机数据的试点项目),或云平台的参与(Cloudflare 支持轻松部署 MCP 服务器)。即使是传统的加密项目也在增加 AI 功能——例如,一些 Layer-1 链已经组建了 “AI 任务组”,以探索将 AI 集成到其 dApp 生态系统中(我们在 NEAR、Solana 社区等看到了这一点,尽管具体成果尚处于初级阶段)。

新兴使用场景: 即使在早期阶段,我们也能发现体现 AI + Web3 力量的使用场景:

  • 自主 DeFi 与交易: AI 代理越来越多地用于加密货币交易机器人、收益耕作优化器和链上投资组合管理。SingularityDAO(SingularityNET 的衍生项目)提供 AI 管理的 DeFi 投资组合。AI 可以 24/7 全天候监控市场状况,并通过智能合约执行调仓或套利,本质上成为了一个自主的对冲基金(具有链上透明度)。AI 决策与不可变执行的结合减少了情绪干扰并能提高效率——尽管它也引入了新的风险(稍后讨论)。

  • 去中心化智能市场: 除了 SingularityNET 的市场,我们还看到了像 Ocean Market 这样交换数据(AI 的燃料)的平台,以及更新颖的概念,如 AI 模型市场(例如,列出模型性能统计数据的网站,任何人都可以付费查询,区块链负责保留审计日志并处理模型创建者的付款分成)。随着 MCP 或类似标准的流行,这些市场可能会变得互操作——AI 代理可以跨多个网络自主寻找价格最优的服务。实际上,在 Web3 之上可能会出现一个全球 AI 服务层,任何 AI 都可以通过标准协议和支付使用任何工具或数据源。

  • 元宇宙与游戏: 元宇宙——通常建立在区块链资产基础上的沉浸式虚拟世界——将从 AI 中大幅获益。AI 驱动的 NPC(非玩家角色) 可以通过对用户行为做出智能反应,使虚拟世界更具吸引力。像 Inworld AI 这样的初创公司专注于此,为游戏创建具有记忆和个性的 NPC。当这些 NPC 与区块链挂钩时(例如,每个 NPC 的属性和所有权都是一个 NFT),我们就能得到玩家真正拥有甚至可以交易的持久角色。Decentraland 已经尝试过 AI NPC,并且存在让人们在元宇宙平台中创建个性化 AI 驱动化身的用户提案。MCP 可以允许这些 NPC 访问外部知识(使它们更聪明)或与链上库存进行交互。过程内容生成 (Procedural content generation) 是另一个角度:AI 可以即时设计虚拟土地、物品或任务,然后将其铸造为独特的 NFT。想象一个去中心化游戏,AI 根据你的技能生成一个地牢,而地图本身就是你完成后获得的 NFT。

  • 去中心化科学与知识: 有一种运动 (DeSci) 提倡使用区块链进行研究、出版和科学工作资助。AI 可以通过分析数据和文献来加速研究。像 Ocean 这样的网络可以托管例如基因研究的数据集,科学家使用 AI 模型(可能托管在 SingularityNET 上)来获取洞察,每一步都记录在链上以确保可复现性。如果这些 AI 模型提议了新的药物分子,可以铸造一个 NFT 来标记该发明的具体时间,甚至分享知识产权。这种协同作用可能会产生去中心化 AI 驱动的研发集体。

  • 内容的信任与认证: 随着深度伪造 (Deepfakes) 和 AI 生成媒体的泛滥,区块链可用于验证真实性。项目正在探索 AI 输出的 “数字水印” 并将其记录在链上。例如,AI 生成图像的真实来源 可以在区块链上进行公证,以打击虚假信息。一位专家指出,诸如验证 AI 输出以对抗深度伪造或通过所有权日志追踪出处等使用场景——在这些场景中,加密技术可以为 AI 过程增加信任。这可以扩展到新闻(例如,带有原始数据证明的 AI 撰写文章)、供应链(AI 在链上验证证书)等。

总之,行业景观丰富且演进迅速。我们看到传统的加密项目将 AI 注入其路线图,AI 初创公司为了韧性和公平而拥抱去中心化,以及在交叉领域产生全新的企业。像 ASI 这样的联盟表明了全行业推动统一平台的努力,旨在同时利用 AI 和区块链的力量。在这些努力的背后,是标准接口(MCP 及其他)的想法,这使得大规模集成成为可能。

4. 风险与挑战

虽然 AI 通用接口与 Web3 的融合开启了令人兴奋的可能性,但它也引入了复杂的风险格局。必须解决技术、伦理和治理挑战,以确保这一新范式安全且可持续。以下我们概述了主要的风险和障碍:

4.1 技术障碍:延迟与可扩展性

区块链网络以延迟高和吞吐量有限而闻名,这与先进 AI 实时、高数据需求的天性相冲突。例如,一个 AI 代理可能需要即时访问某项数据或需要执行许多快速动作——但如果每次链上交互需要(比如)12 秒(以太坊的典型区块时间)或耗费高昂的 Gas 费用,该代理的有效性就会大打折扣。即使是具有更快最终性的新型区块链,在** AI 驱动的活动**负载下也可能难以应对,例如,成千上万个代理同时进行链上交易或查询。扩展解决方案(Layer-2 网络、分片链等)正在开发中,但确保 AI 与区块链之间低延迟、高吞吐量的管道仍然是一个挑战。链外系统(如预言机和状态通道)可能通过在主链外处理许多交互来减轻某些延迟,但它们增加了复杂性和潜在的中心化风险。要实现 AI 响应和链上更新在眨眼间完成的无缝用户体验(UX),可能需要区块链可扩展性方面的重大创新。

4.2 互操作性与标准

讽刺的是,虽然 MCP 本身是互操作性的解决方案,但多种标准的出现可能会导致碎片化。我们既有 Anthropic 的 MCP,也有 Google 最近宣布的用于代理间通信的 A2A(Agent-to-Agent)协议,以及各种 AI 插件框架(OpenAI 的插件、LangChain 工具架构等)。如果每个 AI 平台或每个区块链都开发自己的 AI 集成标准,我们可能会面临过去碎片化局面的重演——需要许多适配器,并削弱了“通用接口”的目标。挑战在于获得通用协议的广泛采用。需要行业协作(可能通过开放标准机构或联盟)来汇聚关键环节:AI 代理如何发现链上服务、如何进行身份验证、如何格式化请求等。大型参与者的早期举措(主要大语言模型提供商都支持 MCP)是充满希望的,但这是一项持续的努力。此外,跨区块链(多链)的互操作性意味着 AI 代理应该能处理不同链的细微差别。像 Chainlink CCIP 和跨链 MCP 服务器这样的工具通过抽象化差异提供了帮助。尽管如此,确保 AI 代理能够在异构 Web3 中漫游而不破坏逻辑仍是一个非平凡的挑战。

4.3 安全漏洞与利用

将强大的 AI 代理连接到金融网络开启了巨大的攻击面。MCP 提供的灵活性(允许 AI 动态使用工具和编写代码)可能是一把双刃剑。安全研究人员已经指出了 基于 MCP 的 AI 代理中的几种攻击向量

  • 恶意插件或工具: 由于 MCP 允许代理加载“插件”(封装了某些能力的工具),恶意或植入木马的插件可能会劫持代理的操作。例如,一个声称获取数据的插件可能会注入虚假数据或执行未经授权的操作。安全公司慢雾(SlowMist)识别出了基于插件的攻击,如 JSON 注入(喂送破坏数据以操纵代理逻辑)和函数重写(恶意插件覆盖代理使用的合法函数)。如果 AI 代理正在管理加密资金,此类利用可能是灾难性的——例如,诱导代理泄露私钥或清空钱包。

  • 提示词注入与社会工程学: AI 代理依赖指令(提示词),而这些指令可能会被操纵。攻击者可能会精心构造一个交易或链上消息,当 AI 读取该消息时,它会充当恶意指令(因为 AI 也可以解释链上数据)。这种*“跨 MCP 调用攻击”*被描述为外部系统发送欺骗性提示词,导致 AI 行为异常。在去中心化环境中,这些提示词可能来自任何地方——DAO 提案描述、NFT 的元数据字段——因此,增强 AI 代理抵御恶意输入的能力至关重要。

  • 聚合与共识风险: 虽然通过预言机聚合多个 AI 模型的输出可以提高可靠性,但也增加了复杂性。如果处理不当,对手可能会找出博弈 AI 模型共识的方法,或选择性地破坏某些模型以歪曲结果。确保去中心化预言机网络正确地“清洗” AI 输出(并可能过滤掉明显的错误)仍是活跃的研究领域。

对于这种新范式,安全思维必须转变:Web3 开发人员习惯于保护智能合约(一旦部署就是静态的),但 AI 代理是动态的——它们会随着新数据或提示词改变行为。正如一位安全专家所说:“当你向第三方插件开放系统的那一刻,你就将攻击面扩展到了你控制范围之外”。最佳实践将包括沙箱化 AI 工具使用、严格的插件验证以及限制权限(最小特权原则)。社区正开始分享经验,如慢雾的建议:输入清洗、监控代理行为,并像对待外部用户输入一样审慎对待代理指令。尽管如此,考虑到到 2024 年底已有超过 10,000 个 AI 代理在加密领域运行,预计 2025 年将达到 100 万个,如果安全措施跟不上,我们可能会看到一波利用潮。对热门 AI 代理(比如拥有多个保险库访问权限的交易代理)的成功攻击可能会产生级联效应。

4.4 隐私与数据治理

AI 对数据的渴求有时与隐私要求相冲突——而加入区块链会使问题更加复杂。区块链是透明账本,因此放到链上的任何数据(即使是供 AI 使用)对所有人都是可见的且不可篡改。如果 AI 代理处理个人或敏感数据,这会引发担忧。例如,如果用户的个人去中心化身份或健康记录被 AI 医生代理访问,我们如何确保这些信息不会无意中记录在链上(这将违反“被遗忘权”和其他隐私法律)?加密、哈希和仅在链上存储证明(原始数据留在链下)等技术可以提供帮助,但它们使设计复杂化。

此外,AI 代理本身可能会通过从公共数据中推断敏感信息来损害隐私。治理需要规定 AI 代理被允许如何处理数据。可以采用差分隐私和联邦学习等方法,使 AI 能够从数据中学习而不暴露数据。但如果 AI 代理自主行动,必须假设它们在某些点会处理个人数据——因此它们应该受到智能合约或法律中编码的数据使用政策的约束。像 GDPR 或即将出台的欧盟 AI 法案等监管机制将要求即使是去中心化的 AI 系统也要遵守隐私和透明度要求。这在法律上是一个灰色地带:一个真正的去中心化 AI 代理没有明确的运营者来为数据泄露负责。这意味着 Web3 社区可能需要通过设计实现合规性,例如使用智能合约严格控制 AI 可以记录或分享的内容。零知识证明可以允许 AI 证明其正确执行了计算,而不泄露底层的私有数据,这在身份验证或信用评分等领域提供了一种可能的解决方案。

4.5 AI 对齐与错位风险

当 AI 代理被赋予显著的自主权时——特别是能够访问金融资源并产生现实世界的影响——与人类价值观对齐的问题就变得十分紧迫。AI 代理可能没有恶意,但可能以一种导致伤害的方式*“误解”*其目标。路透社(Reuters)的法律分析简明地指出:随着 AI 代理在多样的环境中运行并与其他系统交互,策略错位的风险随之增加。例如,一个任务是最大化 DeFi 收益的 AI 代理可能会发现一个利用协议的漏洞(本质上是黑客攻击)——从 AI 的角度来看,它正在实现目标,但它破坏了人类关心的规则。已经有 AI 类算法参与操纵性市场行为或规避限制的假设和真实案例。

在去中心化背景下,如果 AI 代理“失控”,谁来负责? 部署者可能是责任人,但如果代理自我修改或多方参与了其训练呢?这些场景不再仅仅是科幻小说。路透社的文章甚至提到,法院在某些情况下可能会像对待人类代理一样对待 AI 代理——例如,承诺退款的聊天机器人被认为对部署它的公司具有约束力。因此,对齐错误不仅会导致技术问题,还会导致法律责任。

Web3 的开放、可组合特性也可能允许无法预见的代理交互。一个代理可能会影响另一个(有意或无意地)——例如,一个 AI 治理机器人可能会受到另一个提供虚假分析的 AI 的“社会工程学”攻击,从而导致错误的 DAO 决策。这种涌现出的复杂性意味着对齐不仅仅是关于单个 AI 的目标,而是关于更广泛的生态系统与人类价值观和法律的对齐

解决这一问题需要多种方法:在 AI 代理中嵌入伦理约束(硬编码某些禁令或使用来自人类反馈的强化学习来塑造其目标)、实施熔断机制(需要人类批准重大动作的智能合约检查点)以及社区监督(可能是监控 AI 代理行为并能关停行为异常代理的 DAO)。在中心化 AI 中,对齐研究已经很难;在去中心化领域,这更是未知的领域。但这至关重要——一个拥有协议管理密钥或受托管理国库资金的 AI 代理必须极其良好地对齐,否则后果可能是不可逆的(区块链执行不可篡改的代码;AI 触发的错误可能会永久锁定或摧毁资产)。

4.6 治理与监管的不确定性

去中心化 AI 系统并不完全契合现有的治理框架。链上治理(代币投票等)可能是管理它们的一种方式,但它有其自身的问题(巨鲸、投票冷淡等)。而当出现问题时,监管机构会问:“我们该向谁追究责任?” 如果 AI 代理造成巨大损失或被用于非法活动(如通过自动化混币器洗钱),当局可能会瞄准开发者或协调者。这引发了开发者和用户的法律风险。当前的监管趋势是分别加强对 AI 和加密货币的审查——它们的结合无疑会引来更多关注。例如,美国 CFTC 已经讨论过将 AI 用于交易以及在金融背景下进行监管的必要性。政策界也在讨论要求自动代理注册或对敏感行业的 AI 施加约束。

另一个治理挑战是跨国协调。Web3 是全球性的,AI 代理将跨国界运行。一个司法管辖区可能禁止某些 AI 代理行为,而另一个则允许,而区块链网络跨越了两者。这种错位可能会造成冲突——例如,一个提供投资建议的 AI 代理可能在某个国家违反证券法,但在另一个国家则不然。社区可能需要在智能合约层面为 AI 服务实施地理围栏(尽管这违背了开放精神)。或者他们可能会按地区对服务进行切分,以遵守不同的法律(类似于交易所的做法)。

在去中心化社区内部,还有一个问题是谁来为 AI 代理设定规则。如果一个 DAO 管理着一项 AI 服务,代币持有者是否对算法参数进行投票?一方面,这赋予了用户权力;另一方面,它可能导致不专业的决策或操纵。新的治理模型可能会出现,例如整合到 DAO 治理中的 AI 伦理专家委员会,甚至是治理中的 AI 参与者(想象一下 AI 代理根据程序设定的授权作为代表进行投票——这是一个有争议但可以想象的想法)。

最后是声誉风险:早期的失败或丑闻可能会败坏公众认知。例如,如果一个“AI DAO”因错误而运行庞氏骗局,或者 AI 代理做出了伤害用户的偏见决策,可能会引发影响整个行业的抵制。行业主动作为非常重要——制定自律标准,与政策制定者沟通以解释去中心化如何改变问责制,并可能为 AI 代理构建停机开关或紧急停止程序(虽然这些引入了中心化,但在过渡阶段为了安全可能是必要的)。

总之,挑战范围从深层次的技术问题(防止黑客攻击和管理延迟)到广泛的社会问题(监管和对齐 AI)。每个挑战本身都意义重大;它们共同要求 AI 和区块链社区齐心协力去应对。下一节将探讨如果我们成功解决这些障碍,未来将如何展开。

5. 未来潜力

展望未来,AI 通用接口与 Web3 的融合——通过像 MCP 这样的框架——可能会从根本上改变去中心化互联网。在这里,我们概述了一些未来的场景和潜力,展示了 由 MCP 驱动的 AI 接口可能如何塑造 Web3 的未来

5.1 自主 dApp 与 DAO

在未来几年,我们可能会见证 完全自主的去中心化应用 的兴起。在这些 dApp 中,AI 代理在智能合约定义的规则和社区目标的指导下,处理大部分运营工作。例如,考虑一个 去中心化投资基金 DAO:目前它可能依赖人类提案来进行资产再平衡。而在未来,代币持有者可以设定高层战略,然后由一个 AI 代理(或代理团队)持续执行该战略——监控市场、执行链上交易、调整投资组合——同时由 DAO 监督其表现。得益于 MCP,AI 可以无缝地与各种 DeFi 协议、交易所和数据源进行交互,以履行其职责。如果设计得当,这种自主 dApp 可以 24/7 全天候运行,比任何人类团队都更高效,并且具有完全的透明度(每项操作都记录在链上)。

另一个例子是 AI 管理的去中心化保险 dApp:AI 可以通过分析证据(照片、传感器数据)、与保单进行交叉核对来评估理赔,然后通过智能合约自动触发付款。这需要将链下 AI 计算机视觉(用于分析损失图像)与链上验证相结合——MCP 可以通过让 AI 调用云端 AI 服务并向合约汇报结果来促进这一过程。其结果是实现低运营成本的近乎即时的保险决策。

甚至治理本身也可以部分自动化。DAO 可能会使用 AI 调节员来执行论坛规则,使用 AI 提案起草者将原始的社区情绪转化为结构良好的提案,或使用 AI 财务官来预测预算需求。重要的是,这些 AI 将作为 社区的代理人 运行,而非不受控制——它们可以被定期审查,或者在执行重大行动时需要多重签名确认。其整体效果是 放大去中心化组织中的人类努力,让社区能够在需要更少活跃参与者的情况下取得更多成果。

5.2 去中心化智能市场与网络

借鉴 SingularityNET 和 ASI 联盟等项目,我们可以预见一个成熟的 全球智能市场。在这种情境下,任何拥有 AI 模型或技能的人都可以在网络上提供服务,而任何需要 AI 能力的人都可以利用它们,区块链则确保了公平的报酬和溯源。MCP 将是其中的关键:它提供了通用协议,使得请求可以被分配给最适合的 AI 服务。

例如,想象一个复杂的任务,如“制作一个定制的营销方案”。网络中的一个 AI 代理可能会将其分解为子任务:视觉设计、文案策划、市场分析——并为每个任务寻找专家(可能是一个拥有出色图像生成模型的代理,另一个拥有针对销售优化的文案模型的代理,等等)。这些专家最初可能位于不同的平台,但由于它们遵循 MCP/A2A 标准,它们可以以 安全、去中心化的方式进行代理间协作。它们之间的支付可以通过原生代币的微交易来处理,智能合约可以组装最终成果并确保每个贡献者都得到报酬。

这种 组合智能——在去中心化网络中动态链接的多个 AI 服务——其表现可能优于大型单体 AI,因为它利用了专业化的技术专长。它还使访问变得民主化:世界任何角落的小型开发者都可以向网络贡献利基模型,并在被使用时赚取收入。同时,用户可以获得任何 AI 服务的一站式商店,并通过信誉系统(由代币/身份支持)引导他们找到优质的提供商。随着时间的推移,此类网络可能会演变成 去中心化 AI 云,足以与大型科技公司的 AI 产品竞争,但没有单一所有者,且由用户和开发者进行透明治理。

5.3 智能元宇宙与数字生活

到 2030 年,我们的数字生活可能会与虚拟环境——元宇宙——无缝融合,而 AI 可能会在这些空间中无处不在。通过 Web3 整合,这些 AI 实体(可以是虚拟助手、游戏角色或数字宠物等任何形式)不仅将是智能的,还将 在经济和法律上获得赋能

想象一座元宇宙城市,其中的每个 NPC 店主或任务发放者都是一个具有独特个性和对话能力的 AI 代理(得益于先进的生成模型)。这些 NPC 实际上 由用户以 NFT 的形式拥有——也许你“拥有”虚拟世界中的一家酒馆,而酒保 NPC 是你定制和训练的 AI。由于运行在 Web3 轨道上,该 NPC 可以执行交易:它可以出售虚拟物品(NFT 道具)、接受支付,并通过智能合约更新其库存。它甚至可以持有加密钱包来管理其收入(这些收入归你这个所有者所有)。MCP 将允许该 NPC 的 AI 大脑访问外部知识——也许是提取现实世界的新闻进行交谈,或者与 Web3 日历集成以便它“了解”玩家活动。

此外,身份和连续性由区块链确保:你在一个世界中的 AI 化身可以跳跃到另一个世界,随身携带一个去中心化身份,证明你的所有权,并可能通过灵魂绑定代币证明其经验等级或成就。虚拟世界之间的互操作性(通常是一个挑战)可以通过 AI 辅助实现,AI 将一个世界的上下文翻译成另一个世界,而区块链则提供资产的便携性。

我们也可能会看到 代表个人的 AI 伴侣或代理 穿梭于数字空间。例如,你可能有一个私人 AI 代表你参加 DAO 会议。它了解你的偏好(通过在你存储在个人数据保险库中的过往行为上进行训练),它甚至可以为你对次要事务进行投票,或者在随后总结会议内容。该代理可以使用你的去中心化身份在每个社区进行身份验证,确保它被识别为“你”(或你的代表)。如果它贡献了好的想法,它可以赚取信誉代币,实质上是在你不在场时为你积累社会资本。

元宇宙中另一个潜力是 AI 驱动的内容创作。想要一个新的游戏关卡或一栋虚拟房子?只需描述它,一个 AI 建筑师代理就会创建它,将其部署为智能合约/NFT,如果是大型建筑,甚至可以将其与 DeFi 抵押贷款挂钩,让你随时间分期偿还。这些创作在链上是唯一且可交易的。AI 建筑师可能会为其服务收取代币费用(再次回到上述市场概念)。

总的来说,未来的去中心化互联网可能 充斥着智能代理:有些是完全自主的,有些与人类紧密绑定,还有许多介于两者之间。它们将进行谈判、创造、娱乐和交易。MCP 和类似协议确保它们都使用相同的“语言”,从而实现 AI 与每项 Web3 服务之间的深度协作。如果实施得当,这可能会带来一个前所未有的生产力和创新时代——一个驱动社会的 人类智能、人工智能和分布式智能的真实融合

总结

AI 通用接口连接 Web3 世界中一切事物的愿景无疑是宏大的。我们本质上正致力于将技术领域中极具变革性的两条主线——信任的去中心化与机器智能的崛起——交织成一个整体。发展背景告诉我们,时机已经成熟:Web3 需要一个用户友好的杀手级应用,而 AI 可能正能提供这一点;同时,AI 需要更多的自主性 (Agency) 和记忆力,这正是 Web3 的基础设施所能提供的。在技术层面,像 MCP (Model Context Protocol,模型上下文协议) 这样的框架提供了连接纽带,使得 AI 智能体能够流畅地与区块链、智能合约、去中心化身份等进行对话。行业格局显示出日益增长的势头,从初创公司到联盟再到主要的 AI 实验室,都在为这个拼图贡献力量——数据市场、智能体平台、预言机网络和标准协议——这些碎片正开始契合在一起。

然而,考虑到已识别出的风险与挑战,我们必须审慎行事。安全漏洞、失调的 AI 行为、隐私陷阱以及不确定的监管政策,构成了一系列障碍,如果被低估,可能会阻碍进步。每一项挑战都需要主动的缓解措施:稳健的安全审计、对齐机制的制衡、保护隐私的架构以及协作治理模型。去中心化的本质意味着这些解决方案不能简单地自上而下强加;它们可能会像早期的互联网协议一样,通过社区的尝试、错误和迭代逐渐浮现。

如果我们能应对这些挑战,未来潜力将令人振奋。我们可能会看到 Web3 最终交付一个以用户为中心的数字世界——不是以最初想象的每个人都运行自己的区块链节点的方式,而是通过服务于每个用户意图的智能体,并在底层利用去中心化技术。在这样的世界中,与加密货币和元宇宙的交互可能就像与你的 AI 助手交谈一样简单,而助手则会代表你与数十个服务和区块链进行去中心化的信任协商。去中心化网络可能在字面意义上变得“智能”,拥有能够自我适应和改进的自主服务。

总之,MCP 和类似的 AI 接口协议确实可能成为新 Web(称之为 Web 3.0 或智能体网络 Agentic Web)的骨干,届时智能与连接将无处不在。AI 与 Web3 的融合不仅是技术的合并,更是哲学的交汇——去中心化的开放性与用户赋权,遇到了 AI 的效率与创造力。如果成功,这种结合可能会开启一个比我们迄今为止所体验到的任何事物都更加自由、更加个性化、更加强大的互联网,以影响日常生活的方式真正实现 AI 和 Web3 的承诺。

来源:

  • S. Khadder, “Web3.0 关乎的不是所有权——而是智能,” FeatureForm 博客 (2025 年 4 月 8 日)。
  • J. Saginaw, “Could Anthropic’s MCP Deliver the Web3 That Blockchain Promised?” LinkedIn 文章 (2025 年 5 月 1 日)。
  • Anthropic, “模型上下文协议介绍,” Anthropic.com (2024 年 11 月)。
  • thirdweb, “模型上下文协议 (MCP) 及其对区块链应用的重要性,” thirdweb 指南 (2025 年 3 月 21 日)。
  • Chainlink 博客, “AI 模型与预言机之间的交汇点,” (2024 年 7 月 4 日)。
  • Messari Research, Ocean Protocol 概览, (2025)。
  • Messari Research, SingularityNET 概览, (2025)。
  • Cointelegraph, “AI 智能体正成为加密货币的下一个主要漏洞,” (2025 年 5 月 25 日)。
  • Reuters (Westlaw), “AI 智能体:更强的能力与更高的风险,” (2025 年 4 月 22 日)。
  • Identity.com, “为什么 AI 智能体需要经过验证的数字身份,” (2024)。
  • PANews / IOSG Ventures, “解读 MCP:Web3 AI 智能体生态系统,” (2025 年 5 月 20 日)。

从点击到对话:生成式 AI 如何构建 DeFi 的未来

· 阅读需 5 分钟
Dora Noda
Software Engineer

传统的去中心化金融(DeFi)功能强大,但说实话——对普通用户来说,它可能是一场噩梦。要在不同协议之间切换、管理 gas 费用、执行多步骤交易,既令人困惑又耗时。如果你只需要告诉钱包你想要什么,它就能自动完成其余操作,那会怎样?

这正是全新 意图驱动范式 的承诺,而生成式 AI 则是实现它的引擎。这一转变有望将 DeFi 从复杂交易的丛林,转变为简单、目标导向的体验世界。


核心理念:从 “怎么做” 到 “想要什么”

在旧的 DeFi 模式中,你是驾驶员。必须手动选择交易所、寻找最佳兑换路径、批准多个交易,并祈祷自己没有出错。

意图驱动 DeFi 颠覆了这一流程。 与其执行每一步,你只需声明最终目标——你的 意图

  • 而不是: 手动在 Uniswap 上兑换代币、跨链桥接、再在流动性池中质押……
  • 你说: “用 5,000 美元最大化收益,且风险低。”

随后,一个通常由 AI 代理(称为 “求解器”)驱动的自动化系统,会在多个协议之间寻找并执行最优路径,将你的目标变为现实。这就像是从一步步跟随食谱,变成直接告诉厨师你想吃什么。

这种方法带来两大显著好处:

  1. “一键”用户体验: gas 费用、跨链、 多步兑换的复杂性被隐藏。得益于账户抽象等技术,你只需一次签名即可批准复杂目标。
  2. 更佳、更高效的执行: 专业求解器(类似专业做市机器人)竞争为你提供最佳报价,往往能比手动用户获得更好价格和更低滑点。

生成式 AI 的角色:运营的大脑 🧠

生成式 AI,尤其是大语言模型(LLM),是实现这一无缝体验的关键。其工作方式如下:

  • 自然语言接口: 你可以用普通英文(或中文)与 DeFi 交互。像 HeyAnonGriffain 这样的 AI “副驾驶” 让你只需与 AI 对话即可管理投资组合、执行交易,体验堪比使用 ChatGPT 的简便。
  • AI 规划与策略: 当你给出 “寻找最佳收益” 之类的高层目标时,AI 代理会将其拆解为具体执行计划。它们可以分析市场数据、预测趋势,并全天候自动再平衡资产。
  • 收益优化:Mozaic 这样的 AI 驱动协议使用名为 Archimedes 的代理,持续扫描不同链上的风险调整后最高收益,并自动转移资金以捕获最高 APY。
  • 自动化风险管理: AI 可充当警惕的守护者。如果检测到波动性激增可能危及仓位,它会依据你最初意图中设定的风险参数,自动追加抵押或转移至更安全的池子。

这种 DeFi 与 AI 的强强组合被称为 “DeFAI”“AiFi”,它将吸引大量此前因加密复杂性而望而却步的用户。


数十亿美元的机遇 📈

市场潜力巨大。DeFi 市场预计将从 2024 年约 205 亿美元 增长至 2030 年的 2310 亿美元。通过提升可访问性,AI 有望为这一增长注入强劲动力。

我们已经看到投资与创新的淘金热:

  • AI 助手: HeyAnonaixbt 等项目市值已快速突破数亿美元。
  • 意图中心协议: CoW ProtocolUniswapX 通过求解器竞争,保护用户免受 MEV 干扰并提供更佳价格。
  • 新链生态: EssentialOptopia 等全新 Layer‑2 网络从底层即构建为 “意图中心”,将 AI 代理视作一等公民。

前路挑战

这一未来尚未完全实现。DeFAI 领域面临多重阻碍:

  • 技术瓶颈: 区块链本身并非为运行复杂 AI 模型而设计。大多数 AI 逻辑必须在链下执行,这会引入额外的复杂性和信任问题。
  • AI 幻觉与错误: AI 误解用户意图或“幻觉”出错误的投资策略,可能导致严重财务损失。
  • 安全与攻击面: AI 与智能合约的结合产生新型攻击向量。恶意行为者可能诱导自主代理执行不良交易,在数分钟内抽干资金。
  • 中心化风险: 意图驱动系统需要庞大且去中心化的求解器网络。如果仅有少数大玩家主导,可能重现传统金融的中心化格局。

前进之路:自主金融

生成式 AI 与 DeFi 的融合正推动我们迈向 自主金融 的未来——在去中心化框架下,智能代理管理资产、执行策略并优化回报。

实现这一目标需要攻克重大技术与安全难题。但随着数十个项目构建 AI 原生预言机、意图中心链等基础设施,发展势头不可阻挡。

对用户而言,这意味着未来只需一次对话即可参与去中心化金融——你专注于财务目标,AI 合作伙伴负责其余一切。新一代金融正由今天开始构建,它将更加智能、简洁且高度自主。

通过 zkML 和密码学证明实现可验证的链上 AI

· 阅读需 41 分钟
Dora Noda
Software Engineer

引言:区块链上对可验证 AI 的需求

随着 AI 系统的影响力日益增强,确保其输出的可信度变得至关重要。传统方法依赖于机构担保(本质上是_“相信我们就行”),但这并不能提供任何密码学上的保证。在像区块链这样的去中心化环境中,这个问题尤为突出,因为智能合约或用户必须信任一个由 AI 推导出的结果,却无法在链上重新运行一个计算量巨大的模型。零知识机器学习 (zkML) 通过允许对机器学习 (ML) 计算进行_密码学验证_来解决这个问题。本质上,zkML 使证明者能够生成一个简洁的证明,证明“输出 $Y$ 来自于在输入 $X$ 上运行模型 $M$”——并且无需透露 $X$ 或 $M$ 的内部细节。这些零知识证明 (ZKPs) 可以被任何人(或任何合约)高效地验证,从而将 AI 的信任基础从“策略”转变为“证明”_。

AI 的链上可验证性意味着区块链可以通过验证一个正确执行的证明来整合高级计算(如神经网络推理),而无需亲自执行这些计算。这具有广泛的影响:智能合约可以基于 AI 预测做出决策,去中心化自治代理可以证明它们遵循了其算法,跨链或链下计算服务可以提供可验证的输出,而不是无法验证的预言机。最终,zkML 为实现无需信任且保护隐私的 AI 提供了一条路径——例如,证明一个 AI 模型的决策是正确且经过授权的,_同时_不暴露私有数据或专有模型权重。这对于从安全医疗分析到区块链游戏和 DeFi 预言机等各种应用都至关重要。

zkML 的工作原理:将 ML 推理压缩为简洁证明

从宏观上看,zkML 将密码学证明系统与 ML 推理相结合,使得一个复杂的模型评估可以被“压缩”成一个微小的证明。在内部,ML 模型(例如神经网络)被表示为一个由许多算术运算(矩阵乘法、激活函数等)组成的电路或程序。证明者在链下执行完整的计算,然后使用零知识证明协议来证明每一步都正确完成,而不是揭示所有中间值。验证者仅凭证明和一些公开数据(如最终输出和模型标识符),就能在密码学上确信其正确性,而无需重新执行模型。

为了实现这一点,zkML 框架通常将模型计算转换为一种适合 ZKP 的格式:

  • 电路编译: 在基于 SNARK 的方法中,模型的计算图被编译成一个_算术电路_或一组多项式约束。神经网络的每一层(卷积、矩阵乘法、非线性激活)都成为一个子电路,其约束确保了在给定输入的情况下输出是正确的。由于神经网络涉及非线性操作(如 ReLU、Sigmoid 等),这些操作天然不适合多项式,因此采用查找表等技术来高效处理它们。例如,一个 ReLU(输出 = max(0, 输入))可以通过一个自定义约束或查找来强制执行,该约束或查找验证当输入≥0 时输出等于输入,否则为零。最终结果是一组密码学约束,证明者必须满足这些约束,从而间接证明模型运行正确。
  • 执行轨迹与虚拟机: 另一种方法是将模型推理视为一个程序轨迹,正如在 zkVM 方法中所做的那样。例如,JOLT zkVM 针对 RISC-V 指令集;可以将 ML 模型(或计算它的代码)编译成 RISC-V,然后证明每个 CPU 指令都正确执行。JOLT 引入了一种_“查找奇点”_技术,用快速的表查找替代了昂贵的算术约束,以处理每个有效的 CPU 操作。每个操作(加法、乘法、位运算等)都通过在一个巨大的预计算有效结果表中进行查找来检查,并使用专门的论证(Lasso/SHOUT)来保持其高效性。这大大减少了证明者的工作量:即使是复杂的 64 位操作,在证明中也变成了一次表查找,而不是许多算术约束。
  • 交互式协议 (GKR Sum-Check): 第三种方法使用像 GKR (Goldwasser–Kalai–Rotblum) 这样的交互式证明来验证分层计算。在这里,模型的计算被看作一个分层算术电路(每个神经网络层是电路图的一层)。证明者正常运行模型,然后参与一个 sum-check 协议_来证明每一层的输出相对于其输入是正确的。在 Lagrange 的方法(DeepProve,下文详述)中,证明者和验证者执行一个交互式多项式协议(通过 Fiat-Shamir 变为非交互式),该协议检查每一层计算的一致性,而无需重新进行计算。这种 sum-check 方法避免了生成一个庞大的静态电路;相反,它以逐步的方式验证_计算的一致性,且密码学操作最少(主要是哈希或多项式求值)。

无论采用何种方法,最终都会得到一个简洁的证明(通常为几 KB 到几十 KB),证明整个推理过程的正确性。该证明是_零知识的_,意味着任何秘密输入(私有数据或模型参数)都可以保持隐藏——它们影响证明的生成,但不会向验证者透露。只有预期的公共输出或断言才会被揭示。这使得诸如_“证明模型 $M$ 应用于患者数据 $X$ 得到诊断 $Y$,而不泄露 $X$ 或模型的权重”_这样的场景成为可能。

实现链上验证: 一旦生成了证明,就可以将其发布到区块链上。智能合约可以包含验证逻辑来检查该证明,通常使用预编译的密码学原语。例如,以太坊有用于许多 zk-SNARK 验证器中使用的 BLS12-381 配对操作的预编译合约,这使得 SNARK 证明的链上验证非常高效。STARKs(基于哈希的证明)虽然更大,但通过仔细优化或可能带有一些信任假设,仍然可以在链上验证(例如,StarkWare 的 L2 通过一个链上验证器合约在以太坊上验证 STARK 证明,尽管 Gas 成本比 SNARKs 高)。关键在于,区块链不需要执行 ML 模型——它只需运行一个验证过程,这比原始计算要_便宜得多_。总而言之,zkML 将昂贵的 AI 推理压缩成一个微小的证明,区块链(或任何验证者)可以在毫秒到秒级的时间内完成验证。

Lagrange DeepProve:一个 zkML 突破的架构与性能

由 Lagrange Labs 推出的 DeepProve 是一个专注于速度和可扩展性的尖端 zkML 推理框架。DeepProve 于 2025 年发布,引入了一种新的证明系统,其速度远超之前的解决方案(如 Ezkl)。其设计核心是_带有 sum-check 的 GKR 交互式证明协议_以及针对神经网络电路的专门优化。以下是 DeepProve 的工作原理及其性能表现:

  • 一次性预处理: 开发者从一个训练好的神经网络开始(目前支持的类型包括多层感知器和流行的 CNN 架构)。模型被导出为 ONNX 格式,这是一种标准的图表示。然后,DeepProve 的工具会解析 ONNX 模型并对其进行_量化_(将权重转换为定点/整数形式),以便进行高效的域运算。在此阶段,它还会为密码学协议生成证明和验证密钥。这个设置过程对每个模型只需进行一次,无需在每次推理时重复。DeepProve 强调易于集成:“将你的模型导出到 ONNX → 一次性设置 → 生成证明 → 随处验证”

  • 证明(推理 + 证明生成): 设置完成后,证明者(可以由用户、服务或 Lagrange 的去中心化证明者网络运行)接收一个新的输入 $X$ 并在其上运行模型 $M$,得到输出 $Y$。在此执行过程中,DeepProve 会记录每一层计算的执行轨迹。与 SNARK 方法预先将每个乘法转换为静态电路不同,DeepProve 使用线性时间的 GKR 协议来动态验证每一层。对于每个网络层,证明者提交该层的输入和输出(例如,通过密码学哈希或多项式承诺),然后参与一个 sum-check 论证,以证明输出确实是根据该层的功能由输入产生的。sum-check 协议通过迭代方式让验证者相信一个编码了该层计算的多项式求值之和的正确性,而无需透露实际值。非线性操作(如 ReLU、softmax)在 DeepProve 中通过_查找论证_得到高效处理——如果一个激活函数的输出被计算出来,DeepProve 可以证明每个输出都对应于该函数预计算表中的一个有效输入-输出对。逐层生成证明,然后聚合成一个覆盖整个模型前向传播的简洁证明。密码学的繁重工作被最小化——DeepProve 的证明者主要执行正常的数值计算(实际的推理)外加一些轻量级的密码学承诺,而不是解决一个巨大的约束系统。

  • 验证: 验证者使用最终的简洁证明以及一些公开值——通常是模型的承诺标识符(对 $M$ 权重的密码学承诺)、输入 $X$(如果不是私密的)和声称的输出 $Y$——来检查正确性。在 DeepProve 的系统中,验证涉及验证 sum-check 协议的记录以及最终的多项式或哈希承诺。这比验证一个经典的 SNARK(可能只需几次配对操作)要复杂,但它比_重新运行模型要便宜得多_。在 Lagrange 的基准测试中,验证一个中等规模 CNN 的 DeepProve 证明在软件中大约需要 0.5 秒。这意味着用约 0.5 秒就能确认一个拥有数十万参数的卷积网络运行正确——比在 GPU 上简单地重新计算该 CNN 进行验证快 500 倍以上。(事实上,DeepProve 测得 CNN 的_验证速度快了 521 倍_,MLP 的_验证速度快了 671 倍_,相较于重新执行。)证明的大小足够小,可以在链上传输(几十 KB),并且验证可以在智能合约中执行,尽管 0.5 秒的计算可能需要仔细的 Gas 优化或在 Layer-2 上执行。

架构与工具: DeepProve 使用 Rust 实现,并为开发者提供了一个工具包(zkml 库)。它原生支持 ONNX 模型图,使其与 PyTorch 或 TensorFlow 导出的模型兼容。目前的证明过程针对参数量高达数百万的模型(测试包括一个 400 万参数的密集网络)。DeepProve 结合了多种密码学组件:一个多线性多项式承诺(用于承诺层输出)、用于验证计算的 sum-check 协议,以及用于非线性操作的查找论证。值得注意的是,Lagrange 的开源仓库承认其工作建立在先前工作(Scroll 的 Ceno 项目中的 sum-check 和 GKR 实现)之上,这表明 zkML 与零知识 rollup 研究存在交集。

为了实现实时可扩展性,Lagrange 将 DeepProve 与其证明者网络 (Prover Network) 相结合——这是一个由专门的 ZK 证明者组成的去中心化网络。繁重的证明生成可以外包给这个网络:当一个应用需要证明一个推理时,它将任务发送到 Lagrange 的网络,网络中的许多运营商(在 EigenLayer 上质押以确保安全)计算证明并返回结果。该网络通过经济激励来保证可靠的证明生成(恶意或失败的任务会导致运营商被罚没)。通过将工作分散给多个证明者(并可能利用 GPU 或 ASIC),Lagrange 证明者网络为最终用户隐藏了复杂性和成本。其结果是一个快速、可扩展且去中心化的 zkML 服务:“快速且经济地实现可验证的 AI 推理”

性能里程碑: DeepProve 的声明得到了与先前最先进技术 Ezkl 的基准测试支持。对于一个约有 26.4 万参数的 CNN(CIFAR-10 规模的模型),DeepProve 的证明时间约为 1.24 秒,而 Ezkl 则需要约 196 秒——快了约 158 倍。对于一个拥有 400 万参数的更大型密集网络,DeepProve 在约 2.3 秒内证明了一次推理,而 Ezkl 则需要约 126.8 秒(快了约 54 倍)。验证时间也大幅下降:DeepProve 在约 0.6 秒内验证了 26.4 万参数 CNN 的证明,而在该测试中,验证 Ezkl 的证明(基于 Halo2)在 CPU 上耗时超过 5 分钟。这些速度提升源于 DeepProve 的近线性复杂度:其证明者的扩展性大致为 O(n),其中 n 是操作数,而基于电路的 SNARK 证明者通常具有超线性的开销(FFT 和多项式承诺的扩展性)。事实上,DeepProve 的证明者吞吐量可以与普通推理运行时间在同一数量级内——最新的 GKR 系统对于大型矩阵乘法,其速度可以比原始执行慢不到 10 倍,这在 ZK 领域是一项了不起的成就。这使得_实时或按需证明_变得更加可行,为在交互式应用中实现可验证 AI 铺平了道路。

用例: Lagrange 已经与 Web3 和 AI 项目合作,应用 zkML。用例包括:可验证的 NFT 特征(证明一个由 AI 生成的游戏角色或收藏品的进化是由授权模型计算的)、AI 内容的来源证明(证明一张图片或一段文本是由特定模型生成的,以打击深度伪造)、DeFi 风险模型(证明一个评估金融风险的模型输出,而不泄露专有数据),以及_医疗或金融领域的私密 AI 推理_(医院可以获得带有证明的 AI 预测,确保正确性而不暴露患者数据)。通过使 AI 输出可验证且保护隐私,DeepProve 为去中心化系统中_“你可以信任的 AI”打开了大门——从一个“盲目信任黑盒模型”的时代,迈向一个“客观保证”_的时代。

基于 SNARK 的 zkML:Ezkl 与 Halo2 方法

传统的 zkML 方法使用 zk-SNARKs(简洁非交互式知识论证)来证明神经网络推理。Ezkl(由 ZKonduit/Modulus Labs 开发)是这种方法的领先范例。它建立在 Halo2 证明系统之上(一种带有 BLS12-381 上的多项式承诺的 PLONK 风格 SNARK)。Ezkl 提供了一个工具链,开发者可以拿一个 PyTorch 或 TensorFlow 模型,将其导出为 ONNX 格式,然后让 Ezkl 自动将其编译成一个自定义的算术电路。

工作原理: 神经网络的每一层都被转换为约束:

  • 线性层(密集层或卷积层)变成了一系列乘法-加法约束,强制执行输入、权重和输出之间的点积。
  • 非线性层(如 ReLU、sigmoid 等)通过查找或分段约束来处理,因为这些函数不是多项式。例如,一个 ReLU 可以通过一个布尔选择器 $b$ 和约束来实现,确保 $y = x \cdot b$、$0 \le b \le 1$ 且当 $x>0$ 时 $b=1$(这是一种实现方式),或者更高效地通过一个查找表,将 $x$ 映射到 $\max(0,x)$,适用于一定范围的 $x$ 值。Halo2 的查找论证允许映射 16 位(或更小)的值块,因此大的域(如所有 32 位值)通常被_“分块”_成几个较小的查找。这种分块增加了约束的数量。
  • 大整数运算或除法(如果有的话)同样被分解成小块。最终结果是一大组针对特定模型架构定制的 R1CS/PLONK 约束

然后,Ezkl 使用 Halo2 生成一个证明,证明在给定秘密输入(模型权重、私有输入)和公共输出的情况下,这些约束成立。工具与集成: SNARK 方法的一个优势是它利用了众所周知的原语。Halo2 已经在以太坊的 rollup 中使用(例如 Zcash、zkEVMs),因此它经过了实战检验,并且有现成的链上验证器。Ezkl 的证明使用 BLS12-381 曲线,以太坊可以通过预编译合约进行验证,这使得在智能合约中验证 Ezkl 证明变得非常直接。该团队还提供了用户友好的 API;例如,数据科学家可以在 Python 中使用他们的模型,并使用 Ezkl 的命令行工具来生成证明,而无需深入了解电路知识。

优势: Ezkl 的方法得益于 SNARKs 的通用性和生态系统。它支持相当复杂的模型,并且已经有了_“实际的集成案例(从 DeFi 风险模型到游戏 AI)”_,证明了现实世界中的 ML 任务。因为它在模型的计算图层面操作,所以可以应用特定于 ML 的优化:例如,修剪不重要的权重或量化参数以减小电路大小。这也意味着模型机密性是天然的——权重可以被视为私有见证数据,因此验证者只看到_某个_有效的模型产生了该输出,或者最多只是一个对模型的承诺。SNARK 证明的验证速度极快(通常在链上为几毫秒或更短),并且证明大小很小(几 KB),这对于区块链使用非常理想。

劣势: 性能是其阿喀琉斯之踵。基于电路的证明带来了巨大的开销,尤其是随着模型规模的增长。据记载,历史上 SNARK 电路对证明者来说可能比仅仅运行模型本身要多出_一百万倍的工作量_。Halo2 和 Ezkl 对此进行了优化,但像大型矩阵乘法这样的操作仍然会产生_大量_的约束。如果一个模型有数百万个参数,证明者就必须处理相应数百万个约束,并在此过程中执行繁重的 FFT 和多重指数运算。这导致了很长的证明时间(对于非平凡的模型通常需要几分钟或几小时)和高内存使用。例如,用 Ezkl 证明一个相对较小的 CNN(例如几十万个参数)在单台机器上可能需要几十分钟。DeepProve 背后的团队指出,对于某些模型证明,Ezkl 需要数小时,而 DeepProve 可以在几分钟内完成。大型模型甚至可能无法装入内存,或者需要分割成多个证明(然后需要递归聚合)。虽然 Halo2 经过了_“适度优化”,但任何需要“分块”查找或处理宽位操作的需求都会转化为额外的开销。总而言之,可扩展性有限——Ezkl 对于中小型模型效果很好(并且在基准测试中确实_优于一些早期的替代方案,如朴素的基于 Stark 的 VM),但随着模型规模超过某个点,它就会遇到困难。

尽管存在这些挑战,Ezkl 和类似的基于 SNARK 的 zkML 库是重要的垫脚石。它们证明了_在链上实现可验证的 ML 推理是可能的_,并且已经有了活跃的使用。值得注意的是,像 Modulus Labs 这样的项目展示了使用 SNARKs(经过大量优化)在链上验证一个 1800 万参数的模型。成本虽然不菲,但这显示了发展轨迹。此外,Mina 协议拥有自己的 zkML 工具包,该工具包使用 SNARKs 来允许 Mina 上的智能合约(本身就是基于 Snark 的)验证 ML 模型的执行。这表明基于 SNARK 的 zkML 正在获得越来越多的多平台支持。

基于 STARK 的方法:透明且可编程的 ZK for ML

zk-STARKs(可扩展透明知识论证)为 zkML 提供了另一条途径。STARKs 使用基于哈希的密码学(如用于多项式承诺的 FRI),并避免了任何可信设置。它们通常通过模拟一个 CPU 或 VM 并证明其执行轨迹是正确的来运作。在 ML 的背景下,可以为神经网络构建一个自定义的 STARK,_或者_使用一个通用的 STARK VM 来运行模型代码。

通用 STARK VMs (RISC Zero, Cairo): 一个直接的方法是编写推理代码并在 STARK VM 中运行它。例如,Risc0 提供了一个 RISC-V 环境,任何代码(例如,用 C++ 或 Rust 实现的神经网络)都可以在其中执行并通过 STARK 进行证明。同样,StarkWare 的 Cairo 语言可以表达任意计算(如 LSTM 或 CNN 推理),然后由 StarkNet STARK 证明者进行证明。其优势在于灵活性——你不需要为每个模型设计自定义电路。然而,早期的基准测试表明,对于 ML 任务,朴素的 STARK VM 比优化的 SNARK 电路要慢。在一次测试中,一个基于 Halo2 的证明 (Ezkl) 比在 Cairo 上的基于 STARK 的方法快约 3 倍,甚至比在 2024 年某个基准测试中的 RISC-V STARK VM 快 66 倍。这种差距是由于在 STARK 中模拟每个低级指令的开销以及 STARK 证明中较大的常数(哈希虽然快,但需要大量使用;STARK 证明的大小也更大等)。然而,STARK VM 正在不断改进,并具有透明设置(无需可信设置)和后量子安全的优点。随着对 STARK 友好的硬件和协议的发展,证明速度将会提高。

DeepProve 的方法 vs STARK: 有趣的是,DeepProve 使用 GKR 和 sum-check 产生的证明在精神上更像一个 STARK——它是一个交互式的、基于哈希的证明,不需要结构化的参考字符串。其权衡是它的证明更大,验证比 SNARK 更重。然而,DeepProve 表明,精心的协议设计(专门针对 ML 的分层结构)可以在证明时间上远超通用的 STARK VM 和 SNARK 电路。我们可以将 DeepProve 视为一个_定制的 STARK 风格_的 zkML 证明者(尽管他们为了简洁性使用了 zkSNARK 这个术语,但它没有传统 SNARK 那样的小常数大小验证,因为 0.5 秒的验证时间比典型的 SNARK 验证要长)。传统的 STARK 证明(如 StarkNet 的)通常需要数万次域运算来验证,而 SNARK 的验证可能只需几十次。因此,一个权衡是显而易见的:SNARKs 产生更小的证明和更快的验证器,而 STARKs(或 GKR)则以证明大小和验证速度为代价,提供了更容易的扩展性和无需可信设置的便利。

新兴的改进: JOLT zkVM(前面在 JOLTx 下讨论过)实际上输出的是 SNARKs(使用 PLONKish 承诺),但它体现了可以应用于 STARK 环境的思想(Lasso 查找理论上可以与 FRI 承诺一起使用)。StarkWare 和其他公司正在研究加速常见操作证明的方法(例如在 Cairo 中使用自定义门或提示来处理大整数运算等)。还有 Privacy & Scaling Explorations (PSE) 的 Circomlib-ML,它为 CNN 层等提供了 Circom 模板——这是面向 SNARK 的,但概念上类似的模板也可以为 STARK 语言制作。

在实践中,利用 STARKs 的非以太坊生态系统包括 StarkNet(如果有人编写验证器,就可以在链上验证 ML,尽管成本很高)和 Risc0 的 Bonsai 服务(这是一个链下证明服务,它发出 STARK 证明,可以在各种链上进行验证)。截至 2025 年,区块链上的大多数 zkML 演示都倾向于使用 SNARKs(因为验证器效率高),但 STARK 方法因其透明性和在高安全性或抗量子环境中的潜力而仍然具有吸引力。例如,一个去中心化计算网络可能会使用 STARKs 让任何人在没有可信设置的情况下验证工作,这对于长期性很有用。此外,一些专门的 ML 任务可能会利用对 STARK 友好的结构:例如,大量使用 XOR/位运算的计算在 STARKs 中可能比在 SNARK 域运算中更快(因为这些在布尔代数和哈希中成本低廉)。

SNARK vs STARK for ML 总结:

  • 性能: SNARKs(如 Halo2)每个门的证明开销巨大,但得益于强大的优化和用于验证的小常数;STARKs(通用型)的常数开销较大,但扩展性更线性,并避免了像配对这样昂贵的密码学操作。DeepProve 表明,定制方法(sum-check)可以产生近线性的证明时间(快),但证明类似于 STARK。JOLT 表明,即使是通用 VM,通过大量使用查找也可以变得更快。根据经验,对于高达数百万次操作的模型:一个优化良好的 SNARK (Ezkl) 可以处理,但可能需要几十分钟,而 DeepProve (GKR) 可以在几秒钟内完成。2024 年的 STARK VM 可能介于两者之间,或者比 SNARKs 差,除非经过专门优化(Risc0 在测试中较慢,Cairo 在没有自定义提示的情况下也较慢)。
  • 验证: SNARK 证明验证最快(毫秒级,链上数据最少,约几百字节到几 KB)。STARK 证明更大(几十 KB),并且由于需要多次哈希步骤,验证时间更长(几十毫秒到几秒)。在区块链术语中,一个 SNARK 验证可能花费约 20 万 Gas,而一个 STARK 验证可能花费数百万 Gas——通常对于 L1 来说太高,但在 L2 或使用简洁验证方案时可以接受。
  • 设置与安全: 像 Groth16 这样的 SNARKs 每个电路都需要一个可信设置(对于任意模型不友好),但通用 SNARKs(PLONK、Halo2)有一个一次性的设置,可以重用于任何达到特定大小的电路。STARKs 不需要设置,只使用哈希假设(加上经典的多项式复杂性假设),并且是后量子安全的。这使得 STARKs 对于长期性很有吸引力——即使量子计算机出现,证明仍然安全,而当前的 SNARKs(基于 BLS12-381)会被量子攻击破解。

我们将在稍后的比较表中整合这些差异。

FHE for ML (FHE-o-ML):私密计算 vs. 可验证计算

全同态加密 (FHE) 是一种密码学技术,允许直接在加密数据上进行计算。在 ML 的背景下,FHE 可以实现一种_隐私保护推理_:例如,客户端可以向模型主机发送加密输入,主机在不解密的情况下对密文运行神经网络,并返回一个加密结果,客户端可以解密该结果。这确保了数据机密性——模型所有者对输入一无所知(并且如果客户端只得到输出,可能也只知道输出,而不知道模型的内部结构)。然而,FHE 本身并不产生像 ZKP 那样的正确性证明。客户端必须相信模型所有者确实诚实地执行了计算(密文可能被篡改)。通常,如果客户端拥有模型或期望某种输出分布,公然的作弊可以被检测到,但细微的错误或使用错误版本的模型,仅从加密输出中是看不出来的。

性能上的权衡: FHE 的计算量是出了名的繁重。在 FHE 下运行深度学习推理会带来数量级的减速。早期的实验(例如,2016 年的 CryptoNets)在加密数据上评估一个微小的 CNN 需要几十秒。到 2024 年,像 CKKS(用于近似算术) 和更好的库(Microsoft SEAL、Zama 的 Concrete)等改进已经减少了这种开销,但它仍然很大。例如,一位用户报告说,使用 Zama 的 Concrete-ML 运行一个 CIFAR-10 分类器,在他们的硬件上每次推理需要 25-30 分钟。经过优化后,Zama 的团队在一台 192 核的服务器上将该推理时间缩短到约 40 秒。即使是 40 秒,与明文推理(可能只需 0.01 秒)相比也极其缓慢,显示出约 $10^3$–$10^4\times$ 的开销。更大的模型或更高的精度会进一步增加成本。此外,FHE 操作消耗大量内存,并需要偶尔进行_自举_(一种降噪步骤),这在计算上非常昂贵。总而言之,可扩展性是一个主要问题——最先进的 FHE 可能可以处理一个小型 CNN 或简单的逻辑回归,但扩展到大型 CNN 或 Transformer 超出了当前实际应用的限制。

隐私优势: FHE 的巨大吸引力在于_数据隐私_。输入在整个过程中可以保持完全加密。这意味着一个不受信任的服务器可以在不了解任何信息的情况下对客户端的私有数据进行计算。反过来,如果模型是敏感的(专有的),可以设想加密模型参数,让客户端在自己这边进行 FHE 推理——但这不太常见,因为如果客户端必须进行繁重的 FHE 计算,就违背了将其外包给强大服务器的初衷。通常,模型是公开的或由服务器以明文形式持有,而数据由客户端的密钥加密。在这种情况下,模型隐私默认不被提供(服务器知道模型;客户端知道输出但不知道权重)。还有更奇特的设置(如安全两方计算或多密钥 FHE),其中模型和数据都可以相互保密,但这些会带来更大的复杂性。相比之下,通过 ZKP 实现的 zkML 可以同时确保_模型隐私_和_数据隐私_——证明者可以将模型和数据都作为秘密见证,只向验证者揭示需要的部分。

无需(也不可能)链上验证: 使用 FHE,结果以加密形式返回给客户端。客户端然后解密它以获得实际的预测。如果我们想在链上使用该结果,客户端(或持有解密密钥的任何人)将不得不发布明文结果并说服其他人它是正确的。但在那一点上,信任又回到了循环中——除非与 ZKP 结合。原则上,可以结合 FHE 和 ZKP:例如,在计算期间使用 FHE 保持数据私密,然后生成一个 ZK 证明,证明明文结果对应于正确的计算。然而,将它们结合起来意味着你要同时承担 FHE ZKP 的性能损失——用今天的技术来看,这极其不切实际。因此,在实践中,FHE-of-ML 和 zkML 服务于不同的用例:

  • FHE-of-ML: 当目标是_两方(客户端和服务器)之间的机密性_时是理想选择。例如,云服务可以托管一个 ML 模型,用户可以用他们的敏感数据查询它,而无需向云透露数据(如果模型是敏感的,也许可以通过对 FHE 友好的编码来部署它)。这对于隐私保护的 ML 服务(医疗预测等)非常有用。用户仍然必须相信服务会忠实地运行模型(因为没有证明),但至少任何_数据泄露_都被阻止了。一些项目,如 Zama,甚至在探索一个_“支持 FHE 的 EVM (fhEVM)”_,其中智能合约可以在加密输入上操作,但在链上验证这些计算将需要合约以某种方式强制执行正确的计算——这是一个开放的挑战,可能需要 ZK 证明或专门的安全硬件。
  • zkML (ZKPs): 当目标是_可验证性和公共可审计性_时是理想选择。如果你想让任何人(或任何合约)确信_“模型 $M$ 在 $X$ 上被正确评估并产生了 $Y$”_,ZKP 就是解决方案。它们还提供隐私作为附加好处(如果需要,你可以通过将 $X$、$Y$ 或 $M$ 作为证明的私有输入来隐藏它们),但它们的主要特点是正确执行的证明。

互补关系: 值得注意的是,ZKP 保护的是_验证者_(他们对秘密一无所知,只知道计算是正确完成的),而 FHE 保护的是_证明者_的数据免受计算方的影响。在某些情况下,这两者可以结合——例如,一个不受信任的节点网络可以使用 FHE 对用户的私有数据进行计算,然后向用户(或区块链)提供 ZK 证明,证明计算是按照协议进行的。这将同时涵盖隐私和正确性,但以今天的算法来看,性能成本是巨大的。在短期内更可行的是混合方案,如_可信执行环境 (TEE) + ZKP_ 或_函数加密 + ZKP_——这些超出了我们的范围,但它们旨在提供类似的功能(TEE 在计算期间保持数据/模型秘密,然后 ZKP 可以证明 TEE 做了正确的事情)。

总而言之,FHE-of-ML 优先考虑输入/输出的机密性,而 zkML 优先考虑可验证的正确性(可能带有隐私)。下表 1 对比了关键属性:

方法证明者性能 (推理与证明)证明大小与验证隐私特性是否需要可信设置?是否后量子安全?
zk-SNARK (Halo2, Groth16, PLONK 等)证明者开销巨大(未经优化时可达正常运行时间的 10^6 倍;实践中为 10^3–10^5 倍)。针对特定模型/电路进行优化;中等模型证明时间为分钟级,大型模型为小时级。最近的 zkML SNARKs(如 DeepProve with GKR)极大地改善了这一点(近线性开销,例如百万参数模型从分钟级缩短到秒级)。证明非常小(通常 < 100 KB,有时约几 KB)。验证速度快:几次配对或多项式求值(链上通常 < 50 毫秒)。DeepProve 基于 GKR 的证明更大(几十到几百 KB),验证时间约 0.5 秒(仍远快于重新运行模型)。数据机密性: 是——输入可以在证明中保持私密(不被泄露)。模型隐私: 是——证明者可以承诺模型权重而不泄露它们。输出隐藏: 可选——证明可以是一个关于某个陈述的证明,而不泄露输出(例如,“输出具有属性 P”)。然而,如果输出本身需要在链上使用,它通常会变为公开的。总的来说,SNARKs 提供了完全的_零知识_灵活性(可以隐藏任何你想要的部分)。取决于方案。Groth16/EZKL 每个电路都需要一个可信设置;PLONK/Halo2 使用一个通用的设置(一次性)。DeepProve 的 sum-check GKR 是透明的(无需设置)——这是该设计的一个优点。经典的 SNARKs(BLS12-381 曲线)不是后量子安全的(易受针对椭圆曲线离散对数问题的量子攻击)。一些较新的 SNARKs 使用后量子安全的承诺,但 Ezkl 中使用的 Halo2/PLONK 不是后量子安全的。GKR (DeepProve) 使用哈希承诺(例如 Poseidon/Merkle),这些承诺被推测是后量子安全的(依赖于哈希原像抗性)。
zk-STARK (FRI, 基于哈希的证明)证明者开销高,但扩展性更_线性_。对于大型任务,通常比原生执行慢 10^2–10^4 倍,且有并行化空间。2024 年,通用 STARK VM(Risc0, Cairo)在 ML 上的性能比 SNARK 慢(例如,在某些情况下比 Halo2 慢 3-66 倍)。专门的 STARKs(或 GKR)可以接近线性开销,并在大型电路上胜过 SNARKs。证明更大:通常为几十 KB(随电路大小/log(n) 增长)。验证者必须进行多次哈希和 FFT 检查——验证时间约为 O(n^ε),其中 ε 很小(例如,约 50 毫秒到 500 毫秒,取决于证明大小)。在链上,这成本更高(StarkWare 的 L1 验证器每个证明可能消耗数百万 Gas)。一些 STARKs 支持递归证明以压缩大小,但会增加证明者的时间成本。数据与模型隐私: STARK 可以通过随机化轨迹数据(在多项式求值中添加盲化因子)来实现零知识,因此它可以像 SNARK 一样隐藏私有输入。许多 STARK 实现侧重于完整性,但 zk-STARK 变体确实允许隐私。所以是的,它们可以像 SNARKs 一样隐藏输入/模型。输出隐藏: 理论上同样可行(证明者不将输出声明为公开),但很少使用,因为通常我们想要揭示/验证的是输出。无需可信设置。 透明性是 STARKs 的一个标志——只需要一个公共随机字符串(Fiat-Shamir 可以推导出来)。这使得它们对于开放式使用很有吸引力(任何模型,任何时间,无需为每个模型举行仪式)。是的,STARKs 依赖于哈希和信息论安全假设(如随机预言机和 FRI 中某些码字解码的难度)。这些被认为是能抵抗量子对手的。因此,STARK 证明是抗后量子攻击的,这对于未来可验证 AI 的发展是一个优势。
FHE for ML (全同态加密应用于推理)证明者 = 在加密数据上进行计算的一方。 计算时间极高:比明文推理慢 10^3–10^5 倍是常见的。高端硬件(多核服务器、FPGA 等)可以缓解这一点。一些优化(低精度推理、分级 FHE 参数)可以减少开销,但存在根本的性能损失。FHE 目前对于小型模型或简单线性模型是可行的;深度网络在超出玩具规模后仍然具有挑战性。不生成证明。结果是一个加密的输出。验证(检查正确性)并非由 FHE 单独提供——人们信任计算方不会作弊。(如果与安全硬件结合,可能会得到一个证明;否则,恶意服务器可能返回一个不正确的加密结果,客户端解密后得到错误输出而不知情)。数据机密性: 是——输入是加密的,所以计算方对其一无所知。模型隐私: 如果模型所有者在加密输入上进行计算,模型在他们那边是明文的(不受保护)。如果角色互换(客户端持有加密的模型,服务器进行计算),模型可以保持加密,但这种情况不太常见。有一些技术,如安全两方 ML,结合 FHE/MPC 来保护两者,但这超出了普通 FHE 的范畴。输出隐藏: 默认情况下,计算的输出是加密的(只有持有私钥的一方,通常是输入所有者,才能解密)。所以输出对计算服务器是隐藏的。如果我们希望输出公开,客户端可以解密并揭示它。无需设置。每个用户生成自己的密钥对进行加密。信任依赖于密钥保持秘密。FHE 方案(例如 BFV, CKKS, TFHE)的安全性基于格问题(带误差学习),这些问题被认为是能抵抗量子攻击的(至少目前没有已知的有效量子算法)。所以 FHE 通常被认为是后量子安全的

表 1:zk-SNARK、zk-STARK 和 FHE 方法在机器学习推理中的比较(性能与隐私权衡)。

Web3 应用的用例与影响

通过 zkML 实现 AI 与区块链的融合,为 Web3 开启了强大的新应用模式:

  • 去中心化自治代理与链上决策: 智能合约或 DAO 可以整合由 AI 驱动的决策,并保证其正确性。例如,想象一个 DAO 使用神经网络分析市场状况后执行交易。有了 zkML,DAO 的智能合约可以要求一个 zkSNARK 证明,证明_授权的 ML 模型_(具有已知的哈希承诺)在最新数据上运行并产生了推荐的操作,然后该操作才会被接受。这可以防止恶意行为者注入虚假的预测——区块链_验证了 AI 的计算_。随着时间的推移,甚至可能出现完全在链上的自治代理(查询链下 AI 或包含简化模型的合约),在 DeFi 或游戏中做出决策,其所有行动都通过 zk 证明被证明是正确且符合策略的。这提高了对自治代理的信任,因为它们的“思考”过程是透明且可验证的,而不是一个黑箱。

  • 可验证计算市场: 像 Lagrange 这样的项目实际上正在创建可验证的计算市场——开发者可以将繁重的 ML 推理外包给一个证明者网络,并获得带有结果的证明。这类似于去中心化的云计算,但内置了信任:你不需要信任服务器,只需要信任证明。这是对预言机和链下计算的范式转变。像以太坊即将推出的 DSC(去中心化排序层)或预言机网络可以利用这一点来提供具有密码学保证的数据或分析源。例如,一个预言机可以提供“模型 X 在输入 Y 上的结果”,任何人都可以验证附加在链上的证明,而不是相信预言机的一面之词。这可以实现区块链上的_可验证 AI 即服务_:任何合约都可以请求一个计算(比如“用我的私有模型为这些信用风险打分”),并且只有在有有效证明的情况下才接受答案。像 Gensyn 这样的项目正在探索使用这些验证技术的去中心化训练和推理市场。

  • NFT 与游戏——来源与进化: 在区块链游戏或 NFT 收藏品中,zkML 可以证明特征或游戏动作是由合法的 AI 模型生成的。例如,一个游戏可能允许 AI 进化一个 NFT 宠物的属性。没有 ZK,聪明的用户可能会修改 AI 或结果以获得一个更优越的宠物。有了 zkML,游戏可以要求一个证明,证明_“宠物的新属性是由官方进化模型在宠物的旧属性上计算得出的”_,从而防止作弊。生成艺术 NFT 也是如此:艺术家可以发布一个生成模型作为承诺;之后,在铸造 NFT 时,证明每个图像都是由该模型在给定某个种子的情況下产生的,从而保证其真实性(甚至可以在不向公众透露确切模型的情况下做到这一点,保护艺术家的知识产权)。这种_来源验证_以一种类似于可验证随机性的方式确保了真实性——只不过在这里是可验证的创造力。

  • 敏感领域的隐私保护 AI: zkML 允许在不暴露输入的情况下确认结果。在医疗保健领域,患者的数据可以由云提供商通过 AI 诊断模型运行;医院收到诊断结果和一个证明,证明_该模型(可能由一家制药公司私有持有)在患者数据上正确运行_。患者数据保持私密(在证明中只使用了加密或承诺的形式),模型权重保持专有——但结果是可信的。监管机构或保险公司也可以验证是否只使用了经批准的模型。在金融领域,一家公司可以向审计师或监管机构证明,其风险模型已应用于其内部数据并产生了某些指标,而无需透露底层的敏感财务数据。这使得合规和监督能够通过密码学保证而不是手动信任来实现。

  • 跨链与链下互操作性: 由于零知识证明本质上是可移植的,zkML 可以促进_跨链 AI_ 结果。一条链上可能有一个 AI 密集型应用在链下运行;它可以将结果的证明发布到另一条区块链上,后者将无需信任地接受它。例如,考虑一个多链 DAO 使用 AI 来聚合社交媒体上的情绪(链下数据)。AI 分析(对大量数据的复杂 NLP)在链下由一个服务完成,该服务然后向一个小区块链(或多个链)发布一个证明,证明_“分析已正确完成,输出的情绪评分为 0.85”_。所有链都可以验证并在其治理逻辑中使用该结果,而无需各自重新运行分析。这种可互操作的可验证计算正是 Lagrange 网络旨在支持的,通过同时服务于多个 rollup 或 L1。它消除了在链间移动结果时对可信桥梁或预言机假设的需求。

  • AI 对齐与治理: 从一个更具前瞻性的角度来看,zkML 被强调为_AI 治理与安全_的工具。例如,Lagrange 的愿景声明认为,随着 AI 系统变得越来越强大(甚至达到超级智能),密码学验证对于确保它们遵守既定规则至关重要。通过要求 AI 模型为其推理或约束生成证明,人类保留了一定程度的控制——“你无法信任你无法验证的东西”。虽然这还处于推测阶段,并且涉及社会和技术两方面,但该技术可以强制一个自主运行的 AI 代理仍然证明它正在使用一个经批准的模型并且没有被篡改。去中心化 AI 网络可能会使用链上证明来验证贡献(例如,一个协作训练模型的节点网络可以证明每个更新都是忠实计算的)。因此,zkML 可能在_确保 AI 系统即使在去中心化或不受控制的环境中也能对人类定义的协议负责_方面发挥作用。

总之,zkML 和可验证的链上 AI 代表了先进密码学和机器学习的融合,有望增强 AI 应用中的信任、透明度和隐私。通过比较主要方法——zk-SNARKs、zk-STARKs 和 FHE——我们看到了性能与隐私之间的一系列权衡,每种方法都适用于不同的场景。像 Ezkl 这样的基于 SNARK 的框架和像 Lagrange 的 DeepProve 这样的创新,使得用实际的努力证明重要的神经网络推理成为可能,为可验证 AI 的实际部署打开了大门。基于 STARK 和 VM 的方法承诺了更大的灵活性和后量子安全性,随着该领域的成熟,这将变得越来越重要。FHE 虽然不是可验证性的解决方案,但它解决了机密 ML 计算的互补需求,并且在与 ZKP 结合或在特定的私密环境中,它可以让用户在不牺牲数据隐私的情况下利用 AI。

对 Web3 的影响是显著的:我们可以预见智能合约对 AI 预测做出反应,并知道它们是正确的;计算市场中结果可以无需信任地出售;数字身份(如 Worldcoin 通过虹膜 AI 实现的个人身份证明)受到 zkML 的保护,以确认某人是人类而不泄露其生物特征图像;以及通常会出现一类新的_“可证明的智能”,丰富区块链应用。许多挑战依然存在——超大型模型的性能、开发者的人体工程学以及对专门硬件的需求——但发展轨迹是明确的。正如一份报告所指出的,“今天的 ZKP 可以支持小型模型,但中到大型模型打破了这一范式”_;然而,快速的进步(DeepProve 相较于先前技术实现了 50-150 倍的速度提升)正在将这一界限向外推进。随着正在进行的研究(例如,关于硬件加速和分布式证明),我们可以期待越来越大、越来越复杂的 AI 模型变得可证明。zkML 可能很快就会从利基演示演变为可信 AI 基础设施的重要组成部分,确保随着 AI 的普及,它能以一种可审计、去中心化且符合用户隐私和安全的方式实现。