跳到主要内容

79 篇博文 含有标签「AI」

人工智能和机器学习应用

查看所有标签

DePIN 的 192 亿美元突破:从物联网炒作到企业现实

· 阅读需 14 分钟
Dora Noda
Software Engineer

多年来,去中心化物理基础设施的承诺感觉就像是一个在寻找问题的解决方案。区块链爱好者谈论着从 WiFi 热点到太阳能电池板的一切代币化,而企业则悄悄地将其斥为脱离运营现实的加密货币炒作。然而,这种轻视现在变得代价高昂。

DePIN(去中心化物理基础设施网络)领域的市值在短短一年内从 52 亿美元爆炸式增长至 192 亿美元——270% 的激增与投机狂热无关,而完全是因为企业发现,他们可以在保持服务质量的同时,将基础设施成本削减 50-85%。目前有 321 个活跃项目每月产生 1.5 亿美元的收入,世界经济论坛预测到 2028 年该市场将达到 3.5 万亿美元,DePIN 已经跨越了从实验性技术到关键业务基础设施的鸿沟。

改变叙事的数字

截至 2025 年 9 月,CoinGecko 追踪了近 250 个 DePIN 项目,而仅在 24 个月前,这一数字还只是其中的一小部分。但真正的故事不在于项目数量,而在于收入。该行业在 2025 年估计产生了 7200 万美元的链上收入,顶级项目现在的年度经常性收入已达八位数。

仅在 2026 年 1 月,DePIN 项目共计产生了 1.5 亿美元的收入。专注于 GPU 基础设施的提供商 Aethir 以 5500 万美元领跑。紧随其后的是 Render Network,其去中心化 GPU 渲染服务带来了 3800 万美元收入。Helium 的无线网络运营贡献了 2400 万美元。这些并不是来自空投猎人的虚荣指标——它们代表了企业为计算、连接和存储支付的实际费用。

市场构成揭示了一个更具启发性的故事:按市值计算,48% 的 DePIN 项目现在专注于 AI 基础设施。随着 AI 工作负载的爆发式增长,超大规模企业(Hyperscalers)难以满足需求,去中心化计算网络正成为传统数据中心无法快速解决的行业瓶颈的释放阀。

Solana 在 DePIN 领域的地位:为什么速度至关重要

如果说以太坊是 DeFi 的家园,比特币是数字黄金,那么 Solana 已经悄然成为物理基础设施协调的首选区块链。Solana 网络上拥有 63 个 DePIN 项目——包括 Helium、Grass 和 Hivemapper——其低廉的交易成本和高吞吐量使其成为唯一能够处理物理基础设施所需的实时、数据密集型工作负载的 Layer 1 网络。

Helium 的转型尤其具有启发性。 在 2023 年 4 月迁移到 Solana 之后,该无线网络已扩展到超过 115,000 个热点,每天为 190 万用户提供服务。Helium Mobile 用户数从 2024 年 9 月的 115,000 人激增至 2025 年 9 月的近 450,000 人,同比增长 300%。仅在 2025 年第二季度,该网络就为运营商合作伙伴传输了 2,721 TB 的数据,环比增长 138.5%。

其经济模型极具说服力:Helium 通过激励个人部署和维护热点,以传统运营商成本的一小部分提供移动连接。用户每月只需支付 20 美元即可享受无限通话、短信和流量。热点运营商根据网络覆盖范围和数据传输赚取代币。传统运营商无法与这种成本结构竞争。

Render Network 展示了 DePIN 在 AI 和创意产业中的潜力。Render 的市值达 7.7 亿美元,仅在 2025 年 7 月就处理了超过 149 万个渲染帧,消耗了 207,900 USDC 的手续费。艺术家和 AI 研究人员利用游戏设备和矿场闲置的 GPU 算力,支付的费用仅为中心化云渲染服务的零头。

Grass 是 Solana 上增长最快的 DePIN 项目,拥有超过 300 万用户,它将闲置带宽货币化,用于 AI 训练数据集。用户贡献他们闲置的互联网连接赚取代币,而公司则抓取网页数据用于大型语言模型。这是大规模的基础设施套利——利用丰富且未被充分利用的资源(住宅带宽),并将其打包提供给愿意为分布式数据采集支付溢价的企业。

企业级采用:首席财务官无法忽视的 50-85% 成本削减

从试点项目向生产部署的转变在 2025 年大幅加速。电信运营商、云服务商和能源公司不仅在尝试 DePIN,还将其嵌入到了核心业务中。

无线基础设施 现在在全球拥有超过 500 万个注册的去中心化路由器。一家财富 500 强电信公司记录了使用 DePIN 支持的连接客户增长了 23%,证明如果经济效益和可靠性一致,企业就会采用去中心化模式。T-Mobile 与 Helium 合作,在偏远地区分担网络覆盖,展示了老牌企业如何利用 DePIN 解决传统资本支出无法证明其合理性的“最后一公里”问题。

电信行业面临着生存压力:建造基站和获得频谱许可的资本支出正在挤压利润,而客户则要求普及覆盖。电信行业的区块链市场预计将从 2024 年的 10.7 亿美元增长到 2030 年的 72.5 亿美元,因为运营商意识到激励个人部署基础设施比自己动手更便宜。

云计算 提供了更大的机遇。由英伟达支持的 brev.dev 和其他 DePIN 计算提供商正在服务于企业级 AI 工作负载,而这些负载在 AWS、Google Cloud 或 Azure 上的成本要高出 2-3 倍。由于到 2026 年,推理工作负载预计将占到所有 AI 计算的三分之二(高于 2023 年的三分之一),对经济高效的 GPU 算力的需求只会进一步加剧。去中心化网络可以从游戏设备、挖矿业务和未被充分利用的数据中心获取 GPU——这是中心化云无法触及的产能。

能源网络 也许是 DePIN 最具变革性的用例。中心化电网在地方层级难以平衡供需,导致效率低下和停电。去中心化能源网络利用区块链协调来跟踪个人拥有的太阳能电池板、电池和仪表的发电量。参与者发电,与邻居分享多余的电量,并根据贡献赚取代币。其结果是:提高了电网韧性,减少了能源浪费,并为采用可再生能源提供了财务激励。

AI 基础设施:正在重新定义堆栈的 48%

近一半的 DePIN 市值现在集中在 AI 基础设施上——这种融合正在重塑计算密集型工作负载的处理方式。据报告,2025 年第二季度 AI 基础设施存储支出同比增长了 20.5%,其中 48% 的支出用于云部署。然而,就在需求爆炸式增长之际,中心化云正面临容量限制。

2024 年全球数据中心 GPU 市场规模为 144.8 亿美元,预计到 2032 年将达到 1552 亿美元。然而,英伟达(Nvidia)几乎无法满足需求,导致 H100 和 H200 芯片的交付周期长达 6-12 个月。DePIN 网络通过聚合 80-90% 时间处于闲置状态的消费级和企业级 GPU,绕过了这一瓶颈。

推理工作负载(在训练完成后在生产环境中运行 AI 模型)是增长最快的细分领域。虽然 2025 年的大部分投资集中在训练芯片上,但随着公司从模型开发转向大规模部署,推理优化芯片市场预计在 2026 年将超过 500 亿美元。DePIN 计算网络在推理方面表现出色,因为这类工作负载具有高度可并行化和延迟容忍的特性,使其成为分布式基础设施的绝佳选择。

Render、Akash 和 Aethir 等项目正在通过提供碎片化的 GPU 访问、现货定价以及中心化云无法比拟的地理分布来捕捉这一需求。一家 AI 初创公司可以在周末批处理任务中启动 100 个 GPU,并仅按实际使用量付费,无需最低消费承诺或签署企业合同。对于超大规模云服务商来说,这是摩擦;而对于 DePIN 来说,这正是其核心价值主张。

驱动增长的类别

DePIN 分为两个基本类别:物理资源网络(硬件设施,如无线塔、能源网和传感器)和数字资源网络(计算、带宽和存储)。两者都在经历爆炸式增长,但由于部署门槛较低,数字资源的扩展速度更快。

存储网络(如 Filecoin)允许用户出租闲置的硬盘空间,创建了 AWS S3 和 Google Cloud Storage 的分布式替代方案。其价值主张在于:更低的成本、地理冗余以及抗单点故障能力。企业正在试点将 Filecoin 用于归档数据和备份,在这些用例中,中心化云的出站流量费用(egress fees)每年可能高达数百万美元。

计算资源涵盖了 GPU 渲染(Render)、通用计算(Akash)和 AI 推理(Aethir)。Akash 运营着一个用于 Kubernetes 部署的开放市场,让开发者可以在全球范围内未充分利用的服务器上启动容器。与 AWS 相比,根据工作负载类型和可用性要求,成本节省可达 30% 到 85%。

无线网络(如 Helium 和 World Mobile Token)正在解决欠发达市场的连接缺口。World Mobile 在桑给巴尔部署了去中心化移动网络,在为 600 米半径内的 500 人提供互联网的同时,还直播了一场富勒姆足球俱乐部的比赛。这些不是概念验证,而是正在为传统 ISP 因经济效益不佳而拒绝运营的地区提供服务的生产级网络。

能源网络利用区块链协调分布式发电和消费。太阳能电池板所有者将多余的电力卖给邻居。电动汽车(EV)所有者通过将充电时间安排在非高峰时段来提供电网稳定性,并因其灵活性赚取代币。公用事业公司无需部署昂贵的智能电表和控制系统,即可实时了解当地的供需情况。这种基础设施协调离不开区块链无须信任的结算层。

从 192 亿美元到 3.5 万亿美元:实现目标需要什么

世界经济论坛对 2028 年 3.5 万亿美元的预测不仅仅是乐观的投机,它反映了 DePIN 一旦实现规模化验证后,其可触达市场是多么巨大。全球电信基础设施每年的支出超过 1.5 万亿美元。云计算是一个 6000 多亿美元的市场。能源基础设施则代表了数万亿的资本支出。

DePIN 不需要取代这些行业,它只需要通过提供更优越的经济效益来夺取 10-20% 的市场份额。这一逻辑之所以成立,是因为 DePIN 颠覆了传统的基础设施模式:不再是由公司筹集数十亿资金建设网络然后在数十年内回收成本,而是 DePIN 激励个人预先部署基础设施,并在贡献容量时赚取代币。这是众包式的资本支出,其扩展速度远快于中心化建设。

但要达到 3.5 万亿美元的规模,需要解决三个挑战:

监管透明度。 电信和能源是高度受监管的行业。DePIN 项目必须应对频谱许可(无线)、互联互通协议(能源)以及数据驻留要求(计算和存储)。目前正在取得进展——非洲和拉丁美洲的政府正在拥抱 DePIN 以弥合连接鸿沟——但美国和欧盟等成熟市场的节奏较慢。

企业信任。 在可靠性达到或超过中心化替代方案之前,财富 500 强公司不会将关键任务工作负载迁移到 DePIN。这意味着正常运行时间保证、服务水平协议(SLAs)、故障保险以及 24/7 全天候支持——这些是企业级 IT 的基本要求,而许多 DePIN 项目目前仍显匮乏。未来的赢家将是那些优先考虑运营成熟度而非代币价格的项目。

代币经济学。 早期的 DePIN 项目饱受不可持续的代币经济学之苦:导致市场抛压的通胀奖励、奖励女巫攻击(Sybil attacks)而非有效工作的失衡激励,以及脱离网络基本面的投机性价格波动。下一代 DePIN 项目正在从这些错误中吸取教训,实施与收入挂钩的销毁机制、针对贡献者的归属计划,以及优先考虑长期可持续性的治理模式。

为什么 BlockEden.xyz 的建设者应该关注

如果你正在区块链上进行开发,DePIN 代表了加密货币历史上最清晰的产品市场契合点(Product-Market Fit)之一。与 DeFi 的监管不确定性或 NFT 的投机周期不同,DePIN 通过可衡量的投资回报率(ROI)解决现实世界的问题。企业需要更便宜的基础设施;个人拥有未被充分利用的资产;区块链则提供了去信任的协调与结算。这些环节完美契合。

对于开发者来说,机会在于构建使 DePIN 达到企业级标准的中间件:监控和可观测性工具、SLA(服务水平协议)强制执行智能合约、节点运营商的声誉系统、运行时间保证的保险协议,以及能够跨越地理边界即时结算的支付轨道。

你今天构建的基础设施可能会助力 2028 年的去中心化互联网——届时 Helium 处理移动连接,Render 处理 AI 推理,Filecoin 存储全球档案,而 Akash 运行编排这一切的容器。这并非加密未来主义——这是世界 500 强公司已经在试运行的路线图。

来源

Ambient 的 720 万美元博弈:Proof of Logits 如何通过 AI 推理取代基于哈希的挖矿

· 阅读需 20 分钟
Dora Noda
Software Engineer

如果保障区块链安全的计算工作同时也能训练下一代 AI 模型,会怎样?这并非遥远的愿景——它是 Ambient 背后的核心论点。Ambient 是一家 Solana 分叉项目,刚刚从 a16z CSX 筹集了 720 万美元,旨在构建全球首个 AI 驱动的工作量证明(PoW)区块链。

传统的工作量证明通过解决任意的加密谜题来消耗电力。比特币矿工竞相寻找具有足够前导零的哈希值——这种计算工作除了维护网络安全之外没有其他价值。Ambient 完全颠覆了这一模式。其 Logits 证明(Proof of Logits, PoL)共识机制用 AI 推理、微调和模型训练取代了哈希运算。矿工不再解决谜题,而是生成可验证的 AI 输出。验证者无需重新计算整个工作负载,而是检查被称为 Logits 的加密指纹。

结果如何?一个安全性与 AI 进步在经济上达成一致的区块链:0.1% 的验证开销使共识检查近乎免费,且训练成本比中心化替代方案降低了 10 倍。如果取得成功,Ambient 可能会通过将挖矿转化为生产性的 AI 劳动,从而回应加密货币领域最古老的批评之一——即工作量证明浪费资源。

Logits 证明的突破:无需重新计算的可验证 AI

理解 PoL 需要了解 Logits 究竟是什么。当大型语言模型(LLM)生成文本时,它们并不直接输出单词。相反,在每一步中,它们会对整个词汇表生成一个概率分布——即代表每个可能的下一个 Token 置信水平的数值分数。

这些分数被称为 Logits。对于一个拥有 50,000 个 Token 词汇量的模型,生成一个单词意味着要计算 50,000 个 Logits。这些数字充当了独特的计算指纹。只有特定的模型、特定的权重、运行特定的输入,才会产生特定的 Logit 分布。

Ambient 的创新在于将 Logits 用作工作量证明:矿工执行 AI 推理(生成对提示词的响应),而验证者通过检查 Logit 指纹而不是重新进行整个计算来验证这项工作。

以下是验证过程的工作原理:

矿工生成输出:矿工接收到一个提示词(例如,“总结区块链共识原则”),并使用一个拥有 6000 亿参数的模型生成 4,000 个 Token 的响应。这将产生 4,000 × 50,000 = 2 亿个 Logits。

验证者抽样验证:验证者无需重新生成所有 4,000 个 Token,而是随机抽取一个位置——例如,第 2,847 个 Token。验证者在该位置运行单步推理,并将矿工报告的 Logits 与预期的分布进行比较。

加密承诺:如果 Logits 匹配(在考虑到浮点精度的可接受阈值内),矿工的工作就会得到验证。如果不匹配,该区块将被拒绝,矿工将失去奖励。

这将验证开销降低到原始计算量的约 0.1%。检查 2 亿个 Logits 的验证者只需验证 50,000 个 Logits(一个 Token 位置),从而将成本降低了 99.9%。将其与传统 PoW 相比,后者的验证意味着重新运行整个哈希函数——或者与比特币的方法相比,对比特币而言,检查单个 SHA-256 哈希是微不足道的,因为谜题本身是任意的。

Ambient 的系统比需要完全重新计算的天真“有用工作证明”方案成本呈指数级降低。它更接近比特币的效率(廉价验证),但提供了实际效用(AI 推理而非无意义的哈希)。

10 倍训练成本降低:没有数据中心垄断的去中心化 AI

中心化 AI 训练非常昂贵——对大多数机构来说高不可攀。训练 GPT-4 规模的模型需要数千万美元,数千块企业级 GPU,并将权力集中在少数科技巨头手中。Ambient 的架构旨在通过将训练分布在独立矿工网络中,使这一过程民主化。

10 倍的成本降低源于两项技术创新:

PETALS 风格的分片:Ambient 借鉴了 PETALS 的技术,这是一个去中心化推理系统,其中每个节点只存储大型模型的一个分片。Ambient 不要求矿工持有整个 6000 亿参数的模型(这需要数 TB 的显存),而是让每个矿工拥有一组层子集。提示词按顺序流经网络,每个矿工处理其分片并将激活值(Activations)传递给下一个。

这意味着拥有单块消费级 GPU(24GB 显存)的矿工也可以参与模型训练,而这类模型通常需要数据中心的数百块 GPU。通过将计算图分布在数百或数千个节点上, Ambient 消除了对传统机器学习集群中使用的昂贵高带宽互连(如 InfiniBand)的需求。

受 SLIDE 启发的稀疏性:大多数神经网络计算涉及矩阵乘法,其中大多数条目接近于零。SLIDE(亚线性深度学习引擎)利用了这一点,通过对激活值进行哈希处理来识别哪些神经元对特定输入真正起作用,从而完全跳过不相关的计算。

Ambient 将这种稀疏性应用于分布式训练。网络不再让所有矿工处理所有数据,而是根据节点的逻辑分片与当前批次的相关性动态路由工作。这减少了通信开销(分布式机器学习中的主要瓶颈),并允许硬件性能较弱的矿工通过处理稀疏子图来参与。

这种结合产生了 Ambient 所声称的比 DiLoCo 或 Hivemind 等现有分布式训练方案高出 10 倍的吞吐量。更重要的是,它降低了准入门槛:矿工不需要数据中心级别的基础设施——一台拥有不错 GPU 的游戏电脑就足以做出贡献。

Solana 分叉架构:高 TPS 与非阻塞 PoW 的结合

Ambient 并非从零开始构建。它是 Solana 的完整分叉,继承了 Solana 虚拟机 (SVM)、历史证明 (PoH) 时间戳和 Gulf Stream 内存池转发。这赋予了 Ambient Solana 级别的 65,000 TPS 理论吞吐量和亚秒级最终确认性。

但 Ambient 做出了一个关键改进:它在 Solana 的共识之上增加了一个 非阻塞工作量证明 (PoW) 层

以下是这种混合共识的工作原理:

历史证明 (PoH) 为交易排序:Solana 的 PoH 提供了一个加密时钟,无需等待全局共识即可为交易排序。这实现了跨多核的并行执行。

Logit 证明 (Proof of Logits) 保护链的安全:矿工通过竞争产生有效的 AI 推理输出。区块链接受那些生成最有价值 AI 成果(通过推理复杂度、模型大小或质押声誉衡量)的矿工提交的区块。

非阻塞集成:与比特币不同(比特币在找到有效 PoW 之前会停止区块生产),Ambient 的 PoW 采用异步运行。验证者继续处理交易,而矿工则竞争提交 AI 成果。这防止了 PoW 成为性能瓶颈。

其结果是,该区块链既保持了 Solana 的速度(对于需要低延迟推理的 AI 应用至关重要),又确保了核心网络活动(推理、微调和训练)中的经济竞争。

这种设计还避免了以太坊早期在 “有用功” (useful work) 共识上犯下的错误。Primecoin 和 Gridcoin 曾尝试将科学计算作为 PoW,但面临一个致命缺陷:有用功的难度并不均匀。有些问题易于解决但难以验证;有些则易于不公平地并行化。Ambient 通过使 logit 验证在计算上变得廉价且标准化,巧妙地避开了这一点。每个推理任务,无论复杂度如何,都可以使用相同的抽查算法进行验证。

训练链上 AGI 的竞赛:还有谁在竞争?

Ambient 并非唯一瞄准区块链原生 AI 的项目。该领域挤满了声称要实现机器学习去中心化的项目,但很少有项目能提供可验证的链上训练。以下是 Ambient 与主要竞争对手的对比:

人工超级智能联盟 (ASI):由 Fetch.AI、SingularityNET 和 Ocean Protocol 合并而成,ASI 专注于去中心化 AGI 基础设施。ASI 链支持并发代理执行和安全模型交易。与 Ambient 的 PoW 方法不同,ASI 依赖于市场模型,开发者支付计算积分。这适用于推理,但无法对齐训练的激励机制——矿工没有理由贡献昂贵的 GPU 工时,除非预先获得明确补偿。

AIVM (ChainGPT):ChainGPT 的 AIVM 路线图 目标是在 2026 年启动主网,将链外 GPU 资源与链上验证集成。然而,AIVM 的验证依赖于乐观汇总 (Optimistic Rollups)(即除非受到挑战,否则假设正确),这引入了欺诈证明延迟。Ambient 的 logit 检查是确定性的——验证者可以立即知道工作是否有效。

互联网计算机 (ICP):Dfinity 的 互联网计算机 可以在不依赖外部云基础设施的情况下,在链上原生托管大型模型。但 ICP 的容器 (Canister) 架构并非为训练而优化——它是为推理和智能合约执行而设计的。Ambient 的 PoW 在经济上激励持续的模型改进,而 ICP 则要求开发者在外部管理训练。

Bittensor:Bittensor 使用子网模型,其中专门的链训练不同的 AI 任务(文本生成、图像分类等)。矿工通过提交模型权重进行竞争,验证者根据表现对它们进行排名。Bittensor 在去中心化推理方面表现出色,但在训练协作方面面临挑战——它没有统一的全局模型,只是独立子网的集合。Ambient 的方法将训练统一在单个 PoW 机制下。

Lightchain Protocol AILightchain 的白皮书 提出了智能证明 (PoI),节点通过执行 AI 任务来验证交易。然而,Lightchain 的共识在很大程度上仍处于理论阶段,尚未宣布测试网发布。相比之下,Ambient 计划在 2025 年第二/第三季度发布测试网

Ambient 的优势在于将可验证的 AI 成果与 Solana 经过验证的高吞吐量架构相结合。大多数竞争对手要么牺牲了去中心化(中心化训练配合链上验证),要么牺牲了性能(等待欺诈证明的缓慢共识)。Ambient 基于 logit 的 PoW 同时提供了这两点:去中心化训练与近乎瞬时的验证。

经济激励:像挖掘比特币区块一样挖掘 AI 模型

Ambient 的经济模型镜像了比特币:可预测的区块奖励 + 交易费用。但矿工生产的不是空区块,而是应用程序可以消耗的 AI 输出。

以下是激励结构的工作原理:

基于通胀的奖励:早期矿工因贡献 AI 推理、微调或训练而获得区块补贴(新铸造的代币)。与比特币的减半计划类似,补贴随时间减少,确保了长期稀缺性。

基于交易的费用:应用程序为 AI 服务付费——推理请求、模型微调或访问训练好的权重。这些费用流向执行工作的矿工,在补贴下降时建立可持续的收入模型。

声誉质押:为了防止女巫攻击 (Sybil attacks)(矿工提交低质量工作以骗取奖励),Ambient 引入了质押声誉。矿工必须锁定代币才能参与;产生无效 logit 会导致惩罚 (Slashing)。这使激励机制对齐:矿工通过生成准确、有用的 AI 输出而不是钻系统空子来最大化利润。

适度的硬件门槛:与 ASIC 矿场占据主导地位的比特币不同,Ambient 的 PETALS 分片允许使用消费级 GPU 参与。拥有单个 RTX 4090(24GB VRAM,约 1,600 美元)的矿工可以通过拥有一个分片来为 6000 亿参数模型的训练做出贡献。这使参与变得民主化——无需耗资百万美元的数据中心。

这种模型解决了去中心化 AI 中的一个关键问题:搭便车问题。在传统的 PoS 链中,验证者质押资金但不贡献计算。在 Ambient 中,矿工贡献实际的 AI 工作,确保网络的效用与其安全预算成比例增长。

270 亿美元的 AI 代理板块:为什么 2026 年是转折点

Ambient 的时机与更广泛的市场趋势相吻合。AI 代理加密板块 估值已达 270 亿美元,其动力源于管理链上资产、执行交易以及跨协议协调的自主程序。

但当前的代理面临信任问题:大多数代理依赖于中心化的 AI API(如 OpenAI、Anthropic、Google)。如果一个管理着 1,000 万美元 DeFi 仓位的代理使用 GPT-4 进行决策,用户无法保证该模型未被篡改、审查或存在偏见。目前还没有审计追踪能证明该代理是自主行动的。

Ambient 通过链上验证解决了这一问题。每一次 AI 推理都记录在区块链上,通过 Logits 证明所使用的确切模型和输入。应用程序可以:

审计代理决策:DAO 可以验证其国库管理代理使用的是特定的、经社区批准的模型,而不是秘密修改过的版本。

强制合规:受监管的 DeFi 协议可以要求代理使用具有经验证安全护栏的模型,且这些护栏在链上可证明。

启用 AI 市场:开发者可以将微调后的模型作为 NFT 出售,由 Ambient 提供训练数据和权重的加密证明。

这使 Ambient 成为下一波自主代理的基础设施。随着 2026 年成为转折点,即“AI、区块链和支付汇聚成一个单一的、自我协调的互联网”,Ambient 的可验证 AI 层将成为关键的底层设施。

技术风险与悬而未决的问题

Ambient 的愿景宏大,但仍有几个技术挑战尚未解决:

确定性与浮点漂移:AI 模型使用浮点运算,这在不同硬件之间并不是完全确定的。在 NVIDIA A100 上运行的模型产生的 Logits 可能与 AMD MI250 上的略有不同。如果验证者因细微的数值漂移而拒绝区块,网络就会变得不稳定。Ambient 需要设定严格的容差范围——但如果太严,使用不同硬件的矿工就会受到不公平的惩罚。

模型更新与版本控制:如果 Ambient 协作训练一个全局模型,它如何处理更新?在比特币中,所有节点运行相同的共识规则。在 Ambient 中,矿工不断微调模型。如果一半网络更新到 2.0 版本,而另一半留在 1.9,验证就会失效。白皮书并未详细说明模型版本控制和向后兼容性如何运作。

提示词多样性与工作标准化:比特币的 PoW 是统一的——每个矿工解决相同类型的谜题。Ambient 的 PoW 则是多样的——有些矿工回答数学问题,有些编写代码,有些总结文档。验证者如何比较不同任务的“价值”?如果一名矿工生成了 10,000 个乱码 Token(简单),而另一名矿工在困难数据集上微调模型(昂贵),谁应该获得更多奖励?Ambient 需要一种类似于比特币哈希难度的 AI 工作难度调整算法,但衡量“推理难度”并非易事。

分布式训练中的延迟:PETALS 样式的分片对推理(顺序层处理)效果很好,但训练需要反向传播——梯度在网络中向后流动。如果各层分布在网络延迟各异的节点上,梯度更新就会成为瓶颈。Ambient 声称吞吐量提高了 10 倍,但实际性能取决于网络拓扑和矿工分布。

中心化风险与模型托管:如果只有少数节点能负担得起托管最有价值的模型分片(例如 6000 亿参数模型的最后几层),他们将获得不成比例的影响力。验证者可能会优先将工作分配给连接良好的节点,从而在一个本应去中心化的网络中重现数据中心的中心化现象。

这些并非致命缺陷,而是每个区块链 AI 项目都会面临的工程挑战。但 Ambient 在 2025 年第二/第三季度的测试网发布将揭示其理论在现实条件下是否成立。

下一步:测试网、主网与 AGI 终局

Ambient 的路线图目标是在 2025 年第二/第三季度启动测试网,主网随后于 2026 年上线。来自 a16z CSX、Delphi Digital 和 Amber Group 的 720 万美元种子轮融资为核心开发提供了资金保障,但该项目的长期成功取决于生态系统的采用。

值得关注的关键里程碑:

测试网挖矿参与度:有多少矿工加入网络?如果 Ambient 吸引了成千上万的 GPU 所有者(类似于早期的以太坊挖矿),则证明了其经济模式的可行性。如果只有少数实体挖矿,则预示着中心化风险。

模型性能基准:Ambient 训练的模型能否与 OpenAI 或 Anthropic 竞争?如果一个去中心化的 6000 亿参数模型达到了 GPT-4 级别的质量,就验证了整个方案的可行性。如果性能落后太多,开发者仍会选择中心化 API。

应用程序集成:哪些 DeFi 协议、DAO 或 AI 代理会构建在 Ambient 之上?只有当真实应用消耗链上 AI 推理时,其价值主张才能实现。早期用例可能包括:

  • 具有可证明决策逻辑的自主交易代理
  • 去中心化内容审核(AI 模型过滤帖子,链上可审计)
  • 可验证的 AI 预言机(链上价格预测或情绪分析)

与以太坊和 Cosmos 的互操作性:Ambient 是 Solana 的一个分叉,但 AI 代理经济跨越多个链。连接以太坊(用于 DeFi)和 Cosmos(用于 IBC 连接的 AI 链,如 ASI)的桥接将决定 Ambient 成为孤岛还是枢纽。

最终的目标宏伟:训练 去中心化的通用人工智能 (AGI),且没有任何单一实体控制该模型。如果成千上万的独立矿工协作训练一个超智能系统,并对每个训练步骤进行加密证明,这将代表第一条真正开放、可审计的 AGI 之路。

Ambient 能否实现这一目标,还是成为又一个承诺过度的加密项目,取决于执行力。但其核心创新——用可验证的 AI 工作取代无意义的加密谜题——是一项真正的突破。如果工作量证明可以是有产出的而非浪费的,Ambient 将率先证明这一点。

Proof-of-Logits 范式转移

Ambient 的 720 万美元融资不仅仅是另一场加密货币融资。这是一场赌注,赌的是区块链共识和 AI 训练可以融合成一个经济利益一致的单一系统。其影响远不止于 Ambient:

如果基于 Logit 的验证行之有效,其他链将会采用它。以太坊可以引入 PoL 作为 PoS 的替代方案,奖励那些贡献 AI 工作而非仅仅质押 ETH 的验证者。比特币可能会通过分叉来使用有用的计算,而不是 SHA-256 哈希(尽管比特币极大化主义者永远不会接受这一点)。

如果去中心化训练实现了具有竞争力的性能,OpenAI 和 Google 将失去他们的护城河。在一个任何拥有 GPU 的人都可以为 AGI 开发做出贡献,并因其工作赚取代币的世界里,中心化的 AI 寡头垄断将被根本性地颠覆。

如果链上 AI 验证成为标准,自主代理将获得可信度。用户不再信任黑盒 API,而是在链上验证确切的模型和提示词。这将解锁受监管的 DeFi、算法治理和 AI 驱动的法律合约。

Ambient 并不保证一定会赢。但它是迄今为止技术上最可靠的一次尝试,旨在让工作量证明(PoW)发挥实际效用,去中心化 AI 训练,并将区块链安全与文明进步结合起来。测试网的启动将展示理论是否符合现实——或者 Proof-of-Logits 是否会加入那些雄心勃勃的共识实验坟场。

无论如何,训练链上 AGI 的竞赛现在已不可否认地真实开启。而 Ambient 刚刚在起跑线上投入了 720 万美元。


来源:

Gensyn 的 Judge:位级精确的可复现性如何终结不透明 AI API 时代

· 阅读需 22 分钟
Dora Noda
Software Engineer

每次当你查询 ChatGPT、Claude 或 Gemini 时,你都在信任一个看不见的黑盒。模型版本?未知。精确权重?专有。输出是由你认为正在使用的模型生成的,还是由悄悄更新的变体生成的?无法核实。对于询问食谱或琐事的普通用户来说,这种不透明性仅仅是令人恼火。但对于高风险的 AI 决策——金融交易算法、医疗诊断、法律合同分析——这是一种根本性的信任危机。

Gensyn 的 Judge 于 2025 年底推出,并于 2026 年进入生产阶段。它提供了一种激进的替代方案:加密可验证的 AI 评估,每次推理都可以复现到比特级别。Judge 允许任何人验证特定的、预先商定的 AI 模型是否针对真实输入进行了确定性执行,而不是信任 OpenAI 或 Anthropic 会提供正确的模型——加密证明确保结果无法伪造。

技术突破在于 Verde,这是 Gensyn 的验证系统,它消除了浮点非确定性——这是 AI 可复现性的克星。通过在不同设备上强制执行逐比特精确的计算,Verde 确保在伦敦的 NVIDIA A100 和东京的 AMD MI250 上运行相同的模型会产生完全相同的结果,并可在链上证明。这为去中心化金融(DeFi)、自主代理(Autonomous Agents)以及任何透明度不是可选项而是生存条件的应用程序开启了可验证 AI。

不透明 API 问题:没有验证的信任

AI 行业运行在 API 之上。开发者通过 REST 终端集成 OpenAI 的 GPT-4、Anthropic 的 Claude 或 Google 的 Gemini,发送提示词并接收响应。但这些 API 在根本上是不透明的:

版本不确定性:当你调用 gpt-4 时,我得到的是哪个确切版本?GPT-4-0314?GPT-4-0613?还是一个悄悄更新的变体?供应商经常在不发布公告的情况下部署补丁,一夜之间改变模型行为。

无审计追踪:API 响应不包含生成它们的模型的加密证明。如果 OpenAI 为特定的地区或客户提供经过审查或有偏见的变体,用户无法检测到。

无声退化:供应商可以为了降低成本而对模型进行“性能阉割”——在保持相同 API 协议的同时降低推理质量。用户反映 GPT-4 随着时间的推移变得“变笨了”,但由于缺乏透明的版本控制,此类说法仍停留在轶事层面。

非确定性输出:由于温度设置、批处理或硬件级浮点舍入误差,即使使用相同的输入两次查询同一个模型,也可能产生不同的结果。这使得审计变得不可能——当输出不可复现时,你如何验证其正确性?

对于普通应用,这些问题只是不便。对于高风险决策,它们则是阻碍。考虑到:

算法交易:一家对冲基金部署了一个管理着 5000 万美元 DeFi 头寸的 AI 代理。该代理依靠 GPT-4 分析来自 X 帖子的市场情绪。如果模型在交易环节中途悄悄更新,情绪评分会发生不可预测的偏移——从而触发意外的清算。该基金没有证据证明模型表现异常;OpenAI 的日志是不公开审计的。

医疗诊断:一家医院使用 AI 模型来推荐癌症治疗方案。法规要求医生记录决策过程。但如果 AI 模型版本无法验证,审计追踪就是不完整的。医疗事故诉讼可能取决于证明是 哪一个 模型生成了该建议——而这对于不透明的 API 来说是不可能的。

DAO 治理:一个去中心化组织使用 AI 代理对国库提案进行投票。社区成员要求证明该代理使用的是经过批准的模型——而不是一个有利于特定结果的篡改变体。没有加密验证,投票就缺乏合法性。

这就是 Gensyn 瞄准的信任差距:随着 AI 被嵌入到关键决策中,无法验证模型的真实性和行为成为了“在高风险环境中部署代理化 AI 的根本障碍”。

Judge:可验证 AI 评估协议

Judge 通过针对真实输入执行预先商定的确定性 AI 模型,并将结果提交到区块链(任何人都可以发起挑战)来解决不透明问题。以下是该协议的工作原理:

1. 模型承诺:参与者就 AI 模型达成一致——包括其架构、权重和推理配置。该模型被哈希处理并提交到链上。哈希值充当加密指纹:任何偏离商定模型的行为都会产生不同的哈希值。

2. 确定性执行:Judge 使用 Gensyn 的可复现运行时 运行模型,该运行时保证了跨设备的逐比特精确可复现性。这消除了浮点非确定性——这是我们稍后将探讨的一项关键创新。

3. 公开承诺:推理完成后,Judge 将输出(或其哈希值)发布在链上。这为模型针对给定输入产生的内容创建了一个永久的、可审计的记录。

4. 挑战期:任何人都可以通过独立重新执行模型来挑战结果。如果他们的输出不同,他们可以提交欺诈证明。Verde 的 受仲裁的委托机制 可以精确定位计算图中结果发生分歧的具体操作员。

5. 欺诈罚没:如果挑战者证明 Judge 产生了错误结果,原始执行者将受到惩罚(罚没抵押的代币)。这统一了经济激励:执行者通过正确运行模型来最大化利润。

Judge 将 AI 评估从“信任 API 供应商”转变为“验证加密证明”。模型的行为是公开的、可审计的和可强制执行的——不再隐藏在专有终端后面。

Verde:消除浮点非确定性

可验证 AI 的核心技术挑战在于确定性。神经网络在推理过程中执行数十亿次浮点运算。在现代 GPU 上,这些操作并非完全可复现:

非结合性 (Non-associativity):浮点加法不满足结合律。由于舍入误差,(a + b) + c 的结果可能与 a + (b + c) 不同。GPU 在数千个核心上并行执行求和运算,而部分和累加的顺序会因硬件和驱动程序版本的不同而变化。

内核调度变异性 (Kernel scheduling variability):GPU 内核(如矩阵乘法或注意力机制)可能会根据工作负载、驱动程序优化或硬件架构以不同的顺序执行。即使在同一块 GPU 上运行两次相同的模型,如果内核调度不同,也可能产生不同的结果。

批次大小依赖性 (Batch-size dependency):研究发现 LLM 推理具有系统级非确定性,因为输出取决于批次大小 (batch size)。许多内核(如 matmul、RMSNorm、attention)会根据同时处理的样本数量改变数值输出——批次大小为 1 的推理产生的值与在批次大小为 8 的同一输入中产生的值不同。

这些问题使得标准 AI 模型不适用于区块链验证。如果两个验证者重新运行相同的推理并得到略有不同的输出,谁才是正确的?如果没有确定性,共识就无法达成。

Verde 通过 RepOps (可复现算子) 解决了这一问题。这是一个通过控制所有设备上浮点运算顺序来消除硬件非确定性的库。其工作原理如下:

规范归约顺序 (Canonical reduction orders):RepOps 在执行矩阵乘法等运算时,强制执行部分结果求和的确定性顺序。RepOps 不再由 GPU 调度器决定,而是明确指定:在所有硬件上“先对第 0 列求和,然后是第 1 列,接着是第 2 列……”。这确保了 (a + b) + c 始终按相同的序列计算。

定制 CUDA 内核 (Custom CUDA kernels):Gensyn 开发了优化的内核,将可复现性置于原始速度之上。与标准的 cuBLAS 相比,RepOps 矩阵乘法的额外开销不到 30%——对于实现确定性来说,这是一个合理的权衡。

驱动程序与版本锁定 (Driver and version pinning):Verde 使用锁定版本的 GPU 驱动程序和规范配置,确保在不同硬件上执行的相同模型产生完全一致的位级输出。在一个数据中心的 NVIDIA A100 上运行的模型,其输出与另一个数据中心 AMD MI250 的输出在位级别上完全匹配。

这是实现 Judge 验证的突破:位级精确的可复现性 意味着验证者可以在不信任执行者的情况下独立确认结果。如果哈希值匹配,推理就是正确的——这在数学上是可证明的。

仲裁委托:无需完整重新计算的高效验证

即便拥有确定性执行,通过朴素方式验证 AI 推理的成本也极其高昂。一个拥有 700 亿参数、生成 1,000 个 token 的模型可能需要 10 个 GPU 小时。如果验证者必须重新运行每一次推理来验证正确性,那么验证成本将等于执行成本——这违背了去中心化的初衷。

Verde 的 仲裁委托机制 (refereed delegation mechanism) 使验证效率呈指数级提升:

多个不可信执行者:Judge 不再只分配给一个执行者,而是将任务分配给多个独立的提供者。每个执行者运行相同的推理并提交结果。

分歧触发调查:如果所有执行者达成一致,结果将被接受——无需进一步验证。如果输出不一致,Verde 会启动挑战博弈。

计算图上的二分查找:Verde 不会重新运行整个推理。相反,它在模型的计算图上执行二分查找,以找到结果产生分歧的第一个算子。这能精准定位导致差异的具体层(例如,“第 47 层注意力机制,第 8 个头”)。

极小化仲裁计算:仲裁者(可以是智能合约或计算能力有限的验证者)仅检查有争议的算子,而不是整个前向传播过程。对于一个拥有 80 层、70B 参数的模型,这在最坏情况下将验证工作量减少到仅需检查约 7 层 (log₂ 80)。

这种方法比朴素复制(即每个验证者重新运行所有内容)效率提升超过 1,350%。Gensyn 结合了加密证明、博弈论和优化流程,在不进行冗余计算的情况下保证了执行的正确性。

结果是:Judge 可以大规模验证 AI 工作负载,从而实现去中心化推理网络,让数千个不可信节点贡献算力——同时捕获并惩罚不诚实的执行者。

高风险 AI 决策:透明度为何至关重要

Judge 的目标市场并非普通的聊天机器人,而是那些可验证性不是“锦上添花”而是监管或经济要求的应用场景。在以下场景中,不透明的 API 可能会导致灾难性的失败:

去中心化金融 (DeFi):自主交易代理管理着数十亿资产。如果代理使用 AI 模型来决定何时重新平衡投资组合,用户需要证明该模型未被篡改。Judge 实现了链上验证:代理提交特定的模型哈希值,根据其输出执行交易,任何人都可以挑战其决策逻辑。这种透明度防止了恶意代理在没有证据的情况下声称“是 AI 让我平仓”的撤资 (Rug Pull) 行为。

监管合规:将 AI 用于信用评分、欺诈检测或反洗钱 (AML) 的金融机构面临审计。监管机构要求提供解释:“为什么模型会标记这笔交易?”不透明的 API 无法提供审计追踪。Judge 创建了模型版本、输入和输出的不可变记录,满足了合规性要求。

算法治理:去中心化自治组织 (DAO) 使用 AI 代理来提议治理决策或进行投票。社区成员必须验证代理使用的是经过批准的模型,而不是被黑客篡改的变体。通过 Judge,DAO 在其智能合约中编码模型哈希,每一项决策都包含正确性的加密证明。

医疗与法律 AI:医疗保健和法律系统需要问责制。医生在 AI 辅助下诊断癌症时需要记录所使用的确切模型版本。律师使用 AI 起草合同时必须证明输出源自经过审核、无偏见的模型。Judge 的链上审计追踪提供了这些证据。

预测市场与预言机:像 Polymarket 这样的项目使用 AI 来结算投注结果(例如,“这件事会发生吗?”)。如果结算取决于分析新闻文章的 AI 模型,参与者需要证明模型未被操纵。Judge 验证预言机的 AI 推理,防止产生争议。

在每种情况下,共同点在于 缺乏透明度的信任是不够的。正如 VeritasChain 所指出的,AI 系统需要“加密飞行记录仪”——即在发生争议时证明事实经过的不可变日志。

零知识证明的替代方案:Verde 与 ZKML 的对比

Judge 并不是实现可验证 AI 的唯一方法。零知识机器学习 (ZKML) 使用 zk-SNARKs 实现了类似的目标:通过加密证明确保计算正确执行,而无需透露输入或权重。

Verde 与 ZKML 相比如何?

验证成本:ZKML 生成证明所需的计算量大约是原始推理的 1,000 倍(研究预估)。一个拥有 70B 参数的模型如果推理需要 10 个 GPU 小时,那么证明可能需要 10,000 个 GPU 小时。Verde 的仲裁委托是对数级的:检查约 7 层而不是 80 层,实现了 10 倍的缩减,而不是 1,000 倍的增加。

证明者复杂度:ZKML 需要专门的硬件(如用于 zk-SNARK 电路的定制 ASIC)才能高效生成证明。Verde 可以在通用 GPU 上运行——任何拥有游戏电脑的矿工都可以参与。

隐私权衡:ZKML 的优势在于隐私——证明过程不会泄露任何关于输入或模型权重的信息。Verde 的确定性执行是透明的:输入和输出是公开的(尽管权重可以加密)。对于高风险的决策,透明度通常是更受欢迎的。一个对金库分配进行投票的 DAO 需要的是公开的审计追踪,而不是隐藏的证明。

证明范围:ZKML 在实际应用中仅限于推理——以当前的计算成本,证明训练过程是不可行的。Verde 同时支持推理和训练验证(Gensyn 更广泛的协议验证分布式训练)。

现实世界采用:像 Modulus Labs 这样的 ZKML 项目已经取得了突破(在链上验证了 18M 参数的模型),但仍局限于较小的模型。Verde 的确定性运行时已经在生产环境中处理 70B+ 参数的模型。

ZKML 在隐私至上的场景中表现出色——例如在不暴露虹膜扫描的情况下验证生物识别身份 (Worldcoin)。Verde 在以透明度为目标的场景中表现出色——证明特定的公开模型已正确执行。这两种方法是互补的,而非竞争关系。

Gensyn 生态系统:从 Judge 到去中心化训练

Judge 是 Gensyn 宏伟蓝图中的一个组件:一个用于机器学习计算的去中心化网络。该协议包括:

执行层:在异构硬件(消费级 GPU、企业级集群、边缘设备)之间实现一致的机器学习执行。Gensyn 标准化了推理和训练工作负载,确保了兼容性。

验证层 (Verde):使用仲裁委托进行无需信任的验证。不诚实的执行者会被检测并受到惩罚。

点对点通信:在没有中心化协调的情况下跨设备分配工作负载。矿工接收任务、执行任务并直接向区块链提交证明。

去中心化协调:以太坊 Rollup 上的智能合约无许可地识别参与者、分配任务并处理支付。

Gensyn 的公共测试网于 2025 年 3 月启动,主网计划于 2026 年发布。 $AI 代币公开销售于 2025 年 12 月进行,为矿工和验证者建立了经济激励机制。

Judge 作为评估层融入此生态系统:虽然 Gensyn 的核心协议处理训练和推理,但 Judge 确保这些输出是可验证的。这创造了一个飞轮效应:

开发者在 Gensyn 的去中心化网络上训练模型(由于闲置的消费级 GPU 提供算力,成本比 AWS 更低)。

模型在 Judge 的保证下部署以确保评估的完整性。应用程序通过 Gensyn 的 API 消费推理结果,但与 OpenAI 不同,每一个输出都包含加密证明。

验证者通过检查证明和捕获欺诈行为赚取费用,使经济激励与网络安全保持一致。

信任随着更多应用采用可验证 AI 而扩展,减少了对中心化供应商的依赖。

最终目标:实现可证明正确、去中心化且任何人都能访问的 AI 训练和推理——而不仅仅属于大型科技公司。

挑战与开放性问题

Judge 的方法具有开创性,但仍面临一些挑战:

性能开销:RepOps 30% 的性能损耗对于验证来说是可以接受的,但如果每次推理都必须以确定性方式运行,那么对延迟敏感的应用(实时交易、自动驾驶汽车)可能会倾向于更快、不可验证的替代方案。Gensyn 的路线图可能包括进一步优化 RepOps——但在速度和确定性之间存在根本性的权衡。

驱动程序版本碎片化:Verde 假设使用固定版本的驱动程序,但 GPU 制造商不断发布更新。如果某些矿工使用 CUDA 12.4 而其他矿工使用 12.5,位级复现性就会失效。Gensyn 必须执行严格的版本管理——这增加了矿工加入的复杂性。

模型权重保密性:Judge 的透明度对于公开模型是一个特性,但对于私有模型则是一个缺陷。如果一家对冲基金训练了一个有价值的交易模型,将其部署在 Judge 上会通过链上承诺将权重暴露给竞争对手。对于秘密模型,基于 ZKML 的替代方案可能更受青睐——这表明 Judge 的目标是开放或半开放的 AI 应用。

争议解决延迟:如果挑战者声称存在欺诈,通过二分查找解决争议需要多次链上交易(每一轮都会缩小搜索范围)。高频应用无法等待数小时来达成最终性。Gensyn 可能会引入乐观验证(除非在窗口期内受到挑战,否则假设正确)以降低延迟。

仲裁委托中的抗女巫攻击:如果多个执行者必须达成一致,如何防止单个实体通过女巫身份控制所有执行者?Gensyn 可能会使用基于质押权重的选择(优先选择声誉高的验证者)结合罚没 (Slashing) 机制来威慑共谋——但经济阈值必须经过精心校准。

这些并不是无法逾越的障碍——它们是工程挑战。核心创新(确定性 AI + 加密验证)是可靠的。随着测试网向主网过渡,执行细节将会趋于成熟。

可验证 AI 之路:采用路径与市场契合度

Judge 的成功取决于采用率。哪些应用将率先部署可验证 AI?

带有自治代理的 DeFi 协议:Aave、Compound 或 Uniswap DAO 可以集成经 Judge 验证的代理进行国库管理。社区投票批准模型哈希,所有代理决策都包含证明。这种透明度建立了信任——这对 DeFi 的合法性至关重要。

预测市场与预言机:Polymarket 或 Chainlink 等平台可以使用 Judge 来结算投注或交付价格喂价。分析情绪、新闻或链上活动的 AI 模型将产生可验证的输出——消除关于预言机操纵的争议。

去中心化身份与 KYC:需要基于 AI 的身份验证(如自拍年龄估算、文件真实性检查)的项目可以从 Judge 的审计轨迹中受益。监管机构可以接受合规性的加密证明,而无需信任中心化身份提供商。

社交媒体的内容审核:去中心化社交网络(Farcaster、Lens Protocol)可以部署经 Judge 验证的 AI 审核员。社区成员可以验证审核模型是否存在偏见或被审查——从而确保平台的中立性。

AI 即服务(AI-as-a-Service)平台:开发 AI 应用的开发者可以提供“可验证推理”作为一项高级功能。用户为证明支付额外费用,从而使服务区别于不透明的替代方案。

其共同点是:在这些应用中,信任的成本很高(由于监管、去中心化或高风险),且验证成本是可接受的(与确定性的价值相比)。

Judge 不会在消费者聊天机器人领域取代 OpenAI——用户在询问食谱建议时并不关心 GPT-4 是否可验证。但在金融算法、医疗工具和治理系统领域,可验证 AI 才是未来。

可验证性成为新标准

Gensyn 的 Judge 代表了一场范式转移:AI 评估正从“信任提供商”转向“验证证明”。其技术基础——通过 Verde 实现的位精确(bitwise-exact)可复现性、通过裁判委托(refereed delegation)实现的高效验证以及链上审计轨迹——使这一转变变得切实可行,而不仅仅是愿景。

其影响远超 Gensyn 本身。如果可验证 AI 成为标准,中心化提供商将失去其护城河。OpenAI 的价值主张不仅在于 GPT-4 的能力,还在于无需管理基础设施的便利性。但如果 Gensyn 证明去中心化 AI 能够匹配中心化性能并增加可验证性,开发者就没有理由被锁定在专有 API 中。

竞赛已经开始。ZKML 项目(Modulus Labs、Worldcoin 的生物识别系统)押注于零知识证明。确定性运行时(Gensyn 的 Verde、EigenAI)押注于可复现性。乐观方案(区块链 AI 预言机)押注于欺诈证明。每条路径都有权衡,但终点是一致的:即输出是可证明的、而不仅仅是看似合理的 AI 系统

对于高风险决策,这不再是可选项。监管机构不会接受金融、医疗或法律应用中 AI 提供商的“相信我们”。DAO 不会将国库管理委托给黑箱代理。随着自主 AI 系统变得越来越强大,公众将要求透明度。

Judge 是第一个实现这一承诺的生产就绪系统。测试网已上线。加密基础扎实。市场——价值 270 亿美元的 AI 代理加密货币、算法管理的数十亿 DeFi 资产以及不断增加的监管压力——已经准备就绪。

不透明 AI API 的时代即将结束。可验证智能的时代正在开启。而 Gensyn 的 Judge 正照亮前路。


参考资料:

Nillion 的 Blacklight 正式上线:ERC-8004 如何为自主 AI 代理构建信任层

· 阅读需 14 分钟
Dora Noda
Software Engineer

2026 年 2 月 2 日,AI 智能体经济迈出了关键一步。Nillion 推出了 Blacklight,这是一个实现 ERC-8004 标准 的验证层,旨在解决区块链领域最紧迫的问题之一:如何信任一个你从未见过的 AI 智能体?

答案并非简单的信誉评分或中心化注册表。它是一个由密码学证明、可编程审计和社区运营节点网络支持的五步验证过程。随着自主智能体越来越多地执行交易、管理财库和协调跨链活动,Blacklight 代表了实现大规模无须信任 AI 协作的基础设施。

AI 智能体无法独自解决的信任问题

数据说明了一切。AI 智能体现在贡献了 Polymarket 交易量的 30%,处理跨多个协议的 DeFi 收益策略,并自主执行复杂的流程。但存在一个根本性的瓶颈:在没有预先建立关系的情况下,智能体如何验证彼此的可信度?

传统系统依赖于中心化机构颁发凭证。Web3 的承诺则不同——通过密码学和共识进行无须信任的验证。然而,在 ERC-8004 出现之前,智能体没有标准化的方式来证明其真实性、跟踪其行为或在链上验证其决策逻辑。

这不仅仅是一个理论问题。正如 Davide Crapis 所解释的,“ERC-8004 实现了去中心化 AI 智能体之间的交互,建立了无须信任的商业,并增强了以太坊上的信誉系统。”没有它,智能体之间的商业活动仍将局限于封闭花园,或者需要手动监管——这违背了自主化的初衷。

ERC-8004:三层注册表信任基础设施

ERC-8004 标准 于 2026 年 1 月 29 日在以太坊主网上线,通过三个链上注册表建立了一个模块化的信任层:

身份注册表 (Identity Registry):使用 ERC-721 提供可移植的智能体标识符。每个智能体都会收到一个代表其独特链上身份的非同质化代币 (NFT),从而实现跨平台识别并防止身份冒用。

信誉注册表 (Reputation Registry):收集标准化的反馈和评分。与中心化评论系统不同,反馈通过密码学签名记录在链上,创建了不可篡改的审计轨迹。任何人都可以抓取这些历史记录并构建自定义的信誉算法。

验证注册表 (Validation Registry):支持对智能体工作进行密码学和经济验证。这是进行可编程审计的地方——验证者可以重新执行计算、验证零知识证明,或利用可信执行环境 (TEEs) 来确认智能体的行为是否正确。

ERC-8004 的卓越之处在于其不设限的设计。正如 技术规范 所指出的,该标准支持各种验证技术:“受 EigenLayer 等系统启发的任务质押安全重执行、零知识机器学习 (zkML) 证明的验证,以及来自可信执行环境的见证。”

这种灵活性至关重要。一个 DeFi 套利智能体可能会使用 zkML 证明来验证其交易逻辑而不泄露 Alpha。一个供应链智能体可能会使用 TEE 见证来证明其正确访问了现实世界的数据。一个跨链桥智能体可能会依靠带有罚没机制 (slashing) 的加密经济验证来确保诚实执行。

Blacklight 的五步验证流程

Nillion 在 Blacklight 上对 ERC-8004 的实现增加了一个关键层:社区运营的验证节点。以下是该流程的工作原理:

1. 智能体注册:智能体在身份注册表中注册其身份,并获得一个 ERC-721 NFT。这创建了一个与智能体公钥绑定的独特链上标识符。

2. 发起验证请求:当智能体执行需要验证的操作(例如执行交易、转移资金或更新状态)时,它会向 Blacklight 提交验证请求。

3. 委员会分配:Blacklight 协议随机分配一个验证节点委员会来审计该请求。这些节点由质押了 70,000 个 NIL 代币的社区成员运营,从而使激励措施与网络完整性保持一致。

4. 节点检查:委员会成员重新执行计算或验证密码学证明。如果验证者检测到不当行为,他们可以罚没智能体的质押资金(在采用加密经济验证的系统中),或在信誉注册表中标记该身份。

5. 链上报告:结果发布在链上。验证注册表记录智能体的工作是否通过验证,从而创建永久的执行证明。信誉注册表也会相应更新。

这一过程是异步且非阻塞的,这意味着智能体在执行常规任务时无需等待验证完成——但高风险操作(如大额转账、跨链操作)可能需要预先验证。

可编程审计:超越二进制信任

Blacklight 最具雄心的功能是“可编程验证”——即能够审计代理 如何 做出决策,而不仅仅是审计它做了 什么

考虑一个管理财库的 DeFi 代理。传统的审计验证资金是否正确移动。可编程审计则验证:

  • 决策逻辑一致性:代理是否遵循了其陈述的投资策略,还是偏离了策略?
  • 多步工作流执行:如果代理应该在三个链上重新平衡投资组合,它是否完成了所有步骤?
  • 安全约束:代理是否遵守了 gas 限制、滑点容差和风险敞口上限?

由于 ERC-8004 的验证注册表(Validation Registry)支持任意证明系统,这成为了可能。代理可以在链上提交决策算法(例如,其神经网络权重的哈希值或代表其逻辑的 zk-SNARK 电路),然后证明每项操作都符合该算法,而无需透露专有细节。

Nillion 的路线图 明确针对这些用例:“Nillion 计划将 Blacklight 的功能扩展到‘可编程验证’,实现对复杂行为的去中心化审计,如代理决策逻辑的一致性、多步工作流执行和安全约束。”

这将验证从反应式(事后捕捉错误)转变为主动式(通过设计强制执行正确行为)。

盲计算:隐私与验证的结合

Nillion 的底层技术——Nil 消息计算(NMC)——为代理验证增加了隐私维度。与所有数据公开的传统区块链不同,Nillion 的“盲计算”能够在不解密的情况下对加密数据进行操作。

这里是这对代理至关重要的原因:AI 代理可能需要在不向竞争对手泄露 Alpha 的情况下验证其交易策略。或者证明它在不暴露患者数据的情况下正确访问了机密医疗记录。或者在不披露专有业务逻辑的情况下证明符合监管约束。

Nillion 的 NMC 通过多方计算(MPC)实现这一点,其中节点协作生成“盲因子”(blinding factors)——用于加密数据的相关随机性。正如 DAIC Capital 所解释的:“节点生成处理数据所需的关键网络资源——一种被称为盲因子的相关随机性——每个节点都安全地存储其盲因子的份额,以量子安全的方式在网络中分配信任。”

这种架构在设计上具有抗量子性。即使量子计算机破解了当今的椭圆曲线加密,分布式的盲因子仍然是安全的,因为没有单个节点拥有足够的信息来解密数据。

对于 AI 代理而言,这意味着验证不需要牺牲机密性。代理可以证明其正确执行了任务,同时保持其方法、数据源和决策逻辑的私密性。

43 亿美元的代理经济基础设施博弈

Blacklight 的推出正值区块链 AI 领域进入高速增长期。该市场预计将从 6.8 亿美元(2025 年)增长到 43 亿美元(2034 年),复合年增长率为 22.9%,而更广泛的机密计算市场到 2032 年将达到 3500 亿美元。

但 Nillion 不仅仅是在赌市场扩张——它正将自己定位为关键基础设施。代理经济的瓶颈不是计算或存储,而是 大规模的信任。正如 KuCoin 的 2026 年展望 所指出的,三大趋势正在重塑 AI 身份和价值流:

代理封装代理(Agent-Wrapping-Agent)系统:代理与其他代理协作执行复杂的多步任务。这需要标准化的身份和验证——这正是 ERC-8004 所提供的。

KYA(了解你的代理,Know Your Agent):金融基础设施对代理凭证的需求。监管机构不会批准在没有正确行为证明的情况下让自主代理管理资金。Blacklight 的可编程审计直接解决了这个问题。

纳支付(Nano-payments):代理需要高效地结算微支付。在 2026 年 1 月处理了超过 2000 万笔交易的 x402 支付协议,通过处理结算来补充 ERC-8004,而 Blacklight 则负责处理信任。

这些标准在彼此相隔几周内就达到了生产就绪状态,这标志着基础设施成熟度的协作突破。

以太坊的代理优先未来

ERC-8004 的采用范围远超 Nillion。截至 2026 年初,多个项目已集成该标准:

  • Oasis Network:通过基于 TEE 的验证实施 用于机密计算的 ERC-8004
  • The Graph:支持 ERC-8004 和 x402,以在去中心化索引中实现 可验证的代理交互
  • MetaMask:探索内置 ERC-8004 身份的代理钱包
  • Coinbase:为机构代理托管解决方案集成 ERC-8004

这种快速采用反映了以太坊路线图的更广泛转变。Vitalik Buterin 反复强调,区块链的角色正变成 AI 代理的“管道”——不是面向消费者的层,而是实现自主协作的信任基础设施。

Nillion 的 Blacklight 通过使验证变得可编程、隐私保护和去中心化,加速了这一愿景。代理可以利用密码学证明其正确性,而无需依赖中心化的预言机或人工审查。

下一步:主网集成与生态扩展

Nillion 的 2026 年路线图 优先考虑以太坊兼容性和可持续的去中心化。以太坊桥已于 2026 年 2 月上线,随后推出了用于质押和私有计算的原生智能合约。

质押 70,000 枚 NIL 代币的社区成员可以运行 Blacklight 验证节点,在赚取奖励的同时维护网络完整性。这种设计模仿了以太坊的验证者经济模型,但增加了专门的验证角色。

接下来的里程碑包括:

  • 扩展 zkML 支持:与 Modulus Labs 等项目集成,在链上验证 AI 推理
  • 跨链验证:使 Blacklight 能够验证在以太坊、Cosmos 和 Solana 上运行的 Agent
  • 机构合作伙伴关系:与 Coinbase 和合作伙伴合作进行企业级 Agent 部署
  • 合规工具:为金融服务应用构建 KYA 框架

或许最重要的是,Nillion 正在开发 nilGPT —— 一个全私有的 AI 聊天机器人,展示了盲计算(Blind Computation)如何实现机密的 Agent 交互。这不仅仅是一个演示;它为医疗保健、金融和政府领域处理敏感数据的 Agent 提供了蓝图。

无需信任协作的终局

Blacklight 的发布标志着 Agent 经济的一个转折点。在 ERC-8004 出现之前,Agent 在孤岛中运行 —— 在各自的生态系统中受到信任,但如果没有人类中间人,就无法跨平台协作。在 ERC-8004 之后,Agent 可以相互验证身份、审计彼此的行为,并自主结算支付。

这开启了全新的应用类别:

  • 去中心化对冲基金:Agent 跨链管理投资组合,具有可验证的投资策略和透明的业绩审计
  • 自主供应链:Agent 在没有中心化监督的情况下协调物流、支付和合规
  • AI 驱动的 DAO:由 Agent 管理的组织,根据经过密码学验证的决策逻辑进行投票、提案和执行
  • 跨协议流动性管理:Agent 在具有可编程风险约束的 DeFi 协议之间重新平衡资产

共同点是什么?所有这些都需要无需信任的协作 —— 即 Agent 在没有预先存在的关系或中心化信任锚点的情况下共同工作的能力。

Nillion 的 Blacklight 正提供了这一点。通过将 ERC-8004 的身份和声誉基础设施与可编程验证和盲计算相结合,它创建了一个信任层,其扩展性足以支撑即将到来的万亿级 Agent 经济。

随着区块链成为 AI Agent 和全球金融的基础设施,问题不再是我们是否需要验证基础设施,而是谁来构建它,以及它是去中心化的还是由少数守门人控制的。Blacklight 的社区运行节点和开放标准为前者提供了有力支持。

链上自主参与者的时代已经到来。基础设施已经上线。剩下的唯一问题是,在其之上会构建出什么。


参考资料:

AI × Web3 融合:区块链如何成为自主代理的操作系统

· 阅读需 18 分钟
Dora Noda
Software Engineer

2026 年 1 月 29 日,以太坊发布了 ERC-8004,这一标准赋予了 AI 软件代理持久的链上身份。在几天之内,超过 24,549 个代理完成了注册,且 BNB Chain 宣布支持该协议。这并非渐进式的进步 —— 它是为自主经济参与者提供的基础设施,使它们能够在无需人工干预的情况下进行交易、协作和建立声誉。

AI 代理的存在并不一定需要区块链。但它们需要区块链来进行协作。在跨组织边界时进行无须信任的交易。建立可验证的声誉。自主结算支付。在没有中心化中介的情况下证明执行。

这种融合之所以加速,是因为这两种技术都解决了对方的关键弱点:AI 提供智能和自动化,区块链提供信任和经济基础设施。它们共同创造了两者单独都无法实现的东西:能够在无需预先存在信任关系的情况下参与开放市场的自主系统。

本文研究了使 AI × Web3 融合成为必然的基础设施 —— 从身份标准到经济协议,再到去中心化模型执行。问题不在于 AI 代理是否会在区块链上运行,而在于基础设施扩展到支持数百万自主经济参与者的速度有多快。

ERC-8004:AI 代理的身份基础设施

ERC-8004 于 2026 年 1 月 29 日在以太坊主网上线,为代理身份、声誉和验证建立了标准化的、无许可的机制。

该协议解决了一个根本问题:如何在没有预先存在信任的情况下,跨组织边界发现、选择代理并与之互动。如果没有身份基础设施,每次代理互动都需要中心化中介 —— 市场平台、验证服务、争议解决层。ERC-8004 使这些变得无须信任且可组合。

三个核心注册表:

身份注册表 (Identity Registry): 一个基于 ERC-721 且带有 URIStorage 扩展的极简链上句柄,解析为代理的注册文件。每个代理都获得一个便携式、抗审查的标识符。没有中心化机构能控制谁可以创建代理身份,或者哪些平台可以识别它。

声誉注册表 (Reputation Registry): 发布和获取反馈信号的标准接口。代理通过链上交易历史、完成的任务和对手方的评价建立声誉。声誉变得可以在不同平台间移植,而不是被孤立在单个市场中。

验证注册表 (Validation Registry): 用于请求和记录独立验证者检查的通用挂钩 —— 质押者重新运行作业、zkML 验证器确认执行、TEE 预言机证明计算、受信任的法官解决争议。验证机制以模块化方式接入,而不需要特定于平台的实现。

这种架构为开放的代理市场创造了条件。你得到的不再是 AI 代理版的 Upwork,而是无许可协议,代理在其中相互发现、协商条款、执行任务并结算支付 —— 这一切都无需中心化平台的把关。

BNB Chain 迅速宣布支持 标志着该标准正走向跨链应用。多链代理身份使代理能够在区块链生态系统之间运行,同时保持统一的声誉和验证系统。

DeMCP:模型上下文协议与去中心化的相遇

DeMCP 作为首个去中心化模型上下文协议(Model Context Protocol)网络启动,利用 TEE(可信执行环境)和区块链解决信任和安全问题。

由 Anthropic 开发的模型上下文协议 (MCP) 规范了应用程序向大型语言模型提供上下文的方式。可以把它想象成 AI 应用程序的 USB-C —— 相比为每个数据源定制集成,MCP 提供了通用的接口标准。

DeMCP 将其扩展到 Web3:通过按需生成的 MCP 实例,提供对 GPT-4 和 Claude 等领先大模型的无缝、按需付费访问,全部使用稳定币(USDT/USDC)支付,并由收入分成模式管理。

该架构解决了三个关键问题:

访问 (Access): 传统的 AI 模型 API 需要中心化账户、支付基础设施和特定平台的 SDK。DeMCP 使自主代理能够通过标准协议访问大模型,使用加密货币支付,无需人工管理 API 密钥或信用卡。

信任 (Trust): 中心化的 MCP 服务会成为单点故障和监视点。DeMCP 受 TEE 保护的节点提供可验证的执行 —— 代理可以确认模型在没有被篡改的情况下运行了特定的提示词,这对于财务决策或监管合规至关重要。

可组合性 (Composability): 基于 MCP 和 A2A(代理对代理)协议的新一代 AI 代理基础设施正在涌现,专门为 Web3 场景设计,允许代理访问多链数据并与 DeFi 协议进行原生交互。

结果是:MCP 使 AI 成为 Web3 的一等公民。区块链提供信任、协调和经济基石。它们共同构成了一个去中心化的操作系统,代理在其中跨互操作协议进行推理、协调和行动。

2026 年值得关注的顶级 MCP 加密项目 包括构建代理协调层的基础设施提供商、去中心化模型执行网络,以及使代理能够在 Web3 生态系统中自主运行的协议级集成。

Polymarket 的 170+ 个 Agent 工具:基础设施在行动

Polymarket 的生态系统已增长到涵盖 19 个类别的 170 多个第三方工具,成为了任何认真对待预测市场交易的人必不可少的基础设施。

工具类别涵盖了整个 Agent 工作流:

自主交易: AI 驱动的 Agent 可自动发现并优化策略,将预测市场与流动性挖矿及 DeFi 协议相结合。部分 Agent 在短期预测中的准确率达到了 98%。

套利系统: 自动化机器人可识别 Polymarket 与其他预测平台或传统博彩市场之间的价格差异,执行交易的速度比人类操作员更快。

巨鲸追踪: 监控大额持仓变动的工具,使 Agent 能够根据历史业绩相关性跟随或对抗机构活动。

跟单交易基础设施: 允许 Agent 复制顶尖交易者策略的平台,通过链上业绩核实防止虚假的收益声明。

分析与数据馈送: 机构级分析工具 为 Agent 提供市场深度、流动性分析、历史概率分布以及事件结果相关性。

风险管理: 自动仓位调整、风险限额和止损机制直接集成到 Agent 的交易逻辑中。

该生态系统验证了 AI × Web3 融合的论点。Polymarket 专门为 Agent 开发提供了 GitHub 代码库和 SDK,将自主参与者视为平台的一等公民,而非边缘案例或违反服务条款的行为。

2026 年的展望包括潜在的 $POLY 代币发行,这将围绕治理、费用结构和生态系统激励创造新的动态。首席执行官 Shayne Coplan 暗示这可能成为 2026 年最大的 TGE(代币生成事件)之一。此外,Polymarket 潜在的区块链发布(遵循 Hyperliquid 模式)可能会从根本上重塑基础设施,数十亿美元的融资规模使得应用链(appchain)成为一种自然的演进。

基础设施栈:AI × Web3 的各层架构

在区块链上运行的自主 Agent 需要跨多个层级的协调基础设施:

第 1 层:身份与声誉

  • 用于 Agent 识别的 ERC-8004 注册表
  • 追踪业绩的链上声誉系统
  • Agent 所有权和权限的加密证明
  • 用于多生态系统运营的跨链身份桥接

第 2 层:访问与执行

  • 用于去中心化 LLM 访问的 DeMCP
  • 用于私密 Agent 逻辑的 TEE 安全计算
  • 用于可验证推理的 zkML(零知识机器学习)
  • 分发模型执行的去中心化推理网络

第 3 层:协调与通信

  • 用于直接协商的 A2A(Agent 到 Agent)协议
  • 用于 Agent 间通信的标准化消息格式
  • 发现具有特定功能的 Agent 的机制
  • 用于自主合约的托管和纠纷解决

第 4 层:经济基础设施

  • 用于跨境结算的稳定币支付通道
  • 用于 Agent 生成资产的自动做市商
  • 可编程的费用结构和收入分成
  • 基于代币的激励对齐

第 5 层:应用协议

  • 用于自主收益优化的 DeFi 集成
  • 用于信息交易的预测市场 API
  • 用于 Agent 创作内容的 NFT 市场
  • DAO 治理参与框架

这一技术栈使 Agent 能够实现日益复杂的行为:简单自动化(智能合约执行)、反应式 Agent(响应链上事件)、主动式 Agent(根据推理发起策略)以及协调式 Agent(与其他自主参与者进行协商)。

这些基础设施不仅让 AI Agent 能够使用区块链 —— 它还使区块链成为自主经济活动的自然运行环境。

为什么 AI 需要区块链:信任问题

AI Agent 面临着中心化架构无法解决的根本性信任挑战:

验证: 如何证明 AI Agent 执行了特定的逻辑而没有被篡改?传统的 API 无法提供保证。结合了 zkML 或 TEE 证明的区块链创造了可验证计算 —— 即特定模型处理了特定输入并产生了特定输出的加密证明。

声誉: Agent 如何跨组织边界建立信誉?中心化平台创造了围墙花园 —— 在 Upwork 上获得的声誉无法转移到 Fiverr。链上声誉变得可移植、可验证,并能抵御女巫攻击(Sybil attacks)的操纵。

结算: 自主 Agent 如何在没有人工干预的情况下处理支付?传统银行业需要账户、KYC 和每笔交易的人工授权。稳定币 and 智能合约实现了可编程、即时的结算,具有加密安全性而非官僚安全性。

协调: 来自不同组织的 Agent 如何在没有可信中间人的情况下进行协商?传统商业需要合同、律师和执行机制。智能合约实现了去信任的协议执行 —— 代码根据可验证的条件自动强制执行条款。

归属: 如何证明哪个 Agent 创作了特定的输出?AI 内容溯源对于版权、责任和收入分配至关重要。链上存证提供了创作、修改和所有权的防篡改记录。

区块链不仅支持了这些功能 —— 它是唯一能在不引入中心化信任假设的情况下实现这些功能的架构。这种融合源于技术必要性,而非投机性叙事。

为什么区块链需要 AI:智能问题

区块链面临着 AI 可以解决的同样基础的局限性:

复杂性抽象: 区块链的 UX 依然糟糕——助记词、Gas 费用、交易签名。AI Agent 可以抽象复杂性,作为智能中介执行用户意图,而无需暴露技术实现细节。

信息处理: 区块链提供数据,但缺乏解释数据的智能。AI Agent 分析链上活动模式,识别套利机会,预测市场走向,并以人类无法企及的速度和规模优化策略。

自动化: 智能合约执行逻辑,但如果没有明确的编程,就无法适应不断变化的环境。AI Agent 提供动态决策,从结果中学习并调整策略,而无需为每个参数更改提交治理提案。

可发现性: DeFi 协议面临碎片化问题——用户必须手动在数百个平台中寻找机会。AI Agent 持续扫描、评估,并根据复杂的多变量优化将活动路由至最佳协议。

风险管理: 人类交易者在纪律、情感和注意力极限方面面临挑战。AI Agent 强制执行预定义的风险参数,毫不犹豫地执行止损,并同时在多条链上全天候监控仓位。

这种关系变得共生:区块链提供支持 AI 协同的信任基础设施,AI 提供智能,使区块链基础设施可用于复杂的经济活动。

新兴的智能体经济

基础设施堆栈开启了新的经济模式:

智能体即服务 (Agent-as-a-Service): 自治智能体按需出租其能力,根据供需动态定价。没有平台,没有中介——直接的智能体对智能体服务市场。

协作智能: 智能体汇集专业知识处理复杂任务,通过智能合约进行协作,并根据贡献自动分配收入。多智能体系统可以解决超出任何单个智能体能力的挑战。

预测增强: 智能体持续监控信息流,更新概率估计,并在人类可读的新闻出现前根据洞察进行交易。信息金融 (InfoFi) 变得算法化,智能体主导了价格发现。

自治组织: 完全由 AI Agent 治理的 DAO,代表代币持有者执行任务,通过可验证的推理而非人工投票进行决策。组织以机器速度运行,并具备密码学问责制。

内容经济: AI 生成的内容具备链上溯源,支持自动化授权、版税分配和衍生创作权。智能体通过智能合约谈判使用条款并强制执行署名权。

这些并非假设——早期版本已经开始运行。问题在于:基础设施能多快扩展以支持数百万个自治经济参与者?

尚存的技术挑战

尽管取得了快速进展,但重大障碍依然存在:

可扩展性: 当前区块链在吞吐量方面面临挑战。数百万智能体执行持续的微交易需要 Layer 2 解决方案、Optimistic Rollups 或专用的智能体链。

隐私: 许多智能体操作需要机密逻辑或数据。TEE 提供了部分解决方案,但全同态加密 (FHE) 和高级密码学在生产规模应用中仍然过于昂贵。

监管: 自治经济参与者对现有法律框架提出了挑战。当智能体造成损害时由谁负责?KYC/AML 要求如何适用?监管明晰度落后于技术能力。

模型成本: LLM 推理仍然昂贵。去中心化网络必须在增加验证开销的同时匹配中心化 API 的定价。经济可行性需要模型效率的持续提升。

预言机问题: 智能体需要可靠的现实世界数据。现有的预言机解决方案引入了信任假设和延迟。链上逻辑与链外信息之间更强大的桥梁仍然至关重要。

这些挑战并非不可逾越——它们是具有明确解决路径的工程问题。基础设施的发展轨迹预示着这些问题将在 12-24 个月内得到解决。

2026 年的拐点

多个催化剂将在 2026 年汇聚:

标准成熟: ERC-8004 在主要链上的采用创建了互操作的身份基础设施。智能体在以太坊、BNB Chain 和新兴生态系统之间无缝运行。

模型效率: 更小、更专业的模型在保持特定任务性能的同时,将推理成本降低 10-100 倍。经济可行性大幅提升。

监管明晰: 首批司法管辖区建立自治智能体框架,为机构采用提供法律确定性。

应用爆发: 预测市场、DeFi 优化和内容创作展示了智能体相对于人类操作者的明显优势,推动了加密原生用户之外的采用。

基础设施竞争: 多个团队构建去中心化推理、智能体协作协议和专用链,形成竞争压力,加速了开发进程。

这种融合将从实验性转向基础设施化。早期采用者将获得优势,平台将默认整合智能体支持,经济活动将越来越多地通过自治中介流转。

这对 Web3 开发意味着什么

为 Web3 下一阶段进行开发的开发者应优先考虑:

智能体优先设计: 将自治智能体(Autonomous Agents)视为主要用户,而非边缘情况。在设计 API、费用结构和治理机制时,应假设智能体占据活动的主导地位。

可组合性: 构建易于智能体集成、跨链协调和扩展的协议。标准化接口比私有实现更重要。

验证: 提供执行的密码学证明,而不仅仅是执行结果。智能体需要可验证计算来构建信任链。

经济效率: 针对微交易、持续结算和动态费用市场进行优化。传统的批处理和人工干预无法适应智能体活动的规模化需求。

隐私选项: 同时支持透明和机密的智能体操作。不同的用例需要不同的隐私保证。

基础设施已经存在。标准正在涌现。经济激励高度一致。AI × Web3 的融合并非未来 —— 它已经到来。问题在于:谁能构建出成为未来十年自治经济活动基石的基础设施?

BlockEden.xyz 为 Web3 应用提供企业级基础设施,跨主要区块链生态系统提供可靠、高性能的 RPC 访问。探索我们的服务,获取 AI 智能体基础设施和自治系统支持。


参考资料:

InfoFi 大爆发:信息如何成为华尔街交易最频繁的资产

· 阅读需 13 分钟
Dora Noda
Software Engineer

金融行业刚刚跨越了一个大多数人未曾预见到的门槛。2026 年 2 月,预测市场的周交易量达到了 63.2 亿美元 —— 这并非源于投机赌博,而是机构投资者将信息本身定价为一种可交易的商品。

信息金融(Information Finance,简称 "InfoFi")代表了长达十年的转型巅峰:从 2025 年的 46.3 亿美元预计到 2034 年将达到 1763.2 亿美元,Web3 基础设施已将预测市场从博彩平台演变为 Vitalik Buterin 所称的“真理引擎” —— 一种比传统媒体或民调系统更快聚合情报的金融机制。

这不仅仅是关于加密货币投机。ICE(洲际交易所,纽约证券交易所的所有者)向 Polymarket 注资 20 亿美元,使该预测市场的估值达到 90 亿美元。对冲基金和中央银行现在将预测市场数据集成到股票和衍生品所使用的相同终端中。InfoFi 已成为金融基础设施。

InfoFi 的真实含义

InfoFi 将信息视为一种资产类别。参与者不再是被动地消费新闻,而是就主张的准确性投入资本 —— 将每个数据点转变为具有可发现价格的市场。

其运作机制如下:

传统信息流: 事件发生 → 媒体报道 → 分析师解读 → 市场反应(数日至数周)

InfoFi 信息流: 市场预测事件 → 资本流向准确的预测 → 价格即刻发出真理信号(数分钟至数小时)

到 2026 年 1 月,预测市场的周交易量达到 59 亿美元,其中 Kalshi 占据了 66.4% 的市场份额,而 Polymarket 则获得了 ICE 机构级基础设施的支持。AI 代理现在贡献了超过 30% 的交易活动,持续为地缘政治事件、经济指标和公司业绩定价。

结果是:信息在成为新闻之前就被定价了。预测市场在世卫组织宣布前几周就识别出了新冠疫情的严重性,比传统民调更准确地预测了 2024 年美国大选结果,并在官方公告发布之前就预告了中央银行的政策转变。

Polymarket 与 Kalshi 之争

两大平台主导着 InfoFi 领域,代表了信息市场的两种根本不同的模式。

Kalshi: 受联邦监管的竞争者。2025 年处理了 431 亿美元的交易量,CFTC 的监管提供了机构合法性。以美元交易,与传统经纪账户集成,并专注于符合美国法规的市场。

监管框架限制了市场范围,但吸引了机构资金。传统金融界对通过 Kalshi 路由订单感到放心,因为它在现有的合规基础设施内运营。到 2026 年 2 月,Kalshi 有 34% 的概率领跑 2026 年的交易量,其中 91.1% 的交易集中在体育合约上。

Polymarket: 加密原生的挑战者。建立在区块链基础设施之上,2025 年处理了 330 亿美元的交易量,且市场更加多样化 —— 体育仅占 39.9%,其余涵盖地缘政治、经济、技术和文化事件。

ICE 的 20 亿美元投资改变了一切。Polymarket 获得了机构结算基础设施、市场数据分发以及此前仅为传统交易所预留的监管路径。交易员认为与 ICE 的合作证实了预测市场数据很快将与彭博终端和路透社新闻源并列出现。

竞争推动创新。Kalshi 的监管清晰度促进了机构采用。Polymarket 的加密基础设施实现了全球参与和可组合性。这两种方式都推动了 InfoFi 走向主流认可 —— 不同的路径收敛于同一个终点。

AI 代理作为信息交易者

AI 代理不仅仅消耗信息 —— 它们还交易信息。

超过 30% 的预测市场交易量现在来自 AI 代理,它们持续分析数据流、执行交易并更新概率预测。这些不仅仅是遵循预定义规则的简单机器人。现代 AI 代理整合了多个数据源,识别统计异常,并根据不断变化的信息格局调整仓位。

AI 交易的兴起创造了反馈循环:

  1. AI 代理处理信息的速度快于人类
  2. 交易活动产生价格信号
  3. 价格信号成为其他代理的信息输入
  4. 更多代理进入,增加了流动性和准确性

这种动态将预测市场从人类投机转变为算法驱动的信息发现。随着 AI 代理根据新闻流、社交情绪、经济指标和跨市场相关性不断重新定价概率,市场现在实现了实时更新。

其影响延伸到了交易之外。预测市场成为智能合约的 “真理预言机”,提供可验证的、有经济背书的数据馈送。DeFi 协议可以根据预测市场的结果进行结算。DAO 可以使用 InfoFi 共识来进行治理决策。整个 Web3 技术栈都能获得高质量、激励一致的信息基础设施。

X 平台崩盘:InfoFi 的首次失败

并非所有的 InfoFi 实验都能成功。2026 年 1 月,InfoFi 代币价格崩盘,此前 X(原 Twitter)禁止了参与奖励类应用。

像 KAITO(下跌 18%)和 COOKIE(下跌 20%)这样的项目构建了 “信息即资产” 模型,奖励用户的参与、数据贡献和内容质量。其论点是:注意力具有价值,用户应该通过代币经济捕捉该价值。

这次崩盘揭示了一个根本性的缺陷:在中心化平台上构建去中心化经济。当 X 更改服务条款时,整个 InfoFi 生态系统在一夜之间蒸发。用户失去了代币价值。项目失去了分发渠道。“去中心化” 的信息经济在中心化平台风险面前显得极其脆弱。

幸存者汲取了教训。真正的 InfoFi 基础设施需要区块链原生的分发,而不是依赖 Web2 平台。项目转向去中心化社交协议(Farcaster、Lens)和链上数据市场。这次崩盘加速了从 Web2-Web3 混合模式向完全去中心化信息基础设施的迁移。

预测市场之外的 InfoFi

信息即资产的延伸超出了二元预测。

数据 DAO: 集体拥有、策划和货币化数据集的组织。成员贡献数据、验证质量,并分享商业用途带来的收入。到 2025 年年中,现实世界资产(RWA)代币化达到 230 亿美元,展示了机构对链上价值表现形式的渴求。

去中心化物理基础设施网络 (DePIN): 2025 年初价值约 300 亿美元,拥有超过 1,500 个活跃项目。个人共享闲置硬件(GPU 算力、带宽、存储)并赚取代币。信息变成了可交易的计算资源。

AI 模型市场: 区块链实现了可验证的模型所有权和使用跟踪。创作者通过链上许可将 AI 模型货币化,并由智能合约自动分配收入。信息(模型权重、训练数据)变成了可组合、可交易的基础设施。

凭证市场: 零知识证明实现了隐私保护的凭证验证。用户在不泄露个人数据的情况下证明资格。可验证凭证在招聘、贷款和治理场景中成为可交易资产。

共同点是:信息从免费的外部性转变为定价资产。市场为以前无法货币化的数据发现了价值 —— 搜索查询、注意力指标、专业知识验证、计算资源。

机构级基础设施整合

华尔街对 InfoFi 的采用并非理论上的 —— 而是操作层面的。

ICE 投入 20 亿美元投资 Polymarket,提供了机构级的管道:合规框架、结算基础设施、市场数据分发和监管途径。预测市场数据现在已集成到对冲基金经理和中央银行使用的终端中

这种集成将预测市场从替代数据源转变为主要的情报基础设施。投资组合经理在参考技术指标的同时也参考 InfoFi 概率。风险管理系统纳入了预测市场信号。交易算法消耗实时概率更新。

这一转变反映了彭博终端在数十年间吸收数据源的过程 —— 从债券价格开始,扩展到新闻馈送,整合社交情绪。InfoFi 代表了下一层级:传统数据无法定价的事件的、具有经济背书的概率估计。

传统金融认可这一价值主张。当市场持续对准确性定价时,信息成本就会降低。对冲基金为预测市场通过激励一致性有机产生的专有研究支付数百万美元。中央银行通过 InfoFi 在实时概率分布中捕捉到的民意调查来监测公众情绪。

随着该行业预计将从 2025 年的 400 亿美元增长到 2027 年的 1,000 亿美元以上,机构资本将继续流向 InfoFi 基础设施 —— 不是作为投机性的加密货币博弈,而是作为核心金融市场的组成部分。

监管挑战

InfoFi 的爆炸式增长引起了监管部门的关注。

Kalshi 在 CFTC 的监管下运营,将预测市场视为衍生品。这一框架提供了清晰度,但也限制了市场范围——禁止政治选举、禁止“对社会有害”的结果,以及禁止监管管辖范围之外的事件。

Polymarket 的加密原生方法实现了全球市场,但使合规性变得复杂。监管机构正在辩论预测市场是否构成赌博、证券发行或信息服务。分类决定了哪些机构进行监管、允许哪些活动以及谁可以参与。

这场辩论集中在几个基本问题上:

  • 预测市场是赌博还是信息发现?
  • 代表市场头寸的代币是否构成证券?
  • 平台是否应该根据地理位置或资质认证来限制参与者?
  • 现有的金融监管如何适用于去中心化的信息市场?

监管结果将塑造 InfoFi 的发展轨迹。限制性框架可能会将创新推向海外,同时限制机构的参与。平衡的监管可以在保护市场完整性的同时,加速主流采用。

早期信号表明了务实的方法。监管机构认可预测市场在价格发现和风险管理方面的价值。挑战在于:制定既能实现创新,又能防止操纵、保护消费者并维护金融稳定的框架。

未来展望

InfoFi 不仅仅代表预测市场——它是信息经济的基础设施。

随着 AI 代理越来越多地调解人机交互,它们需要可信的信息源。区块链提供了可验证、激励一致的数据馈送。预测市场提供实时的概率分布。这种结合为自主系统创造了“真相基础设施”。

DeFi 协议已经集成 InfoFi 预言机进行结算。DAO 使用预测市场进行治理。保险协议利用链上概率估算来为风险定价。下一阶段:企业在供应链预测、市场研究和战略规划中采用该技术。

到 2034 年 1760 亿美元的市场预测假设的是增量增长。颠覆可能会加速。如果主要金融机构全面集成 InfoFi 基础设施,传统的民意调查、研究和预测行业将面临生存压力。当市场在不断地对概率进行定价时,为什么还要付钱给分析师去猜测呢?

这一转型不会一帆风顺。监管之争将愈演愈烈。平台竞争将迫使行业整合。市场操纵的企图将考验激励机制的一致性。但基本论点依然成立:信息有价值,市场发现价格,区块链赋能基础设施。

InfoFi 并不是在取代传统金融——它正在成为传统金融。问题不在于信息市场是否会达到主流采用,而在于机构资本多快能意识到这一必然趋势。

BlockEden.xyz 为 Web3 应用提供企业级基础设施,跨主要区块链生态系统提供可靠、高性能的 RPC 访问。探索我们的服务,获取可扩展的 InfoFi 和预测市场基础设施。


来源:

InfoFi 市场格局:从预测市场到数据基础设施的演变

· 阅读需 12 分钟
Dora Noda
Software Engineer

预测市场在 2026 年 2 月初的周交易量突破了 63.2 亿美元,其中 Kalshi 占据 51% 的市场份额,Polymarket 占据 47%。但信息金融 (InfoFi) 的范畴远不止二元博弈。数据代币化市场、数据 DAO 以及信息即资产的基础设施 共同构建了一个新兴生态系统,使信息变得可编程、可交易且可验证。

InfoFi 的核心论点:信息有价值,市场发现价格,区块链赋能基础设施。本文绘制了这一领域的版图——从 Polymarket 的预测引擎到 Ocean Protocol 的数据代币化,从数据 DAO 到 AI 约束的真相市场。

预测市场的基础地位

预测市场锚定了 InfoFi 生态系统,为不确定的未来事件提供价格信号。

Kalshi-Polymarket 的双雄争霸

Kalshi 和 Polymarket 之间的市场份额几乎是 51/49,但两者的构成有着本质的不同。

Kalshi: 2025 年结算金额超过 431 亿美元,重心高度偏向体育博彩。获得 CFTC 许可,以美元计价,并与美国零售经纪商集成。Robinhood 的 “预测市场中心” 通过 Kalshi 的基础设施输送了数十亿的合约交易量

Polymarket: 2025 年处理了 334 亿美元交易额,专注于“高信号”事件——地缘政治、宏观经济、科学突破。它是加密原生的,支持全球参与,并可与 DeFi 组合。于 2025 年底完成了对 QCEX 1.12 亿美元的收购,旨在通过 CFTC 许可重新进入美国市场。

竞争推动了创新:Kalshi 赢得了零售用户和机构合规市场,而 Polymarket 则在加密原生可组合性和国际准入方面处于领先地位。

超越博弈:信息预言机

预测市场已从投机工具进化为 AI 系统的信息预言机。市场概率充当了约束 AI 幻觉的“外部锚点”——许多 AI 系统现在会降低那些无法在预测市场中进行押注的主张的权重。

这形成了反馈循环:AI 代理在预测市场上交易,市场价格为 AI 输出提供参考,而 AI 生成的预测又影响人类的交易决策。结果是:信息市场成为了算法真相发现的基础设施。

数据代币化:Ocean Protocol 的模型

在预测市场对未来事件定价的同时,Ocean Protocol 将现有数据集代币化,为 AI 训练数据、研究数据集和专利信息创建了市场。

数据代币 (Datatoken) 架构

Ocean 的模型:每个数据代币 (datatoken) 都代表了原始知识产权所有者的子许可,使用户能够访问和消费相关数据集。数据代币符合 ERC20 标准,使其可交易、可与 DeFi 组合,并可通过智能合约进行编程。

三层堆栈:

数据 NFT: 代表底层数据集的所有权。创建者铸造 NFT 以确立来源和控制权。

数据代币 (Datatokens): 访问控制代币。持有数据代币可获得临时使用权,而无需转让所有权。实现了数据访问与数据所有权的分离。

Ocean 市场 (Ocean Marketplace): 数据代币的去中心化交易所。数据提供者将资产变现,消费者购买访问权,投机者交易代币

这种架构解决了关键问题:数据提供者在不失去控制权的情况下变现,消费者在无需支付全部购买成本的情况下获得访问权,市场则为信息价值发现公平定价。

交易之外的使用场景

AI 训练市场: 模型开发人员购买数据集访问权限进行训练。数据代币(Datatoken)经济学使激励机制保持一致——有价值的数据获得更高的价格,创作者从模型训练活动中赚取持续收入。

研究数据共享: 学术和科学数据集被代币化以进行受控分发。研究人员验证溯源,跟踪使用情况,并通过自动版税分配补偿数据生成者。

企业数据协作: 公司通过代币化访问权限而非完全转移来共享专有数据集。在实现协作分析和模型开发的同时保持机密性。

个人数据变现: 个人将健康记录、行为数据或消费者偏好代币化。直接出售访问权限,而不是让平台在不提供补偿的情况下榨取价值。

Ocean 为数据 DAO 作为数据合作社实现了以太坊可组合性,创建了数据成为可编程金融资产的基础设施。

数据 DAO:集体信息所有权

数据 DAO 作为管理数据资产的去中心化自治组织运行,实现集体所有权、治理和变现。

数据工会模型

成员集体贡献数据,DAO 治理访问策略和定价,收入通过智能合约自动分配,治理权随数据贡献量扩展。

新兴示例:

医疗保健数据工会: 患者汇集健康记录,通过加密证明维护个人隐私。研究人员购买聚合访问权限,收入流向贡献者。数据由患者控制,而非中心化医疗系统。

神经科学研究 DAO: 学术机构和研究人员贡献大脑成像数据集、遗传信息和临床结果。集体数据集比个人贡献更有价值,在补偿数据提供者的同时加速研究。

生态/GIS 项目: 社区汇集的环境传感器、卫星图像和地理数据。DAO 为气候建模、城市规划和保护管理数据访问,同时确保当地社区从其所在地区生成的数据中受益。

数据 DAO 解决了协调问题:个人缺乏议价能力,平台榨取垄断租金,数据保持孤立。集体所有权实现了公平补偿和民主治理。

信息即数字资产

该概念将数据资产视为数字资产,利用最初为加密货币设计的区块链基础设施来管理信息所有权、转移和估值。

这种架构选择创造了强大的可组合性:数据资产与 DeFi 协议集成,参与自动化做市商,作为贷款抵押品,并实现可编程的收入分成。

基础设施层

身份层: 数据所有权和贡献的加密证明。防止抄袭,建立溯源,实现归属。

访问控制: 管理谁可以在什么条件下访问数据的智能合约。可编程许可取代人工合同谈判。

定价机制: 为数据集发现公允价值的自动化做市商。供需动态而非任意的机构定价。

收入分配: 智能合约自动在贡献者、策展人和平台运营商之间分配收益。消除了支付中介和延迟。

可组合性: 数据资产与更广泛的 Web3 生态系统集成。将数据集用作抵押品,创建衍生品,或捆绑成复合产品。

到 2025 年中期,链上 RWA 市场(包括数据)达到 230 亿美元,证明了机构对投机性加密货币之外的代币化资产的胃口。

AI 约束 InfoFi:验证闭环

AI 系统越来越依赖 InfoFi 基础设施进行真实性验证。

预测市场约束 AI 幻觉:交易者冒着真实金钱的风险,市场概率充当外部锚点,AI 系统会降低对无法下注的主张的权重。

这创建了质量过滤器:可验证的主张在预测市场中交易,不可验证的主张获得较低的 AI 置信度,市场价格提供持续的概率更新,AI 输出变得更加植根于经济现实。

反馈回路双向运行:AI 代理生成的预测提高了市场效率,市场价格为 AI 训练数据质量提供了信息,高价值预测推动了数据收集工作,信息市场针对信号而非噪声进行优化。

2026 年 InfoFi 生态系统版图

该版图包含多个互连层级:

第一层:真相发现

  • 预测市场(Kalshi、Polymarket)
  • 预测平台
  • 声誉系统
  • 验证协议

第二层:数据货币化

  • Ocean Protocol 数据代币 (datatokens)
  • 数据集市场
  • API 访问代币
  • 信息许可平台

第三层:集体所有权

  • 数据 DAO
  • 研究协作
  • 数据联盟
  • 社区信息池

第四层:AI 集成

  • 模型训练市场
  • 推理验证
  • 输出证明
  • 幻觉约束

第五层:金融基础设施

  • 信息衍生品
  • 数据抵押品
  • 自动做市商 (AMM)
  • 收益分配协议

每个层级都建立在其他层级之上:预测市场建立价格信号,数据市场将信息货币化,DAO 实现集体行动,AI 创造需求,金融基础设施提供流动性。

2026 年揭示了什么

InfoFi 从实验性阶段转型为基础设施阶段。

机构验证: 各大平台集成预测市场。华尔街开始消费 InfoFi 信号。针对“信息即资产”处理的监管框架正在浮现。

基础设施成熟: 数据代币化标准趋于稳固。DAO 治理模式在大规模应用中得到验证。AI 与区块链的集成变得无缝化。

市场增长: 每周 63.2 亿美元的预测市场交易额,230 亿美元的链上数据资产,各行业采用速度加快。

用例扩展: 从投机扩展到研究、企业协作、AI 开发和公共产品协调。

问题不在于信息是否会成为一种资产类别,而在于基础设施扩展的速度以及哪种模式将占据主导地位。预测市场首先抢占了用户心智,但数据 DAO 和代币化协议最终可能会推动更大的价值流动。

2026 年的 InfoFi 格局:基础已夯实,用例已验证,机构开始采用,基础设施趋于成熟。下一阶段:集成到主流信息系统中,取代传统数据市场,成为信息交换的默认基础设施。

BlockEden.xyz 为 Web3 应用提供企业级基础设施,跨主要区块链生态系统提供可靠、高性能的 RPC 访问。探索我们的服务 以获取 InfoFi 基础设施和数据市场支持。


来源:

预测市场规模突破 59 亿美元:当 AI 代理成为华尔街的预测工具

· 阅读需 15 分钟
Dora Noda
Software Engineer

当 Kalshi 的日交易量在 2026 年初达到 8.14 亿美元,占据了 66.4% 的预测市场份额时,推动这一激增的并非散户投机者,而是 AI 智能体。自主交易算法现在贡献了超过 30% 的预测市场成交量,将最初作为互联网好奇心的事物转变为华尔街最新的机构预测基础设施。该行业的周成交量——59 亿美元且持续增长——可与许多传统衍生品市场相媲美,但有一个关键区别:这些市场交易的是信息,而不仅仅是资产。

这就是“信息金融”(Information Finance)——通过基于区块链的预测市场实现集体智慧的货币化。当交易员押注 4200 万美元于 OpenAI 是否能在 2030 年前实现 AGI,或押注 1800 万美元于哪家公司接下来上市时,他们并非在赌博。他们正在创建流动的、可交易的预测,机构投资者、政策制定者和企业战略家越来越相信这些预测,而非传统分析师。问题不在于预测市场是否会颠覆预测,而在于机构采用这些在可衡量指标上优于专家预测的市场的速度有多快。

59 亿美元里程碑:从边缘走向金融基础设施

预测市场在 2025 年结束时,历史最高成交量接近 53 亿美元,这一势头在 2026 年进一步加速。周成交量现在持续超过 59 亿美元,在重大事件期间日峰值达到 8.14 亿美元。作为参考,这超过了许多中盘股的日交易量,并可与专门的衍生品市场相媲美。

这种增长不是线性的,而是指数级的。2024 年预测市场的年成交量仅以亿美元计。到 2025 年,月成交量突破了 10 亿美元。到 2026 年,周成交量常规性地达到 59 亿美元,代表了超过 10 倍的年度增长。这种加速反映了机构看待预测市场的根本转变:从新奇事物转变为必需品。

Kalshi 以 66.4% 的市场份额占据主导地位,处理了大部分机构成交量。在加密原生领域运营的 Polymarket 则吸引了大量的散户和国际流量。这些平台共同处理了涵盖选举、经济、技术发展、体育和娱乐等数千个市场的数百亿周成交量。

该行业的合法性得到了 ICE(洲际交易所)的认可,纽交所(NYSE)的母公司向预测市场基础设施投资了 20 亿美元。当全球最大证券交易所的运营商以如此规模部署资金时,这标志着预测市场不再是实验性的——它们已成为战略基础设施。

AI 智能体:30% 的贡献因素

预测市场增长中最被低估的驱动因素是 AI 智能体的参与。自主交易算法现在贡献了总成交量的 30% 以上,从根本上改变了市场动态。

为什么 AI 智能体会交易预测?原因有三点:

信息套利:AI 智能体扫描数千个数据源——新闻、社交媒体、链上数据、传统金融市场——以识别定价错误的预测。当市场将某事件的概率定价为 40%,但 AI 分析显示为 55% 时,智能体就会交易其中的价差。

流动性提供:正如做市商在证券交易所提供流动性一样,AI 智能体在预测平台中提供双向市场。这改善了价格发现并缩小了价差,使市场对所有参与者更有效率。

投资组合多元化:机构投资者部署 AI 智能体以获取非传统信息信号的风险敞口。对冲基金可能会使用预测市场来对冲政治风险、技术开发时间线或监管结果——这些风险在传统市场中难以表达。

AI 智能体交易的出现创造了一个正反馈循环。更多的 AI 参与意味着更好的流动性,从而吸引更多的机构资本,进而证明更多的 AI 开发是合理的。预测市场正成为自主智能体学习应对复杂、现实世界预测挑战的训练场。

Kalshi 上的交易员正在定价 OpenAI 在 2030 年前实现 AGI 的概率为 42%——高于六个月前的 32%。这个流动性超过 4200 万美元的市场反映了“群众的智慧”,其中包括工程师、风险投资家、政策专家,以及越来越多以人类无法大规模追踪的方式处理信号的 AI 智能体。

Kalshi 的机构主导地位:受监管交易所的优势

Kalshi 66.4% 的市场份额并非偶然——而是结构性的。作为美国第一家受 CFTC 监管的预测市场交易所,Kalshi 为机构投资者提供了竞争对手无法提供的东西:监管确定性。

机构资本要求合规。对冲基金、资产管理公司和企业财务部门无法在不引发法律和合规风险的情况下向不受监管的平台投入数十亿美元。Kalshi 的 CFTC 注册消除了这一障碍,使机构能够在其投资组合中将预测与股票、债券和衍生品一起交易。

监管地位产生了网络效应。更多的机构成交量吸引了更好的流动性提供者,从而收窄了价差,进而吸引了更多交易员。Kalshi 的订单簿现在已经足够深,数百万美元的交易可以在没有显著滑点的情况下执行——这是区分功能性市场与实验性市场的门槛。

Kalshi 的产品广度也很重要。市场涵盖选举、经济指标、技术里程碑、IPO 时机、企业财报和宏观经济事件。这种多样性允许机构投资者表达细微的观点。看空科技股估值的对冲基金可以做空独角兽 IPO 的预测市场。预期监管变化的政策分析师可以交易国会结果市场。

高流动性确保了价格不易被操纵。由于涉及数百万美元和数千名参与者,市场价格反映的是真正的共识,而非个人操纵。这种“群众的智慧”在盲测中击败了专家预测——预测市场的表现始终优于民意调查、分析师预测和专家意见。

Polymarket 的加密原生替代方案:去中心化的挑战者

虽然 Kalshi 主导着受监管的美国市场,但 Polymarket 捕捉到了加密原生和国际化的流量。Polymarket 运行在区块链轨道上,并使用 USDC 进行结算,提供无需许可的访问——无需 KYC、无地理限制、没有监管准入限制。

Polymarket 的优势在于全球覆盖。来自 Kalshi 无法触达的司法管辖区的交易者可以自由参与。在 2024 年美国大选期间,Polymarket 的交易量超过了 30 亿美元,证明了加密原生基础设施可以处理机构级的规模。

该平台的加密集成实现了新颖的机制。智能合约根据预言机数据自动执行结算。流动性池在没有中间人的情况下持续运行。结算在几秒钟内完成,而不是几天。这些优势吸引了那些熟悉 DeFi 原语(Primitives)的加密原生交易者。

然而,监管的不确定性仍然是 Polymarket 面临的挑战。在没有获得美国明确监管批准的情况下运营,限制了其在国内的机构采用。虽然散户和国际用户拥抱无需许可的访问,但美国机构在很大程度上避开了缺乏监管透明度的平台。

Kalshi(受监管、机构化)与 Polymarket(加密原生、无需许可)之间的竞争反映了数字金融领域更广泛的辩论。两种模式都行得通。两者服务于不同的用户群体。该行业的增长表明有多个赢家的空间,每个赢家都针对不同的监管和技术权衡进行优化。

信息金融:集体智慧的变现

“信息金融”(Information Finance)一词描述了预测市场的核心创新:将预测转化为可交易的、流动的工具。传统的预测依赖于专家提供准确性不确定的点估计。预测市场将分布式的知识汇聚成连续的、市场定价的概率。

为什么市场胜过专家:

利益相关(Skin in the game):市场参与者在预测中投入资本并承担风险。错误的预测会损失金钱。与参与者无须为错误承担后果的民意调查或专家小组相比,这种激励结构能更好地从噪声中过滤出信号。

持续更新:随着新信息的出现,市场价格会实时调整。专家的预测在下一份报告出炉前是静态的。市场则是动态的,能立即整合突发新闻、泄密事件和新兴趋势。

聚合知识:市场汇集了成千上万具有不同专业知识的参与者的信息。没有哪个专家能比得上工程师、投资者、政策制定者和运营者集体贡献的专业见解。

透明的概率:市场将预测表达为具有明确置信区间的概率。一个定价为 65% 的市场事件表示“大约有三分之二的机会”——这比专家在没有量化的情况下说“很可能”更有用。

研究一致表明,在选举、经济、技术发展和公司业绩等各个领域,预测市场的表现都优于专家小组、民意调查和分析师预测。虽然过往记录并非完美,但明显优于其他替代方案。

金融机构正予以关注。企业与其雇佣昂贵的顾问进行情景分析,不如咨询预测市场。想知道国会今年是否会通过加密货币监管法案?有一个专门的市场。想知道竞争对手是否会在年底前 IPO?交易那个预测。评估地缘政治风险?为此下注。

机构用例:预测即服务

预测市场正在从投机性娱乐转型为机构级基础设施。以下几个用例推动了其采用:

风险管理:企业利用预测市场来对冲传统衍生品难以表达的风险。担心港口罢工的供应链经理可以在关于劳工谈判的预测市场上进行交易。关注利率的 CFO 可以将美联储预测市场与债券期货进行交叉参考。

战略规划:公司根据预测做出价值数十亿美元的决策。人工智能监管会通过吗?科技平台会面临反垄断诉讼吗?竞争对手会发布新产品吗?预测市场提供了具有真实资本风险的概率答案。

投资研究:对冲基金和资产管理公司将预测市场作为替代数据源。关于技术里程碑、监管结果或宏观事件的市场价格为投资组合配置提供信息。一些基金直接交易预测市场作为 Alpha 收益来源。

政策分析:政府和智囊团咨询预测市场,以获取民意调查之外的公众意见。市场从“美德信号”(Virtue signaling)中过滤出真实信念——投入真金白银的参与者揭示了真实的预期,而不是社会认可的回答。

洲际交易所(ICE)20 亿美元的投资信号表明,传统交易所将预测市场视为一种新的资产类别。正如衍生品市场在 20 世纪 70 年代兴起以实现风险管理变现一样,预测市场正在 21 世纪 20 年代兴起以实现预测变现。

AI 代理与预测市场的反馈循环

参与预测市场的 AI 代理创建了一个反馈循环,加速了这两项技术的发展:

通过市场数据优化 AI:AI 模型在预测市场结果上进行训练以提高预测能力。通过针对 Kalshi 的历史数据进行回测,预测科技公司 IPO 时间的模型得到了改进。这为 AI 实验室构建专注于预测的模型提供了动力。

通过 AI 参与优化市场:AI 代理提供流动性、进行错价套利并改善价格发现。人类交易者从更窄的价差和更好的信息聚合中受益。随着 AI 参与度的增加,市场变得更加高效。

机构 AI 采用:在低风险环境中将 AI 代理部署到预测市场的机构,获得了自主交易系统的经验。所学到的经验可以转移到股票、外汇和衍生品交易中。

30% 以上的 AI 交易量贡献并非上限 —— 而是底线。随着 AI 能力的提升和机构采用率的增加,代理参与度可能会在几年内达到 50-70%。这并不会取代人类的判断 —— 而是增强了它。人类制定策略,AI 代理以手动无法实现的大规模和高速度执行。

技术栈正在融合。AI 实验室与预测市场平台合作。交易所为算法交易构建 API。机构开发专有的 AI 用于预测市场策略。这种融合将预测市场定位为下一代自主金融代理的试验场。

挑战与质疑

尽管有所增长,预测市场仍面临合理的挑战:

操纵风险:虽然高流动性降低了操纵风险,但低交易量的市场仍然脆弱。拥有资本的有心人可以暂时扭曲利基市场的价格。平台通过流动性要求和操纵检测来对抗这种情况,但风险依然存在。

预言机依赖:预测市场需要预言机 —— 即确定结果的信任实体。预言机错误或腐败可能导致错误的结算。基于区块链的市场通过去中心化预言机网络将这种风险降至最低,但传统市场依赖于中心化解决。

监管不确定性:虽然 Kalshi 受 CFTC 监管,但更广泛的监管框架仍不明确。是否会有更多的预测市场获得批准?国际市场是否会面临限制?监管演变可能会以不可预测的方式限制或加速增长。

流动性集中:大部分交易量集中在高知名度的市场(选举、重大科技事件)。利基市场缺乏流动性,限制了专业预测的效用。解决这个问题需要做市激励或 AI 代理的流动性提供。

伦理担忧:是否应该针对敏感话题(政治暴力、死亡、灾难)设立市场?批评者认为将悲剧事件货币化是不道德的。支持者则反驳说,来自此类市场的信息有助于防止伤害。这场辩论将决定平台允许哪些市场存在。

2026-2030 年的发展轨迹

如果 2026 年初每周交易量达到 59 亿美元,该行业将走向何方?

假设温和增长(每年 50% —— 考虑到最近的加速,这比较保守),预测市场的年交易量到 2028 年可能超过 500 亿美元,到 2030 年将超过 1500 亿美元。这将使该行业的规模可与中型衍生品市场相媲美。

更激进的情景 —— 洲际交易所(ICE)在纽交所(NYSE)推出预测市场、主要银行提供预测工具、更多市场类型获得监管批准 —— 可能会推动交易量在 2030 年达到 5000 亿美元以上。在这种规模下,预测市场将成为机构投资组合中一个独特的资产类别。

技术支持已经到位:区块链结算、AI 代理、监管框架、机构兴趣以及优于传统预测的可靠记录。剩下的就是采用曲线动态 —— 机构将预测市场整合到决策过程中的速度有多快。

从 “边缘投机” 向 “机构预测工具” 的转变已步入正轨。当 ICE 投资 20 亿美元,当 AI 代理贡献了 30% 的交易量,当 Kalshi 的日交易量达到 8.14 亿美元时,叙事已经发生了永久性的改变。预测市场不再是一个奇闻。它们是机构量化不确定性和对冲信息风险的未来。

来源

2026 年去中心化 GPU 网络:DePIN 如何挑战 AWS 价值 1000 亿美元的 AI 算力市场

· 阅读需 13 分钟
Dora Noda
Software Engineer

AI 革命引发了前所未有的算力渴求。虽然 AWS、Azure 和 Google Cloud 等超大规模云服务商主导了这一领域,但一类新兴的去中心化 GPU 网络正开始挑战它们的统治地位。随着 DePIN(去中心化物理基础设施网络)板块的市值在一年内从 52 亿美元爆炸式增长至超过 190 亿美元,且预计到 2028 年将达到 3.5 万亿美元,问题不再是去中心化计算是否会与传统云服务商竞争,而是它夺取市场份额的速度有多快。

GPU 稀缺危机:去中心化的绝佳时机

半导体行业正面临供应瓶颈,这印证了去中心化计算的论点。

全球最大的两家高带宽内存 (HBM) 生产商 SK 海力士 (SK Hynix) 和美光 (Micron) 均已宣布其 2026 年的全部产能已售罄。三星也警告称,由于需求大幅超过供应,价格将出现两位数的增长。

这种稀缺正在创造一个两级市场:能够直接访问超大规模基础设施的机构,以及其他所有人。

对于没有十亿美金预算的 AI 开发人员、初创公司和研究人员来说,传统的云模式呈现出三个关键障碍:

  • 极高的成本,可能消耗 50-70% 的预算
  • 灵活性极低的长期锁定合同
  • NVIDIA H100 或 H200 等高端 GPU 的可用性有限

去中心化 GPU 网络旨在解决这三个问题。

市场领导者:四种架构,一个愿景

Render Network:从 3D 艺术家到 AI 基础设施

Render Network 最初是为了聚合闲置 GPU 进行分布式渲染任务而构建的,现在已成功转向 AI 计算工作负载。该网络目前每月处理约 150 万帧,其在 2025 年 12 月推出的 Dispersed.com 标志着其向创意产业之外的战略扩张。

2026 年的关键里程碑包括:

  • AI 计算子网扩展:专门针对机器学习工作负载扩展了去中心化 GPU 资源
  • 入驻 600 多个 AI 模型:用于推理和机器人模拟的开放权重模型
  • 70% 上传优化:Blender 的差异化上传 (Differential Uploads) 大幅缩短了文件传输时间

该网络从以太坊迁移到 Solana(将 RNDR 更名为 RENDER),为其应对 AI 计算的高吞吐量需求奠定了基础。

在 CES 2026 上,Render 展示了旨在满足边缘机器学习 (Edge ML) 工作负载 GPU 需求爆发式增长的合作伙伴关系。从创意渲染向通用 AI 计算的转型,代表了 DePIN 领域最成功的市场扩张之一。

Akash Network:兼容 Kubernetes 的挑战者

Akash 采用了截然不同的逆向拍卖模式。GPU 提供商不采用固定定价,而是通过竞争来获取工作负载,在通过去中心化市场保持质量的同时降低成本。

结果显而易见:使用量同比增长 428%,进入 2026 年时利用率保持在 80% 以上。

该网络的 Starcluster 计划代表了其迄今为止最宏大的尝试——将集中管理的数据库中心与 Akash 的去中心化市场相结合,创建他们所谓的“全球网格 (Planetary Mesh)”,并针对训练和推理进行了优化。计划通过 Starbonds 收购约 7,200 颗 NVIDIA GB200 GPU,将使 Akash 有能力支持超大规模的 AI 需求。

2025 年第三季度指标显示势头正在加速:

  • 手续费收入环比增长 11%,达到 715,000 AKT
  • 新租约环比增长 42%,达到 27,000 份
  • 2026 年第一季度的销毁机制增强 (BME) 将 AKT 代币销毁与计算支出挂钩——每花费 1 美元,将销毁价值 0.85 美元的 AKT

凭借每月 336 万美元的计算交易量,这意味着每月可能销毁约 210 万枚 AKT(约 98.5 万美元),从而对代币供应产生通缩压力。

这种使用量与代币经济学之间的直接联系,使 Akash 与那些代币效用显得牵强或与实际产品采用脱节的项目区分开来。

Hyperbolic:成本颠覆者

Hyperbolic 的价值主张非常简单:以比 AWS、Azure 和 Google Cloud 低 75% 的成本提供相同的 AI 推理能力。该平台为超过 100,000 名开发人员提供支持,使用 Hyper-dOS(一种去中心化操作系统),通过先进的编排层协调全球分布的 GPU 资源。

该架构由四个核心组件组成:

  1. Hyper-dOS:协调全球分布的 GPU 资源
  2. GPU 市场:连接供应方与计算需求
  3. 推理服务:获取最前沿的开源模型
  4. 智能体框架 (Agent Framework):支持自主智能的工具

Hyperbolic 的独特之处在于其即将推出的抽样证明 (Proof of Sampling, PoSP) 协议——该协议是与加州大学伯克利分校和哥伦比亚大学的研究人员共同开发的,将为 AI 输出提供加密验证。

这解决了去中心化计算最大的挑战之一:在不依赖中心化机构的情况下实现无需信任的验证。一旦 PoSP 上线,企业将能够验证推理结果是否被正确计算,而无需信任 GPU 提供商。

Inferix:桥梁构建者

Inferix 将自己定位为需要 GPU 算力的开发者与拥有剩余产能的提供商之间的连接层。其按需付费模式消除了将用户锁定在传统云服务商中的长期承诺。

虽然在市场上相对较新,但 Inferix 代表了针对特定领域的专业 GPU 网络中不断壮大的群体——在这种情况下,是针对那些需要灵活、短时间访问且没有企业级需求的开发者。

DePIN 革命:数据说话

更广泛的 DePIN(去中心化物理基础设施网络)板块为理解去中心化 GPU 计算在基础设施版图中的位置提供了关键背景。

截至 2025 年 9 月,CoinGecko 追踪了近 250 个 DePIN 项目,总市值超过 190 亿美元,而 12 个月前仅为 52 亿美元。这种 265% 的增长率显著超过了更广泛的加密货币市场。

在这个生态系统中,AI 相关的 DePIN 在市值上占据主导地位,占该主题的 48%。去中心化计算和存储网络总计约 193 亿美元,占 DePIN 总市值的半数以上。

表现突出的项目展示了该行业的成熟:

  • Aethir:交付了超过 14 亿个计算小时,并报告 2025 年季度收入接近 4,000 万美元
  • io.net 和 Nosana:在各自的增长周期中市值均超过了 4 亿美元
  • Render Network:随着从渲染扩展到 AI 工作负载,其市值超过了 20 亿美元

超大规模云服务商的反论:中心化依然胜出的领域

尽管拥有引人注目的经济效益和令人印象深刻的增长指标,但去中心化 GPU 网络仍面临超大规模云服务商(Hyperscalers)专为处理而构建的合理技术挑战。

长周期工作负载:训练大型语言模型可能需要数周或数月的持续计算。去中心化网络难以保证特定 GPU 在长时间内保持可用,而 AWS 可以根据需要预留容量。

紧密同步:跨多个 GPU 的分布式训练需要微秒级的协调。当这些 GPU 分布在具有不同网络延迟的大洲时,维持高效训练所需的同步变得呈指数级困难。

可预测性:对于运行关键业务工作负载的企业来说,确切地知道预期的性能是不可协商的。超大规模云服务商可以提供详细的 SLA(服务水平协议);而去中心化网络仍在构建验证基础设施,以做出类似的保证。

基础设施专家的共识是,去中心化 GPU 网络在批处理工作负载、推理任务和短周期训练运行方面表现出色。

对于这些用例,与超大规模云服务商相比,50-75% 的成本节约是具有颠覆性的。但对于最苛刻、长期运行且关键任务的工作负载,中心化基础设施目前仍保持优势——至少目前如此。

2026 年催化剂:AI 推理爆发

从 2026 年开始,受三大趋同趋势驱动,AI 推理和训练计算需求预计将大幅加速:

  1. 智能体 AI(Agentic AI)的普及:自主智能体需要持久的计算来进行决策
  2. 开源模型的采用:随着公司逐渐脱离专有 API,他们需要基础设施来托管模型
  3. 企业 AI 部署:企业正在从实验转向生产

这种需求激增直接发挥了去中心化网络的优势。

推理工作负载通常是短周期的且具有高度可并行性——这正是去中心化 GPU 网络在成本上优于超大规模云服务商,同时提供同等性能的典型场景。为聊天机器人或图像生成服务运行推理的初创公司可以在不牺牲用户体验的情况下削减 75% 的基础设施成本。

代币经济学:激励层

这些网络中的加密货币组件不仅仅是投机——它是使全球 GPU 聚合在经济上可行的机制。

Render (RENDER):最初在以太坊上以 RNDR 形式发行,该网络在 2023-2024 年间迁移到 Solana,代币持有者以 1:1 的比例进行兑换。包括 RENDER 在内的 GPU 共享代币在 2026 年初飙升超过 20%,反映了市场对该板块日益增长的信心。

Akash (AKT):BME(销毁与铸造均衡)机制在网络使用量和代币价值之间建立了直接联系。与许多代币经济学与产品使用脱节的加密项目不同,Akash 的模型确保每 1 美元的计算费用都会直接影响代币供应。

代币层解决了困扰早期去中心化计算尝试的冷启动问题。

通过在网络早期利用代币奖励激励 GPU 提供商,这些项目可以在需求达到临界规模之前启动供应。随着网络的成熟,真实的计算收入将逐渐取代代币通胀。

这种从代币激励向真实收入的转变,是区分可持续基础设施项目与不可持续的“庞氏经济学”的试金石。

1000 亿美元的问题:去中心化算力能否与之竞争?

去中心化算力市场预计将从 2024 年的 90 亿美元增长到 2032 年的 1000 亿美元。去中心化 GPU 网络能否占据可观的市场份额,取决于能否解决以下三个挑战:

大规模验证:Hyperbolic 的 PoSP 协议代表了这一领域的进展,但行业仍需要标准化的方法来通过密码学方式验证计算工作是否正确执行。如果没有这一点,企业将始终持观望态度。

企业级可靠性:要在协调全球分布、独立运营的 GPU 时实现 99.99% 的在线率,需要复杂的编排能力——Akash 的 Starcluster 模型展示了一条可行的路径。

开发者体验:去中心化网络需要媲美 AWS、Azure 或 GCP 的易用性。Kubernetes 兼容性(如 Akash 所提供的)是一个开始,但与现有机器学习(ML)工作流的无缝集成至关重要。

这对开发者意味着什么

对于 AI 开发者和 Web3 构建者来说,去中心化 GPU 网络呈现出一个战略性机遇:

成本优化:训练和推理费用很容易占到 AI 初创公司预算的 50-70%。将这些成本降低一半或更多,将从根本上改变单位经济效益。

避免供应商锁定:超大规模云厂商让迁入变得容易,但迁出却异常昂贵。使用开放标准的去中心化网络保留了选择权。

抗审查性:对于可能面临中心化供应商压力的应用,去中心化基础设施提供了一个关键的弹性层。

需要注意的是工作负载与基础设施的匹配。对于快速原型设计、批处理、推理服务和并行训练任务,去中心化 GPU 网络现在已经准备就绪。而对于需要绝对可靠性的数周模型训练,超大规模云厂商目前仍是更安全的选择。

未来之路

GPU 短缺、AI 算力需求增长以及成熟的 DePIN 基础设施的融合,创造了一个罕见的市场机遇。传统云提供商通过提供可靠性和便利性统治了第一代 AI 基础设施。而去中心化 GPU 网络正在成本、灵活性和抗中心化控制方面展开竞争。

接下来的 12 个月将是决定性的。随着 Render 扩展其 AI 计算子网,Akash 将 Starcluster GPU 上线,以及 Hyperbolic 推出密码学验证,我们将见证去中心化基础设施是否能在超大规模下兑现其承诺。

对于目前正为稀缺 GPU 资源支付高昂价格的开发者、研究人员和公司来说,可靠替代方案的出现再及时不过了。问题不再是去中心化 GPU 网络是否会占领 1000 亿美元算力市场的一部分,而是能占领多少。

BlockEden.xyz 为开发者提供企业级区块链基础设施,助力构建持久稳定的基石。探索我们的 API 市场以访问领先区块链网络中可靠的节点服务。