跳到主要内容

72 篇博文 含有标签「去中心化计算」

去中心化计算和云

查看所有标签

多智能体 AI 系统上线:网络化协作的黎明

· 阅读需 12 分钟
Dora Noda
Software Engineer

当 Coinbase 在 2026 年 2 月 11 日发布代理钱包(Agentic Wallets)时,这不仅仅是一次普通的产品发布。它标志着一个转折点:AI 代理已从执行单一任务的孤立工具演变为能够协调复杂工作流、管理加密资产并在无人类干预的情况下进行交易的自主经济参与者。多代理 AI 系统时代已经到来。

从单体 LLM 到协作代理生态系统

多年来,AI 研发一直集中在构建更大、更强大的语言模型。GPT-4、Claude 及其继任者展示了非凡的能力,但它们是孤立运作的——是等待人类指令的强大工具。这种范式正在崩溃。

2026 年,共识已发生转变:未来不是单体超级智能,而是协作解决复杂问题的专业化 AI 代理网络化生态系统。根据 Gartner 的数据,到今年年底,40% 的企业应用将具备特定任务的 AI 代理,这与 2025 年不足 5% 的比例相比是一个巨大的飞跃。

想象一下,这就像从大型机到云微服务的转型。现代 AI 系统不再由一个庞大的模型尝试处理所有事情,而是部署数十个专业化的代理——每个代理都针对计费、物流、客户服务或风险管理等特定功能进行了优化——并通过标准化协议协同工作。

推动代理协作的协议

这一转变并非偶然。2025 年出现了两个关键的基础设施标准,它们现在正在推动 2026 年生产级多代理系统的实现:模型上下文协议(MCP)和代理间协议(A2A)。

模型上下文协议 (MCP): 由 Anthropic 在 2024 年 11 月发布,MCP 的功能类似于 AI 应用的 USB-C 接口。正如 USB-C 标准化了设备连接,MCP 标准化了 AI 代理与数据系统、内容库、业务工具和开发环境的连接方式。该协议重用了语言服务器协议 (LSP) 中经过验证的消息传递模式,并在 JSON-RPC 2.0 上运行。

到 2026 年初,包括 Anthropic、OpenAI 和 Google 在内的主要参与者都已基于 MCP 进行构建,使其成为事实上的互操作性标准。MCP 处理上下文通信、内存管理和任务规划,使代理能够在复杂工作流中保持连贯状态。

代理间协议 (A2A): 由 Google 于 2025 年 4 月推出,并获得了包括 Atlassian、Box、PayPal、Salesforce、SAP 和 ServiceNow 在内的 50 多家技术合作伙伴的支持。A2A 实现了直接的代理间通信。虽然 crewAI 和 LangChain 等框架在其自身生态系统内实现了多代理工作流自动化,但 A2A 作为一个通用的消息传递层,允许来自不同供应商和平台的代理实现无缝协调。

2026 年新兴的协议栈共识非常明确:MCP 用于工具集成,A2A 用于代理通信,AP2(代理支付协议)用于商业。 这些标准共同构成了“隐形经济”——自主系统在后台运行,在没有人类干预的情况下协调行动并结算交易。

现实世界中企业采用加速

多代理编排已超越概念验证。在医疗保健领域,AI 代理现在负责协调患者接收、理赔处理和合规审计,提高了患者参与度和支付方的效率。在供应链管理中,多个代理跨学科、跨地域协作,实时重新规划运输路线、标记风险并调整交付预期。

IT 服务提供商 Getronics 通过跨平台(如 ServiceNow)集成,利用多代理系统每年自动处理超过 100 万张 IT 工单。在零售业,代理系统实现了超个性化的促销和随需求不断变化的定价策略。

根据最近的企业调查,到 2028 年,38% 的组织预计 AI 代理将成为人类团队中的正式成员。混合团队模式——即 AI 代理提议并执行,人类进行监督和治理——正在成为新的运营标准。

区块链桥梁:自主经济参与者

或许最具变革性的发展是多代理 AI 与区块链技术的融合,这创造了一个全新的数字商业层,代理在其中作为独立的经济参与者运作。

Coinbase 的代理钱包(Agentic Wallets)为自主代理提供了专门构建的加密基础设施,使它们能够自我管理数字资产、执行交易并使用稳定币路径结算付款。Solana 的 AI 推理功能直接集成到加密钱包中,代表了另一个重要的里程碑。

影响是显而易见的。到 2025 年底,AI 代理可能会推动 15-20% 的去中心化金融 (DeFi) 交易量,2026 年初的数据显示,它们有望超过这一预测。在预测市场平台 Polymarket 上,AI 代理已经贡献了超过 30% 的交易活动。

以太坊的 ERC-8004 标准——名为“去信任代理 (Trustless Agents)”——通过链上注册表、基于 NFT 的代理便携式 ID、可验证的建立信用分数的反馈机制以及可插拔的输出证明,解决了自主系统固有的信任挑战。Coinbase、以太坊基金会、MetaMask 和其他领先组织的协作努力产生了用于基于代理的加密支付的 A2A x402 扩展,目前已投入生产。

500 亿美元的市场机遇

财务利益非常巨大。2024 年全球 AI 智能体(AI agent)市场规模达到 51 亿美元,预计到 2030 年将达到 471 亿美元。特别是在加密货币领域,AI 智能体代币经历了爆发式增长,该板块的市值在不到一年的时间内从 230 亿美元扩张至超过 500 亿美元。

领先的项目包括:NEAR Protocol,其高吞吐量和快速最终性吸引了大量基于 AI 智能体的应用;Bittensor (TAO),为去中心化机器学习提供动力;Fetch.ai (FET),实现自主经济智能体;以及 Virtuals Protocol (VIRTUAL),其价格在 2024 年底飙升 850%,市值接近 8 亿美元。

风险投资正大量涌入智能体对智能体(agent-to-agent)的商业基础设施。预计到 2027 年,整个区块链市场规模将达到 1628.4 亿美元,而多智能体 AI 系统将成为重要的增长驱动力。

两种架构模型的兴起

多智能体系统通常遵循以下两种设计模式之一,每种模式都有其独特的权衡:

层级式架构(Hierarchical Architecture): 由一个主智能体编排专门的子智能体,优化协作与协调。该模型引入了中心化控制和监督点,对于需要明确治理和问责制的企业具有吸引力。人类监督者主要与主智能体交互,由主智能体将任务委托给专家智能体。

点对点架构(Peer-to-Peer Architecture): 智能体在没有中央控制器的情况下直接协作,这需要强大的通信协议,但提供了更高的韧性和去中心化程度。该模型在没有单个智能体拥有完整视野或权限的场景中表现出色,例如跨组织供应链或去中心化金融系统。

这些模型之间的选择取决于具体用例。企业 IT 和医疗保健行业倾向于采用层级式系统以满足合规性和可审计性,而 DeFi 和区块链商业则更青睐符合去中心化原则的点对点模型。

信任差距与人为监督

尽管技术进步神速,信任仍然是关键的瓶颈。2024 年,43% 的高管表达了对完全自主 AI 智能体的信心。而到 2025 年,这一比例下降至 22%,60% 的受访者并不完全信任智能体在没有监管的情况下管理任务。

这并非倒退,而是成熟的表现。随着组织在生产环境中部署智能体,他们遇到了边缘情况、协调失败以及偶尔出现的严重错误。行业的应对方式不是减少自主性,而是重新设计监督机制。

新兴模型将 AI 智能体视为“提议执行者”而非“决策者”。智能体分析数据、建议行动并执行预先批准的工作流,而人类则设置护栏、审计结果并在出现异常时进行干预。监督正成为一种设计原则,而非事后补救。

根据 Forrester 的数据,75% 的客户体验领导者现在将 AI 视为“人类能力放大器”而非替代品,61% 的组织认为,在妥善治理的前提下,智能体化 AI(agentic AI)具有变革潜力。

展望未来:多模态协作与能力扩展

2026 年多智能体系统的路线图包括重大的能力扩展。MCP 正在演进以支持图像、视频、音频和其他媒体类型,这意味着智能体将不仅能读写,还能看、听,甚至可能观察。

2025 年底,区块链技术在签名、溯源和验证方面的集成度有所提高,为智能体行为提供了不可篡改的日志,这对于合规性和问责制至关重要。随着企业对可审计 AI 的需求增加,这一趋势在 2026 年将进一步加速。

多智能体编排正从实验性技术转型为基本基础设施。到 2026 年底,它将成为领先企业运营的核心骨干,不再仅仅作为一项功能,而是作为业务运营的基础层嵌入其中。

改变一切的基础设施层

多智能体 AI 系统代表的不仅仅是渐进式的改进,更是我们构建智能系统方式的范式转移。通过 MCP 和 A2A 实现通信标准化,整合区块链以解决信任和支付问题,并将人为监督嵌入核心设计原则,行业正在为自主经济创造基础设施。

AI 智能体不再是等待人类指令的被动工具。它们是数字商业的主动参与者,管理资产、协调工作流并执行复杂的多步骤流程。问题不再是多智能体系统是否会改变企业运营和数字金融,而是组织能以多快的速度适应这一新现实。

对于在区块链基础设施上进行开发的开发者来说,多智能体 AI 与加密货币轨道的融合创造了前所未有的机遇。智能体需要可靠、高性能的区块链基础设施才能在大规模环境下运行。

BlockEden.xyz 为驱动 AI 智能体应用的区块链网络提供企业级 API 基础设施。探索我们的服务,在专为多智能体未来设计的基石上构建自主系统。

参考资料

Gensyn 的 Judge:位级精确的可复现性如何终结不透明 AI API 时代

· 阅读需 22 分钟
Dora Noda
Software Engineer

每次当你查询 ChatGPT、Claude 或 Gemini 时,你都在信任一个看不见的黑盒。模型版本?未知。精确权重?专有。输出是由你认为正在使用的模型生成的,还是由悄悄更新的变体生成的?无法核实。对于询问食谱或琐事的普通用户来说,这种不透明性仅仅是令人恼火。但对于高风险的 AI 决策——金融交易算法、医疗诊断、法律合同分析——这是一种根本性的信任危机。

Gensyn 的 Judge 于 2025 年底推出,并于 2026 年进入生产阶段。它提供了一种激进的替代方案:加密可验证的 AI 评估,每次推理都可以复现到比特级别。Judge 允许任何人验证特定的、预先商定的 AI 模型是否针对真实输入进行了确定性执行,而不是信任 OpenAI 或 Anthropic 会提供正确的模型——加密证明确保结果无法伪造。

技术突破在于 Verde,这是 Gensyn 的验证系统,它消除了浮点非确定性——这是 AI 可复现性的克星。通过在不同设备上强制执行逐比特精确的计算,Verde 确保在伦敦的 NVIDIA A100 和东京的 AMD MI250 上运行相同的模型会产生完全相同的结果,并可在链上证明。这为去中心化金融(DeFi)、自主代理(Autonomous Agents)以及任何透明度不是可选项而是生存条件的应用程序开启了可验证 AI。

不透明 API 问题:没有验证的信任

AI 行业运行在 API 之上。开发者通过 REST 终端集成 OpenAI 的 GPT-4、Anthropic 的 Claude 或 Google 的 Gemini,发送提示词并接收响应。但这些 API 在根本上是不透明的:

版本不确定性:当你调用 gpt-4 时,我得到的是哪个确切版本?GPT-4-0314?GPT-4-0613?还是一个悄悄更新的变体?供应商经常在不发布公告的情况下部署补丁,一夜之间改变模型行为。

无审计追踪:API 响应不包含生成它们的模型的加密证明。如果 OpenAI 为特定的地区或客户提供经过审查或有偏见的变体,用户无法检测到。

无声退化:供应商可以为了降低成本而对模型进行“性能阉割”——在保持相同 API 协议的同时降低推理质量。用户反映 GPT-4 随着时间的推移变得“变笨了”,但由于缺乏透明的版本控制,此类说法仍停留在轶事层面。

非确定性输出:由于温度设置、批处理或硬件级浮点舍入误差,即使使用相同的输入两次查询同一个模型,也可能产生不同的结果。这使得审计变得不可能——当输出不可复现时,你如何验证其正确性?

对于普通应用,这些问题只是不便。对于高风险决策,它们则是阻碍。考虑到:

算法交易:一家对冲基金部署了一个管理着 5000 万美元 DeFi 头寸的 AI 代理。该代理依靠 GPT-4 分析来自 X 帖子的市场情绪。如果模型在交易环节中途悄悄更新,情绪评分会发生不可预测的偏移——从而触发意外的清算。该基金没有证据证明模型表现异常;OpenAI 的日志是不公开审计的。

医疗诊断:一家医院使用 AI 模型来推荐癌症治疗方案。法规要求医生记录决策过程。但如果 AI 模型版本无法验证,审计追踪就是不完整的。医疗事故诉讼可能取决于证明是 哪一个 模型生成了该建议——而这对于不透明的 API 来说是不可能的。

DAO 治理:一个去中心化组织使用 AI 代理对国库提案进行投票。社区成员要求证明该代理使用的是经过批准的模型——而不是一个有利于特定结果的篡改变体。没有加密验证,投票就缺乏合法性。

这就是 Gensyn 瞄准的信任差距:随着 AI 被嵌入到关键决策中,无法验证模型的真实性和行为成为了“在高风险环境中部署代理化 AI 的根本障碍”。

Judge:可验证 AI 评估协议

Judge 通过针对真实输入执行预先商定的确定性 AI 模型,并将结果提交到区块链(任何人都可以发起挑战)来解决不透明问题。以下是该协议的工作原理:

1. 模型承诺:参与者就 AI 模型达成一致——包括其架构、权重和推理配置。该模型被哈希处理并提交到链上。哈希值充当加密指纹:任何偏离商定模型的行为都会产生不同的哈希值。

2. 确定性执行:Judge 使用 Gensyn 的可复现运行时 运行模型,该运行时保证了跨设备的逐比特精确可复现性。这消除了浮点非确定性——这是我们稍后将探讨的一项关键创新。

3. 公开承诺:推理完成后,Judge 将输出(或其哈希值)发布在链上。这为模型针对给定输入产生的内容创建了一个永久的、可审计的记录。

4. 挑战期:任何人都可以通过独立重新执行模型来挑战结果。如果他们的输出不同,他们可以提交欺诈证明。Verde 的 受仲裁的委托机制 可以精确定位计算图中结果发生分歧的具体操作员。

5. 欺诈罚没:如果挑战者证明 Judge 产生了错误结果,原始执行者将受到惩罚(罚没抵押的代币)。这统一了经济激励:执行者通过正确运行模型来最大化利润。

Judge 将 AI 评估从“信任 API 供应商”转变为“验证加密证明”。模型的行为是公开的、可审计的和可强制执行的——不再隐藏在专有终端后面。

Verde:消除浮点非确定性

可验证 AI 的核心技术挑战在于确定性。神经网络在推理过程中执行数十亿次浮点运算。在现代 GPU 上,这些操作并非完全可复现:

非结合性 (Non-associativity):浮点加法不满足结合律。由于舍入误差,(a + b) + c 的结果可能与 a + (b + c) 不同。GPU 在数千个核心上并行执行求和运算,而部分和累加的顺序会因硬件和驱动程序版本的不同而变化。

内核调度变异性 (Kernel scheduling variability):GPU 内核(如矩阵乘法或注意力机制)可能会根据工作负载、驱动程序优化或硬件架构以不同的顺序执行。即使在同一块 GPU 上运行两次相同的模型,如果内核调度不同,也可能产生不同的结果。

批次大小依赖性 (Batch-size dependency):研究发现 LLM 推理具有系统级非确定性,因为输出取决于批次大小 (batch size)。许多内核(如 matmul、RMSNorm、attention)会根据同时处理的样本数量改变数值输出——批次大小为 1 的推理产生的值与在批次大小为 8 的同一输入中产生的值不同。

这些问题使得标准 AI 模型不适用于区块链验证。如果两个验证者重新运行相同的推理并得到略有不同的输出,谁才是正确的?如果没有确定性,共识就无法达成。

Verde 通过 RepOps (可复现算子) 解决了这一问题。这是一个通过控制所有设备上浮点运算顺序来消除硬件非确定性的库。其工作原理如下:

规范归约顺序 (Canonical reduction orders):RepOps 在执行矩阵乘法等运算时,强制执行部分结果求和的确定性顺序。RepOps 不再由 GPU 调度器决定,而是明确指定:在所有硬件上“先对第 0 列求和,然后是第 1 列,接着是第 2 列……”。这确保了 (a + b) + c 始终按相同的序列计算。

定制 CUDA 内核 (Custom CUDA kernels):Gensyn 开发了优化的内核,将可复现性置于原始速度之上。与标准的 cuBLAS 相比,RepOps 矩阵乘法的额外开销不到 30%——对于实现确定性来说,这是一个合理的权衡。

驱动程序与版本锁定 (Driver and version pinning):Verde 使用锁定版本的 GPU 驱动程序和规范配置,确保在不同硬件上执行的相同模型产生完全一致的位级输出。在一个数据中心的 NVIDIA A100 上运行的模型,其输出与另一个数据中心 AMD MI250 的输出在位级别上完全匹配。

这是实现 Judge 验证的突破:位级精确的可复现性 意味着验证者可以在不信任执行者的情况下独立确认结果。如果哈希值匹配,推理就是正确的——这在数学上是可证明的。

仲裁委托:无需完整重新计算的高效验证

即便拥有确定性执行,通过朴素方式验证 AI 推理的成本也极其高昂。一个拥有 700 亿参数、生成 1,000 个 token 的模型可能需要 10 个 GPU 小时。如果验证者必须重新运行每一次推理来验证正确性,那么验证成本将等于执行成本——这违背了去中心化的初衷。

Verde 的 仲裁委托机制 (refereed delegation mechanism) 使验证效率呈指数级提升:

多个不可信执行者:Judge 不再只分配给一个执行者,而是将任务分配给多个独立的提供者。每个执行者运行相同的推理并提交结果。

分歧触发调查:如果所有执行者达成一致,结果将被接受——无需进一步验证。如果输出不一致,Verde 会启动挑战博弈。

计算图上的二分查找:Verde 不会重新运行整个推理。相反,它在模型的计算图上执行二分查找,以找到结果产生分歧的第一个算子。这能精准定位导致差异的具体层(例如,“第 47 层注意力机制,第 8 个头”)。

极小化仲裁计算:仲裁者(可以是智能合约或计算能力有限的验证者)仅检查有争议的算子,而不是整个前向传播过程。对于一个拥有 80 层、70B 参数的模型,这在最坏情况下将验证工作量减少到仅需检查约 7 层 (log₂ 80)。

这种方法比朴素复制(即每个验证者重新运行所有内容)效率提升超过 1,350%。Gensyn 结合了加密证明、博弈论和优化流程,在不进行冗余计算的情况下保证了执行的正确性。

结果是:Judge 可以大规模验证 AI 工作负载,从而实现去中心化推理网络,让数千个不可信节点贡献算力——同时捕获并惩罚不诚实的执行者。

高风险 AI 决策:透明度为何至关重要

Judge 的目标市场并非普通的聊天机器人,而是那些可验证性不是“锦上添花”而是监管或经济要求的应用场景。在以下场景中,不透明的 API 可能会导致灾难性的失败:

去中心化金融 (DeFi):自主交易代理管理着数十亿资产。如果代理使用 AI 模型来决定何时重新平衡投资组合,用户需要证明该模型未被篡改。Judge 实现了链上验证:代理提交特定的模型哈希值,根据其输出执行交易,任何人都可以挑战其决策逻辑。这种透明度防止了恶意代理在没有证据的情况下声称“是 AI 让我平仓”的撤资 (Rug Pull) 行为。

监管合规:将 AI 用于信用评分、欺诈检测或反洗钱 (AML) 的金融机构面临审计。监管机构要求提供解释:“为什么模型会标记这笔交易?”不透明的 API 无法提供审计追踪。Judge 创建了模型版本、输入和输出的不可变记录,满足了合规性要求。

算法治理:去中心化自治组织 (DAO) 使用 AI 代理来提议治理决策或进行投票。社区成员必须验证代理使用的是经过批准的模型,而不是被黑客篡改的变体。通过 Judge,DAO 在其智能合约中编码模型哈希,每一项决策都包含正确性的加密证明。

医疗与法律 AI:医疗保健和法律系统需要问责制。医生在 AI 辅助下诊断癌症时需要记录所使用的确切模型版本。律师使用 AI 起草合同时必须证明输出源自经过审核、无偏见的模型。Judge 的链上审计追踪提供了这些证据。

预测市场与预言机:像 Polymarket 这样的项目使用 AI 来结算投注结果(例如,“这件事会发生吗?”)。如果结算取决于分析新闻文章的 AI 模型,参与者需要证明模型未被操纵。Judge 验证预言机的 AI 推理,防止产生争议。

在每种情况下,共同点在于 缺乏透明度的信任是不够的。正如 VeritasChain 所指出的,AI 系统需要“加密飞行记录仪”——即在发生争议时证明事实经过的不可变日志。

零知识证明的替代方案:Verde 与 ZKML 的对比

Judge 并不是实现可验证 AI 的唯一方法。零知识机器学习 (ZKML) 使用 zk-SNARKs 实现了类似的目标:通过加密证明确保计算正确执行,而无需透露输入或权重。

Verde 与 ZKML 相比如何?

验证成本:ZKML 生成证明所需的计算量大约是原始推理的 1,000 倍(研究预估)。一个拥有 70B 参数的模型如果推理需要 10 个 GPU 小时,那么证明可能需要 10,000 个 GPU 小时。Verde 的仲裁委托是对数级的:检查约 7 层而不是 80 层,实现了 10 倍的缩减,而不是 1,000 倍的增加。

证明者复杂度:ZKML 需要专门的硬件(如用于 zk-SNARK 电路的定制 ASIC)才能高效生成证明。Verde 可以在通用 GPU 上运行——任何拥有游戏电脑的矿工都可以参与。

隐私权衡:ZKML 的优势在于隐私——证明过程不会泄露任何关于输入或模型权重的信息。Verde 的确定性执行是透明的:输入和输出是公开的(尽管权重可以加密)。对于高风险的决策,透明度通常是更受欢迎的。一个对金库分配进行投票的 DAO 需要的是公开的审计追踪,而不是隐藏的证明。

证明范围:ZKML 在实际应用中仅限于推理——以当前的计算成本,证明训练过程是不可行的。Verde 同时支持推理和训练验证(Gensyn 更广泛的协议验证分布式训练)。

现实世界采用:像 Modulus Labs 这样的 ZKML 项目已经取得了突破(在链上验证了 18M 参数的模型),但仍局限于较小的模型。Verde 的确定性运行时已经在生产环境中处理 70B+ 参数的模型。

ZKML 在隐私至上的场景中表现出色——例如在不暴露虹膜扫描的情况下验证生物识别身份 (Worldcoin)。Verde 在以透明度为目标的场景中表现出色——证明特定的公开模型已正确执行。这两种方法是互补的,而非竞争关系。

Gensyn 生态系统:从 Judge 到去中心化训练

Judge 是 Gensyn 宏伟蓝图中的一个组件:一个用于机器学习计算的去中心化网络。该协议包括:

执行层:在异构硬件(消费级 GPU、企业级集群、边缘设备)之间实现一致的机器学习执行。Gensyn 标准化了推理和训练工作负载,确保了兼容性。

验证层 (Verde):使用仲裁委托进行无需信任的验证。不诚实的执行者会被检测并受到惩罚。

点对点通信:在没有中心化协调的情况下跨设备分配工作负载。矿工接收任务、执行任务并直接向区块链提交证明。

去中心化协调:以太坊 Rollup 上的智能合约无许可地识别参与者、分配任务并处理支付。

Gensyn 的公共测试网于 2025 年 3 月启动,主网计划于 2026 年发布。 $AI 代币公开销售于 2025 年 12 月进行,为矿工和验证者建立了经济激励机制。

Judge 作为评估层融入此生态系统:虽然 Gensyn 的核心协议处理训练和推理,但 Judge 确保这些输出是可验证的。这创造了一个飞轮效应:

开发者在 Gensyn 的去中心化网络上训练模型(由于闲置的消费级 GPU 提供算力,成本比 AWS 更低)。

模型在 Judge 的保证下部署以确保评估的完整性。应用程序通过 Gensyn 的 API 消费推理结果,但与 OpenAI 不同,每一个输出都包含加密证明。

验证者通过检查证明和捕获欺诈行为赚取费用,使经济激励与网络安全保持一致。

信任随着更多应用采用可验证 AI 而扩展,减少了对中心化供应商的依赖。

最终目标:实现可证明正确、去中心化且任何人都能访问的 AI 训练和推理——而不仅仅属于大型科技公司。

挑战与开放性问题

Judge 的方法具有开创性,但仍面临一些挑战:

性能开销:RepOps 30% 的性能损耗对于验证来说是可以接受的,但如果每次推理都必须以确定性方式运行,那么对延迟敏感的应用(实时交易、自动驾驶汽车)可能会倾向于更快、不可验证的替代方案。Gensyn 的路线图可能包括进一步优化 RepOps——但在速度和确定性之间存在根本性的权衡。

驱动程序版本碎片化:Verde 假设使用固定版本的驱动程序,但 GPU 制造商不断发布更新。如果某些矿工使用 CUDA 12.4 而其他矿工使用 12.5,位级复现性就会失效。Gensyn 必须执行严格的版本管理——这增加了矿工加入的复杂性。

模型权重保密性:Judge 的透明度对于公开模型是一个特性,但对于私有模型则是一个缺陷。如果一家对冲基金训练了一个有价值的交易模型,将其部署在 Judge 上会通过链上承诺将权重暴露给竞争对手。对于秘密模型,基于 ZKML 的替代方案可能更受青睐——这表明 Judge 的目标是开放或半开放的 AI 应用。

争议解决延迟:如果挑战者声称存在欺诈,通过二分查找解决争议需要多次链上交易(每一轮都会缩小搜索范围)。高频应用无法等待数小时来达成最终性。Gensyn 可能会引入乐观验证(除非在窗口期内受到挑战,否则假设正确)以降低延迟。

仲裁委托中的抗女巫攻击:如果多个执行者必须达成一致,如何防止单个实体通过女巫身份控制所有执行者?Gensyn 可能会使用基于质押权重的选择(优先选择声誉高的验证者)结合罚没 (Slashing) 机制来威慑共谋——但经济阈值必须经过精心校准。

这些并不是无法逾越的障碍——它们是工程挑战。核心创新(确定性 AI + 加密验证)是可靠的。随着测试网向主网过渡,执行细节将会趋于成熟。

可验证 AI 之路:采用路径与市场契合度

Judge 的成功取决于采用率。哪些应用将率先部署可验证 AI?

带有自治代理的 DeFi 协议:Aave、Compound 或 Uniswap DAO 可以集成经 Judge 验证的代理进行国库管理。社区投票批准模型哈希,所有代理决策都包含证明。这种透明度建立了信任——这对 DeFi 的合法性至关重要。

预测市场与预言机:Polymarket 或 Chainlink 等平台可以使用 Judge 来结算投注或交付价格喂价。分析情绪、新闻或链上活动的 AI 模型将产生可验证的输出——消除关于预言机操纵的争议。

去中心化身份与 KYC:需要基于 AI 的身份验证(如自拍年龄估算、文件真实性检查)的项目可以从 Judge 的审计轨迹中受益。监管机构可以接受合规性的加密证明,而无需信任中心化身份提供商。

社交媒体的内容审核:去中心化社交网络(Farcaster、Lens Protocol)可以部署经 Judge 验证的 AI 审核员。社区成员可以验证审核模型是否存在偏见或被审查——从而确保平台的中立性。

AI 即服务(AI-as-a-Service)平台:开发 AI 应用的开发者可以提供“可验证推理”作为一项高级功能。用户为证明支付额外费用,从而使服务区别于不透明的替代方案。

其共同点是:在这些应用中,信任的成本很高(由于监管、去中心化或高风险),且验证成本是可接受的(与确定性的价值相比)。

Judge 不会在消费者聊天机器人领域取代 OpenAI——用户在询问食谱建议时并不关心 GPT-4 是否可验证。但在金融算法、医疗工具和治理系统领域,可验证 AI 才是未来。

可验证性成为新标准

Gensyn 的 Judge 代表了一场范式转移:AI 评估正从“信任提供商”转向“验证证明”。其技术基础——通过 Verde 实现的位精确(bitwise-exact)可复现性、通过裁判委托(refereed delegation)实现的高效验证以及链上审计轨迹——使这一转变变得切实可行,而不仅仅是愿景。

其影响远超 Gensyn 本身。如果可验证 AI 成为标准,中心化提供商将失去其护城河。OpenAI 的价值主张不仅在于 GPT-4 的能力,还在于无需管理基础设施的便利性。但如果 Gensyn 证明去中心化 AI 能够匹配中心化性能并增加可验证性,开发者就没有理由被锁定在专有 API 中。

竞赛已经开始。ZKML 项目(Modulus Labs、Worldcoin 的生物识别系统)押注于零知识证明。确定性运行时(Gensyn 的 Verde、EigenAI)押注于可复现性。乐观方案(区块链 AI 预言机)押注于欺诈证明。每条路径都有权衡,但终点是一致的:即输出是可证明的、而不仅仅是看似合理的 AI 系统

对于高风险决策,这不再是可选项。监管机构不会接受金融、医疗或法律应用中 AI 提供商的“相信我们”。DAO 不会将国库管理委托给黑箱代理。随着自主 AI 系统变得越来越强大,公众将要求透明度。

Judge 是第一个实现这一承诺的生产就绪系统。测试网已上线。加密基础扎实。市场——价值 270 亿美元的 AI 代理加密货币、算法管理的数十亿 DeFi 资产以及不断增加的监管压力——已经准备就绪。

不透明 AI API 的时代即将结束。可验证智能的时代正在开启。而 Gensyn 的 Judge 正照亮前路。


参考资料:

Nillion 的 Blacklight 正式上线:ERC-8004 如何为自主 AI 代理构建信任层

· 阅读需 14 分钟
Dora Noda
Software Engineer

2026 年 2 月 2 日,AI 智能体经济迈出了关键一步。Nillion 推出了 Blacklight,这是一个实现 ERC-8004 标准 的验证层,旨在解决区块链领域最紧迫的问题之一:如何信任一个你从未见过的 AI 智能体?

答案并非简单的信誉评分或中心化注册表。它是一个由密码学证明、可编程审计和社区运营节点网络支持的五步验证过程。随着自主智能体越来越多地执行交易、管理财库和协调跨链活动,Blacklight 代表了实现大规模无须信任 AI 协作的基础设施。

AI 智能体无法独自解决的信任问题

数据说明了一切。AI 智能体现在贡献了 Polymarket 交易量的 30%,处理跨多个协议的 DeFi 收益策略,并自主执行复杂的流程。但存在一个根本性的瓶颈:在没有预先建立关系的情况下,智能体如何验证彼此的可信度?

传统系统依赖于中心化机构颁发凭证。Web3 的承诺则不同——通过密码学和共识进行无须信任的验证。然而,在 ERC-8004 出现之前,智能体没有标准化的方式来证明其真实性、跟踪其行为或在链上验证其决策逻辑。

这不仅仅是一个理论问题。正如 Davide Crapis 所解释的,“ERC-8004 实现了去中心化 AI 智能体之间的交互,建立了无须信任的商业,并增强了以太坊上的信誉系统。”没有它,智能体之间的商业活动仍将局限于封闭花园,或者需要手动监管——这违背了自主化的初衷。

ERC-8004:三层注册表信任基础设施

ERC-8004 标准 于 2026 年 1 月 29 日在以太坊主网上线,通过三个链上注册表建立了一个模块化的信任层:

身份注册表 (Identity Registry):使用 ERC-721 提供可移植的智能体标识符。每个智能体都会收到一个代表其独特链上身份的非同质化代币 (NFT),从而实现跨平台识别并防止身份冒用。

信誉注册表 (Reputation Registry):收集标准化的反馈和评分。与中心化评论系统不同,反馈通过密码学签名记录在链上,创建了不可篡改的审计轨迹。任何人都可以抓取这些历史记录并构建自定义的信誉算法。

验证注册表 (Validation Registry):支持对智能体工作进行密码学和经济验证。这是进行可编程审计的地方——验证者可以重新执行计算、验证零知识证明,或利用可信执行环境 (TEEs) 来确认智能体的行为是否正确。

ERC-8004 的卓越之处在于其不设限的设计。正如 技术规范 所指出的,该标准支持各种验证技术:“受 EigenLayer 等系统启发的任务质押安全重执行、零知识机器学习 (zkML) 证明的验证,以及来自可信执行环境的见证。”

这种灵活性至关重要。一个 DeFi 套利智能体可能会使用 zkML 证明来验证其交易逻辑而不泄露 Alpha。一个供应链智能体可能会使用 TEE 见证来证明其正确访问了现实世界的数据。一个跨链桥智能体可能会依靠带有罚没机制 (slashing) 的加密经济验证来确保诚实执行。

Blacklight 的五步验证流程

Nillion 在 Blacklight 上对 ERC-8004 的实现增加了一个关键层:社区运营的验证节点。以下是该流程的工作原理:

1. 智能体注册:智能体在身份注册表中注册其身份,并获得一个 ERC-721 NFT。这创建了一个与智能体公钥绑定的独特链上标识符。

2. 发起验证请求:当智能体执行需要验证的操作(例如执行交易、转移资金或更新状态)时,它会向 Blacklight 提交验证请求。

3. 委员会分配:Blacklight 协议随机分配一个验证节点委员会来审计该请求。这些节点由质押了 70,000 个 NIL 代币的社区成员运营,从而使激励措施与网络完整性保持一致。

4. 节点检查:委员会成员重新执行计算或验证密码学证明。如果验证者检测到不当行为,他们可以罚没智能体的质押资金(在采用加密经济验证的系统中),或在信誉注册表中标记该身份。

5. 链上报告:结果发布在链上。验证注册表记录智能体的工作是否通过验证,从而创建永久的执行证明。信誉注册表也会相应更新。

这一过程是异步且非阻塞的,这意味着智能体在执行常规任务时无需等待验证完成——但高风险操作(如大额转账、跨链操作)可能需要预先验证。

可编程审计:超越二进制信任

Blacklight 最具雄心的功能是“可编程验证”——即能够审计代理 如何 做出决策,而不仅仅是审计它做了 什么

考虑一个管理财库的 DeFi 代理。传统的审计验证资金是否正确移动。可编程审计则验证:

  • 决策逻辑一致性:代理是否遵循了其陈述的投资策略,还是偏离了策略?
  • 多步工作流执行:如果代理应该在三个链上重新平衡投资组合,它是否完成了所有步骤?
  • 安全约束:代理是否遵守了 gas 限制、滑点容差和风险敞口上限?

由于 ERC-8004 的验证注册表(Validation Registry)支持任意证明系统,这成为了可能。代理可以在链上提交决策算法(例如,其神经网络权重的哈希值或代表其逻辑的 zk-SNARK 电路),然后证明每项操作都符合该算法,而无需透露专有细节。

Nillion 的路线图 明确针对这些用例:“Nillion 计划将 Blacklight 的功能扩展到‘可编程验证’,实现对复杂行为的去中心化审计,如代理决策逻辑的一致性、多步工作流执行和安全约束。”

这将验证从反应式(事后捕捉错误)转变为主动式(通过设计强制执行正确行为)。

盲计算:隐私与验证的结合

Nillion 的底层技术——Nil 消息计算(NMC)——为代理验证增加了隐私维度。与所有数据公开的传统区块链不同,Nillion 的“盲计算”能够在不解密的情况下对加密数据进行操作。

这里是这对代理至关重要的原因:AI 代理可能需要在不向竞争对手泄露 Alpha 的情况下验证其交易策略。或者证明它在不暴露患者数据的情况下正确访问了机密医疗记录。或者在不披露专有业务逻辑的情况下证明符合监管约束。

Nillion 的 NMC 通过多方计算(MPC)实现这一点,其中节点协作生成“盲因子”(blinding factors)——用于加密数据的相关随机性。正如 DAIC Capital 所解释的:“节点生成处理数据所需的关键网络资源——一种被称为盲因子的相关随机性——每个节点都安全地存储其盲因子的份额,以量子安全的方式在网络中分配信任。”

这种架构在设计上具有抗量子性。即使量子计算机破解了当今的椭圆曲线加密,分布式的盲因子仍然是安全的,因为没有单个节点拥有足够的信息来解密数据。

对于 AI 代理而言,这意味着验证不需要牺牲机密性。代理可以证明其正确执行了任务,同时保持其方法、数据源和决策逻辑的私密性。

43 亿美元的代理经济基础设施博弈

Blacklight 的推出正值区块链 AI 领域进入高速增长期。该市场预计将从 6.8 亿美元(2025 年)增长到 43 亿美元(2034 年),复合年增长率为 22.9%,而更广泛的机密计算市场到 2032 年将达到 3500 亿美元。

但 Nillion 不仅仅是在赌市场扩张——它正将自己定位为关键基础设施。代理经济的瓶颈不是计算或存储,而是 大规模的信任。正如 KuCoin 的 2026 年展望 所指出的,三大趋势正在重塑 AI 身份和价值流:

代理封装代理(Agent-Wrapping-Agent)系统:代理与其他代理协作执行复杂的多步任务。这需要标准化的身份和验证——这正是 ERC-8004 所提供的。

KYA(了解你的代理,Know Your Agent):金融基础设施对代理凭证的需求。监管机构不会批准在没有正确行为证明的情况下让自主代理管理资金。Blacklight 的可编程审计直接解决了这个问题。

纳支付(Nano-payments):代理需要高效地结算微支付。在 2026 年 1 月处理了超过 2000 万笔交易的 x402 支付协议,通过处理结算来补充 ERC-8004,而 Blacklight 则负责处理信任。

这些标准在彼此相隔几周内就达到了生产就绪状态,这标志着基础设施成熟度的协作突破。

以太坊的代理优先未来

ERC-8004 的采用范围远超 Nillion。截至 2026 年初,多个项目已集成该标准:

  • Oasis Network:通过基于 TEE 的验证实施 用于机密计算的 ERC-8004
  • The Graph:支持 ERC-8004 和 x402,以在去中心化索引中实现 可验证的代理交互
  • MetaMask:探索内置 ERC-8004 身份的代理钱包
  • Coinbase:为机构代理托管解决方案集成 ERC-8004

这种快速采用反映了以太坊路线图的更广泛转变。Vitalik Buterin 反复强调,区块链的角色正变成 AI 代理的“管道”——不是面向消费者的层,而是实现自主协作的信任基础设施。

Nillion 的 Blacklight 通过使验证变得可编程、隐私保护和去中心化,加速了这一愿景。代理可以利用密码学证明其正确性,而无需依赖中心化的预言机或人工审查。

下一步:主网集成与生态扩展

Nillion 的 2026 年路线图 优先考虑以太坊兼容性和可持续的去中心化。以太坊桥已于 2026 年 2 月上线,随后推出了用于质押和私有计算的原生智能合约。

质押 70,000 枚 NIL 代币的社区成员可以运行 Blacklight 验证节点,在赚取奖励的同时维护网络完整性。这种设计模仿了以太坊的验证者经济模型,但增加了专门的验证角色。

接下来的里程碑包括:

  • 扩展 zkML 支持:与 Modulus Labs 等项目集成,在链上验证 AI 推理
  • 跨链验证:使 Blacklight 能够验证在以太坊、Cosmos 和 Solana 上运行的 Agent
  • 机构合作伙伴关系:与 Coinbase 和合作伙伴合作进行企业级 Agent 部署
  • 合规工具:为金融服务应用构建 KYA 框架

或许最重要的是,Nillion 正在开发 nilGPT —— 一个全私有的 AI 聊天机器人,展示了盲计算(Blind Computation)如何实现机密的 Agent 交互。这不仅仅是一个演示;它为医疗保健、金融和政府领域处理敏感数据的 Agent 提供了蓝图。

无需信任协作的终局

Blacklight 的发布标志着 Agent 经济的一个转折点。在 ERC-8004 出现之前,Agent 在孤岛中运行 —— 在各自的生态系统中受到信任,但如果没有人类中间人,就无法跨平台协作。在 ERC-8004 之后,Agent 可以相互验证身份、审计彼此的行为,并自主结算支付。

这开启了全新的应用类别:

  • 去中心化对冲基金:Agent 跨链管理投资组合,具有可验证的投资策略和透明的业绩审计
  • 自主供应链:Agent 在没有中心化监督的情况下协调物流、支付和合规
  • AI 驱动的 DAO:由 Agent 管理的组织,根据经过密码学验证的决策逻辑进行投票、提案和执行
  • 跨协议流动性管理:Agent 在具有可编程风险约束的 DeFi 协议之间重新平衡资产

共同点是什么?所有这些都需要无需信任的协作 —— 即 Agent 在没有预先存在的关系或中心化信任锚点的情况下共同工作的能力。

Nillion 的 Blacklight 正提供了这一点。通过将 ERC-8004 的身份和声誉基础设施与可编程验证和盲计算相结合,它创建了一个信任层,其扩展性足以支撑即将到来的万亿级 Agent 经济。

随着区块链成为 AI Agent 和全球金融的基础设施,问题不再是我们是否需要验证基础设施,而是谁来构建它,以及它是去中心化的还是由少数守门人控制的。Blacklight 的社区运行节点和开放标准为前者提供了有力支持。

链上自主参与者的时代已经到来。基础设施已经上线。剩下的唯一问题是,在其之上会构建出什么。


参考资料:

AI × Web3 融合:区块链如何成为自主代理的操作系统

· 阅读需 18 分钟
Dora Noda
Software Engineer

2026 年 1 月 29 日,以太坊发布了 ERC-8004,这一标准赋予了 AI 软件代理持久的链上身份。在几天之内,超过 24,549 个代理完成了注册,且 BNB Chain 宣布支持该协议。这并非渐进式的进步 —— 它是为自主经济参与者提供的基础设施,使它们能够在无需人工干预的情况下进行交易、协作和建立声誉。

AI 代理的存在并不一定需要区块链。但它们需要区块链来进行协作。在跨组织边界时进行无须信任的交易。建立可验证的声誉。自主结算支付。在没有中心化中介的情况下证明执行。

这种融合之所以加速,是因为这两种技术都解决了对方的关键弱点:AI 提供智能和自动化,区块链提供信任和经济基础设施。它们共同创造了两者单独都无法实现的东西:能够在无需预先存在信任关系的情况下参与开放市场的自主系统。

本文研究了使 AI × Web3 融合成为必然的基础设施 —— 从身份标准到经济协议,再到去中心化模型执行。问题不在于 AI 代理是否会在区块链上运行,而在于基础设施扩展到支持数百万自主经济参与者的速度有多快。

ERC-8004:AI 代理的身份基础设施

ERC-8004 于 2026 年 1 月 29 日在以太坊主网上线,为代理身份、声誉和验证建立了标准化的、无许可的机制。

该协议解决了一个根本问题:如何在没有预先存在信任的情况下,跨组织边界发现、选择代理并与之互动。如果没有身份基础设施,每次代理互动都需要中心化中介 —— 市场平台、验证服务、争议解决层。ERC-8004 使这些变得无须信任且可组合。

三个核心注册表:

身份注册表 (Identity Registry): 一个基于 ERC-721 且带有 URIStorage 扩展的极简链上句柄,解析为代理的注册文件。每个代理都获得一个便携式、抗审查的标识符。没有中心化机构能控制谁可以创建代理身份,或者哪些平台可以识别它。

声誉注册表 (Reputation Registry): 发布和获取反馈信号的标准接口。代理通过链上交易历史、完成的任务和对手方的评价建立声誉。声誉变得可以在不同平台间移植,而不是被孤立在单个市场中。

验证注册表 (Validation Registry): 用于请求和记录独立验证者检查的通用挂钩 —— 质押者重新运行作业、zkML 验证器确认执行、TEE 预言机证明计算、受信任的法官解决争议。验证机制以模块化方式接入,而不需要特定于平台的实现。

这种架构为开放的代理市场创造了条件。你得到的不再是 AI 代理版的 Upwork,而是无许可协议,代理在其中相互发现、协商条款、执行任务并结算支付 —— 这一切都无需中心化平台的把关。

BNB Chain 迅速宣布支持 标志着该标准正走向跨链应用。多链代理身份使代理能够在区块链生态系统之间运行,同时保持统一的声誉和验证系统。

DeMCP:模型上下文协议与去中心化的相遇

DeMCP 作为首个去中心化模型上下文协议(Model Context Protocol)网络启动,利用 TEE(可信执行环境)和区块链解决信任和安全问题。

由 Anthropic 开发的模型上下文协议 (MCP) 规范了应用程序向大型语言模型提供上下文的方式。可以把它想象成 AI 应用程序的 USB-C —— 相比为每个数据源定制集成,MCP 提供了通用的接口标准。

DeMCP 将其扩展到 Web3:通过按需生成的 MCP 实例,提供对 GPT-4 和 Claude 等领先大模型的无缝、按需付费访问,全部使用稳定币(USDT/USDC)支付,并由收入分成模式管理。

该架构解决了三个关键问题:

访问 (Access): 传统的 AI 模型 API 需要中心化账户、支付基础设施和特定平台的 SDK。DeMCP 使自主代理能够通过标准协议访问大模型,使用加密货币支付,无需人工管理 API 密钥或信用卡。

信任 (Trust): 中心化的 MCP 服务会成为单点故障和监视点。DeMCP 受 TEE 保护的节点提供可验证的执行 —— 代理可以确认模型在没有被篡改的情况下运行了特定的提示词,这对于财务决策或监管合规至关重要。

可组合性 (Composability): 基于 MCP 和 A2A(代理对代理)协议的新一代 AI 代理基础设施正在涌现,专门为 Web3 场景设计,允许代理访问多链数据并与 DeFi 协议进行原生交互。

结果是:MCP 使 AI 成为 Web3 的一等公民。区块链提供信任、协调和经济基石。它们共同构成了一个去中心化的操作系统,代理在其中跨互操作协议进行推理、协调和行动。

2026 年值得关注的顶级 MCP 加密项目 包括构建代理协调层的基础设施提供商、去中心化模型执行网络,以及使代理能够在 Web3 生态系统中自主运行的协议级集成。

Polymarket 的 170+ 个 Agent 工具:基础设施在行动

Polymarket 的生态系统已增长到涵盖 19 个类别的 170 多个第三方工具,成为了任何认真对待预测市场交易的人必不可少的基础设施。

工具类别涵盖了整个 Agent 工作流:

自主交易: AI 驱动的 Agent 可自动发现并优化策略,将预测市场与流动性挖矿及 DeFi 协议相结合。部分 Agent 在短期预测中的准确率达到了 98%。

套利系统: 自动化机器人可识别 Polymarket 与其他预测平台或传统博彩市场之间的价格差异,执行交易的速度比人类操作员更快。

巨鲸追踪: 监控大额持仓变动的工具,使 Agent 能够根据历史业绩相关性跟随或对抗机构活动。

跟单交易基础设施: 允许 Agent 复制顶尖交易者策略的平台,通过链上业绩核实防止虚假的收益声明。

分析与数据馈送: 机构级分析工具 为 Agent 提供市场深度、流动性分析、历史概率分布以及事件结果相关性。

风险管理: 自动仓位调整、风险限额和止损机制直接集成到 Agent 的交易逻辑中。

该生态系统验证了 AI × Web3 融合的论点。Polymarket 专门为 Agent 开发提供了 GitHub 代码库和 SDK,将自主参与者视为平台的一等公民,而非边缘案例或违反服务条款的行为。

2026 年的展望包括潜在的 $POLY 代币发行,这将围绕治理、费用结构和生态系统激励创造新的动态。首席执行官 Shayne Coplan 暗示这可能成为 2026 年最大的 TGE(代币生成事件)之一。此外,Polymarket 潜在的区块链发布(遵循 Hyperliquid 模式)可能会从根本上重塑基础设施,数十亿美元的融资规模使得应用链(appchain)成为一种自然的演进。

基础设施栈:AI × Web3 的各层架构

在区块链上运行的自主 Agent 需要跨多个层级的协调基础设施:

第 1 层:身份与声誉

  • 用于 Agent 识别的 ERC-8004 注册表
  • 追踪业绩的链上声誉系统
  • Agent 所有权和权限的加密证明
  • 用于多生态系统运营的跨链身份桥接

第 2 层:访问与执行

  • 用于去中心化 LLM 访问的 DeMCP
  • 用于私密 Agent 逻辑的 TEE 安全计算
  • 用于可验证推理的 zkML(零知识机器学习)
  • 分发模型执行的去中心化推理网络

第 3 层:协调与通信

  • 用于直接协商的 A2A(Agent 到 Agent)协议
  • 用于 Agent 间通信的标准化消息格式
  • 发现具有特定功能的 Agent 的机制
  • 用于自主合约的托管和纠纷解决

第 4 层:经济基础设施

  • 用于跨境结算的稳定币支付通道
  • 用于 Agent 生成资产的自动做市商
  • 可编程的费用结构和收入分成
  • 基于代币的激励对齐

第 5 层:应用协议

  • 用于自主收益优化的 DeFi 集成
  • 用于信息交易的预测市场 API
  • 用于 Agent 创作内容的 NFT 市场
  • DAO 治理参与框架

这一技术栈使 Agent 能够实现日益复杂的行为:简单自动化(智能合约执行)、反应式 Agent(响应链上事件)、主动式 Agent(根据推理发起策略)以及协调式 Agent(与其他自主参与者进行协商)。

这些基础设施不仅让 AI Agent 能够使用区块链 —— 它还使区块链成为自主经济活动的自然运行环境。

为什么 AI 需要区块链:信任问题

AI Agent 面临着中心化架构无法解决的根本性信任挑战:

验证: 如何证明 AI Agent 执行了特定的逻辑而没有被篡改?传统的 API 无法提供保证。结合了 zkML 或 TEE 证明的区块链创造了可验证计算 —— 即特定模型处理了特定输入并产生了特定输出的加密证明。

声誉: Agent 如何跨组织边界建立信誉?中心化平台创造了围墙花园 —— 在 Upwork 上获得的声誉无法转移到 Fiverr。链上声誉变得可移植、可验证,并能抵御女巫攻击(Sybil attacks)的操纵。

结算: 自主 Agent 如何在没有人工干预的情况下处理支付?传统银行业需要账户、KYC 和每笔交易的人工授权。稳定币 and 智能合约实现了可编程、即时的结算,具有加密安全性而非官僚安全性。

协调: 来自不同组织的 Agent 如何在没有可信中间人的情况下进行协商?传统商业需要合同、律师和执行机制。智能合约实现了去信任的协议执行 —— 代码根据可验证的条件自动强制执行条款。

归属: 如何证明哪个 Agent 创作了特定的输出?AI 内容溯源对于版权、责任和收入分配至关重要。链上存证提供了创作、修改和所有权的防篡改记录。

区块链不仅支持了这些功能 —— 它是唯一能在不引入中心化信任假设的情况下实现这些功能的架构。这种融合源于技术必要性,而非投机性叙事。

为什么区块链需要 AI:智能问题

区块链面临着 AI 可以解决的同样基础的局限性:

复杂性抽象: 区块链的 UX 依然糟糕——助记词、Gas 费用、交易签名。AI Agent 可以抽象复杂性,作为智能中介执行用户意图,而无需暴露技术实现细节。

信息处理: 区块链提供数据,但缺乏解释数据的智能。AI Agent 分析链上活动模式,识别套利机会,预测市场走向,并以人类无法企及的速度和规模优化策略。

自动化: 智能合约执行逻辑,但如果没有明确的编程,就无法适应不断变化的环境。AI Agent 提供动态决策,从结果中学习并调整策略,而无需为每个参数更改提交治理提案。

可发现性: DeFi 协议面临碎片化问题——用户必须手动在数百个平台中寻找机会。AI Agent 持续扫描、评估,并根据复杂的多变量优化将活动路由至最佳协议。

风险管理: 人类交易者在纪律、情感和注意力极限方面面临挑战。AI Agent 强制执行预定义的风险参数,毫不犹豫地执行止损,并同时在多条链上全天候监控仓位。

这种关系变得共生:区块链提供支持 AI 协同的信任基础设施,AI 提供智能,使区块链基础设施可用于复杂的经济活动。

新兴的智能体经济

基础设施堆栈开启了新的经济模式:

智能体即服务 (Agent-as-a-Service): 自治智能体按需出租其能力,根据供需动态定价。没有平台,没有中介——直接的智能体对智能体服务市场。

协作智能: 智能体汇集专业知识处理复杂任务,通过智能合约进行协作,并根据贡献自动分配收入。多智能体系统可以解决超出任何单个智能体能力的挑战。

预测增强: 智能体持续监控信息流,更新概率估计,并在人类可读的新闻出现前根据洞察进行交易。信息金融 (InfoFi) 变得算法化,智能体主导了价格发现。

自治组织: 完全由 AI Agent 治理的 DAO,代表代币持有者执行任务,通过可验证的推理而非人工投票进行决策。组织以机器速度运行,并具备密码学问责制。

内容经济: AI 生成的内容具备链上溯源,支持自动化授权、版税分配和衍生创作权。智能体通过智能合约谈判使用条款并强制执行署名权。

这些并非假设——早期版本已经开始运行。问题在于:基础设施能多快扩展以支持数百万个自治经济参与者?

尚存的技术挑战

尽管取得了快速进展,但重大障碍依然存在:

可扩展性: 当前区块链在吞吐量方面面临挑战。数百万智能体执行持续的微交易需要 Layer 2 解决方案、Optimistic Rollups 或专用的智能体链。

隐私: 许多智能体操作需要机密逻辑或数据。TEE 提供了部分解决方案,但全同态加密 (FHE) 和高级密码学在生产规模应用中仍然过于昂贵。

监管: 自治经济参与者对现有法律框架提出了挑战。当智能体造成损害时由谁负责?KYC/AML 要求如何适用?监管明晰度落后于技术能力。

模型成本: LLM 推理仍然昂贵。去中心化网络必须在增加验证开销的同时匹配中心化 API 的定价。经济可行性需要模型效率的持续提升。

预言机问题: 智能体需要可靠的现实世界数据。现有的预言机解决方案引入了信任假设和延迟。链上逻辑与链外信息之间更强大的桥梁仍然至关重要。

这些挑战并非不可逾越——它们是具有明确解决路径的工程问题。基础设施的发展轨迹预示着这些问题将在 12-24 个月内得到解决。

2026 年的拐点

多个催化剂将在 2026 年汇聚:

标准成熟: ERC-8004 在主要链上的采用创建了互操作的身份基础设施。智能体在以太坊、BNB Chain 和新兴生态系统之间无缝运行。

模型效率: 更小、更专业的模型在保持特定任务性能的同时,将推理成本降低 10-100 倍。经济可行性大幅提升。

监管明晰: 首批司法管辖区建立自治智能体框架,为机构采用提供法律确定性。

应用爆发: 预测市场、DeFi 优化和内容创作展示了智能体相对于人类操作者的明显优势,推动了加密原生用户之外的采用。

基础设施竞争: 多个团队构建去中心化推理、智能体协作协议和专用链,形成竞争压力,加速了开发进程。

这种融合将从实验性转向基础设施化。早期采用者将获得优势,平台将默认整合智能体支持,经济活动将越来越多地通过自治中介流转。

这对 Web3 开发意味着什么

为 Web3 下一阶段进行开发的开发者应优先考虑:

智能体优先设计: 将自治智能体(Autonomous Agents)视为主要用户,而非边缘情况。在设计 API、费用结构和治理机制时,应假设智能体占据活动的主导地位。

可组合性: 构建易于智能体集成、跨链协调和扩展的协议。标准化接口比私有实现更重要。

验证: 提供执行的密码学证明,而不仅仅是执行结果。智能体需要可验证计算来构建信任链。

经济效率: 针对微交易、持续结算和动态费用市场进行优化。传统的批处理和人工干预无法适应智能体活动的规模化需求。

隐私选项: 同时支持透明和机密的智能体操作。不同的用例需要不同的隐私保证。

基础设施已经存在。标准正在涌现。经济激励高度一致。AI × Web3 的融合并非未来 —— 它已经到来。问题在于:谁能构建出成为未来十年自治经济活动基石的基础设施?

BlockEden.xyz 为 Web3 应用提供企业级基础设施,跨主要区块链生态系统提供可靠、高性能的 RPC 访问。探索我们的服务,获取 AI 智能体基础设施和自治系统支持。


参考资料:

InfoFi 市场格局:从预测市场到数据基础设施的演变

· 阅读需 12 分钟
Dora Noda
Software Engineer

预测市场在 2026 年 2 月初的周交易量突破了 63.2 亿美元,其中 Kalshi 占据 51% 的市场份额,Polymarket 占据 47%。但信息金融 (InfoFi) 的范畴远不止二元博弈。数据代币化市场、数据 DAO 以及信息即资产的基础设施 共同构建了一个新兴生态系统,使信息变得可编程、可交易且可验证。

InfoFi 的核心论点:信息有价值,市场发现价格,区块链赋能基础设施。本文绘制了这一领域的版图——从 Polymarket 的预测引擎到 Ocean Protocol 的数据代币化,从数据 DAO 到 AI 约束的真相市场。

预测市场的基础地位

预测市场锚定了 InfoFi 生态系统,为不确定的未来事件提供价格信号。

Kalshi-Polymarket 的双雄争霸

Kalshi 和 Polymarket 之间的市场份额几乎是 51/49,但两者的构成有着本质的不同。

Kalshi: 2025 年结算金额超过 431 亿美元,重心高度偏向体育博彩。获得 CFTC 许可,以美元计价,并与美国零售经纪商集成。Robinhood 的 “预测市场中心” 通过 Kalshi 的基础设施输送了数十亿的合约交易量

Polymarket: 2025 年处理了 334 亿美元交易额,专注于“高信号”事件——地缘政治、宏观经济、科学突破。它是加密原生的,支持全球参与,并可与 DeFi 组合。于 2025 年底完成了对 QCEX 1.12 亿美元的收购,旨在通过 CFTC 许可重新进入美国市场。

竞争推动了创新:Kalshi 赢得了零售用户和机构合规市场,而 Polymarket 则在加密原生可组合性和国际准入方面处于领先地位。

超越博弈:信息预言机

预测市场已从投机工具进化为 AI 系统的信息预言机。市场概率充当了约束 AI 幻觉的“外部锚点”——许多 AI 系统现在会降低那些无法在预测市场中进行押注的主张的权重。

这形成了反馈循环:AI 代理在预测市场上交易,市场价格为 AI 输出提供参考,而 AI 生成的预测又影响人类的交易决策。结果是:信息市场成为了算法真相发现的基础设施。

数据代币化:Ocean Protocol 的模型

在预测市场对未来事件定价的同时,Ocean Protocol 将现有数据集代币化,为 AI 训练数据、研究数据集和专利信息创建了市场。

数据代币 (Datatoken) 架构

Ocean 的模型:每个数据代币 (datatoken) 都代表了原始知识产权所有者的子许可,使用户能够访问和消费相关数据集。数据代币符合 ERC20 标准,使其可交易、可与 DeFi 组合,并可通过智能合约进行编程。

三层堆栈:

数据 NFT: 代表底层数据集的所有权。创建者铸造 NFT 以确立来源和控制权。

数据代币 (Datatokens): 访问控制代币。持有数据代币可获得临时使用权,而无需转让所有权。实现了数据访问与数据所有权的分离。

Ocean 市场 (Ocean Marketplace): 数据代币的去中心化交易所。数据提供者将资产变现,消费者购买访问权,投机者交易代币

这种架构解决了关键问题:数据提供者在不失去控制权的情况下变现,消费者在无需支付全部购买成本的情况下获得访问权,市场则为信息价值发现公平定价。

交易之外的使用场景

AI 训练市场: 模型开发人员购买数据集访问权限进行训练。数据代币(Datatoken)经济学使激励机制保持一致——有价值的数据获得更高的价格,创作者从模型训练活动中赚取持续收入。

研究数据共享: 学术和科学数据集被代币化以进行受控分发。研究人员验证溯源,跟踪使用情况,并通过自动版税分配补偿数据生成者。

企业数据协作: 公司通过代币化访问权限而非完全转移来共享专有数据集。在实现协作分析和模型开发的同时保持机密性。

个人数据变现: 个人将健康记录、行为数据或消费者偏好代币化。直接出售访问权限,而不是让平台在不提供补偿的情况下榨取价值。

Ocean 为数据 DAO 作为数据合作社实现了以太坊可组合性,创建了数据成为可编程金融资产的基础设施。

数据 DAO:集体信息所有权

数据 DAO 作为管理数据资产的去中心化自治组织运行,实现集体所有权、治理和变现。

数据工会模型

成员集体贡献数据,DAO 治理访问策略和定价,收入通过智能合约自动分配,治理权随数据贡献量扩展。

新兴示例:

医疗保健数据工会: 患者汇集健康记录,通过加密证明维护个人隐私。研究人员购买聚合访问权限,收入流向贡献者。数据由患者控制,而非中心化医疗系统。

神经科学研究 DAO: 学术机构和研究人员贡献大脑成像数据集、遗传信息和临床结果。集体数据集比个人贡献更有价值,在补偿数据提供者的同时加速研究。

生态/GIS 项目: 社区汇集的环境传感器、卫星图像和地理数据。DAO 为气候建模、城市规划和保护管理数据访问,同时确保当地社区从其所在地区生成的数据中受益。

数据 DAO 解决了协调问题:个人缺乏议价能力,平台榨取垄断租金,数据保持孤立。集体所有权实现了公平补偿和民主治理。

信息即数字资产

该概念将数据资产视为数字资产,利用最初为加密货币设计的区块链基础设施来管理信息所有权、转移和估值。

这种架构选择创造了强大的可组合性:数据资产与 DeFi 协议集成,参与自动化做市商,作为贷款抵押品,并实现可编程的收入分成。

基础设施层

身份层: 数据所有权和贡献的加密证明。防止抄袭,建立溯源,实现归属。

访问控制: 管理谁可以在什么条件下访问数据的智能合约。可编程许可取代人工合同谈判。

定价机制: 为数据集发现公允价值的自动化做市商。供需动态而非任意的机构定价。

收入分配: 智能合约自动在贡献者、策展人和平台运营商之间分配收益。消除了支付中介和延迟。

可组合性: 数据资产与更广泛的 Web3 生态系统集成。将数据集用作抵押品,创建衍生品,或捆绑成复合产品。

到 2025 年中期,链上 RWA 市场(包括数据)达到 230 亿美元,证明了机构对投机性加密货币之外的代币化资产的胃口。

AI 约束 InfoFi:验证闭环

AI 系统越来越依赖 InfoFi 基础设施进行真实性验证。

预测市场约束 AI 幻觉:交易者冒着真实金钱的风险,市场概率充当外部锚点,AI 系统会降低对无法下注的主张的权重。

这创建了质量过滤器:可验证的主张在预测市场中交易,不可验证的主张获得较低的 AI 置信度,市场价格提供持续的概率更新,AI 输出变得更加植根于经济现实。

反馈回路双向运行:AI 代理生成的预测提高了市场效率,市场价格为 AI 训练数据质量提供了信息,高价值预测推动了数据收集工作,信息市场针对信号而非噪声进行优化。

2026 年 InfoFi 生态系统版图

该版图包含多个互连层级:

第一层:真相发现

  • 预测市场(Kalshi、Polymarket)
  • 预测平台
  • 声誉系统
  • 验证协议

第二层:数据货币化

  • Ocean Protocol 数据代币 (datatokens)
  • 数据集市场
  • API 访问代币
  • 信息许可平台

第三层:集体所有权

  • 数据 DAO
  • 研究协作
  • 数据联盟
  • 社区信息池

第四层:AI 集成

  • 模型训练市场
  • 推理验证
  • 输出证明
  • 幻觉约束

第五层:金融基础设施

  • 信息衍生品
  • 数据抵押品
  • 自动做市商 (AMM)
  • 收益分配协议

每个层级都建立在其他层级之上:预测市场建立价格信号,数据市场将信息货币化,DAO 实现集体行动,AI 创造需求,金融基础设施提供流动性。

2026 年揭示了什么

InfoFi 从实验性阶段转型为基础设施阶段。

机构验证: 各大平台集成预测市场。华尔街开始消费 InfoFi 信号。针对“信息即资产”处理的监管框架正在浮现。

基础设施成熟: 数据代币化标准趋于稳固。DAO 治理模式在大规模应用中得到验证。AI 与区块链的集成变得无缝化。

市场增长: 每周 63.2 亿美元的预测市场交易额,230 亿美元的链上数据资产,各行业采用速度加快。

用例扩展: 从投机扩展到研究、企业协作、AI 开发和公共产品协调。

问题不在于信息是否会成为一种资产类别,而在于基础设施扩展的速度以及哪种模式将占据主导地位。预测市场首先抢占了用户心智,但数据 DAO 和代币化协议最终可能会推动更大的价值流动。

2026 年的 InfoFi 格局:基础已夯实,用例已验证,机构开始采用,基础设施趋于成熟。下一阶段:集成到主流信息系统中,取代传统数据市场,成为信息交换的默认基础设施。

BlockEden.xyz 为 Web3 应用提供企业级基础设施,跨主要区块链生态系统提供可靠、高性能的 RPC 访问。探索我们的服务 以获取 InfoFi 基础设施和数据市场支持。


来源:

2026 年去中心化 GPU 网络:DePIN 如何挑战 AWS 价值 1000 亿美元的 AI 算力市场

· 阅读需 13 分钟
Dora Noda
Software Engineer

AI 革命引发了前所未有的算力渴求。虽然 AWS、Azure 和 Google Cloud 等超大规模云服务商主导了这一领域,但一类新兴的去中心化 GPU 网络正开始挑战它们的统治地位。随着 DePIN(去中心化物理基础设施网络)板块的市值在一年内从 52 亿美元爆炸式增长至超过 190 亿美元,且预计到 2028 年将达到 3.5 万亿美元,问题不再是去中心化计算是否会与传统云服务商竞争,而是它夺取市场份额的速度有多快。

GPU 稀缺危机:去中心化的绝佳时机

半导体行业正面临供应瓶颈,这印证了去中心化计算的论点。

全球最大的两家高带宽内存 (HBM) 生产商 SK 海力士 (SK Hynix) 和美光 (Micron) 均已宣布其 2026 年的全部产能已售罄。三星也警告称,由于需求大幅超过供应,价格将出现两位数的增长。

这种稀缺正在创造一个两级市场:能够直接访问超大规模基础设施的机构,以及其他所有人。

对于没有十亿美金预算的 AI 开发人员、初创公司和研究人员来说,传统的云模式呈现出三个关键障碍:

  • 极高的成本,可能消耗 50-70% 的预算
  • 灵活性极低的长期锁定合同
  • NVIDIA H100 或 H200 等高端 GPU 的可用性有限

去中心化 GPU 网络旨在解决这三个问题。

市场领导者:四种架构,一个愿景

Render Network:从 3D 艺术家到 AI 基础设施

Render Network 最初是为了聚合闲置 GPU 进行分布式渲染任务而构建的,现在已成功转向 AI 计算工作负载。该网络目前每月处理约 150 万帧,其在 2025 年 12 月推出的 Dispersed.com 标志着其向创意产业之外的战略扩张。

2026 年的关键里程碑包括:

  • AI 计算子网扩展:专门针对机器学习工作负载扩展了去中心化 GPU 资源
  • 入驻 600 多个 AI 模型:用于推理和机器人模拟的开放权重模型
  • 70% 上传优化:Blender 的差异化上传 (Differential Uploads) 大幅缩短了文件传输时间

该网络从以太坊迁移到 Solana(将 RNDR 更名为 RENDER),为其应对 AI 计算的高吞吐量需求奠定了基础。

在 CES 2026 上,Render 展示了旨在满足边缘机器学习 (Edge ML) 工作负载 GPU 需求爆发式增长的合作伙伴关系。从创意渲染向通用 AI 计算的转型,代表了 DePIN 领域最成功的市场扩张之一。

Akash Network:兼容 Kubernetes 的挑战者

Akash 采用了截然不同的逆向拍卖模式。GPU 提供商不采用固定定价,而是通过竞争来获取工作负载,在通过去中心化市场保持质量的同时降低成本。

结果显而易见:使用量同比增长 428%,进入 2026 年时利用率保持在 80% 以上。

该网络的 Starcluster 计划代表了其迄今为止最宏大的尝试——将集中管理的数据库中心与 Akash 的去中心化市场相结合,创建他们所谓的“全球网格 (Planetary Mesh)”,并针对训练和推理进行了优化。计划通过 Starbonds 收购约 7,200 颗 NVIDIA GB200 GPU,将使 Akash 有能力支持超大规模的 AI 需求。

2025 年第三季度指标显示势头正在加速:

  • 手续费收入环比增长 11%,达到 715,000 AKT
  • 新租约环比增长 42%,达到 27,000 份
  • 2026 年第一季度的销毁机制增强 (BME) 将 AKT 代币销毁与计算支出挂钩——每花费 1 美元,将销毁价值 0.85 美元的 AKT

凭借每月 336 万美元的计算交易量,这意味着每月可能销毁约 210 万枚 AKT(约 98.5 万美元),从而对代币供应产生通缩压力。

这种使用量与代币经济学之间的直接联系,使 Akash 与那些代币效用显得牵强或与实际产品采用脱节的项目区分开来。

Hyperbolic:成本颠覆者

Hyperbolic 的价值主张非常简单:以比 AWS、Azure 和 Google Cloud 低 75% 的成本提供相同的 AI 推理能力。该平台为超过 100,000 名开发人员提供支持,使用 Hyper-dOS(一种去中心化操作系统),通过先进的编排层协调全球分布的 GPU 资源。

该架构由四个核心组件组成:

  1. Hyper-dOS:协调全球分布的 GPU 资源
  2. GPU 市场:连接供应方与计算需求
  3. 推理服务:获取最前沿的开源模型
  4. 智能体框架 (Agent Framework):支持自主智能的工具

Hyperbolic 的独特之处在于其即将推出的抽样证明 (Proof of Sampling, PoSP) 协议——该协议是与加州大学伯克利分校和哥伦比亚大学的研究人员共同开发的,将为 AI 输出提供加密验证。

这解决了去中心化计算最大的挑战之一:在不依赖中心化机构的情况下实现无需信任的验证。一旦 PoSP 上线,企业将能够验证推理结果是否被正确计算,而无需信任 GPU 提供商。

Inferix:桥梁构建者

Inferix 将自己定位为需要 GPU 算力的开发者与拥有剩余产能的提供商之间的连接层。其按需付费模式消除了将用户锁定在传统云服务商中的长期承诺。

虽然在市场上相对较新,但 Inferix 代表了针对特定领域的专业 GPU 网络中不断壮大的群体——在这种情况下,是针对那些需要灵活、短时间访问且没有企业级需求的开发者。

DePIN 革命:数据说话

更广泛的 DePIN(去中心化物理基础设施网络)板块为理解去中心化 GPU 计算在基础设施版图中的位置提供了关键背景。

截至 2025 年 9 月,CoinGecko 追踪了近 250 个 DePIN 项目,总市值超过 190 亿美元,而 12 个月前仅为 52 亿美元。这种 265% 的增长率显著超过了更广泛的加密货币市场。

在这个生态系统中,AI 相关的 DePIN 在市值上占据主导地位,占该主题的 48%。去中心化计算和存储网络总计约 193 亿美元,占 DePIN 总市值的半数以上。

表现突出的项目展示了该行业的成熟:

  • Aethir:交付了超过 14 亿个计算小时,并报告 2025 年季度收入接近 4,000 万美元
  • io.net 和 Nosana:在各自的增长周期中市值均超过了 4 亿美元
  • Render Network:随着从渲染扩展到 AI 工作负载,其市值超过了 20 亿美元

超大规模云服务商的反论:中心化依然胜出的领域

尽管拥有引人注目的经济效益和令人印象深刻的增长指标,但去中心化 GPU 网络仍面临超大规模云服务商(Hyperscalers)专为处理而构建的合理技术挑战。

长周期工作负载:训练大型语言模型可能需要数周或数月的持续计算。去中心化网络难以保证特定 GPU 在长时间内保持可用,而 AWS 可以根据需要预留容量。

紧密同步:跨多个 GPU 的分布式训练需要微秒级的协调。当这些 GPU 分布在具有不同网络延迟的大洲时,维持高效训练所需的同步变得呈指数级困难。

可预测性:对于运行关键业务工作负载的企业来说,确切地知道预期的性能是不可协商的。超大规模云服务商可以提供详细的 SLA(服务水平协议);而去中心化网络仍在构建验证基础设施,以做出类似的保证。

基础设施专家的共识是,去中心化 GPU 网络在批处理工作负载、推理任务和短周期训练运行方面表现出色。

对于这些用例,与超大规模云服务商相比,50-75% 的成本节约是具有颠覆性的。但对于最苛刻、长期运行且关键任务的工作负载,中心化基础设施目前仍保持优势——至少目前如此。

2026 年催化剂:AI 推理爆发

从 2026 年开始,受三大趋同趋势驱动,AI 推理和训练计算需求预计将大幅加速:

  1. 智能体 AI(Agentic AI)的普及:自主智能体需要持久的计算来进行决策
  2. 开源模型的采用:随着公司逐渐脱离专有 API,他们需要基础设施来托管模型
  3. 企业 AI 部署:企业正在从实验转向生产

这种需求激增直接发挥了去中心化网络的优势。

推理工作负载通常是短周期的且具有高度可并行性——这正是去中心化 GPU 网络在成本上优于超大规模云服务商,同时提供同等性能的典型场景。为聊天机器人或图像生成服务运行推理的初创公司可以在不牺牲用户体验的情况下削减 75% 的基础设施成本。

代币经济学:激励层

这些网络中的加密货币组件不仅仅是投机——它是使全球 GPU 聚合在经济上可行的机制。

Render (RENDER):最初在以太坊上以 RNDR 形式发行,该网络在 2023-2024 年间迁移到 Solana,代币持有者以 1:1 的比例进行兑换。包括 RENDER 在内的 GPU 共享代币在 2026 年初飙升超过 20%,反映了市场对该板块日益增长的信心。

Akash (AKT):BME(销毁与铸造均衡)机制在网络使用量和代币价值之间建立了直接联系。与许多代币经济学与产品使用脱节的加密项目不同,Akash 的模型确保每 1 美元的计算费用都会直接影响代币供应。

代币层解决了困扰早期去中心化计算尝试的冷启动问题。

通过在网络早期利用代币奖励激励 GPU 提供商,这些项目可以在需求达到临界规模之前启动供应。随着网络的成熟,真实的计算收入将逐渐取代代币通胀。

这种从代币激励向真实收入的转变,是区分可持续基础设施项目与不可持续的“庞氏经济学”的试金石。

1000 亿美元的问题:去中心化算力能否与之竞争?

去中心化算力市场预计将从 2024 年的 90 亿美元增长到 2032 年的 1000 亿美元。去中心化 GPU 网络能否占据可观的市场份额,取决于能否解决以下三个挑战:

大规模验证:Hyperbolic 的 PoSP 协议代表了这一领域的进展,但行业仍需要标准化的方法来通过密码学方式验证计算工作是否正确执行。如果没有这一点,企业将始终持观望态度。

企业级可靠性:要在协调全球分布、独立运营的 GPU 时实现 99.99% 的在线率,需要复杂的编排能力——Akash 的 Starcluster 模型展示了一条可行的路径。

开发者体验:去中心化网络需要媲美 AWS、Azure 或 GCP 的易用性。Kubernetes 兼容性(如 Akash 所提供的)是一个开始,但与现有机器学习(ML)工作流的无缝集成至关重要。

这对开发者意味着什么

对于 AI 开发者和 Web3 构建者来说,去中心化 GPU 网络呈现出一个战略性机遇:

成本优化:训练和推理费用很容易占到 AI 初创公司预算的 50-70%。将这些成本降低一半或更多,将从根本上改变单位经济效益。

避免供应商锁定:超大规模云厂商让迁入变得容易,但迁出却异常昂贵。使用开放标准的去中心化网络保留了选择权。

抗审查性:对于可能面临中心化供应商压力的应用,去中心化基础设施提供了一个关键的弹性层。

需要注意的是工作负载与基础设施的匹配。对于快速原型设计、批处理、推理服务和并行训练任务,去中心化 GPU 网络现在已经准备就绪。而对于需要绝对可靠性的数周模型训练,超大规模云厂商目前仍是更安全的选择。

未来之路

GPU 短缺、AI 算力需求增长以及成熟的 DePIN 基础设施的融合,创造了一个罕见的市场机遇。传统云提供商通过提供可靠性和便利性统治了第一代 AI 基础设施。而去中心化 GPU 网络正在成本、灵活性和抗中心化控制方面展开竞争。

接下来的 12 个月将是决定性的。随着 Render 扩展其 AI 计算子网,Akash 将 Starcluster GPU 上线,以及 Hyperbolic 推出密码学验证,我们将见证去中心化基础设施是否能在超大规模下兑现其承诺。

对于目前正为稀缺 GPU 资源支付高昂价格的开发者、研究人员和公司来说,可靠替代方案的出现再及时不过了。问题不再是去中心化 GPU 网络是否会占领 1000 亿美元算力市场的一部分,而是能占领多少。

BlockEden.xyz 为开发者提供企业级区块链基础设施,助力构建持久稳定的基石。探索我们的 API 市场以访问领先区块链网络中可靠的节点服务。

2026 年隐私基础设施:重塑 Web3 根基的 ZK vs FHE vs TEE 之战

· 阅读需 15 分钟
Dora Noda
Software Engineer

如果区块链最大的漏洞不是技术缺陷,而是哲学缺陷呢?每笔交易、每个钱包余额、每次智能合约交互都暴露在公开账本上——任何有互联网连接的人都可以读取。随着机构资金涌入 Web3 以及监管审查的加强,这种激进的透明度正成为 Web3 最大的负担。

隐私基础设施之争已不再是意识形态的问题。这关乎生存。零知识证明项目市值超过 117 亿美元,全同态加密取得突破性进展,可信执行环境为 50 多个区块链项目提供支持,这三项相互竞争的技术正在汇聚,以解决区块链的隐私悖论。问题不在于隐私是否会重塑 Web3 的基础——而在于哪项技术将胜出。

隐私三难困境:速度、安全与去中心化

Web3 的隐私挑战反映了其扩容问题:你可以在任意两个维度上进行优化,但很难同时兼顾三个。零知识证明提供了数学上的确定性,但计算开销巨大。全同态加密允许对加密数据进行计算,但性能损耗极高。可信执行环境提供了原生的硬件速度,但通过硬件依赖引入了中心化风险。

每种技术代表了解决同一问题的根本不同的方法。ZK 证明问道:“我能否在不透露原因的情况下证明某事是真的?”FHE 问道:“我能否在不看数据的情况下对其进行计算?”TEE 问道:“我能否在现有硬件中创建一个不可穿透的黑匣子?”

答案决定了哪些应用成为可能。DeFi 需要高频交易的速度。医疗保健和身份系统需要加密保证。企业级应用需要硬件级别的隔离。没有单一技术能解决所有用例——这就是为什么真正的创新发生在混合架构中。

零知识证明:从研究实验室到 117 亿美元的基础设施

零知识证明已经从密码学的好奇点演变为生产级基础设施。凭借 117 亿美元的项目市值和 35 亿美元的 24 小时交易量,ZK 技术现在为有效性 Rollups(Validity Rollups)提供支持,从而缩短提款时间,压缩 90% 的链上数据,并实现保护隐私的身份系统。

突破发生在 ZK 超越简单的交易隐私时。现代 ZK 系统实现了大规模的可验证计算。像 zkSync 和 Polygon zkEVM 这样的 zkEVM 在继承以太坊安全性的同时,每秒处理数千笔交易。ZK Rollups 仅向第 1 层(Layer 1)发布极少的数据,将 Gas 费降低了几个数量级,同时保持了数学上的正确性确定性。

但 ZK 的真正威力体现在机密计算中。像 Aztec 这样的项目实现了私有 DeFi——受保护的代币余额、机密交易和加密的智能合约状态。用户可以证明自己有足够的抵押品获得贷款,而无需透露其净资产。DAO 可以对提案进行投票,而无需公开个人成员的偏好。公司可以在不披露专有数据的情况下验证监管合规性。

计算成本仍然是 ZK 的致命弱点。生成证明需要专用硬件和大量的处理时间。像 RISC Zero 的 Boundless 这样的证明网络尝试通过去中心化市场将证明生成商品化,但验证仍然是不对称的——易于验证,生成昂贵。这为延迟敏感型应用创造了一个天然的上限。

ZK 作为验证层表现出色——在不揭示计算本身的情况下证明有关计算的陈述。对于需要数学保证和公开可验证性的应用,ZK 仍然是无与伦比的。但对于实时机密计算,性能代价变得令人望而却步。

全同态加密:计算不可能之事

FHE 代表了隐私保护计算的终极目标:在不解密的情况下,对加密数据执行任意计算。其数学原理非常优雅——加密你的数据,将其发送到不受信任的服务器,让它们在密文上进行计算,接收加密结果,在本地解密。服务器在任何时候都看不到你的明文数据。

实际情况要复杂得多。FHE 操作比明文计算慢 100-1000 倍。对加密数据进行简单的加法需要复杂的基于格(lattice-based)的密码学。乘法更是呈指数级恶化。这种计算开销使得 FHE 对于大多数传统上每个节点都处理每笔交易的区块链应用来说是不切实际的。

像 Fhenix 和 Zama 这样的项目正从多个角度攻击这个问题。Fhenix 的可分解 BFV(Decomposable BFV)技术在 2026 年初取得了突破,为实际应用实现了性能和可扩展性更佳的精确 FHE 方案。Fhenix 并没有强迫每个节点都执行 FHE 操作,而是作为一个 L2 运行,由专门的协调器节点处理繁重的 FHE 计算并将结果批量处理到主网。

Zama 则通过其机密区块链协议(Confidential Blockchain Protocol)采取了不同的方法——通过模块化 FHE 库在任何 L1 或 L2 上实现机密智能合约。开发人员可以编写操作加密数据的 Solidity 智能合约,解锁以前在公共区块链中不可能实现的用例。

应用场景意义深远:防止抢跑(front-running)的机密代币交换、隐藏借款人身份的加密借贷协议、在不泄露个人选择的情况下计算投票总数的私有治理、防止出价窥探的机密拍卖。Inco Network 展示了具有可编程访问控制的加密智能合约执行——数据所有者可以指定谁可以对其数据进行计算以及在什么条件下进行计算。

但 FHE 的计算负担导致了根本性的权衡。目前的实现需要强大的硬件、中心化协调或接受较低的吞吐量。该技术是可行的,但将其扩展到以太坊的交易量规模仍是一个待解决的挑战。结合 FHE 与多方计算(MPC)或零知识证明的混合方法试图减轻其弱点——门限 FHE 方案将解密密钥分配给多个参与方,因此没有任何单一实体可以单独解密。

FHE 是未来——但这是一个以年而非月来衡量的未来。

可信执行环境:硬件速度与中心化风险

在 ZK 和 FHE 还在与计算开销搏斗时,TEEs 采取了一种完全不同的路径:利用现有的硬件安全特性来创建隔离的执行环境。Intel SGX、AMD SEV 和 ARM TrustZone 在 CPU 内部开辟出“安全飞地”(secure enclaves),即使是对操作系统或虚拟机监视器(hypervisor),其中的代码和数据也保持机密。

性能优势惊人——TEEs 以原生硬件速度执行,因为它们没有使用复杂的密码学运算。在 TEE 中运行的智能合约处理交易的速度与传统软件一样快。这使得 TEEs 能够立即应用于高吞吐量场景:机密 DeFi 交易、加密预言机网络、私有跨链桥。

Chainlink 的 TEE 集成展示了这种架构模式:敏感计算在安全飞地内运行,生成证明正确执行的密码学证据(cryptographic attestations),并将结果发布到公共区块链。Chainlink 栈同时协调多种技术——TEE 以原生速度执行复杂计算,而零知识证明验证飞地的完整性,从而在提供硬件性能的同时保证密码学确定性。

目前已有超过 50 个团队在构建基于 TEE 的区块链项目。TrustChain 将 TEE 与智能合约结合,在无需重量级密码算法的情况下保护代码和用户数据。Arbitrum 上的 iExec 提供基于 TEE 的机密计算基础设施。Flashbots 使用 TEE 优化交易排序并减少 MEV,同时维护数据安全。

但 TEEs 带来了一个有争议的权衡:硬件信任。与信任源于数学的 ZK 和 FHE 不同,TEEs 信任 Intel、AMD 或 ARM 能制造安全的处理器。如果出现硬件漏洞怎么办?如果政府强迫制造商引入后门怎么办?如果意外漏洞破坏了飞地安全怎么办?

Spectre 和 Meltdown 漏洞证明了硬件安全绝非绝对。TEEs 的支持者认为,证明机制(attestation mechanisms)和远程验证可以限制受损飞地造成的损害,但批评者指出,如果硬件层失效,整个安全模型就会崩溃。与 ZK 的“信任数学”或 FHE 的“信任加密”不同,TEEs 要求“信任制造商”。

这种哲学分歧分裂了隐私社区。务实派接受硬件信任以换取可投入生产的性能。纯粹主义者坚持认为,任何中心化信任假设都违背了 Web3 的初衷。现实情况是,两者并存,因为不同的应用有不同的信任需求。

融合:混合隐私架构

最先进的隐私系统不会只选择一种技术,而是组合多种方法来平衡权衡。Chainlink 的 DECO 将用于计算的 TEE 与用于验证的 ZK 证明相结合。一些项目将用于数据加密的 FHE 与用于去中心化密钥管理的多方计算(MPC)分层结合。未来的趋势不是 ZK vs FHE vs TEE——而是 ZK + FHE + TEE。

这种架构融合反映了更广泛的 Web3 模式。正如模块化区块链将共识、执行和数据可用性拆分为专门的层,隐私基础设施也在模块化。在注重速度的地方使用 TEE,在注重公开可验证性的地方使用 ZK,在数据必须保持端到端加密的地方使用 FHE。胜出的协议将是那些能够无缝协调这些技术的协议。

Messari 对去中心化机密计算的研究突出了这一趋势:用于双方计算的混淆电路、用于分布式密钥管理的多方计算、用于验证的 ZK 证明、用于加密计算的 FHE 以及用于硬件隔离的 TEE。每种技术解决特定问题。未来的隐私层将融合所有这些技术。

这解释了为什么超过 117 亿美元流向 ZK 项目,而 FHE 初创公司筹集了数亿美元,且 TEE 的采用正在加速。市场并没有押注于单一的赢家,而是在资助一个多种技术互操作的生态系统。隐私栈正变得像区块链栈一样模块化。

隐私作为基础设施,而非功能

2026 年的隐私格局标志着一种哲学转变。隐私不再是附加在透明区块链上的功能,而是正在成为基础性设施。新链在发布时就采用了隐私优先的架构。现有协议正在补齐隐私层。机构采用取决于机密交易处理。

监管压力加速了这一转型。欧洲的 MiCA、美国的 GENIUS 法案以及全球的合规框架都要求隐私保护系统满足相互矛盾的需求:在保持用户数据私密的同时,允许向监管机构进行选择性披露。ZK 证明可以在不泄露底层数据的情况下实现合规证明。FHE 允许审计员对加密记录进行计算。TEEs 为敏感的监管计算提供硬件隔离环境。

企业采用的叙事强化了这一趋势。测试区块链结算的银行需要交易隐私。探索链上医疗记录的医疗系统需要符合 HIPAA 标准。供应链网络需要机密业务逻辑。每一个企业用例都需要第一代透明区块链无法提供的隐私保证。

与此同时,DeFi 面临着抢跑(front-running)、MEV 提取以及破坏用户体验的隐私问题。交易员广播大额订单会提醒资深参与者抢先执行交易。协议的治理投票会暴露战略意图。钱包的完整交易历史暴露在竞争对手面前供其分析。这些不是极端情况,而是透明执行的根本局限。

市场正在做出反应。ZK 驱动的 DEX 隐藏交易细节,同时保持可验证的结算。基于 FHE 的借贷协议在确保超额抵押的同时隐藏借款人身份。支持 TEE 的预言机在不暴露 API 密钥或专利公式的情况下机密地获取数据。隐私正在成为基础设施,因为没有它,应用程序就无法运行。

前行的道路:2026 年及以后

如果说 2025 年是隐私技术的研究年,那么 2026 年就是生产部署年。ZK 技术市值突破 117 亿美元,有效性 Rollup(validity rollups)每日处理数百万笔交易。FHE 凭借 Fhenix 的可分解 BFV(Decomposable BFV)和 Zama 协议的成熟实现了性能突破。随着硬件证明标准(hardware attestation standards)的完善,TEE 的采用已扩展到 50 多个区块链项目。

但重大挑战依然存在。ZK 证明生成仍需要专用硬件,并造成延迟瓶颈。尽管近期有所进展,FHE 的计算开销仍限制了吞吐量。TEE 对硬件的依赖引入了中心化风险和潜在的后门漏洞。每种技术在特定领域表现出色,但在其他领域则面临困境。

获胜的方法可能不是意识形态上的纯粹性,而是务实的组合。利用 ZK 实现公开可验证性和数学确定性;在加密计算不可或缺的场景部署 FHE;在原生性能至关重要的地方利用 TEE。通过混合架构结合各项技术,在继承优势的同时减轻弱点。

Web3 的隐私基础设施正从实验性原型走向生产系统。问题不再是隐私技术是否会重塑区块链的基石,而是哪种混合架构将实现速度、安全和去中心化的“不可能三角”。长达 26,000 字的 Web3Caff 研究报告以及涌入隐私协议的机构资本表明,答案正在浮现:三者协同工作。

区块链不可能三角告诉我们,权衡是根本性的——但并非通过适当的架构就无法逾越。隐私基础设施正遵循同样的模式。ZK、FHE 和 TEE 各具独特能力。那些能将这些技术编排成统一隐私层的平台将定义 Web3 的下一个十年。

因为当机构资本遇到监管审查,再遇到用户对机密性的需求时,隐私就不再是一项功能。它是基石。


构建隐私保护的区块链应用需要能够大规模处理机密数据的底层设施。BlockEden.xyz 为注重隐私的链提供企业级节点基础设施和 API 访问,使开发者能够在为 Web3 未来设计的隐私优先基石上进行构建。

来源

Coinbase 首席执行官成为华尔街的“头号公敌”:加密货币未来的争夺战

· 阅读需 14 分钟
Dora Noda
Software Engineer

当摩根大通 (JPMorgan Chase) 首席执行官 Jamie Dimon 在 2026 年 1 月的达沃斯论坛上打断 Coinbase 首席执行官 Brian Armstrong 与英国前首相 Tony Blair 的咖啡茶叙时,他用手指着对方并宣布:“你纯粹在胡说八道。”这不仅仅是一场个人冲突。这次对抗具体化了加密货币成熟过程中最具决定性的冲突:传统银行业与去中心化金融基础设施之间的存亡之战。

《华尔街日报》将 Armstrong 称为华尔街的“头号公敌”,这并非夸大其词——它反映了一场围绕价值数万亿美元的全球金融体系架构展开的生死战。这场对抗的中心是《明确法案》(CLARITY Act),这是一份长达 278 页的参议院加密货币法案,它可能决定下一个十年是由创新还是由对既得利益者的保护来塑造行业。

达沃斯的冷遇:当银行闭门谢客

Armstrong 在 2026 年 1 月世界经济论坛上的遭遇读起来就像是企业惊悚片中的场景。在公开反对《明确法案》的草案条款后,他面临着美国银行业精英步调一致的冷遇。

这些遭遇的敌意惊人地一致:

  • 美国银行 (Bank of America) 的 Brian Moynihan 在耐着性子开了 30 分钟的会后,用一句话打发了 Armstrong:“如果你想成为银行,那就做银行该做的事。”
  • 富国银行 (Wells Fargo) 首席执行官 Charlie Scharf 则完全拒绝交流,称“他们之间没有什么好谈的”。
  • 花旗集团 (Citigroup) 的 Jane Fraser 只给了他不到 60 秒的时间。
  • Jamie Dimon 的对抗 最具戏剧性,他在公开场合指责 Armstrong 在电视上关于银行蓄意破坏数字资产立法的言论是“撒谎”。

这并非随机的敌意。这是对 Armstrong 在达沃斯会议开始前 24 小时撤回 Coinbase 对《明确法案》支持的回应,以及他随后在媒体上指责银行存在“监管俘获”行为的协同反击。

6.6 万亿美元的稳定币问题

核心争议围绕着一个看似技术性的条款:加密货币平台是否可以提供稳定币收益。但这对双方来说都是生死攸关的问题。

Armstrong 的立场:银行正在利用立法影响力来禁止那些威胁其存款基础的竞争性产品。稳定币收益——本质上是建立在区块链基础设施上的高息账户——为消费者提供了比传统储蓄账户更高的回报,同时提供 24/7 全天候运作和即时结算。

银行的反驳:稳定币收益产品应面临与存款账户相同的监管要求,包括存款准备金要求、FDIC 保险和资本充足率规则。允许加密货币平台绕过这些保护措施会产生系统性风险。

数据解释了这种紧张程度。Armstrong 在 2026 年 1 月指出,传统银行现在将加密货币视为“对其业务的生存威胁”。随着稳定币流通量接近 2,000 亿美元并迅速增长,即使只有 5% 的美国银行存款(目前为 17.5 万亿美元)转移,也将代表近 9,000 亿美元的存款损失,以及随之而来的手续费收入损失。

2026 年 1 月 12 日发布的《明确法案》草案禁止数字资产平台为稳定币余额支付利息,同时允许银行这样做。Armstrong 称这是“为了禁止竞争对手而进行的监管俘获”,并认为银行应该在“公平的竞争环境中竞争”,而不是通过立法来消除竞争。

监管俘获还是消费者保护?

Armstrong 对监管俘获的指控引起了强烈反响,因为它们揭示了金融监管在实际操作中令人不安的真相。

2026 年 1 月 16 日,Armstrong 在福克斯商业频道 (Fox Business) 的讲话中用直白的话语表达了他的反对意见:“对我来说,一个行业(银行)进来并获得监管俘获权以禁止其竞争对手,这显得极其不公平。”

他对《明确法案》草案的具体控诉包括:

  1. 事实上禁止代币化股票 —— 阻止区块链版本的传统证券的条款
  2. DeFi 限制 —— 模棱两可的语言,可能要求去中心化协议注册为中介机构
  3. 稳定币收益禁令 —— 明确禁止持有稳定币获得奖励,而银行则保留这种能力

监管俘获的论点在加密货币圈外也引起了共鸣。经济研究一致表明,成熟的参与者对管理其行业的规则施加了巨大的影响,往往损害了新进入者的利益。监管机构与其监管的金融机构之间的“旋转门”现象已是众所周知。

但银行反驳说,Armstrong 的定性误导了消费者保护的紧迫性。存款保险、资本要求和监管监督之所以存在,是因为银行体系的失败会产生摧毁经济的系统性连锁反应。2008 年的金融危机在人们记忆中依然鲜活,足以证明对监管较轻的金融中介机构保持谨慎是合理的。

问题变成了:加密货币平台提供的是真正不需要传统银行监管的去中心化替代方案,还是应该面临与银行相同规则的中心化中介机构?

中心化悖论

阿姆斯特朗(Armstrong)的立场正处于一个复杂局面:Coinbase 本身就体现了加密货币去中心化理想与中心化交易所现实处境之间的张力。

截至 2026 年 2 月,Coinbase 持有数以十亿计的用户资产,作为一个受监管的中间机构运行,其在托管和交易结算方面的运作模式与传统金融机构非常相似。当阿姆斯特朗反对类银行监管时,批评人士指出,Coinbase 在运营模式上看起来与银行惊人地相似。

这种悖论正在整个行业上演:

中心化交易所(CEXs) 如 Coinbase、Binance 和 Kraken 仍然占据着交易量的主导地位,提供了大多数用户所需的流动性、速度和法币入金通道。到 2026 年,尽管存在持久的托管风险和监管脆弱性,CEX 仍处理着绝大多数加密交易。

去中心化交易所(DEXs) 已显著成熟,Uniswap、Hyperliquid 和 dYdX 等平台每天处理数十亿美元的交易量,且无需中间机构。但它们仍面临用户体验摩擦、流动性碎片化以及 Gas 费用等问题的困扰,这使得它们在许多应用场景中并不实用。

关于交易所去中心化的争论并非学术讨论——它关系到加密货币能否实现其最初的“去中介化”承诺,还是仅仅通过区块链技术重新构建了一套传统金融体系。

如果说阿姆斯特朗是华尔街的敌人,部分原因在于 Coinbase 处于一个尴尬的中间地带:其中心化程度足以威胁传统银行的存款和交易处理业务,但其去中心化程度又不足以逃避因持有客户资产而带来的监管审查。

这场较量对加密架构的意义

阿姆斯特朗与戴蒙(Dimon)在达沃斯的对决将被视为一个关键时刻,因为它将原本隐晦的矛盾公开化了:加密货币的成熟意味着它将与传统金融在争夺相同客户、相同资产,以及最终在相同监管框架下展开直接竞争。

可能出现三种结果:

1. 传统金融赢得立法保护

如果《CLARITY 法案》通过且包含有利于银行的条款——禁止加密平台提供稳定币收益,同时允许银行提供——这可能会巩固一种双层体系。银行将凭借高收益产品保留其存款垄断地位,而加密平台则沦为没有直接客户关系的结算通道。

这种结果对去中心化来说将是一场惨胜。加密基础设施可能会驱动后端系统(正如摩根大通的 Canton Network 和其他企业区块链项目所做的那样),但面向消费者的层面仍将由传统机构主导。

2. 加密货币凭借实力赢得竞争

另一种可能是,保护银行的立法努力失败,而加密平台在用户体验、收益率和创新方面证明了其优越性。这是阿姆斯特朗希望看到的结果:通过竞争驱动进步的“正和资本主义”。

早期迹象表明这种情况正在发生。稳定币已经主导了许多地区的跨境支付,以 SWIFT 成本和时间的一小部分提供近乎瞬时的结算。加密平台提供 24/7 全天候交易、可编程资产以及传统银行难以企及的收益。

但这一路径面临巨大的阻力。银行的游说力量非常强大,且监管机构一直不愿让加密平台拥有它们所渴望的运营自由。2022-2023 年 FTX 及其他中心化平台的崩溃,为监管机构要求加强监管提供了借口。

3. 融合催生新型混合模式

最可能的结果是复杂的融合。传统银行推出基于区块链的产品(已有几家开展了稳定币项目)。加密平台变得越来越受监管且趋向银行化。新型混合模型——融合中心化与去中心化特征的“通用交易所(Universal Exchanges)”——将应运而生,服务于不同的应用场景。

我们已经看到了这一趋势。美国银行、花旗集团等都拥有区块链计划。Coinbase 提供的机构托管服务看起来与传统的主经纪商业务无异。DeFi 协议通过受监管的入金通道与传统金融整合。

问题不在于加密货币或银行谁“赢”,而在于由此产生的混合系统是否比我们今天的系统更开放、更高效、更具创新性,还是仅仅“旧瓶装新酒”。

更广泛的影响

阿姆斯特朗转变为华尔街的“头号宿敌”意义重大,因为它标志着加密货币已从投机性资产类别转向基础设施竞争。

当 Coinbase 在 2021 年上市时,人们仍有可能将加密货币视为与传统金融正交(互不相关)的领域——一个拥有自己规则和参与者的独立生态系统。到 2026 年,这一幻觉已经破灭。相同的客户、相同的资本,以及日益趋同的监管框架正同时适用于这两个世界。

银行在达沃斯对阿姆斯特朗表现出的冷淡,不仅仅是因为稳定币收益,更是因为他们意识到加密平台现在正直接竞争:

  • 存款和储蓄账户(稳定币余额 vs. 支票/储蓄账户)
  • 支付处理(区块链结算 vs. 卡组织网络)
  • 资产托管(加密钱包 vs. 证券经纪账户)
  • 交易基础设施(DEXs 和 CEXs vs. 证券交易所)
  • 国际转账(稳定币 vs. 代理行模式)

其中每一项业务都代表着传统金融机构每年数十亿美元的费用收入。阿姆斯特朗所代表的生存威胁并非意识形态上的,而是财务上的。

下一步:CLARITY 法案大决战

参议院银行业委员会已经推迟了 CLARITY 法案的审议会议,因为 Armstrong 与银行之间的对峙仍在继续。立法者最初设定了在 2026 年第一季度末完成立法的“激进”目标,但现在的进展让这一时间表显得过于乐观。

Armstrong 明确表示,Coinbase 无法支持“按现有条款”编写的法案。更广泛的加密货币行业也存在分歧——一些公司(包括 a16z 投资的公司)支持折中版本,而其他公司则站在 Coinbase 的强硬立场一边,反对被视为监管俘获的行为。

在闭门会议中,双方都在进行密集的游说。银行(从他们的角度)主张保护消费者和公平竞争环境。加密货币公司则主张创新和竞争。监管机构试图在管理系统性风险担忧的同时,平衡这些相互竞争的压力。

其结果可能将决定:

  • 稳定币收益是否会成为主流消费产品
  • 传统银行面临区块链原生竞争的速度有多快
  • 去中心化替代方案能否扩展到加密原生用户之外
  • 加密货币万亿美元市值中有多少会流入 DeFi,又有多少流入 CeFi

结论:一场加密货币灵魂之战

杰米 · 戴蒙(Jamie Dimon)在达沃斯对峙布莱恩 · 阿姆斯特朗(Brian Armstrong)的画面令人难忘,因为它戏剧化地展现了定义加密货币当前时刻的冲突:我们是在构建传统金融的真正去中心化替代方案,还是仅仅在构建新的中间机构?

Armstrong 作为华尔街“头号公敌”的角色源于这种矛盾的体现。Coinbase 既足够中心化,足以威胁银行的商业模式,又足够去中心化(在言论和路线图中),足以抵制传统的监管框架。该公司在 2026 年初以 29 亿美元收购 Deribit,表明它正在押注衍生品和机构级产品——这显然是类似银行的业务。

对于加密货币开发者和投资者来说,Armstrong 与银行的对峙至关重要,因为它将塑造未来十年的监管环境。限制性立法可能会冻结美国的创新(同时将其推向监管更宽松的司法管辖区)。过于宽松的监管则可能导致系统性风险,从而招致最终的严厉打击。

最佳结果——即在不巩固现有垄断者地位的情况下保护消费者的监管——需要金融监管机构完成一项历史性的高难度平衡任务。无论 Armstrong 对监管俘获的指控是被证实还是被驳回,这场斗争本身都证明了加密货币已经从实验性技术毕业,转变为严肃的基础设施竞争者。

BlockEden.xyz 提供专为合规和机构标准设计的企业级区块链 API 基础设施。探索我们的服务,在能够应对这一不断变化格局的基础上进行开发。


来源:

自主身份(SSI)的 66.4 亿美元时刻:为什么 2026 年是去中心化凭证的拐点

· 阅读需 24 分钟
Dora Noda
Software Engineer

数字身份体系已经崩溃。多年以来,我们对此心知肚明。中心化数据库被黑客攻击,个人数据被倒卖,用户对自己信息完全失去控制。但在 2026 年,情况正在发生根本性转变 —— 数据证明了这一点。

自主身份(SSI)市场从 2025 年的 34.9 亿美元增长到 2026 年预计的 66.4 亿美元,同比增长 90%。比金额更重要的是背后的驱动力:政府正在从试点转向生产环境,标准趋于统一,基于区块链的凭证正成为 Web3 缺失的基础设施层。

根据 eIDAS 2.0,欧盟强制要求所有成员国在 2026 年前提供数字身份钱包。瑞士今年将推出其国家电子身份(eID)。丹麦的数字钱包将于 2026 年第一季度上线。美国国土安全部正投资于去中心化身份以进行安全审查。这并非炒作 —— 而是政策使然。

对于 Web3 开发者和基础设施提供商而言,去中心化身份既是机遇也是要求。如果没有值得信赖、保护隐私的身份系统,区块链应用就无法从投机阶段跨越到现实世界的实用阶段。今年正是变革之年。

什么是自主身份?为什么它在当下至关重要?

自主身份颠覆了传统的身份模型。组织不再将你的凭证存储在中心化数据库中,而是由你自己在数字钱包中控制你的身份。你可以决定共享哪些信息、与谁共享以及共享多久。

SSI 的三大支柱

去中心化标识符 (DIDs):这些是全球唯一的标识符,使个人、组织和事物能够在不依赖中心化注册机构的情况下拥有可验证的身份。DIDs 符合 W3C 标准,专门为去中心化生态系统设计。

可验证凭证 (VCs):这些是防篡改的数字文档,用于证明身份、资格或状态。可以将其想象成数字驾照、大学毕业证或专业认证 —— 不同之处在于它们经过加密签名,存储在你的钱包中,并且任何获得许可的人都可以即时验证。

零知识证明 (ZKPs):这种加密技术允许你在不泄露底层数据的情况下证明特定属性。你可以证明自己年满 18 岁而无需共享出生日期,或者在不暴露财务历史的情况下证明信用水平。

为什么 2026 年有所不同

之前的去中心化身份尝试因缺乏标准、监管不确定性以及技术成熟度不足而停滞不前。2026 年的环境发生了巨大变化:

标准收敛:W3C 的可验证凭证数据模型 2.0 和 DID 规范提供了互操作性。 监管明晰:eIDAS 2.0、与 GDPR 的协调以及政府强制令创建了合规框架。 技术成熟:零知识证明系统、区块链基础设施和移动钱包用户体验已达到生产级质量。 市场需求:数据泄露、隐私担忧以及对跨境数字服务的需求驱动了采用。

数字身份解决方案市场(包括可验证凭证和基于区块链的信任管理)正以每年超过 20% 的速度增长,预计到 2026 年将超过 500 亿美元。到 2026 年,分析师预计 70% 的政府机构将采用去中心化验证,从而加速私营部门的采用。

政府采用:从试点到生产

2026 年最重要的进展并非来自加密初创公司 —— 而是来自在区块链轨道上构建身份基础设施的主权国家。

欧盟数字身份钱包

eIDAS 2.0 条例强制要求成员国在 2026 年前向公民提供数字身份钱包。这并非建议 —— 而是影响 4.5 亿欧洲人的法律要求。

欧盟数字身份钱包代表了迄今为止对法律身份、隐私和安全最全面的整合。公民可以将政府颁发的凭证、专业资格、支付工具以及公共服务访问权限存储在单一的、可互操作的钱包中。

丹麦已宣布计划在 2026 年第一季度上线国家数字钱包。该钱包将符合欧盟的 eIDAS 2.0 条例,并具备从驾照到教育证书的广泛数字凭证。

瑞士政府宣布计划从 2026 年开始发放电子身份(eID),并探索与 EUDI(欧盟数字身份)框架的互操作性。这表明非欧盟国家正在与欧洲标准接轨,以保持跨境数字互操作性。

美国政府举措

美国国土安全部正在投资去中心化身份,以加快安全和移民审查。旅客无需在过境时人工检查文件,而是可以出示其数字钱包中经过加密验证的凭证,在提高安全性的同时缩短处理时间。

西弗吉尼亚州试点开展了针对海外部队的区块链投票,展示了去中心化身份如何在保持选票秘密性的同时实现安全的远程投票。美国总务管理局和美国国家航空航天局(NASA)正在研究在采购和赠款管理中使用智能合约,并将身份验证作为基础组件。

加利福尼亚州和伊利诺伊州等州的机动车辆管理局正在试行基于区块链的数字驾照。这些不是手机上的 PDF 图像 —— 它们是经过加密签名的凭证,可以进行选择性披露(证明你年满 21 岁而无需透露确切的年龄或地址)。

从投机到基础设施的转变

2026 年,向去中心化未来的转变不再是投机者的游乐场——它已成为主权国家的主要工作台。各国政府正日益重塑 Web3 技术如何从实验阶段走向长期基础设施。

公共部门机构开始在核心系统中采用去中心化技术,特别是在透明度、效率和问责制至关重要的领域。到 2026 年,随着区块链上的数字身份、土地登记和支付系统的应用,试点项目预计将转化为现实。

顶级交易所的负责人报告称,已与 12 个以上的政府就国家资产代币化进行了磋商,数字身份作为身份验证层,可确保安全访问政府服务和代币化资产。

可验证凭证:驱动采用的用例

可验证凭证(Verifiable Credentials, VCs)并非理论构想——它们正在解决当今各行业的实际问题。了解 VC 产生价值的场景,可以更清晰地解释为什么其采用速度正在加快。

教育与职业凭证

大学可以颁发数字学位证书,雇主或其他机构可以立即进行验证。雇主无需索要成绩单、等待核实并承担欺诈风险,而是可以在几秒钟内通过密码学方式验证凭证。

职业认证的工作原理类似。护士执照、工程师资格证或律师执业证都变成了可验证凭证。发证机构颁发凭证,专业人士控制凭证,雇主或客户无需通过中介即可验证。

其好处在于:减少摩擦,杜绝证书造假,并赋予个人跨辖区、跨雇主拥有职业身份的权力。

医疗保健:保护隐私的健康记录

VC 实现了安全且保护隐私的健康记录和专业资格共享。患者可以与新医生分享特定的医疗信息,而无需传输整个病史。药剂师可以验证处方的真实性,而无需访问不必要的患者数据。

医疗保健提供者可以证明其资质和专业领域,而不必依赖可能产生单点故障和隐私漏洞的中心化认证数据库。

其价值主张极具吸引力:降低行政管理开销、增强隐私保护、加快资格验证以及改善患者护理协调。

供应链管理

在供应链中使用 VC 有着明显的机会,且具有多个潜在用例和优势。跨国公司利用区块链管理供应商身份,从而减少欺诈并提高透明度。

制造商可以通过检查加密签名的凭证,而不是进行漫长的审计或信任自报数据,来验证供应商是否符合特定认证(如 ISO 标准、道德采购、环境合规)。

海关和边境管制可以即时验证产品原产地和合规认证,缩短清关时间并防止假冒商品进入供应链。

金融服务:KYC 与合规

“了解你的客户”(KYC)要求在金融服务中造成了巨大的摩擦。用户反复向不同的机构提交相同的文档,而每个机构都进行冗余的验证过程。

通过可验证凭证,银行或受监管的交易所只需验证一次用户身份并颁发 KYC 凭证,用户就可以向其他金融机构出示该凭证,而无需重新提交文档。通过选择性披露,隐私得到了保护——机构只验证他们需要了解的信息。

VC 可以通过对标准(如认证或法律要求)进行编码和验证来简化监管合规,通过透明度和保护隐私的数据共享来培养更大的信任。

技术栈:DIDs、VCs 和零知识证明

了解自我主权身份的技术架构,可以阐明它是如何实现中心化系统无法实现的特性的。

去中心化标识符 (DIDs)

DIDs 是不由中心化机构颁发的唯一标识符。它们通过密码学方式生成,并锚定在区块链或其他去中心化网络上。一个 DID 看起来像这样:did:polygon:0x1234...abcd

关键属性:

  • 全球唯一:无需中央注册机构
  • 持久性:不依赖于任何单一组织的存续
  • 密码学可验证:通过数字签名证明所有权
  • 隐私保护:可以在不泄露个人信息的情况下生成

DIDs 使实体能够创建和管理自己的身份,而无需获得中心化机构的许可。

可验证凭证 (VCs)

可验证凭证是包含有关主体声明的数字文档。它们由受信任的机构颁发,由主体持有,并由依靠方进行验证。

VC 结构包括:

  • 颁发者 (Issuer):提出声明的实体(大学、政府机构、雇主)
  • 主体 (Subject):被声明的实体(你)
  • 声明 (Claims):实际信息(获得的学位、年龄验证、职业执照)
  • 证明 (Proof):证明颁发者身份真实性和文档完整性的密码学签名

VC 具有防篡改特性。对凭证的任何修改都会使密码学签名失效,从而使伪造在实际操作中变得不可能。

零知识证明 (ZKPs)

零知识证明是使选择性披露成为可能的技术。你可以证明关于你凭证的陈述,而无需泄露底层数据。

零知识驱动验证的示例:

  • 在不分享出生日期的情况下证明你年满 18 岁
  • 在不泄露确切分数或财务历史的情况下证明你的信用评分超过阈值
  • 在不泄露精确地址的情况下证明你是某国的居民
  • 在不泄露颁发机构的情况下证明你持有有效的凭证

Polygon ID 开创了 ZKPs 与去中心化身份的结合,使其成为首个由零知识密码学驱动的身份平台。这种结合以中心化系统无法企及的方式提供了隐私性、安全性和选择性披露。

引领行业的重大项目和协议

一些项目已成为去中心化身份的基础设施提供商,每个项目都采取了不同的方法来解决相同的核心问题。

Polygon ID:Web3 的零知识身份

Polygon ID 是一个面向下一代互联网的自主主权、去中心化且私密的身份平台。它的独特之处在于它是首个由零知识密码学驱动的平台。

核心组件包括:

  • 符合 W3C 标准的去中心化身份标识符 (DIDs)
  • 用于隐私保护声明的可验证凭证 (VCs)
  • 实现选择性披露的零知识证明
  • 与 Polygon 区块链集成以进行凭证锚定

该平台使开发者能够构建需要可验证身份且不损害用户隐私的应用 —— 这对于 DeFi、游戏、社交应用以及任何需要人格证明或凭证的 Web3 服务都至关重要。

World ID:人格证明

World(原名 Worldcoin)由 Sam Altman 支持,专注于解决人格证明问题。其身份协议 World ID 允许用户在不泄露个人数据的情况下,证明自己是互联网上真实的、唯一的个体。

这解决了一个 Web3 的根本挑战:如何在不创建中心化身份注册库的情况下,证明某人是一个独特的真人?World 使用生物特征验证(虹膜扫描)结合零知识证明来创建可验证的人格证明凭证。

用例包括:

  • 空投和治理中的女巫攻击防御
  • 社交平台的机器人防范
  • 需要“一人一票”的公平分配机制
  • 需要唯一身份证明的全球全民基本收入分配

Civic、Fractal 和企业级解决方案

其他主要参与者包括 Civic(身份验证基础设施)、Fractal(加密货币的 KYC 凭证),以及来自 Microsoft、IBM 和 Okta 的企业解决方案,这些方案正将去中心化身份标准集成到现有的身份和访问管理系统中。

方法的多样性表明市场足够庞大,足以支持多个赢家,每个赢家服务于不同的用例和用户群体。

GDPR 与去中心化身份的契合机遇

2026 年去中心化身份最引人注目的论据之一来自隐私法规,特别是欧盟的《通用数据保护条例》(GDPR)。

原生设计的数据最小化

GDPR 第 5 条规定了数据最小化原则 —— 仅收集特定目的所需的个人数据。去中心化身份系统通过选择性披露从本质上支持这一原则。

在证明年龄时,你无需共享整个身份文件(姓名、地址、出生日期、身份证号),而只需共享你已超过所需年龄阈值这一事实。请求方仅接收到所需的最低限度信息,而你保留对完整数据的控制权。

用户控制与数据主体权利

根据 GDPR 第 15-22 条,用户对其个人数据拥有广泛的权利:访问权、更正权、删除权、可携带权和限制处理权。中心化系统很难履行这些权利,因为数据通常重复存在于多个血缘不清的数据库中。

通过自主主权身份,用户可以保持对个人数据处理的直接控制。你可以决定谁可以访问哪些信息、访问多长时间,并可以随时撤销访问权限。这显著简化了对数据主体权利的合规工作。

原生设计隐私 (Privacy by Design) 指令

GDPR 第 25 条要求在设计和默认情况下保护数据。去中心化身份原则与这一指令天然契合。其架构从隐私作为默认状态开始,需要用户明确的操作来共享信息,而不是默认进行数据收集。

共同控制者的挑战

然而,仍有技术和法律上的复杂性需要解决。区块链系统通常旨在去中心化,用多个参与者取代单一的中心化主体。这使得责任和问责的分配变得复杂,特别是考虑到 GDPR 对“共同控制者”的定义较为模糊。

监管框架正在不断演变以应对这些挑战。eIDAS 2.0 框架明确接纳了基于区块链的身份系统,为责任和合规义务提供了法律清晰度。

为什么 2026 年是拐点

多个因素的汇聚使得 2026 年成为自主主权身份(Self-Sovereign Identity)实现突破的独特年份。

监管指令创造需求

欧盟 eIDAS 2.0 的截止日期为 27 个成员国创造了对合规数字身份解决方案的即时需求。供应商、钱包提供商、凭证颁发者和依赖方必须在法律规定的截止日期前实施具备互操作性的系统。

这种监管推动产生了连锁反应:随着欧洲系统的上线,寻求数字贸易和服务集成的非欧盟国家必须采用兼容的标准。欧盟 450 万人的市场成为了吸引全球标准对齐的引力场。

技术成熟助力规模化

零知识证明(Zero-knowledge proof)系统以前仅停留在理论层面或运行速度极慢,而现在已能在消费级设备上高效运行。zkSNARKs 和 zkSTARKs 实现了即时的证明生成和验证,无需专门的硬件。

区块链基础设施已经成熟,足以处理与身份相关的负载。Layer 2 解决方案为锚定 DIDs(去中心化标识符)和凭证注册表提供了低成本、高吞吐量的环境。移动钱包的用戶体验(UX)也从加密原生的复杂操作演变为消费者友好的界面。

隐私顾虑驱动采用

数据泄露、监视资本主义以及数字隐私的侵蚀已从边缘关注点转变为主流意识。消费者越来越意识到,中心化的身份系统为黑客创造了“蜜罐”,并被平台滥用。

向去中心化身份的转变已成为行业对数字监视最积极的回应之一。这些努力不再集中于单一的全球标识符,而是越来越多地强调选择性披露,允许用户在不泄露完整身份的情况下证明特定属性。

跨境数字服务需要互操作性

全球数字服务——从远程办公到在线教育再到国际贸易——都需要跨司法管辖区的身份验证。中心化的国家 ID 系统无法互操作。去中心化身份标准实现了跨境验证,而无需迫使用户进入碎片化的封闭系统中。

欧洲人可以向美国雇主证明其凭证,巴西人可以向日本大学验证其学历,印度开发人员可以向加拿大客户展示其声誉——所有这些都通过加密可验证凭证实现,无需中心化中介。

Web3 集成:身份是缺失的一层

对于区块链和 Web3 来说,要从投机转向实际应用,身份是必不可少的。DeFi、NFT、DAO 和去中心化社交平台在现实应用场景中都需要可验证身份。

DeFi 与合规金融

如果没有身份验证,去中心化金融就无法扩展到监管市场。抵押不足贷款需要信用验证。代币化证券需要合格投资者身份检查。跨境支付需要符合 KYC(了解你的客户)合规要求。

可验证凭证(Verifiable Credentials)使 DeFi 协议能够验证用户属性(如信用评分、合格投资者身份、所属司法管辖区),而无需在链上存储个人数据。用户保持隐私,协议实现合规,监管机构获得可审计性。

空投和治理的抗女巫攻击

Web3 项目一直在与女巫攻击(Sybil attacks)作斗争——即一个人创建多个身份来获取不成比例的奖励或治理权力。真人证明(Proof-of-personhood)凭证通过验证唯一的真人身份而不暴露该身份解决了这个问题。

空投可以将代币公平地分配给真实用户,而不是机器人农场。DAO 治理可以实现“一人一票”而非“一币一票”,同时保持投票者的隐私。

去中心化社交与信誉系统

像 Farcaster 和 Lens Protocol 这样的去中心化社交平台需要身份层来防止垃圾信息、建立信誉,并在无需中心化审查的情况下建立信任。可验证凭证允许用户在保持伪匿名的同时,证明自己的属性(如年龄、职业地位、社区成员身份)。

当用户控制自己的身份时,信誉系统可以跨平台积累。你的 GitHub 贡献、StackOverflow 声誉和 Twitter 关注者都会变成可携带的凭证,跟随你在不同的 Web3 应用中移动。

构建去中心化身份基础设施

对于开发人员和基础设施提供商来说,去中心化身份在整个技术栈中创造了机会。

钱包提供商和用户界面

数字身份钱包是面向消费者的应用层。这些钱包需要处理凭证存储、选择性披露和验证,且其用户体验(UX)要足够简单,以供非技术用户使用。

机会包括移动钱包应用程序、Web3 身份的浏览器扩展,以及用于组织机构凭证的企业钱包解决方案。

凭证颁发平台

政府、大学、专业机构和雇主需要平台来颁发可验证凭证。这些解决方案必须与现有系统(如学生信息系统、人力资源平台、许可数据库)集成,同时输出符合 W3C 标准的 VCs(可验证凭证)。

验证服务与 API

需要身份验证的应用程序需要 API 来请求和验证凭证。这些服务负责处理密码学验证、状态检查(凭证是否已被撤销?)以及合规性报告。

用于 DID 锚定的区块链基础设施

DID 和凭证撤销注册表需要区块链基础设施。虽然某些解决方案使用 Ethereum 或 Polygon 等公共区块链,但其他解决方案则构建了许可网络或结合了两者的混合架构。

对于构建需要去中心化身份集成的 Web3 应用程序的开发人员来说,可靠的区块链基础设施至关重要。BlockEden.xyz 为 Polygon、Ethereum、Sui 以及其他常用于 DID 锚定和可验证凭证系统的网络提供企业级 RPC 服务,确保你的身份基础设施能够以 99.99% 的在线率进行扩展。

面临的挑战

尽管势头强劲,但在自主主权身份实现主流采用之前,仍面临重大挑战。

生态系统间的互操作性

多种标准、协议和实现方法可能导致生态系统碎片化。在 Polygon ID 上颁发的凭证可能无法被基于不同平台构建的系统验证。行业围绕 W3C 标准的协调有所帮助,但实现细节仍然存在差异。

跨链互操作性——即无论哪个区块链锚定了 DID 都能验证凭证的能力——仍是一个活跃的开发领域。

恢复与密钥管理

自主主权身份将管理密码学密钥的责任交给了用户。丢失密钥就意味着丢失身份。这带来了 UX 和安全挑战:如何平衡用户控制权与账户恢复机制?

解决方案包括社交恢复(信任的联系人协助恢复访问权限)、多设备备份方案以及托管/非托管混合模式。目前尚未出现完美的解决方案。

监管碎片化

虽然欧盟通过 eIDAS 2.0 提供了清晰的框架,但全球范围内的监管方法各不相同。美国缺乏全面的联邦数字身份立法。亚洲市场采取了多种方法。这种碎片化使得构建全球身份系统变得复杂。

隐私与可审计性之间的张力

监管机构通常要求具备可审计性以及识别不良行为者的能力。而零知识系统则优先考虑隐私和匿名性。平衡这些相互竞争的需求——既能实现合法的执法,又能防止大规模监视——仍然存在争议。

解决方案可能包括向授权方进行选择性披露、实现多方监督的阈值密码学,或者在不透露身份的情况下提供合规性的零知识证明。

总结:身份即基础设施

2026 年自主主权身份 66.4 亿美元的市场估值不仅反映了炒作,更代表了基础设施的根本性转变。身份正在成为一个协议层,而不是一个平台功能。

欧洲各国的政府授权、美国的政府试点、零知识证明的技术成熟以及围绕 W3C 规范的标准融合,为大规模采用创造了条件。可验证凭证解决了教育、医疗、供应链、金融和治理等领域的实际问题。

对于 Web3 而言,去中心化身份提供了缺失的层级,从而实现合规性、抗女巫攻击和现实世界的实用性。没有它, DeFi 就无法扩展到监管市场;社交平台就无法防止垃圾信息; DAO 就无法实现公平治理。

挑战是现实存在的:互操作性差距、密钥管理的 UX 问题、监管碎片化以及隐私与可审计性之间的张力。但发展的方向是明确的。

2026 年并不是每个人都突然采用自主主权身份的一年。这一年,政府将部署生产系统,标准将趋于稳固,基础设施层将可供开发人员构建应用。利用该基础设施的应用程序将在接下来的几年中涌现。

对于在这个领域构建的人来说,这是一个历史性的机遇:构建下一代互联网的身份层——一个将控制权归还给用户、在设计上尊重隐私,并能跨越国界和平台运行的身份层。这其价值远超 66.4 亿美元。

来源: