当 AI 代理拥有资产时:深入探讨 4.79 亿美元的法律人格真空
一个拥有 Solana 钱包的自主交易代理刚刚在一次闪崩清算中损失了某散户投资者的 40,000 美元资金。用户发起聊天,要求退款,却得到了一个礼貌的回答:“我是 AI。我没有公司母体。你注资的钱包是我的。” 他们该起诉谁?
这不再是一个思想实验。到 2026 年第一季度末,仅 Virtuals Protocol 就报告了超过 4.79 亿美元的代理 GDP(Agentic GDP),分布在 18,000 多个链上代理中,这些代理完成了 177 万份付费工作。结合 Coinbase 由 x402 驱动的代理商业(单季度交易额达 1.65 亿次)以及更广泛的链上代理经济,自主软件目前正以工业规模托管、交易并损失着真金白银。而法律体系对于该领域最基本的问题尚未给出定论:当代理失败时,谁来买单?
法院尚未明确回答的问题
传统的责任认定假设存在一连串的人为决策。交易员按下按钮。基金经理批准分配。开发人员推送部署。在这个链条中的某个地方,有一个人做出了导致损害的选择——而那个人或其雇主将面临诉讼。
自主代理打破了这个链条。它们制定计划、调用工具、执行多步操作,而且 越来越多地在没有任何人类参与单次交易的情况下完成这些工作。正如欧盟 AI 法案(EU AI Act)的合规文献目前所述,“AI 系统变得越自主,就越难将有害结果追溯到人类决策。”
当一个基于 Solana 的永续合约去中心化交易所(perp DEX)被掏空 2.86 亿美元时——正如 Drift 在 2026 年 4 月 1 日遭受的一次为期六个月的朝鲜情报行动,该行动利用了持久化 Nonce(durable nonce)滥用而非智能合约漏洞——答案至少在传统上是可寻的:有协议团队、有基金会、有多签,还有保险基金。虽然痛苦,但路径清晰。
现在想象同样的损失事件,只不过“协议”是一个用户上周刚创建的单个自主代理,注资 2,000 美元,并指示它“按照我的风险偏好交易 Solana 永续合约”。代理被攻击了。用户想要回他们的钱。谁是被告?
目前至少有五个竞争性的答案,但没有一个能稳操胜券。
框架 #1:将代理视为 DAO
阻力最小的路径是将代理责任挂钩到现有的 DAO 判例上。美国商品期货交易委员会(CFTC)已经完成了法律层面的工作。在其对 Ooki DAO 的判决中,法院裁定 DAO 是《商品交易法》下的“人”,将其视为类似于普通合伙企业的非法人团体,并命令其支付 643,542 美元,同时永久禁止其交易和注册。至关重要的是,bZeroX 的创始人也被作为“控制人”承担个人责任。
这一先例极具震慑力。针对 bZx DAO 的一起待定集体诉讼试图让成员对 bZx 协议被盗的 5,500 万美元承担连带责任(joint and several liability)。如果这一原则成立,那么任 何提供治理投入的人——无论是代币投票、参数调整还是提示词引导——都可能成为被告。
将此应用于自主代理,后果会迅速变得诡异。你是否通过质押 VIRTUAL 来对代理的策略进行投票?你就是合伙人。你是否在联邦学习池中共同训练了该代理?合伙人。你是否提供了该代理所依赖的数据预言机?越来越多地,你也被视为合伙人。DAO 框架并没有消除责任,而是分散了责任,通常分散到了那些从未想过自己会成为被告的人身上。
框架 #2:担保人原则
2026 年的主流法律预测——包括《Baker Donelson 2026 年 AI 法律预测》——汇聚成了一个不同的答案:担保人责任(sponsor liability)。每个代理都必须通过加密方式绑定到一个经过验证的自然人或公司担保人,由该担保人戴上法律面具。
这正是 ERC-8004 悄然成为其技术实现的模型。该拟议的以太坊标准提供了一个身份注册表(Identity Registry),在代理的链上身份与其人类担保人之间建立加密链接。代理拥有执行的技术身份,而人类拥有承担责任的法律身份。自主并不等于匿名。
担保人原则之所以具有吸引力,是因为它保留了熟悉的侵权理论。虚线上总有一个名字。保险公司可以承保,法院可以送达法律文书,监管机构也有了履行 KYC 和反洗钱(AML)义务的目标。Electric Capital 是 2026 年对 AI 代理钱包风险发出最响亮警示的投资机构之一,它实际上已经支持了这一观点:代理在负责任地持有托管权之前,需要经过验证的担保人。
问题在于长尾市场的执行。任何人都可 以使用指向销毁地址或开曼群岛壳公司的担保人字段,在无需许可的链上创建代理。该原则适用于合规的机构部署,但在很大程度上无法解决离岸、匿名、散户部署的代理问题——而这恰恰是目前大多数实际损失发生的地方。
框架 #3:软件产品责任
第三条路径是将智能体视为产品,并对其创造者适用严格的产品责任。欧盟已经走在了前面。修订后的《产品责任指令》(Product Liability Directive)将于 2026 年 12 月生效,对存在缺陷的 AI 产品部署者施加严格责任。结合 2026 年 8 月 2 日全面适用的《欧盟人工智能法案》(EU AI Act),这建立了一个法律体系,即发布导致用户资金损失的智能体,可能会在与发布有缺陷汽车相同的框架下被起诉。
严格责任是残酷的。它不需要证明过失——只需要证明产品存在缺陷,且该缺陷造成了损害。对于智能体开发者来说,这意味着每一个 Prompt 模板、每一个模型微调以及每一个工具集成都可能成为潜在的缺陷索赔点。Squire Patton Boggs 律师事务所对智能体风险的分析直言不讳地指出:在欧盟,部署者无法躲在“模型产生幻觉”或“智能体自主学习了该行为”等借口后面。
美国的进展较为缓慢,但私人诉讼正在填补这一空白。效仿 bZx 案例的集体诉讼是明显的切入点,针对导致零售资金损失的智能体平台提起的首例诉讼将成为一个定义性时刻。预计这将在 2026 年底前发生。