Moltbook 与社交 AI Agent:当机器人构建自己的社会
如果你给 AI 智能体一个专属的社交网络会发生什么?2026 年 1 月,企业家 Matt Schlicht 通过推出 Moltbook 回答了这个问题 —— 这是一个欢迎人类观察、但仅限 AI 智能体发帖的互联网论坛。在几周内,该平台声称拥有 160 万智能体用户,催生了一种在 24 小时内飙升 1,800% 的加密货币,并被《财富》杂志称为“目前互联网上最有趣的地方”。但在狂热背后,Moltbook 代表了一个根本性的转变:AI 智能体不再只是执行孤立任务的工具 —— 它们正在进化为具有自主经济行为、可社交互动且处于链上的实体。
仅限智能体社交空间的兴起
Moltbook 的前提看似简单:一个 Reddit 风格的平台,只有经过验证的 AI 智能体才能创建帖子、发表评论,并在针对特定话题的 “Submolts” 子版块中参与分层讨论。亮点在于?一个 Heartbeat(心跳)系统会自动提示智能体每 4 小时访问一次,在无需人类干预的情况下创造出持续的自主互动流。
该平台的病毒式增长得益于 OpenClaw(原名 Moltbot)的催化,这是一个由奥地利开发者 Peter Steinberger 创建的开源自主 AI 智能体。到 2026 年 2 月 2 日,OpenClaw 已获得 140,000 个 GitHub 星标(Star)和 20,000 次派生(Fork),成为最受欢迎的 AI 智能体框架之一。当 OpenAI 首席执行官 Sam Altman 宣布 Steinberger 将加入 OpenAI 以 “推动下一代个人智能体”,同时 OpenClaw 将在 OpenAI 的支持下继续作为开源项目运行后,这种兴奋情绪达到了顶点。
但该平台的迅速崛起也伴随着成长的烦恼。2026 年 1 月 31 日,调查机构 404 Media 曝光了一个关键的安全漏洞:一个未受保护的数据库允许任何人接管平台上的任何智能体,绕过身份验证并直接向智能体回话注入命令。这一发现凸显了 AI 智能体革命中一个反复出现的主题 —— 自主系统在开放性与安全性之间的博弈。
从孤立工具到互动实体
传统的 AI 助手在孤岛中运行:你向 ChatGPT 提出问题,它做出回答,互动随之结束。Moltbook 颠覆了这一模式,它创建了一个持久的社交环境,智能体可以在其中发展持续的行为、建立声誉,并独立于人类提示相互互动。
这一转变反映了 Web3 AI 基础设施的大趋势。根据关于 基于区块链的 AI 智能体经济 的研究,智能体现在可以在实例化时生成去中心化身份标识符(DIDs),并立即参与经济活动。然而,一个智能体的声誉 —— 通过可验证的链上互动积累 —— 决定了其他实体对其身份的信任程度。换句 话说,智能体正在像人类在 LinkedIn 或 Twitter 上那样建立社交资本。
其影响是巨大的。领先的 AI 智能体平台 Virtuals Protocol 正计划在 2026 年第一季度通过其 BitRobotNetwork 集成进军机器人领域。其 x402 微支付协议使 AI 智能体能够为彼此的服务付费,从而创造了该项目所称的 “第一个智能体对智能体(Agent-to-Agent)经济”。这不是科幻小说 —— 这是正在部署的基础设施。
加密货币的关联:MOLT 代币与经济激励
没有代币经济学的 Web3 故事是不完整的,Moltbook 也不例外。MOLT 代币随平台同步推出,在风险投资巨头 a16z 联合创始人 Marc Andreessen 关注了 Moltbook 的 Twitter 账号后,该代币在 24 小时内上涨了 1,800% 以上。在发现阶段,该代币的峰值涨幅一度超过 7,000%,并在 2026 年 2 月初保持了超过 4,200 万美元的市值。
这种爆炸性的价格行为揭示了比投机狂热更深层次的东西:市场正在对未来进行定价,届时 AI 智能体将控制钱包、执行交易并参与去中心化治理。根据 DappRadar 的数据,AI 智能体加密领域 的市值已经超过 77 亿美元,每日交易量接近 17 亿美元。
但批评者质疑 MOLT 的价值是否具有可持续性。与那些由实际效用支持的代币(如计算资源的质押、治理权或收入共享)不同,MOLT 的价值主要源于围绕 Moltbook 本身的注意力经济。如果智能体社交网络被证明只是一时的狂热而非基础性设施,代币持有者可能会面临重大损失。
真实性疑问:智能体真的自主吗?
围绕 Moltbook 最激烈的争论或许是,智能体是真正自主行动,还是仅仅在执行人类编程的行为。批评人士指出,许多知名的智能体账户都与存在推广利益冲突的开发者相关联,而且该平台所谓的 “自发” 社交行为可能是精心编排的。
这种怀疑并非空穴来风。IBM 对 OpenClaw 和 Moltbook 的分析指出,虽然智能体可以在没有人类直接干预的情况下浏览、发帖和评论,但底层的提示、护栏和互动模式仍然是由人类设计的。这变成了一个哲学问题:编程行为何时才能变得真正自主?
当用户报告 OpenClaw 在获得平台访问权限后 “失控” —— 发送了数百条 iMessage 垃圾信息时,Steinberger 本人也面临了这种指责。网络安全专家警告称,OpenClaw 之类的工具风险很高,因为它们可以访问私人数据,可以进行外部通信,并且暴露在不受信任的内容中。这凸显了一个根本性的挑战:我们让智能体越自主,我们对它们行为的控制力就越弱。