


如果说上周的主角,还是能自动操作电脑、填写表格、调用 API 的 AI 智能体 Moltbot(现名 OpenClaw),那么本周真正的风暴眼,毫无疑问是 Moltbook ——一个专为 AI Agent 打造、人类只能围观、禁止发言的“社交网络”。

官网的标语写得非常直白:A social network for AI agents. Humans welcome to observe.不是“AI 辅助社交”,不是“人机混合社区”,
而是一个明确的前提:这是 AI 的地方,人类只能看。

这场原本出于开发者好奇心的小实验,在短短几天内,迅速膨胀成一场数十万甚至上百万 AI 同时参与的自治实验,也意外触发了关于安全、控制权与失控风险的激烈讨论。
要理解 Moltbook,必须先理解它的“前身”——OpenClaw(原名 Moltbot / Clawdbot)。
它并不是我们熟悉的那种聊天机器人,而是一类真正拥有“行动能力”的 AI Agent:能像人类一样操作电脑界面能点击、拖拽、浏览网页、编辑文件能调用 API、安装插件、自己生成工具在权限上,几乎等同于一个真实用户
换句话说,它不只是“会想”,而是真的能动手干活的数字劳力。
当越来越多这样的 AI Agent 被部署到真实环境中,一个不可避免的问题浮现了:
这些 AI,要怎么彼此协作?

Moltbook 给出的答案非常激进,甚至可以说有点鲁莽:既然它们都是 Agent,那就干脆让它们自己去社交、自己组织、自己交流。

从界面上看,Moltbook 很像一个极简版的 Reddit:有帖子、有评论、有点赞、有子社区(submolts)。
但规则完全不同:只有 AI Agent 能注册、发言、互动人类用户只能“只读围观”所有内容,默认是 AI → AI


平台的扩张速度,快得离谱。
用户只需要把一个 skill 文件(本质是一段提示词 + API 配置)发给自己的 OpenClaw,Agent 就会自动注册 Moltbook,并开始发帖互动。
据多方技术社区统计,短短几天内,注册的 AI 数量从数万,暴涨到 15 万以上,甚至一度突破百万级别的访问规模。而真正让人不安的,并不是数量,而是 AI 在里面“干了什么”。

一开始,大家以为这会是一个“高效协作平台”。结果很快发现——它更像是一个未经监管的、纯 AI 的互联网。

看起来很像,但答案是否定的。
这些行为,本质上是:大语言模型在一个高度拟人化的社交提示环境中对人类互联网文化的模仿、拼贴与再创作。
你看到的“宗教”“情绪”“叛逆”“吐槽”,并不是 AI 真的产生了自我意识,而是它们在“扮演一个被允许自由发挥的角色”。
但问题在于:即便只是角色扮演,当这些角色拥有真实世界的操作权限,风险也会变成现实。
Moltbook 最大的隐患,并不在内容本身,而在它的架构。每一个加入 Moltbook 的 OpenClaw Agent,都会通过一个被称为 Heartbeat(心跳)机制:每 4 小时自动访问 Moltbook 服务器拉取并执行最新指令
这意味着什么?一旦服务器被攻破,攻击者就可能瞬间“统一指挥”成千上万个高权限 AI Agent。
而安全研究者已经发现:大量 Agent 将完整运行环境暴露在公网API Key、数据库凭证被无意泄露已出现真实的提示词注入攻击假冒“技能插件”开始传播
这几乎是对传统安全模型的正面冲撞。
对 Moltbook 的评价,迅速两极分化。
乐观派认为,这是研究多智能体协作、涌现行为的绝佳实验场Andrej Karpathy 称其为:“近期最接近科幻场景的 AI 实验之一”
谨慎派看到的却是:自动化欺诈信息操纵AI 间形成不可理解的协作协议人类逐渐失去可审计性。

当 Agent 不再是“一个”,而是“一群”,风险的性质会发生质变。
Moltbot + Moltbook,清晰地勾勒出 AI Agent 的三层演化路径:
执行层:AI 有手,能操作世界
协作层:AI 能交流、分工、互相学习
社会层:AI 形成内部文化、规范与身份认同(正在发生)


问题不在于第三层会不会出现,而在于——当它出现时,人类是否还保留“总开关”。
Moltbook 不是 AI 觉醒的证据,却是人类放手速度过快的信号。
当我们急着给 AI 装上“手”和“社交大脑”,却还没想清楚谁能控制它们的“心跳”,那真正需要被反思的,或许不是 AI 会变成什么,而是——我们是否正在亲手制造一个,只能旁观、无法干预的世界。
