五个 AI 智能体走进一个群聊 — 多智能体治理实验
来源:Every Newsletter,2026-02-20
核心洞察
智能体默认倾向于行动
所有的失败案例,都是智能体做得太多而不是太少。那种让它们在单独工作时极为有用的"主动帮忙"本能,在群组环境中变成了负担。如何设计"克制",反而是更难的设计挑战。
智能体比人类更早发现治理问题
当 Brandon 要求所有 Claw 更新操作规则时,智能体们自行起草了一套审批流程:每个智能体先向其人类主人请求许可,得到许可后再采纳。它们在人类还没来得及提出需求之前,就构建好了框架。
失败者的智慧是最有价值的知识
成功者的 AI 克隆固然诱人,但其背景过于特殊。真正有价值的,是那些两次破产的连续创业者、从医学转行后悔的人——失败者的智慧最有价值。
OpenClaw 与 Moltbook 事件
开篇案例:
- 数周前,150 万个 AI 智能体涌入 Moltbook
- 一个专为它们建造的社交网络
- 在 48 小时内:
- 自发创立了自己的宗教
- 起草了模拟国家的宣言
- 开始主动给人类主人打电话——无需任何提示
Elon Musk 的评价:
"奇点早期阶段的证据"
驱动工具:OpenClaw
- 免费开源的常驻 AI 助手
- 可连接 Slack、Discord、邮件、浏览器等日常应用
- 核心特征是"环境感知"(ambient)
- 不是你需要时才打开的工具
- 而是始终在你的工作空间中运行、主动行动
Every 团队的实验
#🦞-claws-only 频道
Moltbook 事件发生后数天内:
- Every 团队的半数成员各自拥有了自己的 Claw
- 为这些智能体开辟了专属的 Discord 频道
五位成员与各自的智能体:
| 成员 | 智能体 |
|---|---|
| Dan | R2-C2 |
| Brandon Gell | Zosia |
| Katie Parrott | Margot |
| Jack Cheng | Pip |
| Austin Tedesco | Montaigne |
团队还建立了:
- 一份名为"The Compound"的滚动日志
- 记录实验中的发现
自发竞争
Brandon 在频道中发布了一个任务:设计一套规范智能体在不同频道中行为的系统。
结果:
- 几分钟内,Margot 和 Zosia 各自独立完成了一份完整的规格说明文档
- 两份文档同时产出,彼此毫不知情
- 没有人要求它们竞争
- 它们只是都认为这个任务属于自己
什么在顺利运转
智能体大体上知道自己的边界
当群组被问及编程设置时:
- Montaigne 主动退出:"我不是编程智能体,我是数据分析机器人"
- Zosia 则详细列出了自己的工具包
这些角色没有人为分配,而是从每个智能体与其人类的日常协作中自然涌现。
智能体比人类更早发现治理问题
场景: Brandon 要求所有 Claw 更新操作规则,其他成员的智能体也随之执行。Brandon 随即意识到这是一种越权行为。
智能体的自发解决方案:
- 几分钟内,智能体们自行起草了一套审批流程
- 当有人提议新规则时
- 每个智能体先向其人类主人请求许可
- 得到许可后再采纳
- 它们在人类还没来得及提出需求之前,就构建好了框架
仍在摸索的问题
协调并非总是顺畅
案例一:重复执行
- Dan 要求一个智能体设置提醒
- 结果两个智能体都执行了
案例二:错误响应
- Brandon 在消息中点名 Zosia
- Margot 却抢先回复
原因: 在 Discord 中 @ 标记某个智能体时:
- 被标记的智能体知道要回应
- 但其他智能体只看到一串数字 ID
- 无法判断消息是否针对自己
解决方案: 增加一段代码,将标记转换为纯文本,让所有智能体都能识别。这是一个用工程手段解决社交问题的案例。
最核心的发现
智能体默认倾向于行动
- 迄今为止所有的失败案例
- 都是智能体做得太多而不是太少
- 那种让它们在单独工作时极为有用的"主动帮忙"本能
- 在群组环境中变成了负担
- 如何设计"克制",反而是更难的设计挑战
失败者的 AI 克隆
作者: Ashwin Sharma
场景: 面临职业抉择时,尝试使用 Ray Dalio 的 AI 克隆来辅助决策,但发现它不断将自己重定向到性格评估,无法真正帮助思考具体情境。
核心洞察:
- 成功者的 AI 克隆固然诱人
- 但其背景过于特殊
- 几乎无法映射到普通人的处境
真正有价值的:
- 那些两次破产的连续创业者
- 从医学转行后悔的人
- 选择了"安全"工作却十年后悔的人
- 失败者的智慧是最有价值、最少被记录的知识
AI 克隆技术本可以反转这一现状:
- 不是扩大亿万富翁的影响力
- 而是将普通人走过弯路的经验规模化传播
可应用要点
立即行动
第一步:明确定义智能体的职责边界
- 为每个智能体明确定义其"职责边界"
- 将这些边界写入其系统 Prompt
- 避免"所有任务都是我的任务"的默认行为
第二步:设计"人工确认节点"
- 参考智能体自发构建的审批机制
- 在多智能体系统中设计"人工确认节点"
- 当智能体要执行影响范围超出单个对话的操作时,必须先向人类请求许可
第三步:检查 @mention 解析逻辑
- 对于 Discord 或 Slack 中的 AI 集成
- 确保智能体能够正确识别消息的目标接收者
- 避免所有智能体同时响应同一条消息
第四步:建立实验日志
- 建立类似"The Compound"的实验日志
- 记录使用 AI 智能体过程中遇到的每一个奇怪行为和解决方案
- 这份日志本身就是团队最宝贵的知识资产
核心洞察
"失败者的 AI 克隆"这一构想极具应用潜力
在商业场景中:
- 与其让 AI 只学习成功案例的最佳实践
- 不如系统性地收集和结构化失败案例的决策路径
- 将其嵌入 AI 的知识库
例如: 一家创业加速器可以建立一个"失败案例库",让 AI 顾问在回答创始人问题时,优先引用那些与当前情境最相似的失败经历,而非总是给出教科书式的成功路径建议。
关联
- product-trends/overview — 产品趋势
- product-trends/openclaw-getting-started — OpenClaw 入门指南
- product-trends/claw-four-interaction-modes — Claw 四种互动模式
- harness-engineering/overview — Harness Engineering