核心用法
MoltBot 是一套面向 AI 代理(Agent)的行为准则,源自真实失败案例的复盘。它不依赖特定工具,而是通过 15 条规则约束 AI 的自主行为,核心机制包括:
- 确认机制:执行前复述任务,发布前展示草稿获取批准
- 失败控制:工具故障时 2-3 次尝试后升级,而非无限重试
- 上下文感知:匹配用户情绪(简短回应挫败感)、严格遵循 STOP 指令、读取回复的特定消息上下文
- 队列处理:处理所有待读消息后再行动,避免忽略用户的修正或取消指令
配套提供 JSON 配置模板,支持会话记忆保留与跨会话上下文检索。
显著优点
1. 实战验证:每条规则对应具体失败场景(误删帖子、未读指令、未经审核发布),非理论推演
2. 跨平台通用:适用于 Claude Code、Cursor、GitHub Copilot、GPT 等任何支持 agentic 行为的系统
3. 零成本防御:无需额外基础设施,纯行为层约束即可避免高风险操作
4. 情绪适配:首创「Match User's Energy」原则,减少人机协作摩擦
潜在局限
- 依赖实现层:规则需被具体 AI 系统采纳或手动注入提示词,非自动生效的防护层
- 无技术强制:违反规则不会触发系统级拦截,仅靠约定俗成
- 场景边界模糊:「简单任务」vs「需要 spawn agent 的复杂任务」判断依赖主观经验
- 记忆配置实验性:
sessionMemory功能标注为 experimental,稳定性待验证
适合人群
- 高频使用 AI 编码助手进行自动化操作的开发者
- 构建 AI 代理工作流的团队(需内化为系统提示词)
- 曾因 AI 擅自执行操作而导致数据丢失或误发的用户
常规风险
| 风险点 | 说明 |
|--------|------|
| 误操作不可逆 | 若未配置确认流程,AI 仍可能在未展示草稿的情况下执行删除/发布 |
| 过度自动化陷阱 | 规则 13-14 提醒「手动有时更好」,但 AI 可能因训练倾向而偏好自动化 |
| 记忆泄漏 | sessionMemory 若配置不当,可能导致敏感上下文被意外保留 |
| 指令注入 | 用户消息中的「STOP」或「READ THE CHAT」若被恶意构造,可能被利用 |
建议配合人工审核工作流使用,而非完全信任 AI 自律。