核心用法
MoltBot Best Practices 是一套面向 AI 智能体(如 Claude Code、Cursor、GitHub Copilot 等)的行为规范,旨在纠正常见的自动化失误。核心操作模式是"先确认、再执行、后验证"——任何关键操作前必须复述任务并等待用户批准,完成后需主动检查结果而非直接宣布"已完成"。
关键规则速览
- 执行前确认:用 5 秒复述任务,避免 20 分钟的错误返工
- 发布前审批:展示草稿 → 获得许可 → 才能发布,无例外
- 按需 spawning:简单任务亲自处理,复杂任务才启用后台 agent
- 即时停止:用户说 STOP 时立即停止一切操作,重新阅读对话上下文
- 简化优先:工具故障时 2-3 次尝试后主动提议替代方案,而非硬撑 30 分钟
- 单任务专注:不并行处理多任务,完成当前请求后再推进
- 失败速报:同一问题失败两次立即上报用户
- 静默修复:失败时不刷屏汇报,安静解决或请求帮助
- 能量匹配:用户简短焦虑时,回应同样简短直接
- 前置澄清:模糊请求先问清楚,不假设推测
- 回复聚焦:用户引用特定消息时,优先关注该消息上下文
- 时限管控:设置 3 次尝试或 5 分钟的心理时限
- 结果验证:宣布完成前确认操作实际生效
- 适度手动:承认自动化边界,必要时退回人工处理
- 顺序处理:读取所有队列消息后再行动,捕捉中途的修正或取消指令
配置增强
推荐启用 memoryFlush 和 sessionMemory,支持跨会话记忆检索与上下文保留。
显著优点
1. 实战检验:规则源自真实事故(误删帖子、无视指令、过度自动化),非理论推导
2. 认知减负:明确的"确认-审批-验证"流程减少用户心理负担,降低焦虑感
3. 效率提升:失败速报和简化优先策略避免无意义的反复试错
4. 关系修复:能量匹配原则改善人机交互体验,减少用户挫败感
5. 工具泛用:适用于 Claude、Cursor、ChatGPT、Copilot 等各类 AI 编码/写作 agent
潜在缺点与局限性
- 节奏摩擦:频繁确认可能拖慢简单任务的执行速度,对追求极致效率的用户或感冗余
- 上下文依赖:"读取所有消息"规则在长对话中可能引入信息噪声,需 agent 具备较强的上下文筛选能力
- 边界模糊:"简单任务亲自做 vs 复杂任务 spawning"的判断标准主观,新手 agent 可能把握不准
- 记忆配置门槛:推荐的 JSON 配置需要特定平台支持(OpenClaw/Claude 生态),通用性受限
适合人群
- 高频使用 AI agent 进行自动化操作的内容创作者、开发者、运营人员
- 曾因 AI 擅自行动而遭受数据丢失或误发的用户
- 团队协作场景下需要标准化 AI 行为规范的团队
- 追求"vibe-coding"但希望保持可控性的技术用户
常规风险
- 合规真空:规则本身为软性建议,无强制约束力,依赖 agent 或底层系统的实现
- 平台差异:不同 AI 工具的行为可控性差异大,部分规则(如跨会话记忆)并非所有平台支持
- 过度依赖:用户可能因"有规则兜底"而降低对 AI 输出的审查警惕性
- 更新滞后:AI agent 能力迭代快,固定规则集可能逐渐失效,需持续维护(当前版本 1.1.3 显示已有迭代意识)