核心用法
self-improvement 是一套面向AI编码助手的持续改进框架,通过结构化日志捕获三类关键信息:
1. 错误记录 (.learnings/ERRORS.md) —— 命令失败、API异常、运行时错误
2. 学习记录 (.learnings/LEARNINGS.md) —— 用户纠正、知识缺口、最佳实践
3. 功能请求 (.learnings/FEATURE_REQUESTS.md) —— 用户期望的新能力
使用时需先初始化 .learnings/ 目录结构,随后按标准化格式([TYPE-YYYYMMDD-XXX] ID、优先级、状态、领域标签)追加条目。支持从简化增强(simplify-and-harden)技能自动摄取重复模式,并通过 Recurrence-Count 追踪高频问题。
关键触发场景:命令异常退出、用户说"Actually..."、发现过时知识、API行为与文档不符、找到更优实现方案。
显著优点
- 跨会话记忆持久化:通过本地Markdown文件突破单次对话上下文限制,OpenClaw平台还支持
sessions_send跨会话传递学习 - 结构化可追溯:标准化ID、分类标签、优先级机制支持快速过滤(如
grep -l "Area**: backend" .learnings/*.md) - 渐进式知识升华:高价值学习可晋升至
CLAUDE.md(项目事实)、AGENTS.md(工作流自动化)、SOUL.md(行为规范)等持久化提示文件 - 多智能体兼容:原生支持Claude Code、Codex CLI、GitHub Copilot,提供 hooks 自动提醒(opt-in)
- 零依赖纯本地:纯shell/TypeScript实现,无第三方依赖,无网络通信
潜在局限
- T3来源可信度:维护者为个人开发者(pskoett),虽代码开源透明,但缺乏企业级维护背书
- 手动维护成本:依赖用户/AI主动记录,未解决时易产生"pending"堆积;晋升决策需要人工判断
- Git管理困境:默认
.gitignore忽略本地日志,团队共享需显式配置;敏感信息误录风险虽文档警示但仍存在 - Copilot支持受限:无hooks机制,仅靠
.github/copilot-instructions.md软提示,自动化程度低 - 模式提取半自动:
extract-skill.sh辅助提取新技能,但质量把关(如去除项目硬编码值)仍需人工
适合人群
- 高频使用AI编码工具的开发者,希望建立个人/团队的"AI记忆库"
- OpenClaw用户:该平台为此技能原生设计,workspace级别的
MEMORY.md/AGENTS.md集成度最高 - 多项目协作场景:需要在不同代码库间迁移经验、防止重复踩坑的团队
- 追求可解释AI:需要审计AI决策轨迹、追踪错误根因的质量敏感项目
常规风险
| 风险类型 | 说明 | 缓解措施 |
|---------|------|---------|
| 敏感信息泄露 | 日志可能意外捕获环境变量、token | 明确过滤secrets,使用摘要替代完整输出 |
| 日志膨胀 | 长期运行后 `.learnings/` 文件过大 | 定期review,归档resolved条目,设置保留策略 |
| 过时知识污染 | 已修复问题仍留在prompt上下文 | 任务前执行 `grep -h "Status**: pending"` 快速检查 |
| hooks性能损耗 | activator.sh约50-100 tokens/请求开销 | 按需启用,非生产环境建议手动模式 |
| 跨会话数据安全 | `sessions_send`可能传递敏感上下文 | 仅发送脱敏摘要和文件路径,避免原始transcript |
安全认证评分S级(92分),静态分析、动态行为、依赖审计、网络流量、隐私合规全项通过,唯一warn项为T3来源信誉。