核心用法
self-improvement 是一款面向 AI 编码智能体的持续学习记录系统,核心功能是通过结构化日志捕获三类关键信息:
1. 错误记录(ERRORS.md):命令失败、API 异常、集成错误
2. 知识修正(LEARNINGS.md):用户纠正、过时知识、最佳实践
3. 功能需求(FEATURE_REQUESTS.md):用户请求的新能力
触发条件明确:操作失败、用户说"不,错了"、发现知识过期、找到更优方案等场景自动记录。采用 TYPE-YYYYMMDD-XXX 格式编码,支持状态追踪(pending → resolved/promoted)和跨条目关联(See Also)。
显著优点
- 零网络依赖:纯本地 Markdown 文件操作,无 API 调用,无数据外泄风险
- 智能体原生设计:专为 Claude Code、Codex、Copilot 等多智能体场景优化,支持 OpenClaw 工作区集成
- 知识升华机制:高频/高价值学习自动提升至
CLAUDE.md、AGENTS.md等项目级记忆文件 - 模式检测:支持
Pattern-Key追踪重复问题,Recurrence-Count ≥ 3 时触发系统提示词反馈 - 安全架构完善:输入验证、路径防护、隐私保护全部通过认证
局限与注意事项
- T3 来源:个人开发者维护,无企业级背书,需用户自行评估长期维护风险
- Hook 配置需谨慎:
PostToolUseHook 涉及读取命令输出,可能触及敏感信息,建议默认仅启用UserPromptSubmit - 手动干预为主:虽有触发条件提示,实际记录仍依赖智能体/用户主动执行,无强制自动化
- 许可证缺失:当前未指定开源协议,存在使用条款模糊风险
适合人群
- 长期维护复杂代码库的技术团队(多人协作场景下知识沉淀)
- 使用 Claude Code / OpenClaw / Codex CLI 的深度 AI 用户
- 追求可审计、可追溯 AI 辅助开发流程的工程师
- 需要跨会话记忆延续的 AI-first 工作流实践者
常规风险
- 日志内容风险:默认禁止记录 secrets/tokens,但用户可能误操作写入敏感信息;建议配合
.gitignore本地化管理 - Hook 误配置:过度激进的 Hook 设置可能增加 token 消耗(每次提醒 50-100 tokens)或意外暴露命令输出
- 知识陈旧:未定期 review 的
.learnings/可能积累过时条目,反而干扰决策 - 多智能体冲突:跨会话共享(sessions_send)功能仅在可信环境使用,存在信息泄露边界风险
整体评估:该 Skill 是 AI 辅助开发成熟度进阶的关键基础设施,安全设计优秀(S级),功能边界清晰,适合对 AI 工作流有系统化要求的团队采用。