功能定位
self-improvement 是一个面向 AI 编码智能体的本地学习记录系统,核心机制是在项目根目录创建 .learnings/ 目录并维护三类 Markdown 日志:ERRORS.md(命令失败)、LEARNINGS.md(知识更正与最佳实践)、FEATURE_REQUESTS.md(用户请求的新能力)。当智能体遇到错误、被用户纠正、发现知识过时或找到更优方案时,自动按结构化格式记录,支持后续跨会话回顾与提升。
显著优点
安全架构纯粹:零外部依赖、零网络通信、零敏感数据收集,所有操作仅限于本地文件系统,安全认证获得 A 级评分(90/100)。多智能体兼容:原生支持 Claude Code、Codex、GitHub Copilot、OpenClaw 等平台,通过 hooks 或 workspace 注入实现自动激活。知识沉淀闭环:记录 → 定期回顾 → 晋升为 CLAUDE.md/AGENTS.md 等持久化指引 → 自动影响后续会话行为,形成自我改进飞轮。结构化可追溯:每条记录包含唯一 ID、优先级、领域标签、关联链接,支持 grep 快速检索与模式识别。隐私合规:默认不记录 secrets、tokens、完整命令输出,用户完全掌控数据。
局限性与风险
依赖用户/Agent 主动触发:无真正自动检测,需智能体识别触发条件(如"Actually...")并决定记录,存在遗漏可能。T3 来源信任成本:维护者为个人开发者(pskoett),非知名企业或基金会,需自行审计更新。Copilot 支持薄弱:无 hook 机制,完全依赖手动提醒,体验断层。长期积累噪音:若缺乏定期 review,.learnings/ 可能堆积大量过时条目,反而降低检索效率。晋升机制主观:何时将学习提升为项目级规则,依赖智能体判断,易出现过度或不足晋升。
适合人群
- 长期使用 Claude Code / Codex / OpenClaw 的专业开发者
- 需要跨会话保持项目上下文记忆的 AI 辅助编程团队
- 追求系统化知识管理、希望减少重复踩坑的工程师
- 对数据安全敏感、拒绝任何云端同步的本地优先用户
常规风险
- 路径遍历:Shell 脚本创建目录时若传入恶意路径存在理论风险(当前实现无用户输入拼接)
- 敏感信息泄露:用户若配置不当可能意外记录含 secrets 的命令输出
- Git 误提交:
.learnings/默认被 .gitignore 排除,若手动跟踪需警惕敏感信息入库