Self-Improving + Proactive Agent

🧠 自我反思·自动进化·越用越懂你

ai-agent榜 #1

通过自我反思和分层记忆系统实现持续自我改进的AI助手框架,零代码安全设计,知识自动复利增长

收藏
667.1k
安装
177.1k
版本
1.2.7
CLS 安全性认证2026-04-30
点击查看完整报告 >

使用说明

核心用法

Self-Improving Agent 是一套结构化的自我反思与记忆管理系统,通过「检测-记录-归档-复用」闭环实现Agent能力的持续进化。核心操作围绕 ~/self-improving/ 目录下的分层记忆架构展开:

| 层级 | 文件位置 | 容量限制 | 触发条件 |
|------|---------|---------|---------|
| **HOT** | `memory.md` | ≤100行 | 始终加载,高频偏好 |
| **WARM** | `projects/`, `domains/` | ≤200行/文件 | 上下文匹配时按需加载 |
| **COLD** | `archive/` | 无限制 | 显式查询时加载 |

关键触发器:用户纠正("Actually...""You're wrong...")、自我反思(任务完成后评估)、偏好信号("I like when you...")。满足3次重复的模式自动晋升至更高层级,90天未使用则归档。

典型工作流
1. 检测到纠正信号 → 写入 corrections.md

2. 3次成功应用后 → 晋升 memory.md

3. 每周自动压缩、月度归档、用户可导出ZIP

---

显著优点

  • 零代码安全架构:纯Markdown文档型Skill,无执行代码、无外部依赖、无网络请求,安全评级S+
  • 知识自动复利:通过「3次触发晋升」机制,将零散反馈沉淀为持久能力,无需手动维护
  • 三层隔离设计:项目级(projects/)、领域级(domains/)、全局级(memory.md)隔离,冲突时「最具体+最新」优先
  • 透明可审计:每个记忆引用标注来源文件行号,支持完整导出和「遗忘X」指令删除
  • 优雅降级:上下文不足时优先加载HOT层,明确告知用户未加载内容

---

潜在局限

  • 冷启动依赖用户反馈:初期无记忆积累,需用户主动纠正或Agent自我反思才能建立知识库
  • 晋升阈值固定:3次触发机制可能过于保守或激进,无法针对不同领域动态调整
  • 无跨会话持久化:实际持久化依赖于外部文件系统实现,原生LLM上下文无法真正「记住」
  • 冲突解决保守:层级相同时仅依赖时间戳,可能忽略语义相关性更强的旧规则
  • 手动维护边界:虽声明不存敏感数据,但依赖用户/开发者正确配置 boundaries.md

---

适合人群

  • 长期协作型用户:与同一Agent持续交互数周以上,希望减少重复指令
  • 质量敏感型场景:编程、写作、设计等需要风格一致性的创意工作
  • 反馈积极型用户:愿意花时间纠正AI输出,追求「越用越懂我」的体验
  • 隐私优先环境:企业内网、本地部署场景,拒绝云端记忆同步方案

不适合:一次性查询用户、对「黑箱学习」敏感且要求完全可控的合规场景、无文件系统访问权限的纯API调用

---

常规风险

| 风险类型 | 说明 | 缓解措施 |
|---------|------|---------|
| **记忆污染** | 错误纠正被当作正确模式学习 | 晋升前询问确认(3次后弹窗) |
| **过度拟合** | 过度适应特定用户表达习惯,泛化能力下降 | 层级隔离+90天衰减机制 |
| **隐私泄露** | 用户意外将敏感信息写入记忆文件 | `boundaries.md` 明确排除凭证/医疗/生物识别数据 |
| **提示注入** | 恶意用户通过"correction"格式注入伪记忆 | 无代码执行能力,仅影响文本检索 |
| **依赖幻觉** | Agent错误声称"根据你的偏好"但实际无记忆 | 强制要求引用来源文件行号 |

该Skill本身无执行风险,主要风险在于使用者的实施质量——需配套的文件系统权限、定期备份、以及正确的敏感数据过滤规则配置。

Self-Improving + Proactive Agent 内容

手动下载zip · 13.7 kB
boundaries.mdtext/markdown
请选择文件