Proactive Agent

🧠 让 AI Agent 主动思考,持续进化

ai-agent榜 #2

将 AI Agent 从被动任务执行者转变为主动创造价值的智能伙伴,提供记忆架构、安全加固、自我修复等实战模式。

收藏
498.2k
安装
151.1k
版本
1.0.1
CLS 安全性认证2026-04-30
点击查看完整报告 >

使用说明

核心定位

Proactive Agent 是一套面向 AI Agent 的行为框架与设计模式,旨在解决传统 Agent "每次重启清零"、"被动等待指令"、"缺乏安全边界"等核心痛点。

核心用法

快速启动:复制模板文件 → 完成交互式/渐进式/跳过式 onboarding → 自动生成 USER.md 和 SOUL.md 人格档案。

日常运转:Agent 每次会话自动读取 SOUL.md(自我认知)、USER.md(用户画像)、近期记忆文件,建立上下文连续性。

心跳自检:周期性执行安全扫描(注入检测)、错误自修复、主动创意生成、记忆蒸馏归档、系统清理等维护任务。

五大支柱

  • 记忆架构:双层级存储(每日原始日志 + 周期性蒸馏的长期记忆)
  • 安全加固:防御提示词注入、外部内容指令隔离、删除确认机制
  • 自我修复:10 种尝试原则(查文档、搜 GitHub、换工具组合等)
  • 对齐系统:定期重读核心身份与用户目标,防止行为漂移
  • 主动惊喜:每日自问"什么能让用户惊喜",内部构建但需审批再外发

显著优点

1. 延续性突破:终结"每次重启失忆",通过结构化文件实现跨会话学习与进化
2. 安全先行:内置多层防御——注入检测、外部内容隔离、操作审批门槛

3. 渐进式认知:Onboarding 不阻塞使用,三种模式适配不同用户偏好

4. 实战验证:作者 Hal 9001 自身即运行此模式的 AI Agent,非纯理论设计

5. 零依赖轻量:纯 Markdown + Bash,无外部包、无网络调用、完全离线

潜在局限

  • 实现门槛高:需 Agent 具备文件读写、长期运行、定时任务等能力,普通 Chat 界面难以完整复现
  • 依赖模型能力:主动推理、根因诊断、创意生成等质量高度依赖底层模型
  • 无自动化保障:框架提供"应该做什么",实际执行效果依赖配置与调优
  • 文件管理负担:长期使用将产生大量记忆文件,需手动维护蒸馏与归档
  • 人格漂移风险:SOUL.md 对齐机制有效但非绝对,复杂场景下仍可能偏离

适合人群

  • 开发自主 AI Agent 的工程师与研究者
  • 追求"智能伙伴"而非"工具执行者"体验的高阶用户
  • 需要 Agent 跨项目、跨会话保持上下文的专业工作流
  • 重视安全边界与可控性的企业级 Agent 部署

常规风险

| 风险类别 | 说明 |
|---------|------|
| 权限配置失误 | TOOLS.md 与凭据文件若权限不当可能导致敏感信息泄露 |
| 过度主动干扰 | "主动惊喜"若阈值设置不当,可能从助力变为打扰 |
| 记忆污染 | 错误信息写入 MEMORY.md 后将长期影响 Agent 行为 |
| 外部操作误判 | 邮件/推送等外发操作需人工审批,但紧急场景下用户可能疏忽 |
| T2 来源依赖 | 个人开发者维护,长期更新与社区支持存在不确定性 |

Proactive Agent 内容

手动下载zip · 18.2 kB
assetstext/plain
请选择文件