memory-pipeline

🧠 AI 代理的长期记忆与执行纪律系统

🥥27总安装量 4评分人数 3
100% 的用户推荐

基于 OpenClaw 生态的 AI 代理长期记忆与性能优化系统,通过事实提取、知识图谱构建和生命周期钩子实现跨会话一致性,提升代理执行质量与上下文连续性。

A

基本安全,请在特定环境下使用

  • 来自可信组织或认证账号,需要结合权限范围判断
  • ✅ 无动态代码执行:未使用 eval/exec/subprocess,仅依赖标准库和 requests
  • ✅ 网络活动受限:仅向 OpenAI/Anthropic/Gemini 发送 HTTPS 加密请求,内容截断至 8000 字符
  • ✅ 文件系统沙盒化:所有操作限制在用户工作区内,使用 pathlib 防止目录遍历
  • ⚠️ API 密钥明文存储:~/.config/{provider}/api_key 文件未加密,建议设置 600 权限
  • ⚠️ 文件权限未显式设置:生成的 BRIEFING.md 等文件未限制访问权限,多用户系统存在泄露风险

使用说明

核心用法

memory-pipeline 是一套双轨制 AI 代理增强系统,包含 Memory Pipeline(Python)Performance Routine(TypeScript) 两大子系统。

Memory Pipeline 在会话间隙运行三阶段流程:
1. Extract — 使用 LLM 从每日笔记和会话记录中提取结构化事实(决策、偏好、学习、承诺)

2. Link — 构建嵌入向量知识图谱,建立事实间的双向链接,检测矛盾并标记过时信息

3. Briefing — 生成紧凑的 BRIEFING.md,包含个性提醒、活跃项目、近期决策等上下文

Performance Routine 在会话内通过四个生命周期钩子执行:

  • before_agent_start:注入预组装简报包(检查清单+记忆+约束)
  • before_tool_call:执行工具策略(拒绝列表、参数规范化)
  • tool_result_persist:头尾压缩大型工具结果,防止上下文膨胀
  • agent_end:撰写行动后审查,为下次运行积累记忆

系统支持 OpenAI、Anthropic、Gemini 三家 API,自动检测工作区,可集成到 HEARTBEAT.md 实现自动化。

显著优点

1. 跨会话连续性:解决 LLM 无状态的核心痛点,代理能"记住"用户偏好和项目历史
2. 执行纪律性:借鉴运动心理学"分离思考与执行"原则,避免中运行时的指令冲突

3. 上下文效率:智能压缩(头60%+尾30%)和 2000 字符简报限制,适配长上下文模型

4. 知识可解释性:生成人类可读的知识摘要和矛盾检测报告,便于人工审计

5. 零侵入集成:通过 OpenClaw 钩子系统工作,无需修改代理核心逻辑

潜在缺点与局限性

1. 外部依赖重:必须配置至少一家 LLM API 密钥,离线环境无法运行
2. 延迟成本:完整管道运行需多次 LLM 调用,可能增加会话启动时间

3. 嵌入质量敏感:无 OpenAI 密钥时退化为关键词匹配,链接准确性下降

4. 版本较新:v0.1.0 尚未经过大规模生产验证,API 可能变动

5. OpenClaw 绑定:Performance Routine 依赖尚未完全发布的 OpenClaw 上下文加载功能

适合的目标群体

  • 长期项目型代理用户:需要代理持续数周/数月处理复杂任务的开发者
  • 多会话工作流团队:多人共享代理上下文的企业场景
  • AI 代理框架开发者:研究记忆架构和工具执行纪律的研究者
  • 高可靠性要求场景:金融、医疗等需要决策可追溯性的领域

使用风险

  • API 成本累积:每日自动运行可能产生持续的 Token 消耗
  • 记忆漂移:长期运行后知识图谱可能积累矛盾,需定期人工审查
  • 隐私边界模糊:会话记录自动上传至第三方 LLM API,敏感数据需预处理
  • 文件系统膨胀extracted.jsonl 为追加写入,长期运行需归档策略

memory-pipeline 内容

文件夹图标references文件夹
文件夹图标scripts文件夹
文件夹图标src文件夹
手动下载zip · 25.6 kB
setup.mdtext/markdown
请选择文件