Smart Context Manager

🧠 AI 驱动的长会话智能压缩与续命

devops榜 #26

为 OpenClaw 长会话提供 AI 驱动的智能上下文压缩,通过自总结技术将 70k+ tokens 缩减 77%,保持会话连续性

收藏
19.3k
安装
4.3k
版本
1.0.1
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心用法

Context Manager 是 OpenClaw 生态系统的会话生命周期管理工具,解决 AI 长上下文窗口的性能衰减问题。核心工作流为四步闭环:

1. AI 自总结:向当前会话 agent 发送结构化 prompt,让其基于完整上下文生成涵盖「已完成任务」「关键决策」「当前状态」「待办事项」「关键记忆」五维度的摘要
2. 安全备份:将原始 JSONL 会话文件完整归档至 memory/compressed/

3. 硬重置:删除 JSONL 文件触发 OpenClaw 官方重置机制(非 /reset 指令,避免被误解析为普通消息)

4. 上下文注入:通过 openclaw agent --to main 将 AI 摘要作为新会话首条消息注入,保持相同 session key 但生成新 session ID

显著优点

  • 自指优化:利用 agent 对自身上下文的完全可见性,生成质量远高于外部启发式提取(对比内置 compress 命令的 grep 方案)
  • 可控破坏性summarize--replace 分离设计,允许先审阅摘要质量再执行重置
  • 零配置集成:自动发现 OpenClaw 网关、依赖仅 jq,无需额外模型或 API key
  • 可恢复性:每次操作生成带时间戳的完整备份,支持手动回滚

潜在局限

  • 生态锁定:仅支持 OpenClaw 网关协议,无法迁移至原生 Claude/ChatGPT 会话
  • 摘要质量依赖模型能力:若底层模型(如 gemini-3-flash)总结能力不足,可能丢失 subtle context
  • 重置即断联:硬重置导致与外部系统的 session 关联(如 Slack thread)断裂,需人工重新建立
  • 无自动化触发:阈值检测需手动 checkcheck-all,缺乏基于使用率的自动压缩

适合人群

  • 运行 4h+ 长会话的 OpenClaw 高级用户
  • 需要保持对话连续性但受限于 100k token 窗口的开发者
  • 构建自动化工作流、需定期上下文整理的 cron/session 管理者

常规风险

  • 数据丢失--replace 操作不可逆,尽管有备份,恢复需手动 JSONL 替换
  • 总结偏差:AI 可能错误理解自身上下文优先级,导致关键信息被压缩丢弃
  • 时序混乱:注入摘要后,历史消息时间戳丢失,依赖时间线的工具可能失效

Smart Context Manager 内容

暂无文件树

手动下载zip · 14.5 kB
contentapplication/octet-stream
请选择文件