context-manager

🗜️ AI智能压缩长会话上下文

OpenClaw官方生态的AI会话压缩工具,通过智能摘要重置长会话,解决上下文窗口耗尽问题,可节省70%+token消耗。

收藏
19.1k
安装
3.9k
版本
v1.0.3
CLS 安全性认证2026-05-01
点击查看完整报告 >

使用说明

核心用法

context-manager 是专为 OpenClaw 平台设计的会话上下文管理工具,通过 Shell 脚本 compress.sh 提供完整的 CLI 操作界面。用户可通过 list 命令查看所有会话的 token 使用情况,,status 检查特定会话详情,,summarize 生成只读的 AI 摘要,以及 summarize --replace 执行完整的压缩流程(生成摘要→备份→重置→注入)。工具支持自定义压缩阈值(50-99%)、摘要深度(brief/balanced/comprehensive)和静默时段,实现精细化的会话生命周期管理。

显著优点

智能自摘要机制:区别于传统的 grep/正则提取,该工具利用 AI 自身理解能力生成结构化摘要,包含已完成任务、关键决策、当前状态和待办事项四个维度,信息保留质量显著高于机械压缩。

非破坏性操作设计:所有压缩操作前强制备份原始 JSONL 会话文件至 memory/compressed/,失败时可手动恢复;summarizesummarize --replace 分离设计,允许用户先验证摘要质量再执行重置。

深度平台集成:直接调用 openclaw CLI 和会话文件系统,使用官方 JSONL 删除机制重置会话,而非不可靠的 /reset 消息注入,技术实现稳健可靠。

量化收益明确:实测可将 70k token 会话压缩至 16k(77% 缩减),有效延缓上下文窗口耗尽,维持长会话的响应速度和连贯性。

潜在缺点与局限性

平台强绑定:完全依赖 OpenClaw 生态,无法迁移至 Claude API 直连或其他 AI 平台;若 openclaw CLI 行为变更,工具可能失效。

数据隐私权衡:会话内容必须通过 openclaw agent 发送至 AI 服务生成摘要,敏感对话存在云端处理风险,尽管这是功能设计的必要代价。

恢复操作门槛:虽提供备份文件,但恢复需手动执行 cp 命令,缺乏一键 restore 子命令,紧急回滚体验欠佳。

Shell 环境依赖:需要 Bash、jq、标准 Unix 工具链,Windows 原生环境支持有限。

适合的目标群体

  • 高频使用 OpenClaw 进行长周期项目开发、深度研究或复杂任务拆解的重度用户
  • 遭遇 100k token 上下文上限瓶颈,需要维持会话连续性但不愿丢失历史脉络的场景
  • 对 AI 辅助摘要质量有信任基础,能接受云端处理会话内容的用户
  • 具备基础 CLI 操作能力,能阅读 Shell 脚本进行故障排查的技术用户

使用风险

操作不可逆风险--replace 模式删除原始 JSONL 后,若备份文件损坏或丢失,会话历史将永久丢失;建议关键会话先手动额外备份。

摘要质量波动:AI 生成的摘要可能遗漏边缘但关键的上下文细节(如特定代码片段、精确数值),压缩后需验证核心信息完整性。

依赖服务稳定性openclaw 网关或 AI 服务异常时,压缩流程可能中断在备份后、注入前的中间状态,需人工介入恢复。

并发操作冲突:多终端同时操作同一会话可能导致备份覆盖或注入混乱,建议单会话单操作窗口。

安全解读

核心用法

Context Manager 是一款专为 OpenClaw 设计的会话上下文管理工具,解决 AI 长会话中常见的上下文膨胀、响应变慢、记忆衰减问题。用户通过 ./compress.sh 脚本执行 list/status/summarize 等命令,即可监控会话 Token 占用率(建议 70-80% 时介入),并由 AI 自身生成智能摘要后重置会话。

典型工作流summarize [KEY] 预览摘要质量 → 确认无误后执行 summarize [KEY] --replace 完成压缩。此过程会自动备份原始会话文件至 memory/compressed/,注入 AI 生成的结构化摘要(涵盖已完成任务、关键决策、当前状态、待办事项),实现相同 session key、全新 session ID 的无缝衔接。

显著优点

  • AI 自总结:利用 Agent 对自身上下文的完整可见性,生成比规则提取更精准、更智能的会话摘要
  • 大幅减负:实测可将 70K tokens 压缩至 16K,压缩率可达 77%,显著降低 API 成本并提升响应速度
  • 安全设计--replace 模式显式标记 DESTRUCTIVE,summarize 默认只读操作;自动备份机制支持完整恢复
  • 零依赖:纯 Shell 脚本实现,仅依赖系统预装的 jq 和 OpenClaw CLI,无第三方包风险
  • 细粒度配置:支持自定义压缩阈值(50-99%)、摘要深度(brief/balanced/comprehensive)、静音时段等

潜在局限

  • T3 来源风险:开发者 plgonzalezrx8 为个人开发者,非企业级背书,社区验证度有限
  • OpenClaw 专属:深度绑定 OpenClaw 网关架构,无法直接迁移至 Claude Code 原生或其他 AI 平台
  • 摘要质量波动:AI 自总结依赖当前模型的理解能力,极端复杂或高度发散的会话可能丢失关键细节
  • 恢复依赖手动:虽自动备份,但恢复需手动复制 JSONL 文件,无一键回滚命令
  • 会话中断感知:重置会话会改变 session ID,若外部系统依赖原 ID 需额外适配

适合人群

  • 高频 OpenClaw 用户:日均会话 Token 消耗大、需要长时间保持上下文连贯的专业用户
  • 多线程任务管理者:同时维护多个 Slack 频道、cron 任务或子 Agent 会话的开发者
  • 成本敏感型团队:希望优化 Token 使用效率、减少因上下文溢出导致重复对话的组织

常规风险

  • 误操作风险--replace 不可逆删除原 JSONL,尽管有备份,误执行仍会导致会话中断
  • 模型兼容性:摘要生成依赖当前会话模型,若切换模型(如从 Flash 到 Pro),摘要风格可能不一致
  • 备份磁盘占用:高频压缩会累积大量备份文件,需定期清理 memory/compressed/ 目录
  • 外部工具依赖:OpenClaw CLI 的版本更新可能影响脚本兼容性,建议锁定版本或关注更新日志

context-manager 内容

手动下载zip · 10.9 kB
compress.shtext/x-shellscript
请选择文件