context-compactor

🗜️ 本地模型上下文智能压缩专家

🥥48总安装量 11评分人数 16
100% 的用户推荐

OpenClaw 官方生态插件,通过客户端 Token 估算为本地 LLM 提供智能上下文压缩,防止长对话截断与内容丢失,保障流畅的 AI 交互体验。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ <br/>**零外部通信**:100% 本地运行,无数据上传至外部服务器,对话内容完全保留在本地环境
  • ✅ <br/>**无危险代码**:未使用 eval、exec、system 等危险函数,无动态代码加载或远程脚本执行风险
  • ✅ <br/>**安全配置管理**:修改配置文件前自动创建备份,关键操作需用户交互式确认,具备完善的回滚机制
  • ⚠️ <br/>**文件系统权限**:需要读取和修改 `~/.openclaw/` 目录下的配置文件及插件文件,会在用户主目录创建备份
  • ⚠️ <br/>**来源可信度**:当前为 T3 级社区组织来源(E.x.O. Entertainment Studios Inc.),非 T1/T2 级官方或顶级开源项目

使用说明

Context Compactor 是专为 OpenClaw 设计的上下文管理插件,旨在解决本地大语言模型(如 Ollama、llama.cpp、MLX)因不报告 Token 限制而导致的上下文截断、内容丢失等问题。与云 API 不同,本地模型往往会在超出上下文窗口时静默截断或返回乱码,而该插件通过客户端 Token 估算机制,在达到模型限制前主动对历史消息进行智能压缩,确保长对话的连贯性。

使用上,用户可通过 npx jasper-context-compactor setup 一键安装,插件会自动配置到 OpenClaw 的插件目录。核心配置包括 maxTokens(触发压缩的阈值)、keepRecentTokens(保留的近期消息 Token 数)和 charsPerToken(字符与 Token 比例,默认 4)。安装后,系统会在每次消息到达时自动估算上下文长度,当超过阈值时,将旧消息总结为摘要并与近期消息合并,形成新的上下文。用户还可通过 /compact-now 强制刷新压缩,或使用 /context-stats 查看当前 Token 使用状况。

该插件的显著优点在于其预防性设计:不同于依赖模型报错的后处理方案,它能在问题发生前主动干预,特别适合本地模型用户。此外,它支持灵活调参,可适配从 4K 到 32K 不同规模的上下文窗口,且提供缓存机制避免重复总结。然而,其局限性也值得注意:压缩后的摘要不会持久化保存(仅会话级),且基于字符数的 Token 估算(尤其是 CJK 语言)可能存在偏差,需要用户根据实际模型调整 charsPerToken 参数。

适合使用该技能的目标群体主要包括:使用 Ollama、LM Studio、MLX 等本地推理框架的开发者;需要处理长文档或多轮复杂对话的 AI 应用用户;以及对数据隐私敏感、希望完全本地运行而不依赖云 API 的人群。对于仅使用 Anthropic、OpenAI 等云 API 的用户,由于这些服务会明确报告上下文溢出错误,OpenClaw 内置的压缩机制已足够,无需额外安装此插件。

常规风险方面,该插件会修改用户的 OpenClaw 配置文件(~/.openclaw/openclaw.json)并在用户主目录创建备份和插件文件。虽然插件具备自动备份和交互式确认机制,但用户仍需注意配置文件的正确性,避免因配置错误导致 OpenClaw 启动失败。此外,过度激进的压缩参数(如过小的 keepRecentTokens)可能导致关键上下文信息丢失,影响对话质量。建议用户通过 /context-stats 监控使用情况,并根据模型实际表现逐步调优参数。

context-compactor 内容

手动下载zip · 14.5 kB
cli.jstext/javascript
请选择文件