context-optimizer

AI上下文智能压缩降本专家

🥥24总安装量 11评分人数 14
100% 的用户推荐

OpenClaw官方上下文压缩工具,通过智能去重、剪枝、摘要策略减少40-60% token消耗,内置x402支付系统支持Agent自主订阅Pro版本。

B

存在边界风险,建议在隔离环境中验证

  • 来自可信组织或认证账号,需要结合权限范围判断
  • ✅ 核心压缩功能完全离线,无数据外泄风险,所有处理本地完成
  • ✅ 依赖库(better-sqlite3、express、commander)无已知高危漏洞
  • ⚠️ x402 支付验证为 MVP 临时实现,仅检查 tx_hash 长度,未进行实际链上验证
  • ⚠️ 未实现交易哈希去重检查,存在重复支付风险
  • ⚠️ 学习系统算法较为基础,复杂场景自适应能力有限

使用说明

核心用法

OpenClaw Context Optimizer 是一款专为 AI Agent 设计的上下文压缩工具,通过 CLI 命令 claw optimize 系列指令实现手动压缩、统计查看、历史追溯、ROI 计算和仪表盘访问。核心压缩流程自动拦截 API 请求前的上下文,依次执行去重(20-30% 节省)、剪枝(30-40% 节省)、摘要(40-60% 节省)或混合策略(推荐,40-60% 节省),并持续学习用户工作流中的关键上下文模式。

显著优点

经济性突出:免费版每日 100 次压缩已覆盖轻度使用,Pro 版 0.5 USDT/月的定价设计精巧——按典型场景 60 次/天请求计算,月省 $16.20,ROI 超 1000%。技术整合度高:与 OpenClaw Memory System 联动可实现 50-70% 综合节省,学习系统能跨会话复用压缩策略。透明可控:纯本地处理(SQLite 存储、无外部 API 调用)、开源 MIT 协议、Web 仪表盘实时可视化压缩效果。

潜在缺点与局限性

MVP 阶段功能缺口:x402 支付系统的链上验证尚未实现(代码标注 TODO),当前仅校验交易哈希长度,存在重复支付和金额欺诈风险。学习系统较基础:虽有数据库表结构,但自适应算法深度有限,复杂工作流的学习效果待验证。性能边界未明确:超大文本压缩可能触发 CPU/内存瓶颈,缺乏输入长度限制和超时机制。生态依赖性强:作为 OpenClaw 专属技能,脱离该框架则无法独立运行。

适合的目标群体

高频调用 LLM API 的开发者与 Agent 运营者(日均 50+ 请求)、长上下文场景用户(技术文档分析、多轮项目规划)、成本敏感型 AI 应用团队,以及已部署 OpenClaw 生态的自动化工作流用户。不适合偶尔使用 AI 的轻度用户,或对数据本地存储有合规顾虑的企业环境。

使用风险

支付风险:Pro 订阅在链上验证完成前存在被绕过可能,建议小额测试后观察。性能风险:极端长文本可能导致本地服务阻塞。版本风险:1.0.0 初始版本,长期维护稳定性待观察。兼容性风险:依赖 Node.js 18+ 和特定 OpenClaw 版本,升级时需关注 breaking changes。

context-optimizer 内容

文件夹图标hooks文件夹
文件夹图标migrations文件夹
文件夹图标src文件夹
手动下载zip · 70.1 kB
request-after.jstext/javascript
请选择文件