核心用法
Token Saver v3 是一款专为 OpenClaw AI 平台设计的成本优化工具,通过三条核心路径帮助用户降低 API 费用:
1. 工作区文件压缩:自动扫描并压缩 SOUL.md、USER.md、MEMORY.md、AGENTS.md 等核心文件,采用差异化策略——SOUL.md 轻度压缩保留人格语言,AGENTS.md 中度压缩优化指令密度,USER.md/MEMORY.md 重度压缩为键值格式,PROJECTS.md 则完全跳过以保护用户结构。
2. 模型感知动态压缩:内置 24+ 主流模型的上下文窗口注册表(Claude/GPT/Gemini/DeepSeek 等),根据当前模型自动调整压缩阈值。提供 Aggressive(40%)、Balanced(60%)、Conservative(80%)、Off(95%) 四档预设,例如 Gemini 1M 上下文下 Balanced 阈值为 600K tokens。
3. 持久化写作指导:向 AGENTS.md 注入写作规范,引导 AI 在不同文件中采用最优表达风格,从源头控制 token 增长。
用户通过 /optimize 系列命令操作:完整仪表盘查看上下文使用率、、/optimize tokens 执行压缩、、/optimize compaction 管理聊天压缩阈值、、/optimize revert 一键回滚。
显著优点
- 模型原生适配:告别固定阈值,动态百分比适配从 64K 到 2M 的各种上下文窗口
- 智能防重复:已优化文件自动跳过,避免无效处理
- 零外部依赖:纯本地分析,无网络请求,隐私安全
- 多重回滚保障:自动
.backup文件 + revert 命令双重保险 - 透明可追溯:所有文件操作、模型检测逻辑完全开源可审计
潜在局限
- 平台锁定:专为 OpenClaw 生态设计,SOUL.md/AGENTS.md 等文件命名具有平台特异性
- 压缩不可逆性:语义压缩会损失部分表达丰富性,虽声明"完整性优先"但极端压缩下仍有风格改变
- 模型检测盲区:严格版本匹配策略下,新模型或别名可能无法识别,回退至保守的 200K 默认值
- 提示注入隐患:压缩后的 MEMORY.md 采用类系统消息格式,存在潜在注入风险(已披露)
适合人群
- 高频 OpenClaw 用户:日均数十次以上 API 调用,上下文文件累积导致成本激增
- 多模型切换用户:经常在 Claude/GPT/Gemini 间迁移,需要自动适配不同上下文策略
- 长上下文项目:处理代码库、知识库等需要大上下文窗口的场景
- 成本敏感团队:有明确预算控制需求的开发团队或研究机构
使用风险
- 文件修改风险:虽自动备份,但首次使用建议手动 Git 提交或额外备份
- 版本兼容:v3 动态预设与 v2 固定阈值行为差异大,升级后需重新评估压缩策略
- 持久化污染:AGENTS.md 注入的指导语可能与其他技能冲突,需监控 AI 行为变化
- 性能开销:大工作区的首次扫描可能产生短暂延迟,建议非高峰时段执行