核心用法
Token Optimizer 是专为 OpenClaw 部署设计的成本优化工具包,通过四大本地 Python 脚本实现 token 用量和 API 费用的系统性削减。
Context Optimization(上下文优化):采用惰性加载策略,根据用户提示复杂度动态决定加载哪些文件。简单问候仅需加载 2 个核心文件(SOUL.md + IDENTITY.md),跳过 docs、历史 memory 等冗余内容,直接削减 80% 上下文 token。通过 context_optimizer.py recommend 命令实时分析提示,输出推荐文件列表和节省比例。
Smart Model Routing(智能模型路由):自动识别任务类型并强制路由至最经济模型。关键创新是通信模式强制执行——将 "hi"、"thanks"、"ok" 等闲聊永久绑定至 Haiku 模型,杜绝昂贵的 Opus/Sonnet 浪费。同时识别后台任务(日志解析、定时检查)自动降级至 Haiku,复杂架构设计才启用 Opus。
Heartbeat Optimization(心跳优化):将默认 30 分钟心跳间隔智能调整至 55 分钟(对齐 Anthropic 1 小时缓存 TTL),保持缓存热状态以避免昂贵的缓存重写。支持安静时段(23:00-08:00)自动跳过检查,通过状态追踪避免重复 API 调用。
Token Budget Tracking(预算追踪):实时监控日消耗,在 80% 阈值触发警告、超限自动建议降级模型。提供 /context、/usage、/status 等 OpenClaw 2026.2.15+ 原生诊断命令的互补追踪。
显著优点
- 本地安全:4 个核心脚本零网络请求、零子进程调用、零系统修改,纯 Python 标准库实现
- 经过审计:Oracle (Matrix Zion) 2026-02-18 官方认证,security.verified=true
- 即插即用:
optimize.sh仅为便捷包装器,仅调用捆绑的 Python 脚本 - 多层级收益:个人使用节省 20-30%,托管部署节省 40-60%,高流量场景节省 70-90%
- 2026.2.15 原生集成:无缝对接 session pruning、bootstrap size limits、cache TTL alignment 等新特性
潜在局限
- 参考文件涉及外部服务:PROVIDERS.md 和 config-patches.json 描述的多提供商策略需要外部 API 密钥和网络访问(仅为可选文档,非核心脚本)
- 预算追踪需手动集成:token_tracker.py 目前需手动记录用量,尚未自动解析 session_status 工具
- 路由规则需调优:默认 ROUTING_RULES 和 COMMUNICATION_PATTERNS 可能需根据特定业务场景自定义
- 缓存对齐仅适用 Anthropic:55 分钟心跳优化针对 Anthropic 1h TTL 设计,其他提供商需手动调整
适合人群
- 高 token 消耗用户:日均 50K+ tokens 的开发者或团队
- API 速率限制场景:频繁触发 Anthropic/OpenAI 限流的部署
- 多代理托管商:xCloud 等平台需为 100+ 客户控制成本的运营商
- 成本敏感型工作流:希望在不牺牲质量前提下系统性降低 LLM 开销的组织
常规风险
- 模型降级质量风险:过度激进的 Haiku 路由可能导致复杂任务输出质量下降,建议保留 Sonnet 作为平衡默认
- 状态文件持久化:依赖
~/.openclaw/workspace/memory/目录可写权限,权限问题可能导致优化器状态丢失 - 多提供商配置误用:参考文件中的外部 API 配置若直接复制可能暴露密钥,需遵循安全密钥管理实践