OpenClaw Token Optimizer

🪙 智能路由与懒加载,削减 70% API 成本

dev-tool榜 #1

通过智能模型路由、上下文懒加载和心跳优化,将 OpenClaw 令牌成本降低 50-90%,适合高成本场景与规模化部署

收藏
32.4k
安装
9.9k
版本
3.0.0
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心功能与使用方式

Token Optimizer 是一套专为 OpenClaw 生态设计的成本优化工具集,通过四大核心脚本实现令牌全生命周期管理:

1. Context Optimizer — 革命性的懒加载模式。不再一次性注入 50K+ 令牌的完整上下文,而是根据用户输入智能推荐所需文件(简单问候仅需 2 个文件),实测可削减 80-93% 的上下文令牌消耗。

2. Model Router — 自动任务分级与模型路由。强制将"hi/thanks/ok"等通信类交互路由至最便宜的 Haiku(从不用 Sonnet/Opus),背景任务(日志解析、监控检查)同样强制 Haiku,复杂任务才启用 Opus。

3. Heartbeat Optimizer — 智能轮询间隔管理。默认 55 分钟间隔(对齐 Anthropic 1 小时缓存 TTL),避免缓存失效导致的昂贵重写;支持安静时段跳过、最小间隔强制等机制。

4. Token Tracker — 日常预算监控与预警,支持每日限额、使用百分比追踪和模型降级建议。

显著优点

  • 效果量化明确:官方成本估算显示,100K 令牌/日工作负载可从 $9/月降至 $2.7/月(70% 节省),激进方案可达 90%
  • 零依赖安全:4 个核心脚本仅使用 Python 标准库,无网络请求、无子进程调用、无系统修改
  • 渐进式采用:无需修改配置即可开始使用(context_optimizer.py recommendgenerate-agents 命令)
  • 原生特性对齐:适配 OpenClaw 2026.2.15 的 session pruning、bootstrap size limits、cache retention 等新特性
  • 多提供商就绪:文档涵盖 OpenRouter、Together.ai、Google AI Studio 的降级策略,虽未内置自动切换但提供完整参考

局限性与风险

  • 手动集成为主:当前需手动调用 Python 脚本获取建议,尚未实现 OpenClaw 消息管道的自动钩取
  • Token Tracker 依赖手动记录:需与 session_status 工具集成才能自动追踪,目前需手动录入使用数据
  • 参考文件涉及外部服务PROVIDERS.mdconfig-patches.json 描述的多提供商策略需要外部 API 密钥和网络访问
  • 质量权衡:激进的 Haiku 路由可能在边缘场景牺牲输出质量,需根据业务场景调整 ROUTING_RULES
  • 缓存 TTL 对齐仅对 Anthropic 有效:其他提供商的缓存机制不同,55 分钟心跳策略可能不适用

适合人群

| 场景 | 预期收益 |
|------|---------|
| 个人高频使用(>10K 令牌/日) | 20-30% 成本削减 |
| 托管服务商(xCloud 等) | 40-60% 成本削减,支持客户级预算隔离 |
| 高并发企业部署 | 70-90% 成本削减,需配合多提供商策略 |
| API 限流/配额紧张场景 | 显著降低调用频率与令牌总量 |

常规风险

  • 预算超支:若未正确集成 token_tracker.py,可能在无预警情况下超出每日限额
  • 路由误判:自定义业务术语可能被误判为"简单任务"而路由至 Haiku,导致输出质量不足
  • 状态文件丢失:heartbeat_optimizer.py 和 token_tracker.py 依赖本地状态文件,目录权限问题会导致优化失效
  • 缓存策略误配:55 分钟心跳仅适配 1 小时 TTL,若配置为 2 小时 TTL 需重新计算间隔

OpenClaw Token Optimizer 内容

暂无文件树

手动下载zip · 33.0 kB
contentapplication/octet-stream
请选择文件