token-optimizer

💰 智能降本增效的Token管家

OpenClaw官方Token优化工具包,通过智能上下文加载、模型路由和预算追踪,帮助用户降低50-80%的API成本。

收藏
11.3k
安装
3.2k
版本
v1.0.18
CLS 安全性认证2026-05-03
点击查看完整报告 >

使用说明

核心用法

Token Optimizer 是一套面向 OpenClaw 部署的综合成本优化工具包,通过六大核心模块实现 Token 用量精细化管理。用户可通过命令行脚本快速上手:使用 context_optimizer.py 生成优化后的 AGENTS.md 实现上下文懒加载;借助 model_router.py 自动将简单问候路由至 Haiku 模型;通过 heartbeat_optimizer.py 设置智能检查间隔;利用 token_tracker.py 监控每日预算消耗;参考 cronjob-model-guide.md 为定时任务选择经济模型;并可通过多提供商策略接入 Gemini Flash 等低成本替代方案。

显著优点

该技能的最大亮点在于上下文优化——通过分析提示复杂度动态加载必要文件,可将默认 50K+ Token 的上下文缩减 80%,这是比模型路由更显著的节省来源。其次,通信模式强制降级功能确保"hi""thanks"等简单交互永不浪费 Opus/Sonnet Token。第三,纯 Python 标准库实现零依赖,部署轻量。第四,提供从个人使用到高并发托管的全场景部署模式,预期节省从 20% 到 90% 不等。最后,Heartbeat 优化通过安静时段跳过和间隔追踪,可减少 50% 的轮询 API 调用。

潜在缺点与局限性

首先,部分高级功能依赖 OpenClaw 核心支持,如 Prompt Caching、完整的多提供商自动回退等仍处于待实现状态。其次,Token 追踪功能需要与 session_status 工具集成才能自动获取用量,当前版本依赖手动记录。第三,模型路由规则基于关键词匹配,对于语义复杂但表面简单的提示可能出现误判。第四,上下文优化需要用户主动替换 AGENTS.md 并调整加载逻辑,对现有工作流有一定侵入性。最后,多提供商策略虽列出成本对比,但实际切换需用户自行配置 API 密钥和网关参数。

适合的目标群体

该技能特别适合三类用户:一是高频 API 使用者,日均 Token 消耗超过 5 万的企业或个人开发者;二是多代理托管服务商,如 xCloud 等平台需要为数百客户控制成本;三是成本敏感型项目,初创团队或 side project 希望在保证质量的前提下压缩 AI 基础设施开支。对于偶尔使用 Claude 的轻度用户,学习成本可能高于收益。

使用风险

性能方面,上下文优化增加了提示分析的开销,虽单次开销微小,但极高并发场景需关注累积延迟。依赖项上,Heartbeat 和 Token 追踪依赖本地状态文件持久化,若 ~/.openclaw/workspace/memory// 目录权限配置不当会导致状态丢失。兼容性方面,激进的模型降级策略(如强制 Haiku 处理所有问候)可能在特定场景下影响用户体验,建议初期保留人工复核机制。此外,多提供商切换涉及不同模型的能力差异,需充分测试后再投入生产。

安全解读

Token Optimizer:OpenClaw成本优化利器

Token Optimizer 是一套全面的成本优化工具包,专为降低 OpenClaw AI Agent 部署的 token 消耗和 API 费用而设计。该 skill 通过四大核心策略实现显著的成本节约:

核心功能与用法

1. 上下文懒加载(最大收益项)

  • 痛点:默认 OpenClaw 每次会话加载全部上下文文件(SOUL.md、AGENTS.md、docs/*/ 等),常达 50K+ tokens
  • 方案:根据用户提示复杂度动态推荐所需文件
  • 简单问候 → 仅加载 2 个文件,节省 80%
  • 常规工作 → 选择性加载,节省 50%
  • 复杂任务 → 智能匹配相关文档,节省 30%
  • 使用python3 scripts/context_optimizer.py recommend "<prompt>"

2. 智能模型路由(已增强)

  • 自动分类任务并路由到合适模型层级
  • 强制规则:所有沟通类消息(问候、感谢、确认)必须使用 Haiku,杜绝 Opus 浪费
  • 背景任务:心跳检查、日志解析等默认使用 Haiku
  • 使用python3 scripts/model_router.py "<prompt>"

3. 心跳优化

  • 智能间隔追踪,避免频繁 API 调用
  • 支持安静时段(23:00-08:00)自动跳过
  • 默认间隔:邮件 60 分钟、日历 2 小时、监控 30 分钟
  • 预期节省:50% 心跳 API 调用

4. 预算追踪与多供应商策略

  • 实时监控日消耗,支持阈值告警
  • 提供 OpenRouter、Google AI Studio、Together.ai 等替代供应商的成本对比
  • 高容量场景推荐 Gemini Flash($0.075/MTok)实现 90% 成本削减

显著优点

| 指标 | 效果 |
|------|------|
| 典型工作负载节省 | 50-80% |
| 高容量部署 + Gemini | 最高 90% |
| xCloud 100客户场景 | $315/月节省 |
| 上下文优化单独贡献 | 比模型路由更高效 |

纯文档型设计:无第三方依赖,仅 Python 标准库示例,透明可控

局限与注意事项

  • 需人工集成:当前为外部脚本,非 OpenClaw 核心自动集成(prompt caching 等特性待官方支持)
  • 预算追踪限制:需手动记录或与 session_status 工具集成,无法自动解析
  • 路由规则需调优:默认模式可能不覆盖所有业务场景,需自定义 ROUTING_RULES
  • cronjob 配置依赖用户:需手动指定模型参数,工具仅提供建议

适合人群

  • 个人用户:预期节省 20-30%,适合关心成本的技术爱好者
  • 托管服务商(xCloud 等):预期节省 40-60%,多租户场景收益显著
  • 高容量部署:预期节省 70-90%,需配合多供应商 fallback 和本地 Ollama

风险提示

  • 安全认证发现一处 subprocess.run 示例代码(低风险),实际使用需验证输入、避免 shell=True
  • 来源为 T3 个人开发者,虽代码透明但声誉积累中
  • 外部链接仅指向 openclawcli.forum 社区论坛,无数据外泄风险

快速开始

# 最大收益:生成优化版 AGENTS.md
python3 scripts/context_optimizer.py generate-agents

# 验证路由建议
python3 scripts/model_router.py "thanks!"  # 应返回 Haiku

# 安装优化心跳模板
cp assets/HEARTBEAT.template.md ~/.openclaw/workspace/HEARTBEAT.md

token-optimizer 内容

手动下载zip · 6.4 kB
SKILL.mdtext/markdown
请选择文件