Token Saver

🪙 模型感知的 AI 成本优化专家

Token Saver v3 是一款模型感知的 OpenClaw AI 成本优化工具,支持 24+ 主流模型的动态上下文压缩与智能文件优化,可在不损失语义的前提下显著降低 API 调用成本。

收藏
26.7k
安装
5.5k
版本
3.0.0
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心功能

Token Saver v3 通过模型感知架构实现智能成本优化,核心能力包括:

动态压缩预设:根据当前模型的上下文窗口(128K-2M 不等)自动调整压缩策略,提供 Aggressive(40%)、Balanced(60%)、Conservative(80%)、Off(95%) 四档预设,确保 Claude 200K 与 Gemini 1M 获得差异化处理。

分层文件压缩:针对工作区文件采用差异化策略——SOUL.md 轻量压缩保留人格语言,AGENTS.md 中压密集化指令,USER.md/MEMORY.md 重度压缩为键值格式,PROJECTS.md 完全跳过保护用户结构。

鲁棒模型检测:五级回退链(运行时注入→环境变量→配置文件→文件推断→安全默认),内置 24+ 模型注册表,未知模型自动降级至 200K 安全上下文并告警。

安全机制:自动备份(.backup)、智能绕过已优化文件、一键回滚(/optimize revert),全程本地运算零外部调用。

显著优点

  • 真·模型感知:非固定阈值,百分比动态适配让大上下文模型(Gemini 2M)充分发挥优势
  • 零语义损失:Integrity > Size 原则,拒绝为压缩牺牲可读性
  • 渐进式优化:Persistent Mode 通过 AGENTS.md 注入写作规范,从源头控制 Token 增长
  • 生态兼容:覆盖 Claude、GPT-4o/o 系列、Gemini、DeepSeek、Kimi 等主流模型

局限与风险

  • 非通用方案:仅针对 OpenClaw 工作流设计,对标准 OpenAI API 直接调用无感知
  • 模型版本敏感:严格匹配(opus-6.5≠opus-4.5),新模型需手动更新 models.json
  • 压缩不可逆性:重度压缩后的 USER.md/MEMORY.md 可读性下降,需依赖备份还原
  • 上下文幻觉风险:过度压缩可能导致长对话中的细微偏好丢失

适合人群

高频使用 Claude/GPT-4o/Gemini 等高单价模型的开发者、需长期维护大型项目上下文的 AI 原生工作流用户、对 API 成本敏感且愿意接受轻度可读性折损的生产环境。

常规风险

安全等级 A:无外部网络调用,文件操作受限工作区内,备份机制完善。主要风险为误操作压缩导致关键注释丢失,建议首次使用前执行 /optimize 预览而非直接应用预设。

Token Saver 内容

暂无文件树

手动下载zip · 29.6 kB
contentapplication/octet-stream
请选择文件