token-manager

💰 全平台LLM成本智能管家

🥥6总安装量 2评分人数 2
100% 的用户推荐

开源社区个人开发者打造的通用LLM Token管家,支持Kimi/OpenAI/Claude等主流模型实时监控与成本优化,帮助用户节省20%-90% API费用。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 零危险函数:未检出 eval/exec/system/subprocess 等代码执行风险
  • ✅ 数据本地驻留:所有使用记录存储于 `.data//` 目录,无第三方服务器上传
  • ✅ 密钥安全读取:API 密钥仅从环境变量获取,无硬编码或命令行参数传递
  • ✅ 依赖纯净可控:仅使用 Node.js 内置模块(https/fs/path),零外部 npm 依赖
  • ⚠️ 来源等级限制:T3 个人开发者来源,建议生产环境使用前自行代码审查

使用说明

核心用法

Token Manager 是一款面向多平台 LLM API 的成本管控工具,通过命令行界面提供实时用量监控、智能省钱建议、定时余额预警和跨会话数据分析四大核心能力。用户只需配置环境变量中的 API 密钥,即可通过 manager.js report 生成即时用量报告,或借助 scheduler.js 设置 cron 定时任务实现自动化监控。工具深度集成 OpenClaw 生态,支持注册为内置工具直接调用,同时提供日/周维度的消费趋势分析和模型选型建议。

显著优点

多平台统一管控:覆盖 Kimi/Moonshot、OpenAI、Anthropic、Google Gemini 及 Ollama 本地模型,实现一站式 Token 管理;主动式成本优化:基于上下文占用率、推理模式开关、任务复杂度等维度,提供可操作的 /compact/spawn/thinking off 等具体指令建议;零外部依赖:仅使用 Node.js 内置模块,无 npm 包引入,部署轻量且供应链攻击面极小;数据主权保障:所有使用记录、告警状态、会话数据均本地存储于 .data// 目录,无云端上传;双语完整文档:中英文 SKILL.md 并行,功能边界和安全说明清晰透明。

潜在缺点与局限性

来源可信度受限:作者为个人开发者(kelegele),GitHub 仓库规模较小,缺乏企业级背书;功能深度参差:仅 Kimi/Moonshot 支持 API 级余额查询和 Token 精确估算,OpenAI/Claude/Gemini 需依赖控制台手动查看或近似计算;交互门槛较高:纯命令行操作,无图形界面,非技术用户上手成本较大;告警渠道单一:当前仅支持本地 JSON 输出和命令行提示,无邮件/短信/Slack 等外部通知集成;历史数据迁移.data// 目录的本地存储格式未提供导出/导入工具,跨设备同步需手动处理。

适合的目标群体

高频 LLM 开发者:日均消耗数万 Token 的 AI 应用开发者、提示词工程师,需要精细化成本控制;多模型策略团队:同时在 Kimi、GPT-4、Claude 间切换的技术团队,需要统一视角对比各平台支出;预算敏感型用户:个人开发者、学生、初创公司,希望将 API 费用压缩 50% 以上;OpenClaw 生态用户:已使用 OpenClaw 作为 AI 工作流编排工具,希望无缝集成 Token 监控能力;本地模型爱好者:Ollama 用户希望量化对比"免费本地运行"与"付费 API 调用"的真实成本差异。

使用风险

环境变量泄露风险:API 密钥依赖用户手动配置环境变量,若用户在共享服务器或 CI/CD 日志中误操作,可能导致密钥暴露;本地数据丢失风险.data// 目录无自动备份机制,磁盘损坏或误删将导致历史用量数据永久丢失;网络请求边界:虽仅访问官方 API,但余额查询请求会携带 API 密钥发送至厂商服务器,需确保网络环境可信;估算误差风险:非 Kimi 平台的 Token 估算为近似值,实际计费可能与预估存在 5%-15% 偏差,不宜作为财务对账唯一依据;版本维护风险:个人开发者项目存在更新频率不确定、长期维护承诺缺失的潜在问题。

token-manager 内容

文件夹图标scripts文件夹
手动下载zip · 15.0 kB
manager.jstext/javascript
请选择文件