Model Usage 是一款专注于本地 AI 成本分析的实用工具,专为使用 Codex 和 Claude 的开发者设计。该 Skill 通过解析 CodexBar CLI 生成的本地成本日志,提供精确的按模型使用成本统计,帮助用户清晰掌握 AI 开支情况,实现数据驱动的使用优化。
核心用法方面,该工具通过调用本地安装的 CodexBar CLI 获取 JSON 格式的成本数据,支持"当前模型"(最近使用)和"所有模型"两种分析模式。用户可以通过命令行参数灵活选择数据提供方(Codex 或 Claude),并支持从文件或标准输入读取数据。输出格式包括易读的文本表格和结构化的 JSON,方便进一步处理或集成到其他工作流中。工具会自动识别成本最高的模型作为"当前模型",也允许用户通过参数指定特定模型进行专项分析。
显著优点在于其完全本地化的数据处理流程。所有成本数据均在用户设备上解析和汇总,不涉及任何网络传输,充分保障了使用数据的隐私安全。工具仅依赖 Python 标准库,无额外的 pip 安装负担,代码结构清晰且经过安全审计。对于需要精细成本管控的开发者而言,这种按模型细分的成本视图能够识别出最昂贵的模型使用模式,从而优化 AI 调用策略,实现开支节约。
然而,该工具也存在一定的局限性。首先,它目前仅支持 macOS 系统(Darwin),Linux 和 Windows 用户暂时无法使用,跨平台兼容性受限。其次,功能相对单一,仅聚焦于成本分析,不提供 Token 级别的详细拆分(受限于 CodexBar 的输出格式)。此外,工具强制依赖外部 CodexBar CLI 的安装,如果未预先通过 Homebrew 安装,将无法正常工作,增加了部署门槛。
适合的目标群体主要包括:频繁使用 Codex 或 Claude API 的专业开发者、需要监控团队 AI 使用成本的技术管理者、以及希望优化个人 AI 开支的高级用户。对于那些重视数据隐私,不愿将使用数据上传到第三方分析平台的用户,这款本地工具尤为合适。同时,习惯命令行操作、需要将成本数据集成到自动化脚本中的工程师也会发现其价值。
使用风险方面,虽然代码本身通过了 A 级安全认证,但用户仍需注意外部依赖的可靠性。CodexBar CLI 作为第三方工具,其更新和维护状况会直接影响本 Skill 的可用性。此外,由于工具需要读取本地成本日志文件(通常位于 ~/.codex/sessions/ 或类似路径),用户应确保文件权限设置正确,避免敏感的成本数据被未授权访问。建议仅在受信任的环境中使用,并定期更新 CodexBar CLI 以获得最佳兼容性和数据准确性。