核心用法
model-router 是一个综合性AI模型路由系统,通过交互式配置向导、任务自动分类和智能委派机制,帮助用户在多个AI提供商(Anthropic、OpenAI、Gemini、Moonshot、Z.ai、GLM)之间自动选择最优模型。
主要操作流程:
1. 运行 setup-wizard.py 配置API密钥和模型映射
2. 使用 classify_task.py 获取任务推荐模型及置信度评分
3. 通过 sessions_spawn --model [推荐模型] 执行具体任务
系统内置8种任务类型映射(simple/coding/research/creative/math/vision/chinese/long_context),并支持 aggressive/balanced/quality 三级成本优化策略。
显著优点
- 成本优化显著:Aggressive模式下可节省50-90%费用,自动将简单任务路由至低价模型(如glm-4.5-air)
- 多提供商生态:原生支持6家主流AI厂商,覆盖不同优势场景(中文、多模态、超长上下文)
- 安全设计:API密钥独立存储于
~/.model-router/,文件权限600,与版本控制隔离 - 渐进式升级:支持从便宜模型起步,失败时自动升级至高端模型
局限性与风险
- 配置依赖:需手动维护多提供商API密钥,初期设置成本较高
- 分类准确性:任务分类基于关键词匹配,置信度85%左右,存在误判可能
- 厂商绑定风险:依赖第三方API稳定性,部分国内厂商(Moonshot/Z.ai/GLM)文档支持较弱
- 无自动回退:需用户手动实现失败后的模型升级逻辑
适合人群
高频使用AI服务、需平衡成本与质量的技术团队或个人开发者;尤其适合同时处理多种任务类型(代码+研究+简单查询)且预算敏感的用户。
常规风险
- API密钥泄露风险(需严格遵循600权限及.gitignore配置)
- 低价模型输出质量不稳定导致任务失败
- 多会话并行时的资源管理复杂度