核心用法
LLM Router 是一个智能代理服务器,通过分析用户请求的复杂度,自动将查询路由到最合适的语言模型。用户只需向统一的 OpenAI 兼容 API 端点发送请求,系统内置的分类器会将任务划分为五个等级(super_easy/easy/medium/hard/super_hard),并匹配预设的模型配置完成转发。支持本地 Ollama 分类(免费)或远程 API 分类(快速),可与 OpenClaw 深度集成实现无缝替换默认模型。
显著优点
成本优化效果显著:简单问候使用 Haiku/GPT-4o-mini 等低价模型,复杂推理才调用 Opus/o3 等高端模型,实测可降低 60-80% 的 API 支出。多厂商统一接入:单一接口兼容 Anthropic、OpenAI、Google Gemini、Kimi/Moonshot 及本地 Ollama,无需修改客户端代码即可切换供应商。部署灵活:支持 Python 虚拟环境本地运行、macOS LaunchAgent 后台服务、Docker 化部署等多种方式。透明可审计:每次请求记录实际使用的模型,便于成本追踪和性能调优。
潜在缺点与局限性
额外延迟开销:分类步骤增加 50-200ms 的首次响应时间,对延迟敏感场景需权衡。分类准确性依赖调优:默认的 ROUTES.md 规则可能不适用于特定业务场景,需要持续优化分类阈值。配置复杂度较高:初学者需理解 YAML 配置结构、环境变量注入、OAuth 令牌处理等概念。本地分类硬件要求:使用 Ollama 本地分类需要 4GB+ 显存或充足内存,低配机器只能依赖远程分类增加成本。错误调试困难:路由失败时需在分类器、目标模型、网络层之间定位问题,日志分散。
适合的目标群体
高频 LLM 调用者:日均消耗 $10+ API 费用的团队或个人开发者。多模型策略用户:需要同时管理多个供应商账户、比较模型表现的工程团队。OpenClaw 生态用户:希望为 Claude Code 等工具添加智能路由能力的进阶用户。成本敏感型企业:有明确预算控制需求、愿意投入配置时间换取长期节省的中小团队。
使用风险
API 密钥泄露风险:配置文件中明文存储密钥,共享环境或版本控制误提交可能导致凭证泄露,建议使用环境变量注入或密钥管理服务。供应商锁定转移:过度依赖特定低价模型后,若供应商调价或 deprecate 模型,需紧急调整路由策略。分类误判成本:关键任务被错误分类到轻量模型可能导致输出质量下降,建议对金融、医疗等高风险场景设置保守路由规则。服务可用性依赖:作为中间代理,LLM Router 本身成为单点故障,生产环境需考虑进程守护和健康检查机制。