llmrouter

🔀 智能路由降本增效的LLM代理

🥥15总安装量 5评分人数 4
100% 的用户推荐

开源智能LLM路由代理,自动按复杂度分流请求至最优模型,显著降低API成本,支持Anthropic/OpenAI/Gemini等主流平台。

A

基本安全,请在特定环境下使用

  • 来自可信组织或认证账号,需要结合权限范围判断
  • ✅ 代码完全开源,托管于公开 GitHub 仓库,可审计无隐藏功能
  • ✅ 未发现未经授权的网络通信或敏感信息窃取行为
  • ⚠️ 需要用户提供并存储 API 密钥,存在配置不当导致的泄露风险
  • ⚠️ 作为网络代理中转 LLM 请求,需信任其不篡改或记录敏感数据
  • ✅ 与知名工具 OpenClaw 集成,经过社区实际验证

使用说明

核心用法

LLM Router 是一个智能代理服务器,通过分析用户请求的复杂度,自动将查询路由到最合适的语言模型。用户只需向统一的 OpenAI 兼容 API 端点发送请求,系统内置的分类器会将任务划分为五个等级(super_easy/easy/medium/hard/super_hard),并匹配预设的模型配置完成转发。支持本地 Ollama 分类(免费)或远程 API 分类(快速),可与 OpenClaw 深度集成实现无缝替换默认模型。

显著优点

成本优化效果显著:简单问候使用 Haiku/GPT-4o-mini 等低价模型,复杂推理才调用 Opus/o3 等高端模型,实测可降低 60-80% 的 API 支出。多厂商统一接入:单一接口兼容 Anthropic、OpenAI、Google Gemini、Kimi/Moonshot 及本地 Ollama,无需修改客户端代码即可切换供应商。部署灵活:支持 Python 虚拟环境本地运行、macOS LaunchAgent 后台服务、Docker 化部署等多种方式。透明可审计:每次请求记录实际使用的模型,便于成本追踪和性能调优。

潜在缺点与局限性

额外延迟开销:分类步骤增加 50-200ms 的首次响应时间,对延迟敏感场景需权衡。分类准确性依赖调优:默认的 ROUTES.md 规则可能不适用于特定业务场景,需要持续优化分类阈值。配置复杂度较高:初学者需理解 YAML 配置结构、环境变量注入、OAuth 令牌处理等概念。本地分类硬件要求:使用 Ollama 本地分类需要 4GB+ 显存或充足内存,低配机器只能依赖远程分类增加成本。错误调试困难:路由失败时需在分类器、目标模型、网络层之间定位问题,日志分散。

适合的目标群体

高频 LLM 调用者:日均消耗 $10+ API 费用的团队或个人开发者。多模型策略用户:需要同时管理多个供应商账户、比较模型表现的工程团队。OpenClaw 生态用户:希望为 Claude Code 等工具添加智能路由能力的进阶用户。成本敏感型企业:有明确预算控制需求、愿意投入配置时间换取长期节省的中小团队。

使用风险

API 密钥泄露风险:配置文件中明文存储密钥,共享环境或版本控制误提交可能导致凭证泄露,建议使用环境变量注入或密钥管理服务。供应商锁定转移:过度依赖特定低价模型后,若供应商调价或 deprecate 模型,需紧急调整路由策略。分类误判成本:关键任务被错误分类到轻量模型可能导致输出质量下降,建议对金融、医疗等高风险场景设置保守路由规则。服务可用性依赖:作为中间代理,LLM Router 本身成为单点故障,生产环境需考虑进程守护和健康检查机制。

llmrouter 内容

手动下载zip · 3.9 kB
SKILL.mdtext/markdown
请选择文件