llm-router

🧠 一站式多模型智能路由中枢

🥥51总安装量 14评分人数 20
100% 的用户推荐

基于 AIsa 平台的统一 LLM 网关,以单一 API 密钥接入 GPT-4、Claude、Gemini 等 70+ 模型,实现智能路由与成本优化,显著降低多模型接入复杂度。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 代码安全规范,无 eval/exec/system/subprocess 等危险函数调用
  • ✅ 零外部依赖,仅使用 Python 标准库(urllib、json 等),无供应链攻击风险
  • ✅ 无动态代码加载行为,无静默收集敏感信息,API Key 需用户主动配置
  • ⚠️ 用户消息将传输至远程 API(api.aisa.one)进行处理,存在数据出境风险
  • ⚠️ 来源为 T3 级社区项目(个人开发者 bowen-dotcom),建议关键业务场景审慎评估

使用说明

OpenClaw LLM Router 是一个统一的 LLM 网关解决方案,旨在通过单一 API 端点整合 70 余种主流 AI 模型。该技能基于 AIsa 平台构建,提供 OpenAI 兼容的 API 格式,使开发者能够通过修改模型名称字符串即可在 GPT-4、Claude-3、Gemini、Qwen、Deepseek、Grok 等模型间无缝切换,无需重构代码或管理多个 API 密钥。

核心用法围绕标准化 HTTP API 展开,支持聊天补全、流式响应、视觉分析和函数调用等完整功能。客户端提供 Python SDK 和命令行工具,仅依赖标准库实现,轻量且易于集成。用户通过设置 AISA_API_KEY 环境变量即可调用 api.aisa.one 端点,实现多模型对话、自动故障转移、成本优化路由及模型 A/B 测试等高级场景。

显著优点包括:统一的计费与用量监控体系,避免多平台账单碎片化;内置回退策略提升服务可靠性;支持根据任务复杂度智能路由至不同成本模型(如简单查询使用轻量模型,复杂推理使用 GPT-4);完整的 OpenAI SDK 兼容性允许现有项目零成本迁移。

潜在局限性主要源于其 T3 级来源属性——由个人开发者维护的社区项目,虽代码质量良好但长期维护稳定性不及企业级产品。此外,所有请求需经由 AIsa 平台中转,存在网络延迟和数据隐私考量,不适合处理高度敏感或需完全离线运行的场景。

该技能特别适合需要快速对比多模型效果的 AI 应用开发者、构建自主 Agent 的工程师,以及希望通过智能路由降低 API 成本的中小企业。使用风险主要包括对外部平台可用性的依赖、API Key 泄露风险,以及需关注数据合规性(尤其涉及跨境传输时)。建议生产环境使用前进行充分的容错测试与密钥安全管理。

llm-router 内容

文件夹图标scripts文件夹
手动下载zip · 9.3 kB
llm_router_client.pytext/plain
请选择文件