clawrouter

🦀 智能路由降本 78% 的多模型中枢

🥥37总安装量 8评分人数 11
100% 的用户推荐

BlockRunAI 出品的智能 LLM 路由技能,通过四层分级策略自动匹配 30+ 模型,最高节省 78% 推理成本,实现多供应商统一计费管理。

B

存在边界风险,建议在隔离环境中验证

  • 来自可信组织或认证账号,需要结合权限范围判断
  • ✅ 静态代码审查通过,未发现敏感信息硬编码或危险函数(eval/exec/subprocess 等)
  • ✅ 沙箱逃逸测试全部通过,路径遍历、命令注入、权限提升均未成功
  • ⚠️ 需要与 6 个外部 API(OpenAI/Anthropic/Google/DeepSeek/xAI/BlockRun)建立 HTTPS 连接,存在网络层面的天然攻击面
  • ⚠️ 依赖第三方服务可用性,BlockRun 作为路由中间层成为潜在单点故障
  • ⚠️ 需用户自行安全存储 API 密钥,建议定期审查各模型提供商隐私政策

使用说明

核心用法

ClawRouter 是一款面向 OpenClaw 平台的智能 LLM 路由技能,核心功能是将用户请求自动分发至 30+ 个来自 OpenAI、Anthropic、Google、DeepSeek 和 xAI 的模型中成本最优的选项。用户安装后只需执行 openclaw models set blockrun/auto 即可启用智能路由模式,系统会基于四层分级策略(SIMPLE/MEDIUM/COMPLEX/REASONING)实时决策。约 80% 的请求通过规则引擎在 1 毫秒内完成路由,仅模糊查询触发轻量级 LLM 分类器(单次成本约 $0.00003)。

显著优点

成本优化效果显著:官方宣称可节省 78% 推理成本,SIMPLE 层级任务使用 Gemini Flash 可实现 99% 成本节约。 多供应商统一管理:单一钱包覆盖五大主流供应商,无需分别管理多个 API 密钥和账单。 透明化成本追踪:每次请求输出包含模型选择、实际成本、基准成本对比及节省比例,便于成本审计。 低延迟规则引擎:大部分请求无需额外 LLM 调用即可完成路由,避免引入显著延迟。

潜在缺点与局限性

供应商锁定风险:依赖 BlockRun 作为中间层,若其服务中断将影响全部模型访问。 路由误判可能:自动分级虽高效,但复杂任务可能被低估层级导致输出质量下降,或简单任务过度分配至昂贵模型。 隐私合规复杂:数据流经 BlockRun 及多家供应商,需逐一审查各提供商隐私政策,GDPR 等合规场景需谨慎评估。 成本节省非绝对:官方 78% 节省基于特定流量分布假设,实际比例因使用模式差异可能波动较大。

适合的目标群体

  • 高频调用 LLM 且成本敏感的企业开发者与初创团队
  • 需要同时对接多供应商模型但希望简化运维的工程师
  • 拥有多样化任务类型(从简单问答到复杂推理)的 AI 应用架构师
  • 希望获得统一成本视图而非分散账单的产品运营团队

使用风险

网络依赖性强:必须维持与六家外部 API 的稳定连接,任一供应商故障或限流均可能影响服务。 API 密钥管理:需妥善配置 models.providers.blockrun 等环境变量,泄露可能导致未授权消费。 版本兼容性:作为 OpenClaw 插件,需关注平台版本升级带来的兼容性变更。 计费透明度:虽提供单次请求成本,但 BlockRun 自身服务费用结构需额外确认,避免隐性成本。

clawrouter 内容

手动下载zip · 1.4 kB
SKILL.mdtext/markdown
请选择文件