LLM Supervisor

🛡️ 智能故障转移,守护代码质量

自动检测云端LLM限流并切换至本地模型,确保会话不中断,同时防止代码质量静默降级,需用户确认后才允许本地模型执行代码生成任务。

收藏
6.9k
安装
3k
版本
1.0.0
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心用法

LLM Supervisor 是一款面向 OpenClaw 的智能 LLM 路由管理技能,主要解决云端大模型在重度使用场景下的可靠性问题。当系统检测到 Anthropic 等云服务商的速率限制错误时,会自动将主 Agent 切换至本地 Ollama 模型,确保会话连续性。用户可通过 /llm status 查看当前模式,使用 /llm switch local|cloud 进行手动切换。

显著优点

1. 高可用性保障:消除因云 API 限流导致的"死机"状态,特别适合长时间运行的自动化任务
2. 质量管控机制:本地模型执行代码生成前必须获得用户显式确认,防止静默降级

3. 配置灵活性:支持自定义冷却时间、本地模型选型(默认 qwen2.5:7b)、确认话术等参数

4. 上下文继承:新创建的 Agent 自动继承当前活跃的 LLM 模式,保持行为一致性

5. 成本透明:明确承诺不会未经用户意图消耗云端额度

潜在缺点与局限性

  • 本地模型性能瓶颈:qwen2.5:7b 等本地模型在复杂代码推理任务上显著弱于 Claude 等云端模型
  • 确认流程摩擦:频繁触发的代码生成确认可能打断开发心流
  • 单点故障风险:依赖 Ollama 本地服务的可用性,若本地服务异常则无法完成自动切换
  • 网络依赖残留:初始检测仍需云端 API 交互,完全离线场景下无法触发切换逻辑
  • 配置复杂度:自动化决策与用户确认之间的平衡需要精细调参

适合人群

  • 运行长会话或 Agent 密集型工作流的进阶用户
  • 混合使用云地双栈、对服务连续性有硬性要求的开发者
  • 企业环境中需规避"机器人掉线"影响的自动化场景

常规风险

| 风险类型 | 说明 | 缓解措施 |
|---------|------|---------|
| 模型能力错配 | 本地模型生成低质量代码 | 强制确认机制 + 人工审查 |
| 自动切换误触发 | 非限流错误被误判 | 可配置冷却期 + 手动覆盖 |
| 本地资源耗尽 | OOM 或 GPU 满载导致本地服务崩溃 | 监控本地服务健康状态 |
| 确认疲劳 | 频繁弹窗降低效率 | 调整 `requireConfirmationForLocalCode` 阈值 |

LLM Supervisor 内容

暂无文件树

手动下载zip · 11.0 kB
contentapplication/octet-stream
请选择文件