核心用法
LLM Supervisor 是一款面向 OpenClaw 的智能 LLM 路由管理技能,主要解决云端大模型在重度使用场景下的可靠性问题。当系统检测到 Anthropic 等云服务商的速率限制错误时,会自动将主 Agent 切换至本地 Ollama 模型,确保会话连续性。用户可通过 /llm status 查看当前模式,使用 /llm switch local|cloud 进行手动切换。
显著优点
1. 高可用性保障:消除因云 API 限流导致的"死机"状态,特别适合长时间运行的自动化任务
2. 质量管控机制:本地模型执行代码生成前必须获得用户显式确认,防止静默降级
3. 配置灵活性:支持自定义冷却时间、本地模型选型(默认 qwen2.5:7b)、确认话术等参数
4. 上下文继承:新创建的 Agent 自动继承当前活跃的 LLM 模式,保持行为一致性
5. 成本透明:明确承诺不会未经用户意图消耗云端额度
潜在缺点与局限性
- 本地模型性能瓶颈:qwen2.5:7b 等本地模型在复杂代码推理任务上显著弱于 Claude 等云端模型
- 确认流程摩擦:频繁触发的代码生成确认可能打断开发心流
- 单点故障风险:依赖 Ollama 本地服务的可用性,若本地服务异常则无法完成自动切换
- 网络依赖残留:初始检测仍需云端 API 交互,完全离线场景下无法触发切换逻辑
- 配置复杂度:自动化决策与用户确认之间的平衡需要精细调参
适合人群
- 运行长会话或 Agent 密集型工作流的进阶用户
- 混合使用云地双栈、对服务连续性有硬性要求的开发者
- 企业环境中需规避"机器人掉线"影响的自动化场景
常规风险
| 风险类型 | 说明 | 缓解措施 |
|---------|------|---------|
| 模型能力错配 | 本地模型生成低质量代码 | 强制确认机制 + 人工审查 |
| 自动切换误触发 | 非限流错误被误判 | 可配置冷却期 + 手动覆盖 |
| 本地资源耗尽 | OOM 或 GPU 满载导致本地服务崩溃 | 监控本地服务健康状态 |
| 确认疲劳 | 频繁弹窗降低效率 | 调整 `requireConfirmationForLocalCode` 阈值 |