核心用法
LLM Supervisor 是 OpenClaw 的智能 LLM 调度中间件,主要解决云模型限流导致的会话中断问题。当检测到 Anthropic 等云服务商的速率限制错误时,系统自动将主代理切换至本地 Ollama 实例(默认 qwen2.5:7b),确保会话连续性。新创建的代理自动继承当前 LLM 模式,避免配置碎片化。
关键命令:
/llm status— 查看当前模式及上下文消耗/llm switch local|cloud— 手动强制切换
配置灵活性:支持自定义本地模型、冷却期、确认短语等参数,满足个性化需求。
显著优点
1. 高可用保障:消除"死机"风险,特别适合长时间运行的自动化任务
2. 质量守门:本地 LLM 执行代码生成前强制用户确认,防止静默降级
3. 完全透明:所有切换行为可见,无隐藏操作
4. 零信用损耗:避免意外消耗云额度
潜在局限
- 本地模型(默认 7B)编码能力显著弱于 Claude 等云模型
- 需要本地 Ollama 环境,增加部署复杂度
- 自动切换可能中断复杂多步推理的连贯性
- 确认机制在高度自动化场景下可能成为摩擦点
适合人群
- 运行长时间会话的资深用户
- 多代理并行作业的自动化开发者
- 混合云/本地 LLM 策略的团队
- 对服务连续性有严格要求的生产环境
常规风险
| 风险类型 | 说明 | 缓解措施 |
|---------|------|---------|
| 模型能力降级 | 本地模型可能生成低质量代码 | 强制确认机制 + 显式切换提示 |
| 上下文断裂 | 切换时可能丢失部分推理状态 | 建议手动控制关键任务 |
| 本地资源消耗 | Ollama 持续占用 GPU/内存 | 可配置冷却期自动回落 |
| 过度依赖自动切换 | 频繁限流未被根本解决 | 状态命令监控 + 手动干预能力 |