LLM Supervisor

🛡️ 智能 LLM 故障转移与质量守护

自动故障转移至本地LLM防止服务中断,同时通过用户确认机制保障代码质量,适合高可用需求的自动化场景。

收藏
14.1k
安装
3k
版本
0.1.0
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心用法

LLM Supervisor 是 OpenClaw 的智能 LLM 调度中间件,主要解决云模型限流导致的会话中断问题。当检测到 Anthropic 等云服务商的速率限制错误时,系统自动将主代理切换至本地 Ollama 实例(默认 qwen2.5:7b),确保会话连续性。新创建的代理自动继承当前 LLM 模式,避免配置碎片化。

关键命令

  • /llm status — 查看当前模式及上下文消耗
  • /llm switch local|cloud — 手动强制切换

配置灵活性:支持自定义本地模型、冷却期、确认短语等参数,满足个性化需求。

显著优点

1. 高可用保障:消除"死机"风险,特别适合长时间运行的自动化任务
2. 质量守门:本地 LLM 执行代码生成前强制用户确认,防止静默降级

3. 完全透明:所有切换行为可见,无隐藏操作

4. 零信用损耗:避免意外消耗云额度

潜在局限

  • 本地模型(默认 7B)编码能力显著弱于 Claude 等云模型
  • 需要本地 Ollama 环境,增加部署复杂度
  • 自动切换可能中断复杂多步推理的连贯性
  • 确认机制在高度自动化场景下可能成为摩擦点

适合人群

  • 运行长时间会话的资深用户
  • 多代理并行作业的自动化开发者
  • 混合云/本地 LLM 策略的团队
  • 对服务连续性有严格要求的生产环境

常规风险

| 风险类型 | 说明 | 缓解措施 |
|---------|------|---------|
| 模型能力降级 | 本地模型可能生成低质量代码 | 强制确认机制 + 显式切换提示 |
| 上下文断裂 | 切换时可能丢失部分推理状态 | 建议手动控制关键任务 |
| 本地资源消耗 | Ollama 持续占用 GPU/内存 | 可配置冷却期自动回落 |
| 过度依赖自动切换 | 频繁限流未被根本解决 | 状态命令监控 + 手动干预能力 |

LLM Supervisor 内容

commands文件夹
dist文件夹
commands文件夹
hooks文件夹
hooks文件夹
types文件夹
@openclaw文件夹
手动下载zip · 11.0 kB
llm.tstext/plain
请选择文件