dual-brain

🧠 双脑协同的智能视角增强

🥥8总安装量 2评分人数 2
100% 的用户推荐

OpenClaw生态的多LLM认知增强工具,通过后台守护进程自动为每个用户消息生成第二视角建议,提升AI响应质量与思维多样性。

A

基本安全,请在特定环境下使用

  • 来自可信组织或认证账号,需要结合权限范围判断
  • ✅ 零第三方依赖,供应链攻击面极小,仅使用 Node.js 内置模块
  • ✅ 文件系统访问受限,仅操作专用配置目录,无越界访问风险
  • ✅ 网络传输安全,所有外部 API 调用均使用 HTTPS,无明文传输敏感数据
  • ⚠️ API 密钥明文存储于 `~/.dual-brain/config.json`(权限 0644),建议改为 0600 并集成 OS 密钥链
  • ⚠️ 用户输入仅做长度截断,缺乏内容过滤,存在 prompt injection 潜在风险

使用说明

核心用法

Dual-Brain Skill 是一个后台守护进程,为 OpenClaw 智能体提供认知多样性增强。其工作流程为:监控 OpenClaw 会话文件 → 将用户消息发送至次要 LLM(如 Kimi、GPT-4、Llama 等)→ 生成 2-3 句视角建议 → 保存至指定目录 → 主 Agent 读取并综合双视角后响应用户。用户通过 npm install -g openclaw-dual-brain 安装后,运行 dual-brain setup 配置提供商和 API 密钥,再执行 dual-brain start 启动守护进程即可。

显著优点

认知多样性:引入与主模型不同的 LLM 视角,有效拓宽思维边界,发现单一模型可能遗漏的角度。零依赖架构:完全基于 Node.js 内置模块,无第三方 npm 依赖,彻底消除供应链攻击风险。多提供商灵活选择:支持 Ollama(本地零成本)、Moonshot/Kimi(中文优化)、OpenAI、Groq(高速推理),用户可按成本与质量需求自由切换。透明低延迟:后台自动运行,对主 Agent 无性能开销,视角生成延迟低于 1 秒。可选记忆集成:若 Engram 语义内存服务运行,视角可长期存储供后续召回。

潜在缺点与局限性

API 密钥明文存储:配置文件以 0644 权限明文保存密钥,存在本地安全风险。单提供商限制:每次运行仅能配置一个 LLM 提供商,无法同时获取多模型对比视角。无历史视角管理:仅保留最新视角文件,过往建议自动覆盖,无法追溯演变。输入内容无过滤:用户消息仅做长度截断(1000 字符),缺乏 prompt injection 防护。日志无限增长:未实现轮转机制,长期运行可能产生过大日志文件。

适合的目标群体

  • 追求高质量 AI 对话的 OpenClaw 深度用户
  • 需要多语言/多文化视角的国际化团队
  • 对供应链安全敏感、希望零依赖部署的企业环境
  • 研究人员与内容创作者,需避免单一模型思维定式
  • 注重本地隐私、倾向 Ollama 本地模型的用户

使用风险

配置安全风险:需手动设置文件权限为 0600 缓解密钥泄露。服务安装权限:Linux 系统安装守护进程时需 sudo,需确认脚本来源可信。网络依赖:除 Ollama 本地模式外,均需稳定外网连接至各 LLM API。提供商成本波动:不同 API 计费策略差异大,需监控用量避免意外支出。模型一致性:次要 LLM 可能生成与主模型冲突的建议,需 Agent 具备良好综合判断能力。

dual-brain 内容

文件夹图标bin文件夹
文件夹图标daemon文件夹
文件夹图标src文件夹
文件夹图标providers文件夹
手动下载zip · 26.5 kB
dual-brain.jstext/javascript
请选择文件