核心用法
memory-qdrant 是 OpenClaw 生态的本地语义记忆插件,通过 Qdrant 向量数据库 + Transformers.js 嵌入模型(Xenova/all-MiniLM-L6-v2)实现对话上下文的持久化存储与语义检索。安装后提供三个核心工具:
- memory_store: 存储结构化记忆,支持分类标签
- memory_search: 基于语义相似度检索相关记忆
- memory_forget: 按 ID 或查询条件删除记忆
默认采用零配置内存模式,数据随进程重启清空;也可配置外接 Qdrant 服务实现持久化。
显著优点
1. 完全本地化: 无需 OpenAI/Anthropic 等外部 API,隐私数据不出本地
2. 零配置启动: 内存模式开箱即用,降低使用门槛
3. 语义检索: 基于 MiniLM 的嵌入模型理解自然语言含义,非简单关键词匹配
4. OpenClaw 原生集成: 与代理工作流无缝衔接,支持自动注入上下文
5. 可选持久化: 灵活切换内存模式与外接 Qdrant 服务端
潜在缺点与局限性
- 模型下载依赖: 首次运行需从 Hugging Face 下载 ~25MB 模型,需网络连接
- 原生编译风险: sharp、onnxruntime 等依赖需编译原生二进制,Windows/macOS/Linux 需对应构建工具链
- 内存模式易失性: 默认配置下数据不持久,意外重启导致记忆丢失
- 嵌入模型局限: MiniLM-L6-v2 为轻量模型,复杂语义理解能力弱于大型模型
- autoCapture 隐私风险: 开启自动捕获会匹配邮箱/电话正则,可能记录 PII
适合人群
- 注重隐私、拒绝云端 API 的 OpenClaw 用户
- 需要基础语义记忆能力的轻量级代理场景
- 具备 Node.js 环境配置能力的技术用户
- 开发/测试阶段快速验证记忆功能的开发者
常规风险
| 风险类别 | 说明 |
|---------|------|
| 供应链安全 | 首次运行从 Hugging Face 拉取模型,需信任该来源;npm 依赖存在供应链攻击面 |
| 数据持久化 | 误用内存模式可能导致重要记忆丢失 |
| PII 泄露 | autoCapture 开启后可能自动记录邮箱、电话等敏感信息 |
| 外接服务 | 配置 qdrantUrl 后数据发送至第三方服务器,需确认服务端可信度 |
| 原生模块 | 编译依赖存在平台差异,可能因环境配置失败导致安装受阻 |