核心用法
memory-qdrant 是一款专为 OpenClaw 设计的本地语义记忆插件,通过 Qdrant 向量数据库与 Transformers.js 嵌入模型,实现对话上下文的智能存储与检索。核心功能围绕三个工具展开:
- memory_store:保存结构化信息,支持分类标签(如
preference) - memory_search:基于语义相似度检索相关记忆,可设置返回数量
- memory_forget:通过 ID 或查询文本删除特定记忆
默认采用内存模式(零配置),数据随进程重启清除;也可连接外部 Qdrant 服务实现持久化。首次运行自动下载约 25MB 的 Xenova/all-MiniLM-L6-v2 嵌入模型。
显著优点
- 完全本地化:无需 API Key,无外部服务依赖,隐私可控
- 零配置启动:内存模式开箱即用,降低部署门槛
- 语义理解:基于 Transformer 的嵌入模型,支持模糊匹配与语境关联
- 灵活集成:可选自动捕获(opt-in)与自动召回机制,适配不同工作流
潜在局限
- 原生依赖编译:
sharp、onnxruntime等依赖可能需要本地构建工具链 - 首启下载延迟:25MB 模型需从 Hugging Face 首次拉取
- 内存模式易失性:重启后数据丢失,长期记忆需额外配置 Qdrant 服务
- 自动捕获隐私风险:开启
autoCapture后,正则触发模式可能捕获邮箱、电话等 PII
适合人群
- 注重数据隐私、希望避免云端 API 的开发者
- 需要为 OpenClaw 代理构建上下文记忆能力的用户
- 具备 Node.js 环境、能接受首次依赖安装的技术用户
常规风险
- PII 泄露:
autoCapture默认关闭,但启用后需谨慎评估触发规则 - 外部 Qdrant 信任问题:持久化模式需确保服务端可信
- 模型供应链:依赖 Hugging Face 模型下载,需考虑网络可用性与完整性校验