核心用法
memory-qdrant 是 OpenClaw 生态的本地语义记忆插件,通过 Qdrant 向量数据库与 Transformers.js 实现对话上下文的持久化存储与语义检索。该插件提供三大核心工具:
- memory_store: 将文本信息以向量嵌入形式保存,支持分类标签
- memory_search: 基于语义相似度检索相关记忆,非简单关键词匹配
- memory_forget: 按 ID 或内容查询删除特定记忆
运行模式
默认采用内存模式(零配置),数据随进程重启清空;也可配置外部 Qdrant 服务实现持久化。首次运行自动从 Hugging Face 下载约 25MB 的 Xenova/all-MiniLM-L6-v2 嵌入模型。
显著优点
1. 完全本地化:无需 OpenAI API 密钥或云端服务,规避网络延迟与数据出境风险
2. 语义理解:基于 Transformer 的嵌入向量支持模糊语义匹配,优于传统关键词检索
3. 灵活部署:内存模式即开即用,生产环境可无缝切换至独立 Qdrant 集群
4. 生态集成:原生适配 OpenClaw 插件体系,提供标准化的记忆管理接口
潜在缺点与局限性
- 冷启动成本:首次下载模型与编译原生依赖(sharp、onnxruntime)可能耗时较长
- 硬件要求:本地推理需 CPU 支持 ONNX Runtime,低配置设备性能受限
- 记忆持久化门槛:内存模式数据易失,持久化需额外部署 Qdrant 服务
- 向量维度固定:仅支持预置模型的 384 维嵌入,无法灵活更换其他模型架构
适合人群
- 注重数据隐私、拒绝云端 API 的个人用户与小型团队
- 需要在离线/内网环境运行的企业级 OpenClaw 部署
- 已具备 Qdrant 运维经验、追求检索精度的技术用户
常规风险
| 风险项 | 说明 | 缓解建议 |
|--------|------|---------|
| PII 泄露 | `autoCapture` 开启时正则匹配邮箱、电话等敏感信息 | 保持默认关闭,手动控制记忆存储 |
| 供应链安全 | 依赖 Hugging Face 模型下载与 npm 包 | 校验模型文件哈希,锁定依赖版本 |
| 数据残留 | 内存模式并非加密安全,进程 dump 可能泄露 | 敏感场景启用外部加密 Qdrant 服务 |
| 模型偏见 | 嵌入模型训练数据存在潜在偏见 | 关键决策场景结合人工复核 |
---
综合评估:该插件在本地隐私保护与语义检索能力间取得较好平衡,适合作为 OpenClaw 的基础记忆层组件,但生产环境需权衡运维成本与持久化需求。