OpenClaw Memory Qdrant

🧠 本地语义记忆,零配置开箱即用

data-processing榜 #4

基于 Qdrant 和 Transformers.js 的本地语义记忆系统,支持向量嵌入存储与检索,无需 API 密钥,保护隐私的同时实现智能上下文回忆。

收藏
24.6k
安装
7.3k
版本
1.0.8
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心用法

memory-qdrant 是 OpenClaw 生态的本地语义记忆插件,通过 Qdrant 向量数据库与 Transformers.js 实现对话上下文的持久化存储与语义检索。该插件提供三大核心工具:

  • memory_store: 将文本信息以向量嵌入形式保存,支持分类标签
  • memory_search: 基于语义相似度检索相关记忆,非简单关键词匹配
  • memory_forget: 按 ID 或内容查询删除特定记忆

运行模式

默认采用内存模式(零配置),数据随进程重启清空;也可配置外部 Qdrant 服务实现持久化。首次运行自动从 Hugging Face 下载约 25MB 的 Xenova/all-MiniLM-L6-v2 嵌入模型。

显著优点

1. 完全本地化:无需 OpenAI API 密钥或云端服务,规避网络延迟与数据出境风险
2. 语义理解:基于 Transformer 的嵌入向量支持模糊语义匹配,优于传统关键词检索

3. 灵活部署:内存模式即开即用,生产环境可无缝切换至独立 Qdrant 集群

4. 生态集成:原生适配 OpenClaw 插件体系,提供标准化的记忆管理接口

潜在缺点与局限性

  • 冷启动成本:首次下载模型与编译原生依赖(sharp、onnxruntime)可能耗时较长
  • 硬件要求:本地推理需 CPU 支持 ONNX Runtime,低配置设备性能受限
  • 记忆持久化门槛:内存模式数据易失,持久化需额外部署 Qdrant 服务
  • 向量维度固定:仅支持预置模型的 384 维嵌入,无法灵活更换其他模型架构

适合人群

  • 注重数据隐私、拒绝云端 API 的个人用户与小型团队
  • 需要在离线/内网环境运行的企业级 OpenClaw 部署
  • 已具备 Qdrant 运维经验、追求检索精度的技术用户

常规风险

| 风险项 | 说明 | 缓解建议 |
|--------|------|---------|
| PII 泄露 | `autoCapture` 开启时正则匹配邮箱、电话等敏感信息 | 保持默认关闭,手动控制记忆存储 |
| 供应链安全 | 依赖 Hugging Face 模型下载与 npm 包 | 校验模型文件哈希,锁定依赖版本 |
| 数据残留 | 内存模式并非加密安全,进程 dump 可能泄露 | 敏感场景启用外部加密 Qdrant 服务 |
| 模型偏见 | 嵌入模型训练数据存在潜在偏见 | 关键决策场景结合人工复核 |

---

综合评估:该插件在本地隐私保护与语义检索能力间取得较好平衡,适合作为 OpenClaw 的基础记忆层组件,但生产环境需权衡运维成本与持久化需求。

OpenClaw Memory Qdrant 内容

暂无文件树

手动下载zip · 16.1 kB
contentapplication/octet-stream
请选择文件