vector-memory

🧠 零配置的智能语义搜索助手

🥥33总安装量 11评分人数 6
100% 的用户推荐

基于Xenova本地模型的智能内存搜索,自动选择语义/关键词检索,零配置即装即用,确保数据100%本地处理隐私安全。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 100%本地处理,使用Xenova本地模型,无数据上传或远程API调用风险
  • ✅ 无eval/exec/system等危险函数,无代码注入或命令执行漏洞
  • ✅ 文件操作严格限定在工作空间,使用path.join防止路径遍历攻击
  • ✅ 依赖版本锁定(@xenova/transformers@2.17.2),无动态代码加载,供应链安全可靠
  • ⚠️ T3社区来源,install.sh脚本涉及远程仓库克隆,建议验证来源并关注后续更新

使用说明

vector-memory 是一款专为 AI Agent 环境设计的智能内存搜索技能,通过自动选择语义向量搜索与关键词搜索的最佳组合,为用户提供零配置的记忆检索体验。

核心用法极为简洁:通过 ClawHub 安装后立即可用,无需任何配置即可调用 memory_search 进行智能检索。系统会自动检测向量索引状态,若已完成同步则使用基于 Xenova/all-MiniLM-L6-v2 模型的语义搜索,能够理解概念和同义词;若未同步则自动降级为内置关键词搜索。用户可通过 memory_sync 建立向量索引,通过 memory_status 检查当前模式,通过 memory_get 获取完整文件内容。

显著优点体现在其"智能降级"架构设计上。首先,真正的零配置体验消除了传统向量搜索的部署门槛;其次,自动方法选择确保用户始终获得可用且最优的搜索质量;最重要的是 100% 本地处理架构,使用 Hugging Face 社区的 Xenova Transformers 库在本地运行 Embedding 模型,杜绝了数据外泄风险,特别适合处理敏感信息的场景。

潜在局限性包括来源可信度为 T3 级别(社区/个人开发者),虽代码安全但长期维护需关注;首次同步需下载约 80MB 模型文件,对网络环境有要求;当前 JSON 存储模式在超过 1000 个文本块时性能下降,需迁移至 pgvector;且需要用户手动触发 sync 以保持索引更新。

该技能特别适合注重数据隐私的开发者、使用 OpenClaw/Claude Code 等 Agent 环境的用户,以及需要语义级记忆检索但拒绝云端处理的知识管理者。对于处理敏感代码、个人笔记或商业机密的场景尤为理想。

使用风险主要涉及性能与依赖:大规模数据集下 JSON 存储可能导致的性能瓶颈;首次模型下载的带宽消耗;以及作为 T3 来源项目,建议在生产环境使用前进行代码审计或等待社区更广泛的验证。此外,install.sh 脚本涉及远程仓库克隆,需确保安装来源可信。

vector-memory 内容

文件夹图标skills文件夹
文件夹图标vector-memory文件夹
文件夹图标vector-memory文件夹
文件夹图标references文件夹
手动下载zip · 21.1 kB
README.mdtext/markdown
请选择文件