vector-memory 是一款专为 AI Agent 环境设计的智能内存搜索技能,通过自动选择语义向量搜索与关键词搜索的最佳组合,为用户提供零配置的记忆检索体验。
核心用法极为简洁:通过 ClawHub 安装后立即可用,无需任何配置即可调用 memory_search 进行智能检索。系统会自动检测向量索引状态,若已完成同步则使用基于 Xenova/all-MiniLM-L6-v2 模型的语义搜索,能够理解概念和同义词;若未同步则自动降级为内置关键词搜索。用户可通过 memory_sync 建立向量索引,通过 memory_status 检查当前模式,通过 memory_get 获取完整文件内容。
显著优点体现在其"智能降级"架构设计上。首先,真正的零配置体验消除了传统向量搜索的部署门槛;其次,自动方法选择确保用户始终获得可用且最优的搜索质量;最重要的是 100% 本地处理架构,使用 Hugging Face 社区的 Xenova Transformers 库在本地运行 Embedding 模型,杜绝了数据外泄风险,特别适合处理敏感信息的场景。
潜在局限性包括来源可信度为 T3 级别(社区/个人开发者),虽代码安全但长期维护需关注;首次同步需下载约 80MB 模型文件,对网络环境有要求;当前 JSON 存储模式在超过 1000 个文本块时性能下降,需迁移至 pgvector;且需要用户手动触发 sync 以保持索引更新。
该技能特别适合注重数据隐私的开发者、使用 OpenClaw/Claude Code 等 Agent 环境的用户,以及需要语义级记忆检索但拒绝云端处理的知识管理者。对于处理敏感代码、个人笔记或商业机密的场景尤为理想。
使用风险主要涉及性能与依赖:大规模数据集下 JSON 存储可能导致的性能瓶颈;首次模型下载的带宽消耗;以及作为 T3 来源项目,建议在生产环境使用前进行代码审计或等待社区更广泛的验证。此外,install.sh 脚本涉及远程仓库克隆,需确保安装来源可信。