核心用法
Vector Memory Hack 是一套专为AI Agent设计的轻量级语义检索系统,通过 TF-IDF 向量化和 SQLite 存储实现毫秒级上下文查找。用户只需运行 python3 scripts/vector_search.py --rebuild 建立索引,即可通过 vsearch "query" 或 --search 参数对 MEMORY.md 等文档进行语义搜索,返回 Top-K 相关段落及余弦相似度得分。
显著优点
- 零外部依赖:纯 Python 标准库 + SQLite,无需 PyTorch/Transformers,部署瞬间完成
- 极速响应:<10ms 搜索延迟,50+章节/秒索引速度,内存占用仅 ~10KB/章节
- 多语言支持:内置多语言分词与停用词过滤,适配 CZ/EN/DE 等场景
- Token 节省:精准定位3-5个相关章节,避免读取3000+ tokens的完整文档
- 增量更新:基于哈希的变更检测,仅处理修改部分,维护成本低
潜在局限
- 语义精度有限:TF-IDF 基于词频统计,无法捕捉深层语义关系,复杂推理场景准确率低于 sentence-transformers 或 OpenAI Embedding
- 无上下文理解:缺乏 Transformer 的上下文感知能力,同义词、隐含意图匹配较弱
- 规模瓶颈:千级文档内性能优异,万级以上建议迁移至 ChromaDB 等专业向量数据库
- 手动调优依赖:停用词、相似度阈值需根据语言场景手动调整
适合人群
- 资源受限环境(边缘设备、低配 VPS、无 GPU 场景)
- 需要快速原型验证的开发者
- 追求零依赖、极简部署的 AI Agent 项目
- 对延迟敏感、可接受中等语义精度的生产场景
常规风险
- 索引失效风险:MEMORY.md 结构变更后需手动重建索引,否则返回过时内容
- 数据库锁定冲突:并发写入可能导致 SQLite 锁定,需串行化处理或重建数据库
- 词汇表偏差:TF-IDF 对罕见术语权重过高,专业领域需定制停用词与分词规则
- 无加密传输:SQLite 本地存储无内置加密,敏感内存文件需额外权限管控