核心用法
Vector Memory Hack 是一套专为 AI agent 设计的超轻量级语义搜索解决方案,解决传统方式读取 MEMORY.md 等大型文档时token浪费的痛点。核心工作流分为三步:1) 使用 --rebuild 建立 TF-IDF 索引;2) 通过 vsearch 或 --search 执行语义查询;3) 读取返回的 top-k 结果获取上下文。
技术实现
采用经典信息检索组合:自定义多语言分词器 → TF-IDF 向量化 → SQLite 存储稀疏向量 → 余弦相似度排序。全程仅依赖 Python 标准库,无需 PyTorch、transformers 等重型框架。
显著优点
- 极致轻量:零外部依赖,纯标准库实现,适合资源受限环境
- 极速响应:<10ms 搜索延迟,50+章节/秒索引速度
- Token 高效:精准定位3-5个相关章节,避免3000+token的全文读取
- 多语言支持:内置 CZ/EN/DE 等语言处理能力
- 部署零成本:无需 API 密钥、GPU 或 Docker
潜在局限
- 精度天花板:TF-IDF 基于词频统计,无法捕捉深层语义关系(vs 神经网络嵌入)
- 同义词盲区:"backup" 与 "archive" 可能无法匹配
- 规模上限:文档量达万级时性能下降,建议作为中小型项目方案
- 无在线学习:需手动触发
--update增量更新
适合人群
- 需要快速部署语义搜索的 AI agent 开发者
- VPS/边缘设备等资源受限场景
- 原型验证阶段不愿引入重型依赖的团队
- 对 latency 敏感但可接受一定精度损失的应用
常规风险
- 索引与源文件不同步风险(需定期
--rebuild) - SQLite 并发访问可能导致数据库锁定
- 过度依赖语义搜索可能遗漏关键上下文(建议保留人工复核环节)