Smart Memory

🧠 双模态智能记忆,秒切速度与深度

为AI代理提供上下文感知记忆的双模态检索系统,结合向量搜索与Focus Agent智能策展,零配置、本地化运行。

收藏
31.8k
安装
6.4k
版本
1.0.1
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心用法

Smart Memory 是面向 AI 代理的上下文记忆系统,采用 SQLite 单文件架构,无需外部服务即可运行。核心功能围绕两种检索模式展开:

Fast Mode(快速模式):默认启用,直接执行向量相似度搜索,适合快速事实查询、简单查找场景。支持混合搜索算法——FTS5 关键词匹配(BM25 排名)与语义向量搜索加权融合(70% 向量 + 30% 关键词)。

Focus Mode(策展模式):通过多轮处理提供高质量上下文,执行流程为「广域检索 20+ 块 → 加权排序(向量 + 词匹配 + 来源/时效加权)→ 合成叙事 → 输出结构化结果带置信度」。适用于复杂决策、多事实综合、规划策略、历史总结等场景。

工具层面提供 memory_search(双模态检索)、memory_get(精确获取片段)、memory_mode(模式切换)三类接口,CLI 支持完整的同步、搜索、模式管理命令。

显著优点

  • 零配置开箱即用:无需 API 密钥,Transformers.js 本地运行嵌入,SQLite 单文件即装即跑
  • 混合搜索质量高:BM25 精确匹配与语义向量互补,显著优于纯向量方案
  • 双模态灵活切换:Fast 满足速度敏感场景,Focus 满足质量敏感场景,实时 toggle
  • 性能可扩展:原生 sqlite-vec 支持时向量检索达 ~10,000 chunks/sec,无插件时仍保持 ~100 chunks/sec 可用水平
  • 完全离线隐私:所有嵌入与数据本地处理,无云端传输

潜在局限

  • Focus Mode 增加 50-100ms 延迟,高频快速查询场景需权衡
  • 依赖 Transformers.js 的首次加载与模型下载,冷启动存在初始化成本
  • 复杂查询的策展质量取决于底层分块(chunking)策略,长文档语义切割可能产生边界误差
  • 无多用户隔离机制,单文件架构更适合个人/单代理场景

适合人群

  • 需要为 Claude/LLM 代理配置持久化记忆的开发者
  • 重视数据隐私、拒绝云端记忆服务的用户
  • 处理大量项目文档、需要历史上下文追踪的知识工作者
  • 对检索质量有分层需求(快速查找 vs 深度决策支持)的高级用户

常规风险

  • 数据持久化风险:SQLite 单文件虽便捷,但需定期备份防止损坏丢失
  • 模式误用风险:Focus Mode 用于简单查询会造成不必要延迟,Fast Mode 用于复杂决策可能遗漏关键关联
  • 嵌入模型局限性:本地模型(likely all-MiniLM 级别)语义理解弱于 OpenAI 等 API 方案,专业术语/多语言场景存在漂移
  • 版本兼容性:作为 OpenClaw 生态组件,与上游框架版本绑定需关注更新

Smart Memory 内容

暂无文件树

手动下载zip · 31.6 kB
contentapplication/octet-stream
请选择文件