核心用法
Smart Memory 是面向 AI 代理的上下文记忆系统,采用 SQLite 单文件架构,无需外部服务即可运行。核心功能围绕两种检索模式展开:
Fast Mode(快速模式):默认启用,直接执行向量相似度搜索,适合快速事实查询、简单查找场景。支持混合搜索算法——FTS5 关键词匹配(BM25 排名)与语义向量搜索加权融合(70% 向量 + 30% 关键词)。
Focus Mode(策展模式):通过多轮处理提供高质量上下文,执行流程为「广域检索 20+ 块 → 加权排序(向量 + 词匹配 + 来源/时效加权)→ 合成叙事 → 输出结构化结果带置信度」。适用于复杂决策、多事实综合、规划策略、历史总结等场景。
工具层面提供 memory_search(双模态检索)、memory_get(精确获取片段)、memory_mode(模式切换)三类接口,CLI 支持完整的同步、搜索、模式管理命令。
显著优点
- 零配置开箱即用:无需 API 密钥,Transformers.js 本地运行嵌入,SQLite 单文件即装即跑
- 混合搜索质量高:BM25 精确匹配与语义向量互补,显著优于纯向量方案
- 双模态灵活切换:Fast 满足速度敏感场景,Focus 满足质量敏感场景,实时 toggle
- 性能可扩展:原生 sqlite-vec 支持时向量检索达 ~10,000 chunks/sec,无插件时仍保持 ~100 chunks/sec 可用水平
- 完全离线隐私:所有嵌入与数据本地处理,无云端传输
潜在局限
- Focus Mode 增加 50-100ms 延迟,高频快速查询场景需权衡
- 依赖 Transformers.js 的首次加载与模型下载,冷启动存在初始化成本
- 复杂查询的策展质量取决于底层分块(chunking)策略,长文档语义切割可能产生边界误差
- 无多用户隔离机制,单文件架构更适合个人/单代理场景
适合人群
- 需要为 Claude/LLM 代理配置持久化记忆的开发者
- 重视数据隐私、拒绝云端记忆服务的用户
- 处理大量项目文档、需要历史上下文追踪的知识工作者
- 对检索质量有分层需求(快速查找 vs 深度决策支持)的高级用户
常规风险
- 数据持久化风险:SQLite 单文件虽便捷,但需定期备份防止损坏丢失
- 模式误用风险:Focus Mode 用于简单查询会造成不必要延迟,Fast Mode 用于复杂决策可能遗漏关键关联
- 嵌入模型局限性:本地模型(likely all-MiniLM 级别)语义理解弱于 OpenAI 等 API 方案,专业术语/多语言场景存在漂移
- 版本兼容性:作为 OpenClaw 生态组件,与上游框架版本绑定需关注更新