smart-memory

🧠 AI 上下文感知智能记忆管家

🥥8总安装量 2评分人数 2
100% 的用户推荐

本地 AI 记忆系统,支持混合向量检索与智能策展,零配置即开即用,100% 本地运行保障数据隐私。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 代码安全规范,无危险函数执行与 SQL 注入风险
  • ✅ 路径遍历防护完善,文件访问严格限制在工作区内
  • ✅ 100% 本地运行,向量计算与数据存储均无云端传输
  • ⚠️ 首次启动需从 Hugging Face 下载约 80MB AI 模型
  • ⚠️ T3 社区来源(个人开发者),建议持续关注安全更新

使用说明

Smart Memory v2.1 是 BluePointDigital 开发的 AI 代理记忆增强工具,作为 OpenClaw 记忆系统的替代方案,提供上下文感知的双模检索能力。该系统采用 SQLite 作为后端存储,结合 FTS5 全文搜索与本地向量嵌入,实现了无需外部 API 密钥的完全本地化运行。

核心用法方面,用户可通过 CLI 或 JavaScript API 调用两种检索模式:Fast Mode 直接执行混合向量搜索(BM25 + 余弦相似度),适用于快速事实查找;Focus Mode 则启用多轮策展流程,通过 Focus Agent 对 20+ 个候选片段进行加权排序、相关性过滤和叙事合成,适用于复杂决策与多事实关联分析。安装后执行 --sync 初始化数据库,随后可通过 --search 进行查询,或使用 --focus/--unfocus 切换模式。

显著优点包括:100% 本地运行保障数据隐私,使用 Transformers.js 在本地计算嵌入向量;零配置设计,单文件 SQLite 数据库自动创建;混合搜索算法结合关键词与语义匹配,显著提升检索准确率;双模架构允许用户在响应速度与上下文质量间灵活权衡;可选的 sqlite-vec 扩展可将向量搜索性能从每秒 100 块提升至 10,000 块。

潜在局限在于:首次运行需从 Hugging Face 下载约 80MB 的 AI 模型(Xenova/all-MiniLM-L6-v2),在网络受限环境可能受阻;作为 T3 级社区项目,长期维护稳定性不如企业级方案;尽管支持无限规模,但纯 JavaScript 向量计算在超大文档集(百万级块)下性能仍逊于专业向量数据库;Focus Mode 的策展过程会增加 50-100ms 延迟。

适合群体主要为:注重数据隐私、不愿将记忆内容上传至云端 AI 服务的开发者;使用 OpenClaw 或其他 AI 代理框架需要长期上下文记忆的技术用户;需要在本地进行项目文档、知识库语义检索的个人或小型团队;以及对响应速度要求不极端苛刻、更看重检索质量的场景。

使用风险主要包括:依赖 Hugging Face 模型下载的可用性;SQLite 数据库文件需定期备份以防损坏;虽然已实现路径遍历防护,但仍需确保 MEMORY_DIR 等环境变量指向预期目录,避免敏感文件被意外索引;child_process 的使用虽经转义,但在极端输入下仍需警惕命令注入风险。建议定期关注 GitHub 仓库安全更新。

smart-memory 内容

文件夹图标skills文件夹
文件夹图标vector-memory文件夹
文件夹图标smart-memory文件夹
文件夹图标references文件夹
手动下载zip · 43.4 kB
README.mdtext/markdown
请选择文件