Enhanced Memory 是专为 OpenClaw 设计的增强型语义记忆检索系统,通过4信号混合检索管道替代传统平面向量搜索,将平均倒数排名(MRR)从基线0.45提升至0.782,显著提升记忆检索的准确性和上下文感知能力。
核心用法方面,该系统采用多维度信号融合机制:向量相似度(40%权重)基于 nomic-embed-text 嵌入模型计算语义相关性;关键词匹配(25%权重)处理查询词与文本块的直接重叠;文件路径评分(25%权重)识别目录和文件名中的查询词;标题匹配(10%权重)强化章节标题相关性。系统具备智能自适应能力:当检测到日期引用(如"昨天"、"上周")时自动激活时间路由,对相关文件给予3倍权重 boost;当关键词重叠度较低时,自动将向量权重调整至85%以优化稀疏查询效果;当顶部结果分数低于0.45阈值时,启动伪相关性反馈(PRF)机制,利用初次检索结果扩展查询词并重新评分。此外,系统提供记忆显著性评分和知识图谱交叉引用功能,帮助识别重要但长期未访问的记忆节点。
显著优点包括:首先是卓越的检索精度,混合检索策略有效解决了单一向量检索的语义漂移问题;其次是极致的隐私保护,所有数据处理均在本地完成,仅通过 HTTP 与本地 Ollama 服务通信,无云端数据传输;第三是零依赖部署,纯 Python 标准库实现,无需 pip 安装额外包;第四是智能自适应,时间感知和动态权重调整使系统能自动适应不同类型的查询。
潜在缺点主要包括:必须依赖本地运行的 Ollama 服务和 nomic-embed-text 模型,增加了基础设施复杂度;记忆文件变更后需要手动重新运行索引脚本(embed_memories.py),维护成本较高;作为 T3 级社区来源项目,长期维护和支持稳定性不如企业级方案;仅支持本地部署,无法利用云端算力进行大规模并行处理。
适合的目标群体主要是:使用 OpenClaw 进行复杂项目管理的知识工作者,特别是需要频繁检索历史上下文和交叉引用信息的用户;对数据隐私有严格要求的企业和个人,希望完全控制记忆数据的存储和处理;以及需要处理时间敏感信息(如日志、日记、版本历史)的场景。
使用风险方面,需要确保 Ollama 服务持续稳定运行(默认端口11434),服务中断将导致检索功能失效;定期索引维护是必要操作,大型记忆库的全量索引可能消耗较多本地计算资源;虽然文件操作默认限制在 memory/ 目录,但用户通过环境变量自定义路径时需谨慎配置,避免意外访问敏感目录;此外,嵌入模型的质量和版本会直接影响检索效果,建议定期更新 Ollama 模型以获得最佳性能。