核心用法
NeuralMemory 是一款零LLM依赖的关联记忆系统,采用神经图(neural graph)结构替代传统的向量检索或关键词匹配。核心工作流包括:会话启动时调用 nmem_context 注入近期记忆;决策/错误发生时使用 nmem_remember 持久化存储;需要追溯因果链或跨域关联时通过 nmem_recall 进行传播激活检索。系统提供OpenClaw插件实现自动上下文注入和会话结束后的自动记忆提取,也可通过MCP协议手动集成。
显著优点
1. 概念级联想召回:基于20种突触类型(时间BEFORE/AFTER、因果CAUSED_BY/LEADS_TO、语义IS_A/HAS_PROPERTY等)实现图遍历,即使无关键词重叠也能找到概念相关记忆。
2. 生物启发的记忆生命周期:包含短时→工作→情景→语义记忆的Ebbinghaus衰减模型,配合Hebbian学习("一起激发的神经元连接在一起"),高频访问记忆自动强化。
3. 零外部依赖:纯算法实现(正则、图遍历、强化学习),数据本地SQLite存储,默认无外部API调用,隐私可控。
4. 因果链追踪:支持深度检索(depth 0-3),可沿CAUSED_BY/LEADS_TO突触追溯事件因果,回答"上周部署为何失败"类复杂问题。
5. 矛盾自检测:自动识别冲突记忆并降低过时信息优先级,避免决策依据错误。
潜在局限与风险
1. 冷启动问题:新brain无历史记忆时联想效果有限,需积累一定记忆密度后优势显现。
2. 深度检索延迟:depth=3时延迟约500ms,高频实时场景需权衡深度与速度。
3. 安装复杂度:OpenClaw插件需Node/npm+Python双环境,Windows路径配置易出错,MCP方式虽简化但丢失自动钩子功能。
4. 语义理解边界:虽标榜"无LLM",但复杂语义提取仍依赖规则/正则,极端模糊表达可能提取失败。
5. 脑隔离设计:brain间完全隔离虽避免污染,但跨项目知识共享需手动nmem_transplant,增加运维成本。
适合人群
- 需要AI代理跨会话保持长期上下文记忆的高级用户
- 对数据隐私敏感、希望本地化存储记忆的开发者
- 从事复杂决策追踪、故障根因分析的知识工作者
- 已使用OpenClaw框架并愿意配置插件生态的技术团队
常规风险
- 存储风险:本地SQLite虽私密但需用户自行备份,无云同步意味着设备丢失即记忆丢失
- 版本兼容性:brain快照/回滚功能依赖版本管理,频繁手动操作可能引入状态混乱
- 过度检索干扰:自动上下文注入若配置不当(contextDepth过高)可能污染当前会话焦点
- 环境配置陷阱:Python路径(python vs python3)、插件构建步骤(npm run build)是高频失败点