核心用法
NeuralMemory 是一款为 AI Agent 设计的持久化记忆系统,采用生物神经网络原理而非传统的向量检索。核心工作流程围绕存储-激活-回忆三环节:
记忆存储:通过 nmem_remember 将决策、错误、偏好等存入神经图,支持 10 种记忆类型和 0-10 优先级标注。nmem_auto 可自动从对话文本中提取结构化记忆。
上下文注入:会话开始时调用 nmem_context 加载近期记忆;nmem_recall 支持 4 级深度(Instant/Context/Habit/Deep),通过 20 种突触类型(因果、时序、语义、情感等)在图中传播激活,找到概念相关但无关键词重叠的记忆。
生命周期管理:记忆经历短期→工作→情景→语义四阶段,配合艾宾浩斯衰减;频繁共现的记忆通过赫布学习强化连接,矛盾记忆自动检测并降级。
显著优点
1. 零LLM依赖:纯算法实现(正则、图遍历、赫布学习),本地 SQLite 存储,隐私可控
2. 关联推理能力:传播激活机制可回答"为什么上周部署失败"这类因果链问题,传统向量检索无法实现
3. 自动工作流:OpenClaw 插件独占 memory 槽位,自动注入上下文和捕获记忆,跨 /new 会话持久
4. 双语支持:越南语+英语完整支持提取与情感分析
5. 高级功能:脑版本快照、脑移植(跨项目知识迁移)、健康诊断、习惯模式建议
潜在缺点与局限性
- 冷启动问题:新脑无历史连接时,关联召回效果有限
- 复杂度门槛:20种突触类型、4级深度、赫布学习等概念对用户有认知负担
- 性能权衡:Deep 级召回耗时~500ms,超大记忆脑可能超时
- 生态依赖:OpenClaw 插件自动工作流需配合 OpenClaw 使用;MCP 模式无自动钩子
- 无云端同步:纯本地存储,多设备需手动移植
适合人群
- 需要跨长周期会话保持上下文的 AI Agent 开发者
- 重视数据隐私、拒绝 LLM 依赖的本地化优先用户
- 需要因果推理、时序追踪的复杂工作流场景(故障排查、决策审计)
常规风险
- 脑文件损坏:
~/.neuralmemory/brains/*.db需定期nmem_health检查,重要操作前nmem_version快照 - 记忆污染:同一脑跨项目使用可能导致关联混乱,建议项目隔离
- Windows 路径配置:需特别注意正斜杠与
python命令名差异 - 插件构建遗漏:TypeScript 源码需
npm run build生成dist/目录,否则加载失败