核心用法
Fluid Memory 是一套模仿人类认知机制的长期记忆系统,专为 OpenClaw 框架设计。其核心在于会遗忘的记忆——区别于传统数据库的永久存储,系统通过检索分数阈值(0.05)自动过滤弱相关记忆,并通过「梦境守护」定时归档低活跃内容(<0.15)。
三种交互模式构成完整记忆生命周期:
- 植入(Remember):用户明确指令「记住xxx」时写入语义化内容
- 唤起(Recall):查询历史信息,每次检索自动强化该记忆(访问计数+1)
- 遗忘(Forget):主动归档或系统自动清理
技术实现上依赖 ChromaDB 作为向量存储,通过 Python wrapper 脚本执行底层操作。Auto Learn 模式利用 OpenClaw 原生的 memoryFlush 机制,在对话 compaction 时自动同步记录。
显著优点
1. 生物拟真性:遗忘机制反而降低噪音,保留真正重要的上下文
2. 自强化循环:高频访问的记忆自然巩固,符合认知科学原理
3. 零配置感知:用户无需理解工具调用,通过自然语言意图触发
4. 语义检索:基于向量相似度而非关键词匹配,理解「同义不同形」的查询
潜在局限
- 生态锁定:深度绑定 OpenClaw 框架,无法独立运行于其他 LLM 宿主
- 黑盒遗忘:用户无法预知哪些记忆会被清理,长期依赖存在风险
- 阈值固化:0.05/0.15 的遗忘阈值硬编码,无动态调节接口
- 单点故障:ChromaDB 本地存储无原生备份机制
适合人群
- 需要长期个性化对话的 AI 助手开发者
- 研究认知架构、对话状态管理的 LLM 应用工程师
- 对「有缺陷但自然」的记忆系统有审美偏好的用户
常规风险
| 风险类型 | 说明 |
|---------|------|
| 数据持久性 | 自动遗忘可能导致用户认为「已保存」的信息丢失 |
| 隐私泄露 | 记忆以明文/向量形式本地存储,设备共享时暴露风险 |
| 强化偏见 | 高频查询的话题会被过度强化,形成信息茧房 |
| 依赖脆弱性 | OpenClaw 配置错误(如禁用 `memoryFlush`)导致记忆失效 |