核心用法
Fluid Memory 是一套模拟人类认知规律的记忆管理系统,通过「植入-唤起-遗忘」三位一体机制实现动态知识管理。系统提供六种核心工具:
- fluid_remember: 主动写入新记忆(触发词:「记住」「植入」「记录」)
- fluid_recall: 语义检索并自动强化记忆权重(触发词:「还记得」「我之前」)
- fluid_forget: 归档指定记忆(触发词:「忘记」「不要再提」)
- fluid_status: 查看大脑运行状态
- fluid_summarize: 多轮对话后批量总结
- fluid_increment_summarize: 增量式对话总结(Token 优化方案)
自动学习模式是最大亮点:通过 fluid-memory-sync Hook 监听 message:sent 事件,无需用户频繁说「记住xxx」,系统在后台静默累积对话上下文。支持通过 config.yaml 关闭。
显著优点
1. 仿生遗忘机制: 动态遗忘(检索分<0.05自动过滤)+ 主动遗忘 + 梦境守护(定时归档<0.15),避免信息膨胀
2. 强化学习特性: 每次 recall 自动增加访问计数,高频知识自然沉淀
3. 语义理解: 非关键词匹配,支持自然语言查询
4. Hook 自动化: 零感知持续学习,减少用户操作负担
5. 增量总结: 对比批量总结节省 Token,适合长对话场景
潜在缺点与局限性
1. 分数阈值黑盒: 0.05/0.15 等遗忘阈值不可配置,用户无法自定义「记忆保鲜期」
2. Hook 依赖风险: 若 fluid-memory-sync Hook 未正确注册或冲突,自动学习失效且静默失败
3. 本地化架构: 依赖本地 Conda 环境和 Python wrapper,跨平台部署复杂
4. 无记忆冲突解决: 相同主题的新旧记忆共存,缺乏自动去重或版本管理机制
5. 「梦境守护」未说明周期: 定时任务的频率和触发条件不透明
适合人群
- 需要 AI 长期记忆个人偏好、项目背景的深度用户
- 厌倦了「每轮重复上下文」的 Token 敏感型开发者
- 追求「越聊越懂我」的个性化体验爱好者
- 愿意维护本地 Python 环境的技术用户
常规风险
- 记忆漂移: 自动总结可能丢失关键细节或产生歧义
- 隐私泄露: 本地存储虽无云端风险,但明文 wrapper 调用可能暴露于日志
- 召回率不确定: 语义检索的「懂」是概率性的,重要信息建议主动
remember固化 - 配置误操作:
auto_learn: false或 Hook 失效会导致长期记忆断层,用户难以察觉