Fluid Memory

🧠 会遗忘、懂强化的赛博大脑

基于流体认知架构的智能记忆系统,会遗忘、需强化、懂语义,支持自动Hook同步,打造真正「活着」的赛博大脑。

收藏
20.3k
安装
5.6k
版本
1.0.2
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心用法

Fluid Memory 是一套模拟人类认知规律的记忆管理系统,通过「植入-唤起-遗忘」三位一体机制实现动态知识管理。系统提供六种核心工具:

  • fluid_remember: 主动写入新记忆(触发词:「记住」「植入」「记录」)
  • fluid_recall: 语义检索并自动强化记忆权重(触发词:「还记得」「我之前」)
  • fluid_forget: 归档指定记忆(触发词:「忘记」「不要再提」)
  • fluid_status: 查看大脑运行状态
  • fluid_summarize: 多轮对话后批量总结
  • fluid_increment_summarize: 增量式对话总结(Token 优化方案)

自动学习模式是最大亮点:通过 fluid-memory-sync Hook 监听 message:sent 事件,无需用户频繁说「记住xxx」,系统在后台静默累积对话上下文。支持通过 config.yaml 关闭。

显著优点

1. 仿生遗忘机制: 动态遗忘(检索分<0.05自动过滤)+ 主动遗忘 + 梦境守护(定时归档<0.15),避免信息膨胀
2. 强化学习特性: 每次 recall 自动增加访问计数,高频知识自然沉淀

3. 语义理解: 非关键词匹配,支持自然语言查询

4. Hook 自动化: 零感知持续学习,减少用户操作负担

5. 增量总结: 对比批量总结节省 Token,适合长对话场景

潜在缺点与局限性

1. 分数阈值黑盒: 0.05/0.15 等遗忘阈值不可配置,用户无法自定义「记忆保鲜期」
2. Hook 依赖风险: 若 fluid-memory-sync Hook 未正确注册或冲突,自动学习失效且静默失败

3. 本地化架构: 依赖本地 Conda 环境和 Python wrapper,跨平台部署复杂

4. 无记忆冲突解决: 相同主题的新旧记忆共存,缺乏自动去重或版本管理机制

5. 「梦境守护」未说明周期: 定时任务的频率和触发条件不透明

适合人群

  • 需要 AI 长期记忆个人偏好、项目背景的深度用户
  • 厌倦了「每轮重复上下文」的 Token 敏感型开发者
  • 追求「越聊越懂我」的个性化体验爱好者
  • 愿意维护本地 Python 环境的技术用户

常规风险

  • 记忆漂移: 自动总结可能丢失关键细节或产生歧义
  • 隐私泄露: 本地存储虽无云端风险,但明文 wrapper 调用可能暴露于日志
  • 召回率不确定: 语义检索的「懂」是概率性的,重要信息建议主动 remember 固化
  • 配置误操作: auto_learn: false 或 Hook 失效会导致长期记忆断层,用户难以察觉

Fluid Memory 内容

暂无文件树

手动下载zip · 14.7 kB
contentapplication/octet-stream
请选择文件