Fluid Memory

🧠 会遗忘、懂强化的赛博大脑

知识管理榜 #6

拟人化记忆系统,模拟人类遗忘与强化机制,自动学习用户偏好与对话历史,让AI真正「记得」你

收藏
21k
安装
5.6k
版本
1.0.0
CLS 安全扫描中
预计需要 3 分钟...

使用说明

核心用法

Fluid Memory 是一套基于「流体认知架构」的智能记忆系统,区别于传统数据库的静态存储,它模拟人脑的动态记忆机制——会遗忘、需强化、懂语义。

三种核心操作

  • 植入 (Remember):用户明确说「记住xxx」时,调用 fluid_remember 写入新记忆
  • 唤起 (Recall):用户问「我之前说过什么」「还记得xxx吗」时,调用 fluid_recall 检索,每次检索会自动强化该记忆(访问次数+1,越常用越难忘)
  • 遗忘 (Forget):用户说「忘记xxx」时,调用 fluid_forget 将匹配记忆归档

自动学习模式:已默认启用,每次调用 fluid_recall 或对话时,系统会自动将当前对话存入记忆,无需手动「记住」。

智能总结:支持多轮总结(fluid_summarize)和增量总结(fluid_increment_summarize),后者更省 Token,自动累积对话达到阈值后写入。

显著优点

1. 拟人化体验:遗忘机制让AI更像真人——久不提及的记忆会淡化,频繁互动的内容刻骨铭心
2. 零摩擦学习:自动模式无需用户刻意指令,对话即学习

3. 语义理解:不只是关键词匹配,能捕捉意图和上下文

4. 自我强化:查询即训练,越问记得越牢,形成正反馈

5. 轻量集成:通过 Conda 环境本地执行,开发者可控

潜在缺点与局限性

  • 遗忘不可控:用户可能期望某些「冷门」信息永久保留,但系统会按访问频率衰减
  • 冷启动问题:新用户或低频话题可能出现「没有相关记忆」
  • 依赖本地环境:需要 Conda/Python 环境,非纯云端方案
  • 总结阈值敏感:多轮总结的触发条件(默认3轮)可能错过短对话的关键信息
  • 无跨会话同步:单机版设计,多设备场景下记忆不互通

适合人群

  • 追求「养成感」AI陪伴的个人用户
  • 需要长期上下文理解的对话型应用开发者
  • 研究认知架构、人机交互的研究者
  • 对隐私敏感、倾向本地部署的技术用户

常规风险

| 风险类型 | 说明 | 等级 |
|---------|------|------|
| 数据持久化 | 记忆存储在本地文件,设备损坏可能丢失 | 中 |
| 隐私泄露 | 自动记录可能捕获敏感信息,需用户知情同意 | 中 |
| 幻觉强化 | 错误记忆被反复检索后会「固化」,难以纠正 | 低 |
| 环境依赖 | Conda/Python 版本冲突可能导致功能异常 | 低 |

Fluid Memory 内容

暂无文件树

手动下载zip · 14.4 kB
contentapplication/octet-stream
请选择文件