openclaw-mem

🧠 智能分层记忆持久化管家

🥥61总安装量 18评分人数 23
100% 的用户推荐

OpenClaw官方会话记忆管理技能,通过分层存储策略(RAM/日志/长期记忆)确保关键知识在会话压缩时不丢失,提升AI助手上下文精准度与持久性。

A

基本安全,请在特定环境下使用

  • 来自可信组织或认证账号,需要结合权限范围判断
  • ✅ 纯文档性技能,无任何文件/网络/代码执行权限,攻击面极小
  • ✅ 明确禁止存储敏感凭证(API keys/tokens/passwords),数据安全策略清晰
  • ✅ 内置 `<private>>` 标签过滤机制,隐私保护规则可执行
  • ✅ 通过 BSS 反恶意软件扫描,无混淆代码、后门或权限提升特征
  • ⚠️ 依赖实验性功能 `sessionMemory`,需用户手动开启配置,存在误配置风险

使用说明

核心用法

openclaw-mem 是 OpenClaw 生态的会话记忆策展系统,采用三层记忆架构解决大模型上下文窗口的固有限制。其核心机制在于:会话期间产生的关键决策、用户偏好和持久事实,会在会话压缩前自动触发"预压缩刷新"(Pre-Compaction Flush),将易失性 RAM 内容转存至磁盘。

具体使用流程:用户通过自然语言指令(如"将此存为持久决策")触发记忆写入;系统自动区分内容类型——当日工作日志写入 memory/YYYY-MM-DD.md,长期知识写入 MEMORY.md;检索时优先调用 memory_search 定位,再通过 memory_get 精确获取,最大限度减少上下文占用。

显著优点

架构设计严谨:明确区分 Session Memory(临时)、Daily Logs(工作记录)、Long-Term Memory(知识库)三层,避免记忆污染和检索噪音。

自动化保护机制:利用 OpenClaw 的静默提醒钩子,在会话压缩前自动执行"存档点"操作,用户无感知即可防止知识丢失。

检索效率优化:强制要求先搜索后获取、限制返回结果数量(~6条)、注入最小必要文本,显著降低 token 消耗。

隐私内置设计:原生支持 <private>> 标签过滤,明确禁止存储密钥凭证,仅记录敏感信息的存在性而非值本身。

潜在缺点与局限性

平台依赖性:必须开启实验性配置 sessionMemory: true,且仅适用于 OpenClaw 生态,无法迁移至其他 AI 助手平台。

人工策展成本:需要用户主动判断"什么值得长期保存",错误分类(如将临时实验写入 MEMORY.md)会导致知识库膨胀。

检索上限约束:单次搜索仅返回约6条结果,复杂项目的历史依赖可能需要多次查询才能完整重建。

无自动清理机制:默认永不删除,长期运行后日志文件可能累积,需手动归档到 memory/archive//

适合的目标群体

  • 长期项目开发者:需要 AI 助手跨会话记住架构决策、代码规范的软件工程师
  • 知识工作者:依赖 AI 进行深度研究、需要维持数周/数月上下文的研究人员、作家
  • OpenClaw 重度用户:已构建复杂工作流、对上下文精准度有极高要求的专业用户
  • 隐私敏感型组织:需要明确数据边界、禁止敏感信息泄露的企业团队

使用风险

配置失效风险:若未正确开启 sessionMemory 实验开关,整个记忆系统将退化为普通对话,导致知识丢失。

版本兼容性:作为实验性功能,未来 OpenClaw 更新可能改变压缩机制或存储格式,需关注版本迁移指南。

过度依赖磁盘:频繁磁盘 I/O 在极端高频场景下可能影响响应延迟,建议对非关键信息保持"写入日志即可"的克制态度。

人为分类错误:用户可能误将推测存为事实、将临时配置存为持久策略,需定期审计 MEMORY.md 内容质量。

openclaw-mem 内容

手动下载zip · 2.6 kB
SKILL.mdtext/markdown
请选择文件