qst-memory

🧠 AI Agent 智能分层记忆管家

🥥55总安装量 15评分人数 13
100% 的用户推荐

OpenClaw 智能记忆管理方案,基于树状分类与 TF-IDF 混合搜索,实现 Token 消耗降低 90%、相关性提升 20%。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 无危险函数(eval/exec/system/subprocess),代码规范安全,使用 yaml.safe_load() 与 pathlib 防止注入攻击
  • ✅ 纯本地存储架构,无网络数据传输,数据隐私性良好,敏感信息留存本地
  • ✅ 清理操作支持 --dry-run 预览模式,重要记忆归档机制完善,避免误删风险
  • ⚠️ T3 来源(个人开发者 ZhuangClaw),代码维护与长期更新存在不确定性,建议使用前审查
  • ⚠️ 部分函数缺少完善的异常处理机制,且缺少 requirements.txt 依赖清单文件

使用说明

QST Memory Management v1.5 是专为 OpenClaw AI Agent 设计的智能记忆管理系统,通过创新的三层树状分类架构与混合搜索引擎,解决了大模型上下文窗口受限与 Token 消耗过高的痛点。该系统不仅提供了物理、计算、审计等多维度的分类体系,更融合了精确树搜索、几何邻域选择与 TF-IDF 语义相似度三种检索模式,使 Agent 能够在海量历史对话中快速定位关键信息。

在核心用法层面,用户可通过 CLI 工具执行多样化的记忆操作:利用 hybrid 模式进行智能检索,结合上下文感知与权重调整实现精准匹配;借助 auto_classify 功能自动推断内容所属分类与重要性等级(Critical/Important/Normal);通过记忆衰减系统定期清理低价值记录,Critical 级记忆永久保留,Normal 级 30 天后自动删除。系统还支持 --dry-run 预览机制,确保清理操作安全可控。

该系统的显著优点体现在三个维度:首先是极致的 Token 效率,相比传统全量上下文注入,v1.5 版本可减少 70-90% 的 Token 消耗,同时将相关性提升至 95%;其次是灵活的分类体系,三层树状结构支持 34 个细分类别,配合几何邻域算法实现跨类别联想检索;最后是完整的本地隐私保护,所有数据存储于本地 Markdown 文件,无网络传输风险,采用 yaml.safe_load()pathlib 等安全 API 防止代码注入与路径遍历攻击。

然而,作为 T3 来源的个人开源项目,其潜在局限性不容忽视:代码层面存在部分函数异常处理机制不完善的问题,且缺少 requirements.txt 依赖锁定文件;维护层面依赖个人开发者(ZhuangClaw),长期更新与社区支持存在不确定性;功能层面虽适合个人与轻量级场景,但缺乏高并发处理能力,不适用于分布式或多用户生产环境。

该系统最适合以下群体:需要构建个人知识库的 AI Agent 开发者、追求隐私安全的本地优先用户、以及希望优化 LLM 调用成本的技术爱好者。对于科研人员管理文献脉络、开发者维护项目上下文记忆、或智能客服系统归档历史对话等场景均有良好适配。

使用过程中需关注常规风险:数据层面建议定期备份 data/qst_memories.md 文件并设置 600 权限;操作层面执行 cleanup 前务必使用 --dry-run 预览,避免误删重要记忆;性能层面单文件存储架构在记忆条目超过万级时可能出现检索延迟,建议定期归档或分库管理。尽管安全评级为 A 级,但鉴于 T3 来源属性,建议在生产环境部署前进行完整的代码审计与容器化隔离测试。

qst-memory 内容

文件夹图标data文件夹
文件夹图标references文件夹
文件夹图标scripts文件夹
手动下载zip · 46.8 kB
qst_memories.mdtext/markdown
请选择文件