核心用法
usewhisper-autohook 是专为 OpenClaw 框架设计的记忆自动化钩子技能,通过两个核心工具实现"零感知"长期记忆:
1. get_whisper_context:在每次生成响应前自动查询用户历史记忆,将相关上下文注入当前提示词
2. ingest_whisper_turn:在对话完成后自动归档本轮对话,形成可检索的长期记忆
该技能采用智能压缩策略(delta 压缩 + 缓存),默认启用 token 节省配置,并自动管理 context_hash 实现增量更新。对于无法控制提示词构造的框架,提供 OpenAI 兼容代理和 Anthropic 原生代理两种模式,在网络层拦截并精简请求体。
显著优点
- 开箱即用的自动化:通过系统提示词模板即可实现记忆循环,无需修改业务代码
- Token 成本优化:delta 压缩策略仅传输变化内容,配合缓存机制显著降低 API 调用成本
- 多平台适配:原生支持 Telegram 的 user_id/chat_id 映射,同时提供 OpenAI/Anthropic 双代理模式适配各类框架
- 零第三方依赖:仅使用 Node.js 内置模块,无 npm 依赖树风险,部署轻量
- 本地状态持久化:自动维护 per-user/session 的状态文件,支持离线场景下的上下文恢复
潜在缺点与局限性
- 外部服务依赖:核心功能依赖 Whisper Context API,离线环境或 API 服务中断时功能失效
- 隐私数据出境:所有对话内容需传输至第三方记忆服务,对数据主权敏感场景不适用
- T3 来源维护:由个人/社区开发者维护,长期更新承诺和 SLA 无保障
- 代理模式复杂度:OpenAI/Anthropic 代理需额外端口配置和请求头传递,增加部署复杂度
- 输入验证有限:user_id/session_id 等关键参数仅做空值检查,缺乏格式强校验
适合的目标群体
- Telegram Bot 开发者:需要为对话机器人添加长期记忆能力,且使用 OpenClaw 框架
- Token 成本敏感型应用:高频对话场景下希望通过记忆压缩降低 LLM API 支出
- 快速原型验证团队:希望以最小代码改动为现有 Agent 增加记忆功能,不愿自建记忆基础设施
- 多会话状态管理需求:需要跨 session 保持用户上下文的客服、教育、陪伴类应用
使用风险
- API Key 泄露风险:
WHISPER_CONTEXT_API_KEY需妥善保管,建议配合密钥管理系统使用 - 代理模式暴露面:虽默认绑定 127.0.0.1,但错误配置可能将代理暴露至公网
- 状态文件权限:本地状态文件存储敏感对话索引,需确保文件权限为 600 防止本地越权读取
- 服务连续性风险:依赖外部 Whisper Context 服务,需评估供应商稳定性并设计降级方案
- 数据留存合规:对话内容持久化至第三方,需确认符合 GDPR、CCPA 等数据保护法规要求