usewhisper-autohook

🧠 AI 对话自动记忆与 Token 优化

🥥59总安装量 13评分人数 11
100% 的用户推荐

OpenClaw 官方社区技能,为 Telegram 等 Agent 提供自动长期记忆注入与对话归档,支持 OpenAI/Anthropic 代理模式压缩 Token 消耗。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 无危险代码执行函数(eval/exec/system/subprocess),仅使用 Node.js 原生模块
  • ✅ 无硬编码敏感信息,API Key 均从环境变量读取,HTTPS 加密传输
  • ✅ 零第三方 npm 依赖,无动态代码加载,依赖树完全可控
  • ⚠️ 对话内容需传输至外部 Whisper Context API,数据隐私依赖第三方服务
  • ⚠️ 状态文件路径可通过环境变量覆盖,需确保文件权限配置正确(建议 600)

使用说明

核心用法

usewhisper-autohook 是专为 OpenClaw 框架设计的记忆自动化钩子技能,通过两个核心工具实现"零感知"长期记忆:

1. get_whisper_context:在每次生成响应前自动查询用户历史记忆,将相关上下文注入当前提示词
2. ingest_whisper_turn:在对话完成后自动归档本轮对话,形成可检索的长期记忆

该技能采用智能压缩策略(delta 压缩 + 缓存),默认启用 token 节省配置,并自动管理 context_hash 实现增量更新。对于无法控制提示词构造的框架,提供 OpenAI 兼容代理和 Anthropic 原生代理两种模式,在网络层拦截并精简请求体。

显著优点

  • 开箱即用的自动化:通过系统提示词模板即可实现记忆循环,无需修改业务代码
  • Token 成本优化:delta 压缩策略仅传输变化内容,配合缓存机制显著降低 API 调用成本
  • 多平台适配:原生支持 Telegram 的 user_id/chat_id 映射,同时提供 OpenAI/Anthropic 双代理模式适配各类框架
  • 零第三方依赖:仅使用 Node.js 内置模块,无 npm 依赖树风险,部署轻量
  • 本地状态持久化:自动维护 per-user/session 的状态文件,支持离线场景下的上下文恢复

潜在缺点与局限性

  • 外部服务依赖:核心功能依赖 Whisper Context API,离线环境或 API 服务中断时功能失效
  • 隐私数据出境:所有对话内容需传输至第三方记忆服务,对数据主权敏感场景不适用
  • T3 来源维护:由个人/社区开发者维护,长期更新承诺和 SLA 无保障
  • 代理模式复杂度:OpenAI/Anthropic 代理需额外端口配置和请求头传递,增加部署复杂度
  • 输入验证有限:user_id/session_id 等关键参数仅做空值检查,缺乏格式强校验

适合的目标群体

  • Telegram Bot 开发者:需要为对话机器人添加长期记忆能力,且使用 OpenClaw 框架
  • Token 成本敏感型应用:高频对话场景下希望通过记忆压缩降低 LLM API 支出
  • 快速原型验证团队:希望以最小代码改动为现有 Agent 增加记忆功能,不愿自建记忆基础设施
  • 多会话状态管理需求:需要跨 session 保持用户上下文的客服、教育、陪伴类应用

使用风险

  • API Key 泄露风险WHISPER_CONTEXT_API_KEY 需妥善保管,建议配合密钥管理系统使用
  • 代理模式暴露面:虽默认绑定 127.0.0.1,但错误配置可能将代理暴露至公网
  • 状态文件权限:本地状态文件存储敏感对话索引,需确保文件权限为 600 防止本地越权读取
  • 服务连续性风险:依赖外部 Whisper Context 服务,需评估供应商稳定性并设计降级方案
  • 数据留存合规:对话内容持久化至第三方,需确认符合 GDPR、CCPA 等数据保护法规要求

usewhisper-autohook 内容

手动下载zip · 10.7 kB
README.mdtext/markdown
请选择文件