prompt-assemble

🛡️ Token 安全的智能提示词管家

🥥13总安装量 4评分人数 5
100% 的用户推荐

开源 Token 安全提示词组装框架,通过两阶段上下文构建与内存安全阀机制,彻底解决 LLM 调用中的 token 溢出问题,保障 API 稳定性。

A

基本安全,请在特定环境下使用

  • 来自可信来源(Github / Microsoft / 官方仓库)
  • ✅ 零风险操作:纯内存字符串处理,无任何文件、网络、进程操作
  • ✅ 标准库依赖:仅使用 Python 内置 typing 模块,无第三方依赖风险
  • ✅ 开源透明:代码托管于 GitHub 公开仓库,commit 历史完全可追溯
  • ✅ 安全设计:内置 75% 安全阈值、多层安全阀和完善的异常捕获机制
  • ✅ 无动态代码:未使用 eval/exec/compile,无动态代码生成或执行风险

使用说明

核心用法

Prompt Assemble 是一套标准化的 Token 安全提示词组装框架,专为需要构建 LLM 提示词的 Agent 设计。其核心工作流程分为六个阶段:基础配置 → 最小上下文构建 → 内存需求决策 → 内存检索(可选)→ Token 估算 → 安全阀决策 → 最终组装。开发者只需将 prompt_assemble.py 复制到项目中,调用 build_prompt()() 函数即可集成,无需关心复杂的 Token 计算逻辑。

显著优点

极致的 Token 安全:采用 75% 保守阈值(153K tokens),预留 25% 缓冲空间应对模型开销和估算误差,从根本上杜绝 API 因 token 溢出而失败。两阶段构建策略确保系统提示词和用户输入永不丢弃,仅将内存层作为可牺牲增强项。内置的记忆触发器检测(如 "previously"、"last time" 等关键词)智能判断是否需要检索历史记忆,避免不必要的内存开销。

工程化设计:完整的类型注解、单元测试和文档支持,代码托管于 GitHub 公开仓库,commit 历史可追溯。仅依赖 Python 标准库(typing 模块),零第三方依赖风险。

潜在缺点与局限性

功能边界明确:该技能专注于提示词组装和 Token 管理,不提供记忆存储实现(仅定义回调接口),需要用户自行接入向量数据库或记忆检索系统。记忆触发器基于简单关键词匹配,可能漏检复杂的上下文依赖表达。

估算精度限制:Token 估算基于字符数或分词启发式算法,与真实模型分词器存在偏差,极端情况下可能仍有微小误差。不支持动态调整安全阈值,75% 的保守策略在上下文极短的场景下可能造成容量浪费。

适合的目标群体

  • 构建长对话 Agent 的开发者(客服、陪伴、教育类应用)
  • 需要处理复杂多轮推理的 LLM 应用架构师
  • 对 API 稳定性有严苛要求的生产环境团队
  • 缺乏 Token 管理经验的初级 Agent 开发者

使用风险

性能风险:频繁的记忆检索和摘要操作可能增加响应延迟,建议在异步流程中执行。Token 估算函数若实现不当(如用户提供的回调),可能成为性能瓶颈。

依赖风险:该技能本身零依赖,但实际运行依赖外部记忆检索和对话历史获取函数,这些回调的稳定性直接影响整体功能。需确保回调函数具备完善的异常处理。

兼容性风险:当前默认配置针对 204K 上下文模型(MiniMax-M2.1),使用其他模型时需手动调整 MAX_TOKENSSAFETY_MARGIN 参数。

prompt-assemble 内容

文件夹图标references文件夹
文件夹图标scripts文件夹
手动下载zip · 8.8 kB
memory_standards.mdtext/markdown
请选择文件