核心用法
relay-to-agent 是一个命令行工具,用于将消息转发到任何 OpenAI 兼容的 API 端点。用户通过 agents.json 配置代理和端点信息,使用 --agent 指定目标代理,即可发送单条或多轮对话消息。支持 --reset 重置会话、、--session 自定义会话 ID 实现并行对话,以及 --list 查看可用代理。会话数据自动缓存在本地,最多保留 50 条消息。
显著优点
生态兼容性极强:支持 Connect Chat、OpenRouter、LiteLLM、vLLM、Ollama 等几乎所有 OpenAI 兼容服务,用户可自由切换底层模型提供商。
会话管理完善:内置多轮对话记忆机制,支持自定义会话隔离,满足复杂工作流中并行处理多个对话线程的需求。
配置灵活:通过环境变量和 JSON 配置文件双重机制管理 API 密钥和端点,既适合个人本地开发,也便于 CI/CD 环境部署。
依赖精简:仅依赖 openai-fetch 一个运行时库,供应链攻击面小,维护成本低。
潜在缺点与局限性
无内置 HTTPS 强制:依赖用户自行配置安全的 baseUrl,若误用 HTTP 端点可能导致 API 密钥泄露。
无输入长度限制:未对用户消息长度做硬性限制,极端情况下可能触发 API 提供商的速率限制或产生意外费用。
本地会话无加密:会话文件以明文 JSON 存储于本地缓存目录,多用户共享设备时存在隐私泄露风险。
功能边界单一:仅提供消息转发能力,无内置的提示词模板、工具调用编排或流式响应处理等高级特性。
适合的目标群体
- 需要统一接口调用多个 LLM 提供商的开发者与 MLOps 工程师
- 构建 AI 工作流自动化脚本的 DevOps 和技术运营团队
- 在本地或私有环境部署 vLLM/Ollama 并需要标准化 CLI 工具的研究人员
- 希望快速原型验证多代理对话系统的 AI 产品经理
使用风险
API 密钥泄露风险:若配置文件中硬编码密钥或环境变量设置不当,可能导致密钥泄露;建议配合密钥管理工具如 direnv 或 Docker secrets 使用。
会话数据累积:长期高频使用会产生大量会话缓存文件,需定期清理 ~/.cache/relay-to-agent/sessions// 目录以避免磁盘空间占用。
第三方 API 依赖:实际服务质量、可用性和数据隐私取决于用户选择的 API 提供商,需自行评估服务商的 SLA 和合规性。
网络超时与重试:当前实现未显式配置请求超时和重试策略,在网络不稳定场景下可能挂起或失败。