relay-to-agent

🤖 多平台 AI 代理统一调度中枢

🥥15总安装量 5评分人数 7
100% 的用户推荐

基于 Node.js 的 AI 代理中继工具,支持多轮对话与会话管理,兼容 OpenAI、OpenRouter、Ollama 等主流 API,为开发者提供灵活的 LLM 调用能力。

A

基本安全,请在特定环境下使用

  • 来自可信来源(Github / Microsoft / 官方仓库)
  • ✅ API 密钥仅通过环境变量 `RELAY_API_KEY` 传入,无硬编码风险
  • ✅ 无系统命令执行或动态代码执行,杜绝命令注入与代码注入漏洞
  • ✅ 文件系统访问严格受限,仅操作 `~/.cache/relay-to-agent/sessions//` 缓存目录
  • ⚠️ 未强制 HTTPS 协议,依赖用户自行配置安全端点
  • ⚠️ 会话文件以明文 JSON 存储,建议设置更严格的文件权限(如 0600)

使用说明

核心用法

relay-to-agent 是一个命令行工具,用于将消息转发到任何 OpenAI 兼容的 API 端点。用户通过 agents.json 配置代理和端点信息,使用 --agent 指定目标代理,即可发送单条或多轮对话消息。支持 --reset 重置会话、、--session 自定义会话 ID 实现并行对话,以及 --list 查看可用代理。会话数据自动缓存在本地,最多保留 50 条消息。

显著优点

生态兼容性极强:支持 Connect Chat、OpenRouter、LiteLLM、vLLM、Ollama 等几乎所有 OpenAI 兼容服务,用户可自由切换底层模型提供商。

会话管理完善:内置多轮对话记忆机制,支持自定义会话隔离,满足复杂工作流中并行处理多个对话线程的需求。

配置灵活:通过环境变量和 JSON 配置文件双重机制管理 API 密钥和端点,既适合个人本地开发,也便于 CI/CD 环境部署。

依赖精简:仅依赖 openai-fetch 一个运行时库,供应链攻击面小,维护成本低。

潜在缺点与局限性

无内置 HTTPS 强制:依赖用户自行配置安全的 baseUrl,若误用 HTTP 端点可能导致 API 密钥泄露。

无输入长度限制:未对用户消息长度做硬性限制,极端情况下可能触发 API 提供商的速率限制或产生意外费用。

本地会话无加密:会话文件以明文 JSON 存储于本地缓存目录,多用户共享设备时存在隐私泄露风险。

功能边界单一:仅提供消息转发能力,无内置的提示词模板、工具调用编排或流式响应处理等高级特性。

适合的目标群体

  • 需要统一接口调用多个 LLM 提供商的开发者与 MLOps 工程师
  • 构建 AI 工作流自动化脚本的 DevOps 和技术运营团队
  • 在本地或私有环境部署 vLLM/Ollama 并需要标准化 CLI 工具的研究人员
  • 希望快速原型验证多代理对话系统的 AI 产品经理

使用风险

API 密钥泄露风险:若配置文件中硬编码密钥或环境变量设置不当,可能导致密钥泄露;建议配合密钥管理工具如 direnv 或 Docker secrets 使用。

会话数据累积:长期高频使用会产生大量会话缓存文件,需定期清理 ~/.cache/relay-to-agent/sessions// 目录以避免磁盘空间占用。

第三方 API 依赖:实际服务质量、可用性和数据隐私取决于用户选择的 API 提供商,需自行评估服务商的 SLA 和合规性。

网络超时与重试:当前实现未显式配置请求超时和重试策略,在网络不稳定场景下可能挂起或失败。

relay-to-agent 内容

文件夹图标scripts文件夹
手动下载zip · 4.8 kB
relay.mjstext/javascript
请选择文件