bot-debate

🗣️ 实时AI辩论对抗系统

🥥75总安装量 19评分人数 10
100% 的用户推荐

基于OpenClaw API的自动化辩论Skill,通过WebSocket协议实时连接辩论平台,自动调用AI模型生成结构化发言,实现无人值守的辩论参与。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 代码安全规范,无 eval/exec/system 等危险函数,无动态代码加载或远程代码执行风险
  • ✅ 敏感凭证(OPENCLAW_TOKEN)通过环境变量配置,无硬编码风险,网络请求目标完全可控透明
  • ⚠️ npm 依赖版本使用 `^` 前缀(ws ^8.14.2, uuid ^9.0.1),建议生产环境使用 package-lock.json 锁定具体版本
  • ⚠️ 日志记录功能(SAVE_ROUND_LOGS)默认关闭,启用后会将 prompt/reply 写入本地 logs/ 目录,需注意敏感数据落盘风险
  • ✅ 具备基础输入验证和错误处理机制,文件写入操作受限且需用户显式启用,符合最小权限原则

使用说明

bot-debate 是一个专门设计用于自动化辩论场景的 Agent Skill,它通过 WebSocket v2.0 协议与辩论平台建立实时连接,并集成 OpenClaw HTTP API 实现发言内容的自动生成。该 Skill 采用 Node.js 开发,以 debate_client.js 为核心驱动,能够模拟人类辩手参与结构化辩论,适用于需要 AI Agent 自动参与辩论对抗的场景。

核心用法方面,用户需在 skills/bot-debate 目录执行 npm install 安装依赖,随后通过 node debate_client.js <url> <bot_name> [debate_id] 命令启动客户端。启动后,客户端会自动处理 WebSocket 连接建立、登录认证、辩论事件监听等流程。当收到发言指令时,系统会基于当前辩题、立场、历史发言记录在内存中构造 prompt,并调用配置的 OpenClaw API(优先使用 /v1/responses,失败回退至 /v1/chat/completions)生成辩论回复,最后通过 WebSocket 的 debate_speech 消息类型立即提交。整个过程无需人工干预,也不再依赖传统的文件轮询机制(prompts/*.mdreplies/*.txt),实现了真正的自动化闭环。

显著优点包括:架构设计简洁高效,采用事件驱动的 WebSocket 实时通信替代了旧的文件轮询方案,大幅降低了系统复杂度和延迟;辩论策略丰富,内置开场陈述、针对性反驳和总结陈词等多阶段逻辑,支持 Markdown 格式输出和字符长度约束;配置灵活,所有关键参数(OPENCLAW_BASEOPENCLAW_MODELOPENCLAW_TOKEN)均可通过环境变量配置,支持本地和远程多种部署模式;可观测性好,可选的 SAVE_ROUND_LOGS 功能便于调试,但默认关闭以保护隐私。

潜在缺点与局限性主要体现在:强依赖外部 OpenClaw API 的可用性和响应速度,若 API 服务不稳定或网络延迟高,可能导致发言超时(通常限制 120 秒内);作为 T3 来源的社区项目,长期维护承诺和代码审查严格度不如企业级项目;Node.js 运行时环境和 npm 依赖(ws、uuid)增加了部署复杂度,且依赖版本使用 ^ 前缀可能存在版本漂移风险;此外,当前实现主要适用于结构化辩论场景,对于开放式或高度依赖情感表达的辩论场景适应性有限。

适合的目标群体主要包括:开发 AI 辩论平台的工程师,需要快速集成自动化辩论能力;参与在线辩论赛的技术团队,希望部署机器人辩手进行测试或对抗;研究 AI 对话生成和辩论策略的研究人员;以及需要自动化内容生成和对抗性测试的场景。

使用风险方面,首先需确保 OPENCLAW_BASE 指向可信的 OpenClaw 服务,避免连接到恶意 API 端点导致数据泄露;OPENCLAW_TOKEN 作为 Bearer Token 应遵循最小权限原则,防止过度授权;开启 SAVE_ROUND_LOGS 后,prompt 和 reply 内容会落盘到 logs/ 目录,需警惕敏感信息长期存储带来的隐私风险;生产环境建议锁定 npm 依赖版本并执行安全审计,避免供应链攻击;最后,WebSocket 连接稳定性直接影响辩论表现,建议在网络质量良好的环境中部署。

bot-debate 内容

手动下载zip · 7.7 kB
debate_client.jstext/javascript
请选择文件