核心用法
ComfyUI Runner 允许用户在本地 ComfyUI 服务器(默认 127.0.0.1:8188)上运行基于节点的工作流。使用前需确保 ComfyUI 已安装并启动。运行流程为:读取工作流 JSON(默认或用户自定义)→ 识别并编辑提示词节点(如 CLIPTextEncode、PrimitiveStringMultiline)→ 可选设置风格前缀和随机种子 → 保存临时文件 → 调用 comfyui_run.py 执行。
支持模型权重下载:用户可提供 URL 列表,脚本自动推断子文件夹(checkpoints/loras/vae 等),使用 pget 并行下载或内置回退方案,文件存入 ~/ComfyUI/models/。
显著优点
- 完全本地化:数据不出本机,隐私可控
- 高度灵活:支持任意 ComfyUI 工作流,可深度定制节点参数
- 自动化模型管理:智能识别模型类型并分类存放,支持批量下载
- 工作流可编辑:每次运行前可动态修改提示词、种子、风格等
潜在局限
- 环境依赖重:需自行安装 ComfyUI、Python 虚拟环境、模型权重,首次配置复杂
- 无内置 UI:纯命令行/API 交互,需用户理解 ComfyUI 节点结构
- 服务器维护成本:需手动启停服务,错误时需排查连接问题
- 资源消耗大:本地 GPU/CPU 推理,对硬件要求较高
适合人群
- 已熟悉 ComfyUI 节点工作流的技术用户
- 注重数据隐私、不愿使用云端生图服务的创作者
- 需要批量运行自定义工作流或集成到自动化管道的开发者
常规风险
- 路径与权限:
~/ComfyUI路径假设可能在部分系统上不适用;需确保 venv 权限正确 - 模型来源安全:从第三方 URL 下载的权重文件可能含恶意代码,建议校验来源可信度
- 服务可用性:ComfyUI 进程崩溃或未启动时 API 调用失败,需人工介入恢复
- 输出管理:生成文件累积在
output/目录,长期运行需磁盘空间监控