ComfyUI 是目前最强大的 AI 图像生成工作流工具——基于节点式可视化编程,让你对 Stable Diffusion 的每一个生成步骤拥有完全控制权。本文从安装到实战工作流,带你系统掌握 ComfyUI,解锁比 WebUI 更灵活、更强大的 AI 绘图能力。
ComfyUI 是什么?和 Stable Diffusion WebUI 有什么区别?
Stable Diffusion 有两个主流前端界面:AUTOMATIC1111 WebUI 和 ComfyUI。两者都能跑 SD 模型,但定位完全不同:
| 对比项 | AUTOMATIC1111 WebUI | ComfyUI |
|---|---|---|
| 界面形式 | 传统表单界面 | 节点式工作流 |
| 上手难度 | 较低 | 较高(值得学) |
| 工作流复用 | 有限 | 极强(可导出/分享) |
| 性能 | 中等 | 更高效(显存占用更少) |
| 扩展性 | 插件系统 | 自定义节点系统 |
| 最适合 | 入门用户 | 进阶/专业用户 |
ComfyUI 的核心优势:节点式工作流可以精确控制每个生成步骤,比如多模型融合、图生图精细控制、批量处理、ControlNet 精确应用等,这些在 WebUI 里要手动操作多次,在 ComfyUI 里连一次都能完成。
ComfyUI 安装教程(Windows 推荐)
方法一:ComfyUI 独立包(推荐新手)
- 访问 github.com/comfyanonymous/ComfyUI,进入 Releases 页面
- 下载最新的 ComfyUI_windows_portable 压缩包(包含 Python 环境,无需额外安装)
- 解压到任意文件夹,运行 run_nvidia_gpu.bat(NVIDIA显卡)或 run_cpu.bat(CPU运行,较慢)
- 浏览器自动打开 localhost:8188,ComfyUI 界面加载完成
推荐显卡配置:NVIDIA 8GB+ 显存(4080/3090/4090 更流畅),4GB 显存可运行但需要开启低显存模式。
方法二:ComfyUI Manager 增强安装
安装 ComfyUI Manager 是第一步必做的事——它是 ComfyUI 的”插件管理器”,可以一键安装/卸载各种自定义节点:
- 打开 ComfyUI 根目录下的
custom_nodes文件夹 - 在此文件夹打开命令行,运行:
git clone https://github.com/ltdrdata/ComfyUI-Manager.git - 重启 ComfyUI,界面右上角出现 Manager 按钮
ComfyUI 界面解析:节点工作流基础
初次打开 ComfyUI 会看到一个默认工作流,由多个方块(节点)和连线组成。理解这个基础工作流,是掌握 ComfyUI 的关键:
- Load Checkpoint:加载 SD 模型(.safetensors 文件)
- CLIP Text Encode(正向/负向):输入正向提示词和负向提示词
- Empty Latent Image:设置生成图片的尺寸
- KSampler:核心采样器,控制采样步数、CFG、采样方法
- VAE Decode:将潜在空间图像解码为可视图像
- Save Image:保存生成结果
节点之间的连线代表数据流:模型信息、提示词编码、潜在图像依次流向采样器,最终解码输出。这就是为什么 ComfyUI 比 WebUI 更透明——你可以看到每一步在干什么。
实用工作流教程
工作流1:文生图基础流程
默认工作流就是标准文生图流程。关键参数设置:
- Steps:20-30 步(质量与速度平衡点)
- CFG Scale:7-8(越高越遵循提示词,但超过12容易过饱和)
- Sampler:euler_a 或 dpmpp_2m_karras(最常用)
- 尺寸:SD 1.5 用 512×512,SDXL 用 1024×1024
工作流2:图生图(Image-to-Image)
在基础工作流基础上:
- 添加 Load Image 节点,加载参考图片
- 添加 VAE Encode 节点,将图片编码为潜在空间
- 将 VAE Encode 的输出连接到 KSampler 的 latent_image 输入
- 调整 Denoise 参数(0.3-0.7:保留原图越多越小,变化越大越大)
工作流3:ControlNet 精确控制姿势/线条
ControlNet 是 ComfyUI 最强大的功能之一,可以精确控制生成图像的姿势、轮廓、深度等:
- 通过 ComfyUI Manager 安装 ComfyUI-ControlNet-Aux 节点包
- 下载对应 ControlNet 模型(OpenPose 控制姿势,Canny 控制边缘,Depth 控制深度)放入
models/controlnet/ - 工作流添加:Load Image → AIO_Preprocessor → Apply ControlNet → KSampler
- Strength 参数:0.6-0.9(控制 ControlNet 影响强度)
工作流4:高分辨率放大(Hi-Res Fix)
先低分辨率生成,再放大细化——比直接生成高分辨率质量更好:
- 标准流程生成 512×512 图像
- 添加 Upscale Image 节点(使用 4x_UltraSharp 等放大模型)
- 再次 VAE Encode → KSampler(Denoise 0.4-0.6)→ VAE Decode
- 输出 2048×2048 的高质量大图
必装的 ComfyUI 自定义节点
| 节点包 | 功能 | 适用场景 |
|---|---|---|
| ComfyUI-Manager | 节点管理器 | 必装,管理所有扩展 |
| ComfyUI-ControlNet-Aux | ControlNet预处理 | 精确姿势/线条控制 |
| was-node-suite-comfyui | 100+实用节点 | 批处理/条件判断/文字工具 |
| ComfyUI-Impact-Pack | 人脸修复/分割 | 人物图像后处理 |
| ComfyUI_IPAdapter_plus | 风格参考转移 | 保持人物/风格一致性 |
| ComfyUI-VideoHelperSuite | 视频处理 | AI视频生成工作流 |
ComfyUI 工作流分享与复用
ComfyUI 最实用的功能之一是工作流的导出和导入。你可以:
- 导出工作流:右键菜单 → Save (API format) → 保存为 JSON 文件
- 导入工作流:拖拽 JSON 文件到 ComfyUI 界面,或菜单 Load
- 从图片读取工作流:ComfyUI 生成的图片内嵌了工作流信息,直接拖拽图片就能恢复完整工作流
推荐工作流分享网站:openart.ai/workflows、civitai.com(搜索”ComfyUI workflow”),这里有大量社区分享的高质量工作流直接拿来用。
常见问题解决
显存不足(OOM Error)
启动 ComfyUI 时添加参数:--lowvram(低显存模式)或 --cpu(纯CPU运行)。也可以在 KSampler 前添加 Free Memory 节点定期释放显存。
节点连线报错(红色警告)
通常是输入/输出类型不匹配。检查连线两端的节点类型是否一致(MODEL→MODEL,LATENT→LATENT等)。安装缺失的自定义节点后重启即可。
模型找不到
将模型文件(.safetensors/.ckpt)放入对应目录:
基础模型 → models/checkpoints/
LoRA → models/loras/
ControlNet → models/controlnet/
VAE → models/vae/
放入后刷新 ComfyUI 即可在节点中选择。
ComfyUI vs Midjourney:我该用哪个?
这是个很常见的问题。简单答案:
- 追求开箱即用、画质最高 → Midjourney(付费,效果最稳定)
- 追求本地免费、完全控制 → ComfyUI + Stable Diffusion(一次性硬件投入,之后免费)
- 追求商业版权无忧 → Midjourney Pro 或 Adobe Firefly
对于想深度玩 AI 绘图、做 AI 视频、或者批量生成内容的用户,ComfyUI 值得花时间学——它的上限远高于任何在线工具。
👉 查看完整AI工具导航:所有AI工具教程一站汇总
