老达博客 AI 工具 ComfyUI 完整教程(2026):安装、节点工作流、ControlNet、高清放大全攻略

ComfyUI 完整教程(2026):安装、节点工作流、ControlNet、高清放大全攻略

ComfyUI 是目前最强大的 AI 图像生成工作流工具——基于节点式可视化编程,让你对 Stable Diffusion 的每一个生成步骤拥有完全控制权。本文从安装到实战工作流,带你系统掌握 ComfyUI,解锁比 WebUI 更灵活、更强大的 AI 绘图能力。

ComfyUI 是什么?和 Stable Diffusion WebUI 有什么区别?

Stable Diffusion 有两个主流前端界面:AUTOMATIC1111 WebUI 和 ComfyUI。两者都能跑 SD 模型,但定位完全不同:

对比项AUTOMATIC1111 WebUIComfyUI
界面形式传统表单界面节点式工作流
上手难度较低较高(值得学)
工作流复用有限极强(可导出/分享)
性能中等更高效(显存占用更少)
扩展性插件系统自定义节点系统
最适合入门用户进阶/专业用户

ComfyUI 的核心优势:节点式工作流可以精确控制每个生成步骤,比如多模型融合、图生图精细控制、批量处理、ControlNet 精确应用等,这些在 WebUI 里要手动操作多次,在 ComfyUI 里连一次都能完成。

ComfyUI 安装教程(Windows 推荐)

方法一:ComfyUI 独立包(推荐新手)

  1. 访问 github.com/comfyanonymous/ComfyUI,进入 Releases 页面
  2. 下载最新的 ComfyUI_windows_portable 压缩包(包含 Python 环境,无需额外安装)
  3. 解压到任意文件夹,运行 run_nvidia_gpu.bat(NVIDIA显卡)或 run_cpu.bat(CPU运行,较慢)
  4. 浏览器自动打开 localhost:8188,ComfyUI 界面加载完成

推荐显卡配置:NVIDIA 8GB+ 显存(4080/3090/4090 更流畅),4GB 显存可运行但需要开启低显存模式。

方法二:ComfyUI Manager 增强安装

安装 ComfyUI Manager 是第一步必做的事——它是 ComfyUI 的”插件管理器”,可以一键安装/卸载各种自定义节点:

  1. 打开 ComfyUI 根目录下的 custom_nodes 文件夹
  2. 在此文件夹打开命令行,运行:git clone https://github.com/ltdrdata/ComfyUI-Manager.git
  3. 重启 ComfyUI,界面右上角出现 Manager 按钮

ComfyUI 界面解析:节点工作流基础

初次打开 ComfyUI 会看到一个默认工作流,由多个方块(节点)和连线组成。理解这个基础工作流,是掌握 ComfyUI 的关键:

  • Load Checkpoint:加载 SD 模型(.safetensors 文件)
  • CLIP Text Encode(正向/负向):输入正向提示词和负向提示词
  • Empty Latent Image:设置生成图片的尺寸
  • KSampler:核心采样器,控制采样步数、CFG、采样方法
  • VAE Decode:将潜在空间图像解码为可视图像
  • Save Image:保存生成结果

节点之间的连线代表数据流:模型信息、提示词编码、潜在图像依次流向采样器,最终解码输出。这就是为什么 ComfyUI 比 WebUI 更透明——你可以看到每一步在干什么。

实用工作流教程

工作流1:文生图基础流程

默认工作流就是标准文生图流程。关键参数设置:

  • Steps:20-30 步(质量与速度平衡点)
  • CFG Scale:7-8(越高越遵循提示词,但超过12容易过饱和)
  • Sampler:euler_a 或 dpmpp_2m_karras(最常用)
  • 尺寸:SD 1.5 用 512×512,SDXL 用 1024×1024

工作流2:图生图(Image-to-Image)

在基础工作流基础上:

  1. 添加 Load Image 节点,加载参考图片
  2. 添加 VAE Encode 节点,将图片编码为潜在空间
  3. 将 VAE Encode 的输出连接到 KSampler 的 latent_image 输入
  4. 调整 Denoise 参数(0.3-0.7:保留原图越多越小,变化越大越大)

工作流3:ControlNet 精确控制姿势/线条

ControlNet 是 ComfyUI 最强大的功能之一,可以精确控制生成图像的姿势、轮廓、深度等:

  1. 通过 ComfyUI Manager 安装 ComfyUI-ControlNet-Aux 节点包
  2. 下载对应 ControlNet 模型(OpenPose 控制姿势,Canny 控制边缘,Depth 控制深度)放入 models/controlnet/
  3. 工作流添加:Load Image → AIO_Preprocessor → Apply ControlNet → KSampler
  4. Strength 参数:0.6-0.9(控制 ControlNet 影响强度)

工作流4:高分辨率放大(Hi-Res Fix)

先低分辨率生成,再放大细化——比直接生成高分辨率质量更好:

  1. 标准流程生成 512×512 图像
  2. 添加 Upscale Image 节点(使用 4x_UltraSharp 等放大模型)
  3. 再次 VAE Encode → KSampler(Denoise 0.4-0.6)→ VAE Decode
  4. 输出 2048×2048 的高质量大图

必装的 ComfyUI 自定义节点

节点包功能适用场景
ComfyUI-Manager节点管理器必装,管理所有扩展
ComfyUI-ControlNet-AuxControlNet预处理精确姿势/线条控制
was-node-suite-comfyui100+实用节点批处理/条件判断/文字工具
ComfyUI-Impact-Pack人脸修复/分割人物图像后处理
ComfyUI_IPAdapter_plus风格参考转移保持人物/风格一致性
ComfyUI-VideoHelperSuite视频处理AI视频生成工作流

ComfyUI 工作流分享与复用

ComfyUI 最实用的功能之一是工作流的导出和导入。你可以:

  • 导出工作流:右键菜单 → Save (API format) → 保存为 JSON 文件
  • 导入工作流:拖拽 JSON 文件到 ComfyUI 界面,或菜单 Load
  • 从图片读取工作流:ComfyUI 生成的图片内嵌了工作流信息,直接拖拽图片就能恢复完整工作流

推荐工作流分享网站:openart.ai/workflowscivitai.com(搜索”ComfyUI workflow”),这里有大量社区分享的高质量工作流直接拿来用。

常见问题解决

显存不足(OOM Error)

启动 ComfyUI 时添加参数:--lowvram(低显存模式)或 --cpu(纯CPU运行)。也可以在 KSampler 前添加 Free Memory 节点定期释放显存。

节点连线报错(红色警告)

通常是输入/输出类型不匹配。检查连线两端的节点类型是否一致(MODEL→MODEL,LATENT→LATENT等)。安装缺失的自定义节点后重启即可。

模型找不到

将模型文件(.safetensors/.ckpt)放入对应目录:
基础模型 → models/checkpoints/
LoRA → models/loras/
ControlNet → models/controlnet/
VAE → models/vae/
放入后刷新 ComfyUI 即可在节点中选择。

ComfyUI vs Midjourney:我该用哪个?

这是个很常见的问题。简单答案:

  • 追求开箱即用、画质最高Midjourney(付费,效果最稳定)
  • 追求本地免费、完全控制 → ComfyUI + Stable Diffusion(一次性硬件投入,之后免费)
  • 追求商业版权无忧 → Midjourney Pro 或 Adobe Firefly

对于想深度玩 AI 绘图、做 AI 视频、或者批量生成内容的用户,ComfyUI 值得花时间学——它的上限远高于任何在线工具。

👉 查看完整AI工具导航:所有AI工具教程一站汇总

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

返回顶部