Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfulUI

Answer

ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍:

  • 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。
  • 优劣势:
    • 优势:
      1. 对显存要求相对较低,启动速度快,出图速度快。
      2. 具有更高的生成自由度。
      3. 可以和 webui 共享环境和模型。
      4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在。
      5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。
    • 劣势:
      1. 操作门槛高,需要有清晰的逻辑。
      2. 生态没有 webui 多(常用的都有),但也有一些针对 Comfyui 开发的有趣插件。
  • 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI
  • 生图原理:
    • Pixel Space 和 Latent Space:
      • Pixel Space(像素空间):图的左边表示输入图像的像素空间,在 ComfyUI 中,对应于通过“图像输入”模块或直接从文本提示生成的随机噪声图像,生成过程结束时会将处理后的潜在表示转换回像素空间生成最终图像。
      • Latent Space(潜在空间):ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点执行采样过程,图像被映射到潜在空间后,扩散过程在这个空间中进行,可通过节点调整对潜在空间的操作。
    • 扩散过程(Diffusion Process):
      • 噪声的生成和逐步还原:扩散过程表示从噪声生成图像的过程,在 ComfyUI 中通过调度器控制,可通过“采样器”节点选择不同调度器控制在潜在空间中处理噪声及逐步去噪回归到最终图像。
      • 时间步数:在生成图像时,扩散模型会进行多个去噪步,可通过控制步数影响图像生成的精细度和质量。
  • 安装部署:
    • 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘,然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。
    • 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\custom_nodes 。
    • 模型存放目录:
      1. 大模型:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\checkpoints 。
      2. Lora:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\loras 。
      3. Vae:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\vae 。
    • 模型共用:已经安装了 SD-WebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
    • 快捷键:未提及。
Content generated by AI large model, please carefully verify (powered by aily)

References

问:ComfyUI 是什么?

ComfyUI是一个基于节点流程式的stable diffusion AI绘图工具WebUI,你可以把它想象成集成了stable diffusion功能的substance designer,通过将stable diffusion的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。[heading2]优劣势[content]优势:1.对显存要求相对较低,启动速度快,出图速度快;2.具有更高的生成自由度;3.可以和webui共享环境和模型;4.可以搭建自己的工作流程,可以导出流程并分享给别人,报错的时候也能清晰的发现错误出在哪一步;5.生成的图片拖进后会还原整个工作流程,模型也会选择好。劣势:1.操作门槛高,需要有清晰的逻辑;2.生态没有webui多(常用的都有),也有一些针对Comfyui开发的有趣插件。[heading2]官方链接[content]从github上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI[heading2]截图示例[heading2]延伸阅读:[content]内容由AI大模型生成,请仔细甄别。

ComfyUI的生图原理 副本

ComfyUI是一个开源的图形用户界面,用于生成AI图像,主要基于Stable Diffusion等扩散模型。想要达到精准控制图像生成就要了解他的底层原理,这样才能做到什么时间什么节点用什么办法对其精准控制,以下是其工作原理的详细解释:[heading3]Pixel Space和Latent Space[content]Pixel Space(像素空间):图的左边表示输入图像的像素空间,在ComfyUI中,这个对应于你可能通过“图像输入”模块或直接从文本提示生成的随机噪声图像。在生成过程结束时,系统会将处理后的潜在表示转换回像素空间,生成最终的图像。Latent Space(潜在空间):ComfyUI中的应用:ComfyUI的许多操作都在潜在空间中进行,如KSampler节点就是在这个空间中执行采样过程。图像被映射到潜在空间后,扩散过程在这个空间中进行。在ComfyUI中,你可以通过节点调整对潜在空间的操作,如噪声添加、去噪步数等。这部分通常由潜在空间操作模块来实现。[heading3]2.扩散过程(Diffusion Process)[content]噪声的生成和逐步还原:扩散过程表示的是从噪声生成图像的过程。在ComfyUI中,这通常通过调度器(Schedulers)控制,典型的调度器有Normal、Karras等,它们会根据不同的采样策略逐步将噪声还原为图像。你可以通过ComfyUI中的“采样器”节点选择不同的调度器,来控制如何在潜在空间中处理噪声,以及如何逐步去噪回归到最终图像。时间步数TTT:在生成图像时,扩散模型会进行多个去噪步。图中展示的zTz_TzT代表不同时间步长下的潜在表示。在ComfyUI中,你可以通过控制步数来影响图像生成的精细度和质量。

1、安装部署ComfyUI 副本

地址:https://github.com/comfyanonymous/ComfyUI可以下载安装包也可以直接Git clone https://github.com/comfyanonymous/ComfyUI.git或者下载安装包file:ComfyUI.ziphttps://github.com/comfyanonymous/ComfyUI下载安装包或者点击链接下载并解压至本地除C盘外的任意盘。然后找到文件名称为run_nvidia_gpu的文件双击并启动。启动完成即进入基础界面。[heading1]五、节点存放目录[content]comfyUI的节点包括后面安装的拓展节点都存放在本目录下D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\custom_nodes[heading1]五、模型存放目录[content]1、大模型:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\checkpoints2、Lora:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\loras3、Vae:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\vae[heading1]六、模型共用[content]已经安装了SD-WebUI的同学可以通过修改文件路径和WebUI共用一套模型即可,这样就不用重复下载模型了。找到你已经安装好的ComfyUI目录文件下的extra_model_paths.yaml.example文件,将后缀.example删除,然后右键用记事本打开,[heading1]七、快捷键