Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui

Answer

ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息:

  • 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。
  • 优劣势:
    • 优势:
      1. 对显存要求相对较低,启动速度快,出图速度快。
      2. 具有更高的生成自由度。
      3. 可以和 webui 共享环境和模型。
      4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。
      5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。
    • 劣势:
      1. 操作门槛高,需要有清晰的逻辑。
      2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。
  • 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI
  • 安装部署:
    • 电脑硬件要求:
      1. 系统:Windows7 以上。
      2. 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。
      3. 硬盘留有足够的空间,最低 100G 起步(包括模型)。
      4. 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。
      5. 下载并更新 Nvidia 显卡驱动下载地址 https://www.nvidia.cn/ geforce/drivers/
    • 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。
      1. 安装 Python https://www.python.org/downloads/release/python-3119/ ,安装的时候选中“将 Python 添加到系统变量”。
      2. 安装 VSCode https://code.visualstudio.com/Download 。
      3. 安装 Git https://git-scm.com/download/win 。
      4. 安装 CUDA https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。
    • 安装步骤: 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip https://github.com/comfyanonymous/ComfyUI ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。
    • 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\custom_nodes 。
    • 模型存放目录:
      1. 大模型:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\checkpoints 。
      2. Lora:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\loras 。
      3. Vae:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\vae 。
    • 模型共用:已经安装了 SD-WebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
Content generated by AI large model, please carefully verify (powered by aily)

References

问:ComfyUI 是什么?

ComfyUI是一个基于节点流程式的stable diffusion AI绘图工具WebUI,你可以把它想象成集成了stable diffusion功能的substance designer,通过将stable diffusion的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。[heading2]优劣势[content]优势:1.对显存要求相对较低,启动速度快,出图速度快;2.具有更高的生成自由度;3.可以和webui共享环境和模型;4.可以搭建自己的工作流程,可以导出流程并分享给别人,报错的时候也能清晰的发现错误出在哪一步;5.生成的图片拖进后会还原整个工作流程,模型也会选择好。劣势:1.操作门槛高,需要有清晰的逻辑;2.生态没有webui多(常用的都有),也有一些针对Comfyui开发的有趣插件。[heading2]官方链接[content]从github上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI[heading2]截图示例[content][heading2]延伸阅读:[content]内容由AI大模型生成,请仔细甄别。

1、安装部署ComfyUI 副本

地址:https://github.com/comfyanonymous/ComfyUI可以下载安装包也可以直接Git clone https://github.com/comfyanonymous/ComfyUI.git或者下载安装包file:ComfyUI.ziphttps://github.com/comfyanonymous/ComfyUI下载安装包或者点击链接下载并解压至本地除C盘外的任意盘。然后找到文件名称为run_nvidia_gpu的文件双击并启动。启动完成即进入基础界面。[heading1]五、节点存放目录[content]comfyUI的节点包括后面安装的拓展节点都存放在本目录下D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\custom_nodes[heading1]五、模型存放目录[content]1、大模型:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\checkpoints2、Lora:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\loras3、Vae:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\vae[heading1]六、模型共用[content]已经安装了SD-WebUI的同学可以通过修改文件路径和WebUI共用一套模型即可,这样就不用重复下载模型了。找到你已经安装好的ComfyUI目录文件下的extra_model_paths.yaml.example文件,将后缀.example删除,然后右键用记事本打开,[heading1]七、快捷键

1、安装部署ComfyUI 副本

今天主要介绍StableDiffusion的另一种UIComfyUI的实际操作方法,完全从0开始安装。以及如何在ComfyUI中使用SDXL模型,希望通过本文能够降低大家对StableDiffusion ComfyUI的学习成本,更快速的体验到AIGC图像生成的魅力。[heading1]一、电脑硬件要求[content]1.系统:Windows7以上(就不要为难XP老师傅了)。2.显卡要求:NVDIA独立显卡且显存至少4G起步。3.硬盘留有足够的空间,最低100G起步(包括模型)。4.注:mac系统,AMD显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。5.下载并更新Nvidia显卡驱动下载地址https://www.nvidia.cn/ geforce/drivers/[heading1]二、下载并安装所需要环境[content]依次下载并安装python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。1.安装Python https://www.python.org/downloads/release/python-3119/file:python-3.11.9-amd64.exe安装的时候选中“将Python添加到系统变量”1.安装VSCode https://code.visualstudio.com/Downloadfile:VSCodeUserSetup-x64-1.90.0.exe3、安装Git https://git-scm.com/download/winfile:3-Git-2.39.2-64-bit.exe4、安装CUDAhttps://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_networkfile:cuda_12.2.0_536.25_windows.exe

Others are asking
有没有换人物背景相关的comfyui工作流
ComfyUI 视频背景替换工作流主要包括以下几个方面: 1. 前景处理: 使用 SAM 之前的版本来分割视频背景,提示词和阈值可根据实际情况调整。 移除背景后,使用图像遮罩复合生成灰色背景的图像批次,以在后续与背景融合时过渡更自然顺滑。灰色背景有助于柔化前景对象(如人物)的边缘,减少锯齿或硬边缘的视觉效果,改善抠图质量,为后续处理做准备,减少背景干扰,增加深度感,便于视觉检查。 在网盘里可以找到对应的模型,下载后按文件夹目录地址放置。 2. 边缘的处理: 核心是优化和改善前景对象的边缘,使其能够与新背景无缝融合,同时保持前景细节的完整性和自然性。 通过遮罩模糊生长(growMaskWithBlur),调整扩展和模糊半径来控制边缘的遮罩。 边缘处理的主要目的包括改善前景和背景之间的过渡效果、消除锯齿和不自然的硬边缘、使整体合成效果更加自然和平滑。 遮罩的白色区域(人物轮廓)是需要重点处理和优化的区域,灰色过渡区域是创造平滑过渡的关键区域。 SetLatentNoiseMask 在 latent space 中指导模型关注和处理特定区域,主要关注白色和灰色区域。 处理过程中模型在白色和灰色区域进行精细处理,包括边缘平滑、消除锯齿、调整像素等操作,特别注重前景和背景交界处的自然过渡。 最终效果是人物轮廓边缘变得更加平滑自然,减少或消除锯齿和硬边缘,在前景(人物)和新背景之间创造更自然的 blend 效果。 3. 模型与 lora: 模型部分,选一个现有和视频画风对应的即可。 lora 用了一个 animate lcm,加速生成的时间。 4. 背景: 背景部分,可以是图片或者视频,为了有视觉效果,加了一个图像的模糊,让生成的视频有种景深的效果。 5. 前景与背景的初步融合: 图像遮罩复合(ImageCompositeMasked)用于将前景(人物)精确地与新背景合并,使用遮罩决定哪些部分保留前景,哪些部分显示背景。 图像混合(ImageBlend)具有微调和平滑化、颜色协调、细节增强、灵活性等额外作用,允许对最终效果进行更精细的控制。
2025-03-11
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),但也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-03-10
comfyui教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中 KSampler 相关内容: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:值一般设置在 6 8 之间较好。 5. sampler_name:可通过此设置采样器算法。 6. scheduler:控制每个步骤中去噪的过程,可选择不同的调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2025-03-10
comfyui 教程
以下是一些关于 ComfyUI 的教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 5. 关于 ComfyUI 中的 Redux 使用: 将 ComfyUI 更新到最新。 下载 sigclip_vision_patch14_384.safetensors 模型并放在 ComfyUI/models/clip_vision 文件夹中。夸克网盘:链接:https://pan.quark.cn/s/739f71d42b87 ;百度网盘:见前文。 下载 flux1reduxdev.safetensors 并放在 ComfyUI/models/style_models 文件夹中。夸克网盘:链接:https://pan.quark.cn/s/32c8291c1c72 ;百度网盘:见前文。 确保 ComfyUI/models/unet/文件夹中有 flux dev 或 flux schnell。 导入工作流:使用 flux_redux_model_example 工作流。夸克网盘:链接:https://pan.quark.cn/s/4ec9d4cfce89 ;百度网盘:链接:https://pan.baidu.com/s/1qK_2kUojF6nsha9cD2Eg2Q?pwd=ris5 提取码:ris5 。 6. 全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 。 7. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ 。 请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-09
请你用简单易懂的语言告诉我comfyui和SD的区别
ComfyUI 和 SD(Stable Diffusion)主要有以下区别: 1. UI 界面:SD WebUI 的 UI 更接近传统产品,有很多输入框和按钮;ComfyUI 的 UI 界面复杂,除输入框外,还有很多块状元素和复杂的连线。 2. 学习成本:ComfyUI 的学习成本比 SD WebUI 高。 3. 工作流方式:ComfyUI 主要通过连线搭建自动化工作流,从左到右依次运行;SD WebUI 则通过输入框和按钮配置参数。 4. 灵活性和拓展性:ComfyUI 具有更高的自由和拓展性,可以根据自身需求搭建、调整甚至改造工作流,无需依赖开发者,还能开发并改造节点;SD WebUI 在这方面相对较弱。 5. 功能实现:从功能角度看,两者提供的功能本质相同,但 ComfyUI 通过改变节点方式能实现不同功能,如一个节点是直接加载图片,另一个是通过画板绘制图片,从而实现导入图片生图和绘图生图等不同功能。
2025-03-08
COMfyui的文本联结节点怎么添加text3、text4
要在 ComfyUI 中添加 text3 和 text4 ,可以参考以下步骤: 1. 新建采样器:右键搜索找到 SDXL Sampler 点击即可。 2. 点击从 SDXL Sampler 采样器中的 Base_model 拖拽出选择 Load Checkpoint 节点,改名为 SDXL,并复制一个改名为 Refiner 连接到 SDXL Sampler 采样器中的 Refiner_model 。 3. 点击从 SDXL Sampler 采样器中的 Base_positive 拖拽出选择 Clip Text Encode 节点,改名为 Prompt ,复制一个并改名为 Negaive Prompt 。 4. 将 Text 改为输入 Convert text to input ,并复制出来 4 个,左边将 2 个连接 SDXL 的 Clip ,两个连接 Refiner ,右边依次连接 Base_Positive 、Base_Negaive 、Refiner_Positive 、Refiner_Negaive 。 5. 从节点中拉出一个通用节点并连接 text 。 6. 在文本节点上单击右键,选择【转换文本为输入】,此时,文本节点上就多了一个文本的连接点。 7. 加入一个新节点,右键点击 【新建节点】 【实用工具】 【Primitive 元节点】。 8. 将元节点与文本节点相连接,这时元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。 9. 再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。
2025-03-07