Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

ComfyUI

Answer

ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍:

  • 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。
  • 优劣势:
    • 优势:
      • 对显存要求相对较低,启动速度快,出图速度快。
      • 具有更高的生成自由度。
      • 可以和 webui 共享环境和模型。
      • 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。
      • 生成的图片拖进后会还原整个工作流程,模型也会选择好。
    • 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。
  • 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI
  • 安装部署:
    • 电脑硬件要求:
      • 系统:Windows7 以上。
      • 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。
      • 硬盘留有足够的空间,最低 100G 起步(包括模型)。
      • 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。
    • 下载并安装所需要环境:依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。
      • 安装 Python:https://www.python.org/downloads/release/python-3119/ ,安装的时候选中“将 Python 添加到系统变量”。
      • 安装 VSCode:https://code.visualstudio.com/Download 。
      • 安装 Git:https://git-scm.com/download/win 。
      • 安装 CUDA:https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。
    • 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。
    • 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\custom_nodes 。
    • 模型存放目录:
      • 大模型:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\checkpoints 。
      • Lora:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\loras 。
      • Vae:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\vae 。
    • 模型共用:已经安装了 SD-WebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
Content generated by AI large model, please carefully verify (powered by aily)

References

问:ComfyUI 是什么?

ComfyUI是一个基于节点流程式的stable diffusion AI绘图工具WebUI,你可以把它想象成集成了stable diffusion功能的substance designer,通过将stable diffusion的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。[heading2]优劣势[content]优势:1.对显存要求相对较低,启动速度快,出图速度快;2.具有更高的生成自由度;3.可以和webui共享环境和模型;4.可以搭建自己的工作流程,可以导出流程并分享给别人,报错的时候也能清晰的发现错误出在哪一步;5.生成的图片拖进后会还原整个工作流程,模型也会选择好。劣势:1.操作门槛高,需要有清晰的逻辑;2.生态没有webui多(常用的都有),也有一些针对Comfyui开发的有趣插件。[heading2]官方链接[content]从github上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI[heading2]截图示例[heading2]延伸阅读:[content]内容由AI大模型生成,请仔细甄别。

1、安装部署ComfyUI 副本

地址:https://github.com/comfyanonymous/ComfyUI可以下载安装包也可以直接Git clone https://github.com/comfyanonymous/ComfyUI.git或者下载安装包file:ComfyUI.ziphttps://github.com/comfyanonymous/ComfyUI下载安装包或者点击链接下载并解压至本地除C盘外的任意盘。然后找到文件名称为run_nvidia_gpu的文件双击并启动。启动完成即进入基础界面。[heading1]五、节点存放目录[content]comfyUI的节点包括后面安装的拓展节点都存放在本目录下D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\custom_nodes[heading1]五、模型存放目录[content]1、大模型:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\checkpoints2、Lora:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\loras3、Vae:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\vae[heading1]六、模型共用[content]已经安装了SD-WebUI的同学可以通过修改文件路径和WebUI共用一套模型即可,这样就不用重复下载模型了。找到你已经安装好的ComfyUI目录文件下的extra_model_paths.yaml.example文件,将后缀.example删除,然后右键用记事本打开,[heading1]七、快捷键

1、安装部署ComfyUI 副本

今天主要介绍StableDiffusion的另一种UIComfyUI的实际操作方法,完全从0开始安装。以及如何在ComfyUI中使用SDXL模型,希望通过本文能够降低大家对StableDiffusion ComfyUI的学习成本,更快速的体验到AIGC图像生成的魅力。[heading1]一、电脑硬件要求[content]1.系统:Windows7以上(就不要为难XP老师傅了)。2.显卡要求:NVDIA独立显卡且显存至少4G起步。3.硬盘留有足够的空间,最低100G起步(包括模型)。4.注:mac系统,AMD显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。5.下载并更新Nvidia显卡驱动下载地址https://www.nvidia.cn/ geforce/drivers/[heading1]二、下载并安装所需要环境[content]依次下载并安装python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。1.安装Python https://www.python.org/downloads/release/python-3119/file:python-3.11.9-amd64.exe安装的时候选中“将Python添加到系统变量”1.安装VSCode https://code.visualstudio.com/Downloadfile:VSCodeUserSetup-x64-1.90.0.exe3、安装Git https://git-scm.com/download/winfile:3-Git-2.39.2-64-bit.exe4、安装CUDAhttps://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_networkfile:cuda_12.2.0_536.25_windows.exe

Others are asking
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势:对显存要求相对较低,启动速度快,出图速度快;具有更高的生成自由度;可以和 webui 共享环境和模型;可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在;生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境:依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装步骤: 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2024-12-24
comfyui和dify有什么区别?分别适合什么场景?
ComfyUI 和 Dify 的区别主要体现在以下方面: 1. 用户界面:SD WebUI 的 UI 更像传统产品,有很多输入框和按钮;ComfyUI 的 UI 界面复杂,有很多方块和复杂的连线。 2. 学习成本:ComfyUI 的学习成本比 SD WebUI 高。 3. 工作流方式:ComfyUI 采用连线搭建自动化工作流的方式,从左到右依次运行,通过改变节点可实现不同功能,如一个节点是直接加载图片,另一个是通过画板绘制图片,从而实现导入图片生图或绘图生图等不同功能。 适用场景: ComfyUI 因其自由和拓展性,适合以下场景: 1. 用户可以根据自身需求搭建适合自己的工作流,无需依赖开发者。 2. 能够根据需求开发并改造某个节点,从而调整使其切合自己的工作流甚至改造工作流。 Dify 方面的具体适用场景未在提供的内容中有明确提及。
2024-12-23
comfyui入门
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 。 相关学习资料: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验用户,网站:https://www.comfyuidoc.com/zh/ 。 2. 优设网:有详细的入门教程,适合初学者,地址:https://www.uisdc.com/comfyui3 。 3. 知乎:有用户分享部署教程和使用说明,适合有一定基础并希望进一步了解的用户,地址:https://zhuanlan.zhihu.com/p/662041596 。 4. Bilibili:有一系列涵盖从新手入门到精通各个阶段的视频教程,地址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。 ComfyUI 共学 WaytoAGI 共学计划中的高频问题及自学资料: 1. 知识库跳转,展开菜单。 2. 。 3. 【海辛】因为一直被几个好朋友问 comfyui 怎么入门,给朋友录了几节 comfyui 基础课,顺手分享给大家~看完这 5 节应该就基本入门啦,然后可以看互联网上任何的进阶教程了。 安装部署: 界面介绍: 文生图、图生图: ComfyUI 中使用 ControlNet: ComfyUI 中不同放大图像方式:
2024-12-18
comfyui工作流
ComfyUI 工作流包括以下内容: 低显存运行工作流:目的是让 FLUX 模型能在较低显存情况下运行。分阶段处理思路为,先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存使用,最后使用 SD 放大提升图片质量。工作流流程包括初始图像生成(Flux)阶段,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及图像放大和细化(SDXL)阶段,如加载 SDXL 模型、对初始图像进行锐化处理等,并进行最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/,流量较高,支持上传、下载、在线生成,免费账户有 50 个积分,加入 Discord 可再加 100 积分,开通最低每月 6 美元套餐后每月有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud,支持在线运行工作流,实际下载量和访问量略少于 openart。 Flowt.ai:https://flowt.ai/community 提示词自动生成 ComfyUI 工作流:英伟达整了个花活,通过画图提示词自动生成匹配的 ComfyUI 工作流,命名为 ComfyGen(comfy 生成器),目前仅支持文生图模型。英伟达称其可以生成高质量的图并泛化到其他领域,效果基本与其他模型一致甚至更优,但项目未开源。
2024-12-17
有没有根据布料照片和模特照片生成衣服上身效果的工具或 comfyUI 工作流
以下是一些与根据布料照片和模特照片生成衣服上身效果相关的工具和工作流: 1. 藏师傅的方法:将第二步的提示词和 Logo 图片放到 Comfyui 工作流就行。Lora 需要用到 InContext LoRA 中的 visualidentitydesign,可从以下地址下载:https://huggingface.co/alivilab/InContextLoRA/tree/main 。工作流下载:https://github.com/op7418/Comfyuiworkflow/blob/main/FLUX/Logo%20%E5%91%A8%E8%BE%B9%E7%94%9F%E6%88%90.json 。 2. 彭青云分享的内容:本地部署 Comfyui 有多种方式,如官方的本地部署包、秋叶整合包和二狗子老师制作的通往 AGI 之路黑猴子流专属包。处理好软件和模型后,打开一键启动,稍等片刻就会进入工作界面。通过正反提示词、文本链接图像,点击右侧队列即可生成图像。 3. ComfyUI BrushNet:原项目 https://tencentarc.github.io/BrushNet/ ,插件地址 https://github.com/kijai/ComfyUIBrushNetWrapper ,模型下载 https://huggingface.co/Kijai/BrushNetfp16/tree/main 。第一次运行会自动下载需要的模型,如果是用的 ComfyUIBrushNetWrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 到 ComfyUI/models/brushnet,也可手动下载放在这个文件夹里面。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。工作流方面,可配合 mj 出底图,在底图不变的基础上,添加文字或者图片内容。还可以使用 GDinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改。
2024-12-13
我想学习comfyui
以下是关于 ComfyUI 的相关学习信息: 学习资料: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户。网站:https://www.comfyuidoc.com/zh/ 优设网:有详细的入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容。教程地址:https://www.uisdc.com/comfyui3 知乎:有用户分享部署教程和使用说明,适合有一定基础并希望进一步了解的用户。地址:https://zhuanlan.zhihu.com/p/662041596 Bilibili:有一系列涵盖从新手入门到精通阶段的视频教程。地址:https://www.bilibili.com/video/BV14r4y1d7r8/ 自动生成抠图素材: 作者学习使用 ComfyUI 的原因包括更接近 SD 的底层工作原理、自动化工作流、作为强大的可视化后端工具可实现 SD 之外的功能、可根据定制需求开发节点或模块等。 作者的工作室常需要抠图素材,传统途径存在问题,近期在 github 上看到相关项目创建了工作流,可自动生成定制需求的抠图素材,全程只需几秒。 简介: ComfyUI 是基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,通过拆分流程为节点实现精准工作流定制和完善的可复现性。 优势:对显存要求相对较低,启动和出图速度快;生成自由度高;可和 webui 共享环境和模型;能搭建工作流程,导出并分享,报错时能清晰发现错误所在;生成的图片拖进后会还原工作流程并选好模型。 劣势:操作门槛高,需要清晰逻辑;生态没有 webui 多,但有针对 Comfyui 开发的有趣插件。 官方链接:从 github 下载作者部署好环境和依赖的整合包,按照官方文档安装。https://github.com/comfyanonymous/ComfyUI 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-12