Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui workflow

Answer

ComfyUI 的工作流主要包括以下内容:

  • 低显存运行工作流:目的是让 FLUX 模型能在较低显存情况下运行。分阶段处理思路为,先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存使用,最后使用 SD 放大提升图片质量。工作流流程包括初始图像生成(Flux)阶段的 UNETLoader 加载 flux1-dev.sft 模型、DualCLIPLoader 加载 t5xxl 和 clip_l 模型、VAELoader 加载 flux-ae.sft 等步骤,以及图像放大和细化(SDXL)阶段的 CheckpointLoaderSimple 加载 SDXL 模型、UpscaleModelLoader 加载 RealESRGAN_x4.pth 用于放大等步骤。
  • 工作流相关网站:
    • Openart.ai:流量较高,支持上传、下载、在线生成,免费账户有 50 个积分,加入 Discord 可再加 100 积分,开通最低每月 6 美元套餐后每月有 5000 积分。
    • ComfyWorkflows 网站:支持在线运行工作流,实际下载量和访问量略少于 openart。
    • Flowt.ai:https://flowt.ai/community
  • 提示词自动生成 ComfyUI 工作流:英伟达整了个花活,通过画图提示词自动生成匹配的 ComfyUI 工作流,命名为 ComfyGen(comfy 生成器),目前仅支持文生图模型。英伟达称其可以生成高质量的图并泛化到其他领域,做了对比测试,效果基本一致甚至更符合人类对提示词的判断和理解,与 C 站上人类写的提示词对比效果略胜一筹,但项目未开源。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI FLUX低显存运行

这个方法的目的是让FLUX模型能在较低的显存情况下也能运行.分阶段处理的思路:1.使用Flux模型进行初始生成,在较低分辨率下工作以提高效率2.采用两阶段处理:先用Flux生成,后用SDXL放大,效控制显存的使用3.使用SD放大提升图片质量工作流的流程:初始图像生成(Flux):UNETLoader:加载flux1-dev.sft模型DualCLIPLoader:加载t5xxl和clip_l模型VAELoader:加载flux-ae.sftCLIPTextEncode:处理输入提示词BasicGuider和RandomNoise:生成初始噪声和引导SamplerCustomAdvanced:使用Flux模型生成初始图像VAEDecode:解码生成的潜在图像初始图像预览:PreviewImage:显示Flux生成的初始图像图像放大和细化(SDXL):CheckpointLoaderSimple:加载SDXL模型(fenrisxl_SDXLLightning.safetensors)UpscaleModelLoader:加载RealESRGAN_x4.pth用于放大VAELoader:加载sdxl_vae.safetensorsImageSharpen:对初始图像进行锐化处理UltimateSDUpscale:使用SDXL模型和放大模型进行最终的放大和细化最终图像预览:PreviewImage:显示最终放大和细化后的图像

ComfyUI工作流网站

Workflow是ComfyUI的精髓。所谓Workflow工作流,在ComfyUI这里就是它的节点结构及数据流运转过程。[heading2]推荐工作流网站[heading3]“老牌”workflow网站Openart.ai[content]https://openart.ai/workflows/流量比较高,支持上传、下载、在线生成,免费账户总共有50个积分,加入Discord可以再加100积分,开通最低的每个月6美元的套餐后,每个月会有5000积分。[heading3]ComfyWorkflows网站[content]https://comfyworkflows.com/cloud支持在线运行工作流,从workflow的实际下载量和访问量来看,略少于openart。[heading3]Flowt.ai[content]https://flowt.ai/community

提示词自动生成 ComfyUI 工作流来了! (英伟达整花活, 把 ComfyUI 的门槛打下来!

在多次社区的ComfyUI共学中发现,ComfyUI工作流的门槛确实过高。让很多人理解“潜空间”,“Vae”,“LoRA”,“controlnet”等一系列概念非常困难,更别说基于理解做一个工作流了。这次英伟达整了个花活,让大家看到了打破这个门槛的可能性:🌈通过画图提示词,自动生成匹配的ComfyUI工作流!英伟达将其命名为ComfyGen(comfy生成器)!当然目前仅支持文生图模型。在英伟达发布的内容中,他们称:“ComfyGen可以生成高质量的图并泛化到其他领域(如下图)。”并且他们很自豪的宣称:“下图这么优秀的图,完全是ComfyGen基于SDXL规模的模型画的,还没有用flux呢!”当然,作为学术性研究论文,肯定不会很草率的下结论。英伟达团队做了对比测试:下图中分别为1)SDXL原生2)两个微调模型(用过的同学会很熟悉3)两个人搭的工作流4)两个不同的comfyGen制作的图(后文原理部分中会说明这两者的区别)可以看到效果基本一致,甚至确实更符合人类对提示词的判断和理解。同时他们还做了和C站上人类写的提示词作对比:很显然,ComfyGen的效果略胜一筹。不过由于项目未开源,无法体验实际效果。但是如果真的效果如英伟达发布所说,那是相当惊艳了。

Others are asking
如何学习comfyui
以下是关于学习 ComfyUI 的相关内容: 学习资料网站: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,网站为 https://www.comfyuidoc.com/zh/ 。 优设网:有详细的入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,地址为 https://www.uisdc.com/comfyui3 。 知乎:有用户分享部署教程和使用说明,适合有一定基础并希望进一步了解的用户,地址为 https://zhuanlan.zhihu.com/p/662041596 。 Bilibili:有一系列涵盖从新手入门到精通各个阶段的视频教程,地址为 https://www.bilibili.com/video/BV14r4y1d7r8/ 。 飞书学习群的共学内容:包括王蓉的基础搭建和转绘、唯有葵花向日晴的基础教程、工作流开发和实际应用场景等众多成员分享的基础教程、工作流搭建思路、各版本模型使用的优缺点、报错解决方式、模型训练等方面的内容。 学习 ComfyUI 的原因: 更接近 SD 的底层工作原理。 实现自动化工作流,消灭重复性工作。 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 api 等。 可根据定制需求开发节点或模块。 例如,有人为解决工作室抠图素材需求,基于相关项目创建了工作流,不仅能用于绿幕素材抠图,还能自动生成定制需求的抠图素材。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-29
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
comfyui能做广告平面设计吗
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI。它具有一些优势,如对显存要求相对较低、启动和出图速度快、生成自由度更高、可与 webui 共享环境和模型、能搭建自己的工作流程并导出分享、拖入生成的图片会还原工作流程且自动选择模型等;但也存在操作门槛高、生态不如 webui 丰富等劣势。 ComfyUI 可以应用于多种场景,包括但不限于解决日常工作中的大部分平面设计需求、生成各种类型的图像(如风景画、肖像画、概念艺术等)、用于电商、自媒体、副业等领域的图片生成和视频创作等。 如果您想在本地安装 ComfyUI,需要按照一定的命令行安装步骤进行操作,在完成安装后还需要下载关键的模型才能运行 Stable DIffusion 生图。 综上所述,ComfyUI 能够用于广告平面设计,但需要考虑其操作门槛较高的特点。
2025-03-28
comfyui能做什么
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,具有以下特点和功能: 简介:可以将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优势: 对显存要求相对较低,启动和出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,能导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 。 应用场景: 建筑设计师兼职做 copy UI 生态建设。 作为强大的可视化后端工具,实现 SD 之外的功能,如调用 api 等。 工作室用于生成抠图素材,如绿幕素材的抠图,还能自动生成定制需求的抠图素材。 有人学习使用 ComfyUI 是因为它更接近 SD 的底层工作原理,能实现自动化工作流,消灭重复性工作,还可根据定制需求开发节点或模块。
2025-03-28
comfyui视频
以下是关于 ComfyUI 视频的相关信息: ComfyUI 视频背景替换工作流: 背景部分,可以是图片或者视频,为了有前后的视觉效果,加了图像的模糊,让生成的视频有种景深的效果。 前景与背景的初步融合:图像遮罩复合用于将前景精确地与新背景合并,图像混合可微调和平滑化、协调颜色、增强细节、提供灵活性。 爆肝博主 ZHO 的更新记录: 4 月 28 日:ComfyUI 之旅一周年。 4 月 16 日:做了换钻石镜头在 ComfyUI 中的实现,包括模型选择、提示词完善、重绘、视频生成等。还提到了 cubiq IPAdapter ComfyUI 视频上新,线稿上色和风格迁移。 4 月 15 日:Mira 迈向 Sora 般的长视频生成的一小步,以及 Adobe 上了 premiere pro,日语版 GPT4 等。 关于 ComfyUI 的学习资料: ComfyUI 官方文档:提供使用手册和安装指南,网址:https://www.comfyuidoc.com/zh/ 。 优设网:有详细的入门教程,网址:https://www.uisdc.com/comfyui3 。 知乎:有用户分享部署教程和使用说明,网址:https://zhuanlan.zhihu.com/p/662041596 。 Bilibili:有一系列涵盖新手入门到精通阶段的视频教程,网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-28
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装步骤: 地址:https://github.com/comfyanonymous/ComfyUI 。 可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,https://github.com/comfyanonymous/ComfyUI ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-03-28
什么是agent?什么是workflow?他们的区别和界限
智能体(Agent)和工作流(Workflow)的定义及区别如下: 智能体(Agent): 可以有多种定义。一些客户将其定义为能够长期独立运行的全自动系统,可使用各种工具完成复杂任务。 在 Anthropic 中,智能体是由 LLM 动态指导自身流程和工具使用的系统,能够自主控制任务完成方式。 工作流(Workflow): 是通过预定义代码路径来编排 LLM 和工具的系统。 每个组块可以看成是一个函数,其中混杂了传统函数、调用第三方服务的函数和基于 LLM 的函数。 总的来说,智能体更强调 LLM 对自身流程和工具使用的动态指导和自主控制,而工作流则更侧重于通过预定义的代码路径来编排 LLM 和工具。
2025-03-21
AI Agent和Agentic Workflow的区别
AI Agent 和 Agentic Workflow 存在以下区别: AI Agent: 基本框架:由“LLM + 规划 + 记忆 + 工具使用”构成,大模型 LLM 充当“大脑”。 规划方面:包括子目标分解、反思与改进,将大型任务分解为较小可管理的子目标,能对过去行动进行自我批评和反思,从错误中学习并改进未来步骤。 记忆方面:用于存储和调用相关信息。 Agentic Workflow: 驱动角色工作流变革:使用多智能体协作的方法,让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。 涉及人机协同关系:生成式 AI 的人机协同分为嵌入式、副驾驶、智能代理 3 种产品设计模式,在不同模式下,人与 AI 的协作流程有所差异。 重塑获取信息的方式:如搜索引擎和基于大模型的聊天机器人在获取信息上目标一致,ChatGPT 的出现被认为将对传统搜索引擎带来颠覆。 包含多种设计模式:如反思、工具使用、规划、多智能体协同等。反思是让 Agent 审视和修正自己生成的输出;工具使用指 LLM 生成代码、调用 API 等工具进行操作;规划是让 Agent 分解复杂任务并按计划执行;多智能体协同是多个 Agent 扮演不同角色合作完成任务。
2025-03-19
agent和workflow的区别
智能体(Agent)和工作流(Workflow)的区别主要体现在以下几个方面: 1. 定义和功能: 智能体是由 LLM 动态指导自身流程和工具使用的系统,能够自主控制任务完成方式。 工作流是通过预定义代码路径来编排 LLM 和工具的系统。 2. 运行方式: 智能体可以长期独立运行,是全自动的系统,能使用各种工具完成复杂任务。 工作流中的子任务是人为编排的,属于手动编排。 3. 组成和特点: 工作流中的每个组块可以看成是一个函数,包括传统函数、调用第三方服务的函数和基于 LLM 的函数。由这三类函数组合而成的工作流被称为超函数,它不同于传统函数,形式上是用自然语言编写的程序,功能上可以模拟人的高阶思维。 智能体在架构上与工作流有所区分,其更强调自主性和动态性。 在实际应用中,工作流的灵活性和可控性能够将智能体能力的天花板往上顶一大截,例如可以在流程中加入人类 Knowhow、进行专家测试试跑、引入图的概念灵活组织节点等。评价一个 Agent 平台好不好用,可以从基座模型的 function calling 能力、workflow 的灵活性以及平台创作者的 workflow 编写水平等方面考量。
2025-03-12
关于workflow有什么著名的论文
以下是一些关于 workflow 的著名论文或相关内容: 1. 5 月 9 日艾木分享的《Workflow》,其中包含关于 workflow 的理论探讨、对 AGI 的正确理解与思考、如何客观看待大语言模型的基础表现、人工智能在编程领域的应用及挑战、从提示词工程到 flow 工程:AI 在代码生成领域的研究与应用、人工智能在开源项目测试集中的表现与工作流的重要性、关于 workflow 的介绍与案例演示等内容。 2. 艾木的《如何用 Coze 制作一个信息检索 Bot(含 Workflow 的基础用法)》,提到 Coze 的 Workflow 为制作 Agents/Bots 提供很大的灵活性和便捷性,对 Workflow 中的函数进行了分类,并提出了超函数(Hyperfuction)的概念。 3. 2024 年 8 月 20 日的更新中,有《[AI Agent 产品经理血泪史(二)欲知方圆,则必规矩【Workflow 篇】》,聚焦于工作流(Workflow)在 AI 智能体中的重要性,回顾了集成平台的演变,探讨了工作流在自动化和手动编排中的应用以及如何提升灵活性以应对不断变化的需求。 4. 还有《[张梦飞:【全网最细】从 LLM 大语言模型、知识库到微信机器人的全本地部署教程》和《[ComfyUI 工作流:黑猴子悟空换脸报错解决大法》等相关内容。
2024-12-18
workflow使用指南
使用工作流的指南如下: 1. 创建工作流。 2. 配置工作流: 通过拖拽的方式将节点添加到画布内,并按照任务执行顺序连接节点。 工作流提供了基础节点供使用,还可以添加插件节点来执行特定任务。具体操作如下: 在左侧面板中选择要使用的节点。 将节点拖拽到画布中,并与其他节点相连接。 配置节点的输入输出参数。 3. 测试并发布工作流。 4. 在 Bot 内使用工作流: 前往当前团队的 Bots 页面,选择进入指定 Bot。 在 Bots 编排页面的工作流区域,单击右侧的加号图标。 在添加工作流对话框,在“我创建的”页面选择自建的工作流。 在 Bot 的人设与回复逻辑区域,引用工作流的名称来调用工作流。
2024-09-23
How Al Agentic workflows could drive more Al progress than even the next generation of foundation models
以下是关于您提出的“ How Al Agentic workflows could drive more Al progress than even the next generation of foundation models ”问题的相关信息: 吴恩达认为人工智能代理工作流程将在今年推动人工智能的巨大进步,甚至可能超过下一代基础模型。构建代理的设计模式框架包括反思、工具使用、规划和多代理协作。反思是指 LLMs 审视自身工作并提出改进方法;工具使用是指赋予 LLMs 如网络搜索、代码执行等工具以帮助其收集信息、采取行动或处理数据;规划是指 LLMs 制定并执行多步骤计划以实现目标;多代理协作则涉及多个 AI 代理共同工作,通过分工、讨论和辩论来提出比单个代理更好的解决方案。这些设计模式为构建高效的 AI 代理提供了指导,并将在下周进一步详细阐述并提供相关阅读建议。 此外,在医疗保健领域,为了产生真正的改变,AI 需要像我们一样学习。必须让这些专家 AI 接触到顶级从业人员的多样化视角,以避免复制危险的偏见。鉴于人工智能依赖的神经网络基础,这些专家 AI 可能通过元学习(或学会学习)比我们预期的更快地获得知识,并带着我们人类一同进步。 在 AI 进化方面,CNN 的结构基于两类细胞的级联模型,主要用于模式识别任务,在计算上比大多数其他架构更有效、更快速,在许多应用中,包括自然语言处理和图像识别,已经被用来击败大多数其他算法。我们每次对大脑的工作机制的认知多一点,神经网络的算法和模型也会前进一步。
2024-09-02