Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

相同的参数下,用SD comfyui出图可以和SD webui出图保持图片效果一模一样么?

Answer

理论上,在应用完全相同参数(如 Step、CFG、Seed、prompts)的情况下,SD ComfyUI 出图和 SD WebUI 出图应当能保持图片效果一模一样。但在实际操作中可能会存在一些差异,比如:

  • 提示词的多个条件下,SD 生成的图像可能无法全部满足,这与提示词引导系数有关,该系数关系到出图与文字的相关程度。
  • 不同的模型和配置也可能影响出图效果,例如 SDXL 的大模型分为 base、refiner 以及配套的 VAE 模型,用于调节图片的画面效果和色彩。

需要注意的是,相同参数下要达到完全一致的出图效果并非绝对,还会受到多种因素的综合影响。

Content generated by AI large model, please carefully verify (powered by aily)

References

SD新手:入门图文教程

[title]SD新手:入门图文教程[heading2]三、功能介绍[heading3]文生图最简流程CFG Scale(提示词相关性)图像与你的提示的匹配程度。增加这个值将导致图像更接近你的提示,但它也在一定程度上降低了图像质量。可以用更多的采样步骤来抵消。过高的CFG Scale体现为粗犷的线条和过锐化的图像。一般开到7~11。CFG Scale与采样器之间的关系:生成批次每次生成图像的组数。一次运行生成图像的数量为“批次*批次数量”。每批数量同时生成多少个图像。增加这个值可以提高性能,但也需要更多的显存。大的Batch Size需要消耗巨量显存。若没有超过12G的显存,请保持为1。尺寸指定图像的长宽。出图尺寸太宽时,图中可能会出现多个主体。1024之上的尺寸可能会出现不理想的结果,推荐使用小尺寸分辨率+高清修复(Hires fix)。种子种子决定模型在生成图片时涉及的所有随机性,它初始化了Diffusion算法起点的初始值。理论上,在应用完全相同参数(如Step、CFG、Seed、prompts)的情况下,生产的图片应当完全相同。高清修复通过勾选"Highres.fix"来启用。默认情况下,文生图在高分辨率下会生成非常混沌的图像。如果使用高清修复,会型首先按照指定的尺寸生成一张图片,然后通过放大算法将图片分辨率扩大,以实现高清大图效果。最终尺寸为(原分辨率*缩放系数Upscale by)。

【SD】提示词服从度增强插件,CFG值修复

[title]【SD】提示词服从度增强插件,CFG值修复作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-06-22 20:01原文网址:https://mp.weixin.qq.com/s/bAy1-CydHneam2IDM916XQ在画图的时候,当我们的提示词中有多个条件,sd生成的图像可能无法帮我们全部满足。比如我想要绘制这样一幅图片,关键词是:一个女孩、戴着贝雷帽、绿色夹克、黄色印花裙子,在森林里弹吉他,盲盒风格。使用的大模型是revAnimated,加“blindbox”lora。但是图片生成的时候,我们却发现,夹克变成了黄色,裙子变成了绿色,而且人物的身材比例是接近真实人物的,而不是我们想要的“chibi”盲盒风格。这个情况和我们的一个参数有关,那就是提示词引导系数,它关系到出图与我们文字的相关程度。我们使用“X/Y/Z脚本”来做一个横向对比,测试分别在5/10/15/20/25/30的CFG值下,画面的效果。可以看到,随着CFG值的提高,画面与提示词关联度更高,衣服和裙子的颜色与提示词相符了,但是问题是画面出现了崩坏。那有没有办法可以既增加CFG值,又让画面保持正常呢?答案是可以的,这就需要用到这款插件——dynamic-thresholding安装方式可以在扩展列表中搜索这个插件的名字,或者是将下载好的插件,放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以看到这个插件了。点击打勾,就可以启用生效。

【SD】向未来而生,关于SDXL你要知道事儿

[title]【SD】向未来而生,关于SDXL你要知道事儿[heading1]#本地部署与在线使用[heading2]1.本地部署SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。

Others are asking
人类接收外界信息的感官中,视觉占比高达83%,听觉占11%,其余触觉、嗅觉、味觉合计仅占6%。如何采用用AI画出图示呢
以下为您提供采用 AI 画出关于人类接收外界信息感官占比图示的相关指导: 首先,您可以选择合适的 AI 绘图工具,如 Creately、Whimsical 或 Miro 等。 Creately 是一个在线绘图和协作平台,利用 AI 功能简化图表创建过程,适合绘制流程图、组织图、思维导图等。它具有智能绘图功能,能自动连接和排列图形,还有丰富的模板库和预定义形状,支持实时协作。官网:https://creately.com/ Whimsical 是一个专注于用户体验和快速绘图的工具,适合创建线框图、流程图、思维导图等。其具有直观的用户界面,易于上手,支持拖放操作,快速绘制和修改图表,提供多种协作功能。官网:https://whimsical.com/ Miro 是一个在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制,如思维导图、用户流程图等。它支持无缝协作,支持远程团队实时编辑,有丰富的图表模板和工具,还支持与其他项目管理工具(如 Jira、Trello)集成。官网:https://miro.com/ 使用这些工具绘制图示的一般步骤如下: 1. 选择工具:根据您的具体需求选择合适的 AI 绘图工具。 2. 创建账户:注册并登录该平台。 3. 选择模板:利用平台提供的模板库,选择一个适合您需求的模板。 4. 添加内容:根据您的需求,添加并编辑图形和文字。利用 AI 自动布局功能优化图表布局。 5. 协作和分享:如果需要团队协作,可以邀请团队成员一起编辑。完成后导出并分享图表。
2025-02-28
什么软件可以根据我的要求出图?
以下是一些可以根据您的要求出图的软件: 1. 悠船:从成本和小白理解力的角度来说值得先尝试。新注册有免费的社区福利。下载网址:www.youchuanai.com 。在悠船桌面端进行新用户注册,输入离谱村专用激活码(296976)即可完成注册。 2. Midjourney:出图质量稳定,使用门槛低。普通用户不需要企业也可下载使用。可以登录 Discord(https://discord.com/)网站,打开 Midjourney 服务器出图。通过/imagine 命令输入提示词生成图片。还可以使用 Autojourney 插件批量出图,该插件是电脑浏览器的一个插件,功能强大,可在浏览器拓展程序中下载安装。 3. SD:在细节调节方面理解力较好。 为了达到心中理想的效果,可能需要反复调节和细节调节,不同的图类型、想达到的不同效果和画风,可能需要不同的平台。具体的使用方法群文档里都可以搜。
2025-02-23
能直接输出图片的AI网站
以下是一些能直接输出图片的 AI 网站: 1. Artguru AI Art Generator:在线平台,生成逼真图像,给设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,将上传的照片转换为芭比风格,效果超级好。 5. 无界 AI:一款可以在线 AI 生成图片的网站(类似 SD Online 一键出图版),网址为 https://www.wujieai.cc/ (新用户扫码注册可领取积分)。 此外,还有用于鉴别图片是否为 AI 生成的网站,如 ILLUMINARTY(https://app.illuminarty.ai/)。但需注意,AI 鉴别仍存在一些局限性。
2025-02-07
有图片文字翻译输出图片的应用吗?
目前市面上有一些能够实现图片文字翻译并输出图片的应用。例如,百度翻译、腾讯翻译君等,它们在一定程度上具备这样的功能。但具体的效果可能会因图片的清晰度、文字的复杂程度等因素而有所不同。
2025-01-09
用macbook M3 Pro芯片,comfyUI 跑工作流,结果黑屏,没有输出图像,是为什么呢
很抱歉,目前没有关于使用 Macbook M3 Pro 芯片运行 ComfyUI 工作流出现黑屏且无输出图像的具体原因的相关知识。可能的原因有多种,比如软件与芯片的兼容性问题、显卡驱动异常、工作流设置错误、系统资源不足等。建议您检查软件的版本是否与您的系统兼容,更新显卡驱动,确认工作流的设置是否正确,以及关闭其他占用大量资源的程序以释放系统资源。
2025-01-03
flux和sdXL出图的区别
Flux 和 SDXL 出图主要有以下区别: 1. 生成人物外观:Flux 存在女生脸油光满面、下巴等相同外观问题,而 SDXL 相对在这方面有改进。 2. 模型构成:SDXL 由 base 基础模型和 refiner 优化模型两个模型构成,能更有针对性地优化出图质量;Flux 中 Dev/Schnell 是从专业版中提取出来,导致多样性丧失。 3. 处理方式:在低显存运行时,可采用先使用 Flux 模型进行初始生成,再用 SDXL 放大的分阶段处理方式,有效控制显存使用。 4. 模型参数和分辨率:SDXL 的 base 模型参数数量为 35 亿,refiner 模型参数数量为 66 亿,总容量达 13G 之多,基于 10241024 的图片进行训练,可直接生成 1000 分辨率以上的图片,拥有更清晰的图像和更丰富的细节;而 Flux 在这方面相对较弱。
2024-12-20
如果不是英伟达显卡,可以本地部署SD吗?
如果不是英伟达显卡,一般不建议本地部署 SD。 SD 的安装要求如下: 1. 系统需为 Win10 或 Win11。 2. 查看电脑配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD(Stable Diffusion),需要满足 3 个要求(推荐):电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。 查看电脑运行内存:打开任务管理器(同时按下 ctrl+shift+esc),8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存):4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标可跳转至对应安装教程页: 。 4. 配置不够可选择云端部署(Mac 也推荐云端部署): 。 5. 备选:SD 好难,先试试简单的无界 AI: 。 另外,Fooocus 是 SD 的相关产品,其使用的是最新推出的 SDXL 1.0 模型,对 stable diffusion 和 Midjourney 做了结合升级。Fooocus 本地部署的配置要求为:需要不低于 8GB 的内存和 4GB 的英伟达显卡。Fooocus 介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G) ,使用指南:https://github.com/lllyasviel/Fooocus/discussions/117 ,大模型(base 和 Refiner)默认放在这里:\\Fooocus_win64_1110\\Fooocus\\models\\checkpoints 。 SD 云端部署的流程如下: 1. 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 2. 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 3. 配置环境变量:驱动安装完成后,开始配置环境变量。首先找到驱动安装所在的目录,如果没有特殊设定,一般是在「C:\\Program Files\\NCIDIA Corporation」,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,将刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。
2025-02-27
sd
以下是关于 SD(Stable Diffusion)的相关信息: AIGC 中的 SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion。 在使用 SD 进行图片生成时,如制作专属 AI 二维码,需要下载两个 SD 的 ControlNET 模型和一个预处理器。二维码做好后进入 SD 版块,相关文件需放置在特定路径下。例如,在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”这个路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”这个路径下。同时,在生成过程中,关键词非常重要,还需设置迭代步数、采样和图像大小等参数。 对于不熟悉 SD 的小伙伴,可以查看入门教程:。在 SD 绘画学社中,无论绘画新手还是资深画匠,都能一同探索 SD 绘画的无限可能。
2025-02-18
sd
以下是关于 SD(Stable Diffusion)的相关信息: AIGC 中的 SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion。 在使用 SD 进行图片生成时,如制作专属 AI 二维码,需要下载两个 SD 的 ControlNET 模型和一个预处理器。二维码做好后进入 SD 版块,相关文件需放置在特定路径下。例如,在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”这个路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”这个路径下。同时,在生成过程中,关键词非常重要,还需设置迭代步数、采样和图像大小等参数。 对于不熟悉 SD 的小伙伴,可以查看入门教程:。在 SD 绘画学社中,无论绘画新手还是资深画匠,都能一同探索 SD 绘画的无限可能。
2025-02-18
开源模型的MIT模式、Apache、GPL、BSD模式的模型案例有哪些?
目前开源模型的 MIT 模式、Apache、GPL、BSD 模式的具体案例众多且不断更新。MIT 模式的开源模型如 TensorFlow Lite;Apache 模式的有 MXNet;GPL 模式的像 Gnuplot;BSD 模式的例如 OpenCV 等。但请注意,这只是其中的一部分,实际情况可能会有所变化。
2025-02-14
开源模型的MIT模式、Apache、GPL、BSD模式的定义和区别
MIT 模式:这是一种相对宽松的开源许可模式。允许使用者对软件进行修改、再发布,并且几乎没有限制,只要求在再发布时保留原版权声明和许可声明。 Apache 模式:提供了较为宽松的使用条件,允许修改和再发布代码,但要求在修改后的文件中明确注明修改信息。同时,还包含一些专利相关的条款。 GPL 模式:具有较强的传染性和约束性。如果基于 GPL 许可的代码进行修改和再发布,修改后的代码也必须以 GPL 许可发布,以保证代码的开源性和可共享性。 BSD 模式:也是一种较为宽松的许可模式,允许使用者自由地修改和再发布代码,通常只要求保留原版权声明。 总的来说,这些开源许可模式在对使用者的限制和要求上有所不同,您在选择使用开源模型时,需要根据具体需求和项目情况来确定适合的许可模式。
2025-02-14
可以不学sd而是直接学comfyui
学习 ComfyUI 而不先学习 SD 是可行的。ComfyUI 具有一些独特的优势,例如更接近 SD 的底层工作原理,能够实现自动化工作流以消灭重复性工作,作为强大的可视化后端工具还能实现 SD 之外的功能,如调用 API 等,并且可根据定制需求开发节点或模块。 比如,有人基于 ComfyUI 中的创建了工作流,不仅能用于绿幕素材的抠图,还能自动生成定制需求的抠图素材,全程只需几秒。 在电脑硬件方面,使用 ComfyUI 时,系统要求 Windows7 以上,显卡要求 NVDIA 独立显卡且显存至少 4G 起步,硬盘需留有至少 100G 空间(包括模型)。但 mac 系统、AMD 显卡、低显卡的情况也能安装使用,只是功能不全、出错率偏高,严重影响使用体验,建议升级设备或采用云服务器。
2025-02-08
comfyUI基础教程
以下是 ComfyUI 的基础教程: KSampler(采样器): seed(随机种子):主要用于控制潜空间的初始噪声。若要重复生成相同图片,需使用此随机种子,且种子和 Prompt 都要相同。 control_after_generate(生成后控制):每次生成完图片,seed 数字会变化,此配置项可设置变化规则,包括 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 step(采样步数):一般步数越大效果越好,但与使用的模型和采样器有关。 cfg:值一般设置在 6 8 之间较好。 sampler_name(采样器名称):可通过此设置采样器算法。 scheduler(调度器):主要控制每个步骤中去噪的过程,可选择不同调度算法,有的每步减去相同数量噪声,有的每步尽可能多去噪。 denoise:表示要增加的初始噪声量,1 表示全部。一般文生图可默认设为 1。 此外,ComfyUI 共学快闪的学习内容还包括: 王蓉🍀🎈Wang Easy 的基础搭建和转绘。 唯有葵花向日晴的基础教程、工作流开发和实际应用场景。 热辣 Huolarr AI 系统课私聊图生视频。 咖菲猫咪的基础教程、工作流搭建思路、各版本模型使用的优缺点。 傅小瑶 Lucky 的如何制作多人转绘视频。 云尚的工作流节点搭建思路。 FǎFá 的热门节点功能和搭建。 森林小羊的基本报错解决方式及基础工作流逻辑分析。 苏小蕊的基础教程。 Sophy 的基础课程。 蜂老六装一百个最新常用插件后如何快速解决冲突问题。 阿苏的工作流框架设计。 aflyrt 的 comfyui 节点设计与开发。 老宋&SD 深度解释虚拟环境部署和缺失模型的安装。 Liguo 的模型训练。 啊乐福的基础课程。 塵的优秀案例。 风信的基础课程和平面设计应用场景。 北南的基础课程。 视频工作流框架设计。 Damon 的基础课程。 渔舟的基础课程和工作流搭建思路。 乔木船长的工作流。 ☘️的基础教程。 工作流设计和典型案例剖析。 麒白掌的工作流搭建。 OutSider 的风格迁移。 吴鹏的基础和工作流搭建。 拾光的工作流基础搭建从入门到精通。 茶浅浅的视频转绘和节点工作流介绍。 百废待.新(早睡版)的工作流从入门到进阶。 电商应用场景。
2025-02-28
怎么用comfyUI中的视频IC-light
使用 ComfyUI 中的视频 IClight 的步骤如下: 1. 在管理器中的节点管理中搜索 ComfyUIICLight 进行安装,安装后重启 ComfyUI。 2. 模型可以在网盘里下载,然后放入 ComfyUI/models/unet 文件夹。 3. IC Light 用于处理原视频和新背景之间的光影效果。 4. 辅助工具 ICLight 的打光方式有两种: 文本方式:上传 1 张前景图片,自动抠图,填写详细文本提示词,并在几种给定的光源方向选择。 背景+前景方式:上传 1 张背景图+1 张前景图,自动融合,填写简单文本提示词,并在几种给定的光源方向选择。 需要注意的是,IC Light 处理过的图片可能会颜色发黄偏色,不是处理过的就是好的,有时可能会负优化。另外,在进行背景替换时,不同图片合并要考虑光线、色调、边缘细节等问题。
2025-02-26
comfyui算力平台
以下是关于 ComfyUI 算力平台的相关信息: 揽睿: 属性:云平台 邀请链接:https://lanruiai.com/register?invitation_code=0659 备注:WaytoAGI 邀请码 0659 可以得到 10 小时的免费时长 厚德云: 属性:云平台 邀请链接:https://portal.houdeyun.cn/register?from=Waytoagi 备注:厚德云是专业的 AI 算力云平台,隶属于又拍云旗下,又拍云拥有 15 年云服务经验。注册后送 50 元代金券。ComfyUI 悟空换脸特效使用流程: 百度飞桨: 属性:云平台 邀请链接:https://aistudio.baidu.com/community/app/106043?source=appCenter 备注:新注册 2 个小时。,明天给大家发放 50 小时的算力 阿里云 PAI Artlab: 属性:云平台 邀请链接:直达地址:https://developer.aliyun.com/topic/paisports 备注:登录后领取免费试用,领取 500 元算力、OSS 20G 存储。AI 创作你的奥运专属海报,参与 PK 赢取台式升降桌、Lamy 钢笔套盒、双肩包等大奖!活动地址:https://mp.weixin.qq.com/s/y3Sk5PtVT5g8yFTMJASdFw onethingai: 属性:云平台 邀请链接:https://onethingai.com/invitation?code=dyAK4vY5 以云平台揽睿为例,搭建自己第一个 Comfyui 的方法如下: 1. 进入「应用启动器」页面,选择「comfyui 官方启动器」,点击「部署」按钮,点击「立即创建」,会进入「工作空间」页面。 2. 创建完成后稍等片刻,无需其他任何操作,等待「打开应用」按钮可点击后,点击该按钮就可以打开 comfyui 界面使用啦。 3. 启动/出图/训练进度可进入工作空间详情 日志查看。
2025-02-25
comfyui算力
以下是一些关于 ComfyUI 算力的相关信息: 云平台: 揽睿:云平台,邀请链接为 https://lanruiai.com/register?invitation_code=0659 ,WaytoAGI 邀请码 0659 可以得到 10 小时的免费时长。 百度飞桨:云平台,邀请链接为 https://aistudio.baidu.com/community/app/106043?source=appCenter ,新注册 2 个小时。点这里登记一下 https://waytoagi.feishu.cn/share/base/form/shrcnYyxqAWdsFq5qBso8mDsOjg?iframeFrom=docx&ccm_open=iframe ,明天给大家发放 50 小时的算力。 阿里云 PAI Artlab:云平台,直达地址为 https://x.sm.cn/5hd9PfM ,登录后右上角领取免费试用,领取 500 元算力、OSS 20G 存储。AI 创作你的奥运专属海报,参与 PK 赢取台式升降桌、Lamy 钢笔套盒、双肩包等大奖!活动地址:https://mp.weixin.qq.com/s/y3Sk5PtVT5g8yFTMJASdFw 。 onethingai:邀请链接为 https://onethingai.com/invitation?code=dyAK4vY5 。 以云平台揽睿为例,搭建 ComfyUI 的步骤: 1. 进入「应用启动器」页面,选择「comfyui 官方启动器」,点击「部署」按钮,点击「立即创建」,会进入「工作空间」页面。 2. 创建完成后稍等片刻,无需其他任何操作,等待「打开应用」按钮可点击后,点击该按钮就可以打开 comfyui 界面使用啦。 3. 启动/出图/训练进度可进入工作空间详情 日志查看。
2025-02-25
ComfyUI教程
以下是一些关于 ComfyUI 的教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到。 4. Bilibili:提供了从新手入门到精通各个阶段的视频教程,可在查看。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中关于 KSampler 的部分: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:一般设置在 6 8 之间较好。 5. sampler_name:可通过此设置采样器算法。 6. scheduler:控制每个步骤中去噪的过程,可选择不同的调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2025-02-20
ComfyUI中的放大插件
ComfyUI 中的放大插件相关知识如下: 通过使用神经网络对潜在空间进行放大,无需使用 VAE 进行解码和编码,此方法比传统方式快很多且质量损失小。插件项目地址:https://github.com/Ttl/ComfyUi_NNLatentUpscale?tab=readmeovfile 。潜在表示是神经网络处理图像时生成的压缩版本,包含图像主要特征信息,处理潜在表示更快且资源消耗更少。其流程包括生成潜在表示(生成低分辨率图像)、放大潜在表示、生成高分辨率图像(将放大的潜在图像反馈到稳定扩散 UNet 中进行低噪声扩散处理)。UNet 是一种常用于图像处理的特别神经网络结构,包括编码部分(逐步缩小图像提取重要特征)、解码部分(逐步放大图像并重新组合)和跳跃连接(保留细节信息),能在放大图像时保持细节和准确性。 8 月 13 日的 ComfyUI 共学中,讨论了图像生成中分辨率和放大方式。不同模型有适合的分辨率,如 SD1.5 通用尺寸为 512×512 或 512×768,SDXL 基础尺寸为 1024×1024,生成图像前要选对尺寸。通过浅空间缩放放大图像时,直接对浅空间图片编辑放大,然后进行第二次采样和高清处理,直接放大不解码会模糊,需用较低采样系数增加细节。也可使用外置放大模型放大图像,默认放大 4 倍,可通过 resize image 节点调整尺寸,放大后要送回编码器进行采样处理。还提到图像对比节点、算力和资源获取、AI 绘图相关技术与工具、CLIP 和 CFG 的区别、搭建带 Lora 的图生图工作流等内容。 Comfyui PuLID 人物一致节点相关:节点插件 PuLID ComfyUI https://github.com/cubiq/PuLID_ComfyUI 。包括 model(使用预训练的基础文本到图像扩散模型)、pulid(加载的 PuLID 模型权重)、eva_clip(用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型)、face_analysis(使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部)、image(提供的参考图像用于插入特定 ID)、method(选择 ID 插入方法)、weight(控制 ID 插入强度)、start_at 和 end_at(控制在去噪步骤的应用阶段)、attn_mask(可选的灰度掩码图像),还有高级节点可进行更精细的生成调优。
2025-02-20
RuntimeError: Couldn't clone Stable Diffusion. Command: "git" clone --config core.filemode=false "https://github.com/Stability-AI/stablediffusion.git" "/Users/lichenhui/stable-diffusion-webui/repositories/stable-diffusion-stability-ai" Error code: 12
以下是关于您遇到的“RuntimeError: Couldn't clone Stable Diffusion”错误的分析和解决建议: 这个错误通常表示在克隆 Stable Diffusion 时出现问题。可能的原因包括: 1. 库的某些文件或依赖项已更改或已移除,导致无法找到所需的提交。 2. Git 存储库的状态不正确。 3. 网络连接存在问题。 解决方法如下: 1. 尝试清除本地库并重新克隆 Stable Diffusion,然后再次运行代码。 2. 运行以下命令来检查网络连接:ping files.pythonhosted.org
2025-02-12
我有一张图像,我要如何用stable Diffusion给它添加噪音。我是一个小白,请给出详细的步骤,用webui来操作。
以下是使用 WebUI 为图像添加噪音的详细步骤: 1. 首先,了解 Stable Diffusion 的加噪原理。从数据集中选择一张干净样本,然后用 random 函数生成 0 3 共 4 种强度的噪声,在每次迭代中随机选择一种强度的噪声添加到干净图片上,完成图片的加噪流程。 2. 在训练过程中,对干净样本进行加噪处理,采用多次逐步增加噪声的方式,直至干净样本转变成为纯噪声。 3. 加噪过程中,每次增加的噪声量级可以不同,假设存在 5 种噪声量级,每次都可以选取一种量级的噪声,以增加噪声的多样性。 4. 与图片生成图片的过程相比,在预处理阶段,先把噪声添加到隐空间特征中。通过设置去噪强度(Denoising strength)控制加入噪音的量。如果去噪强度为 0 ,则不添加噪音;如果为 1 ,则添加最大数量的噪声,使潜像成为一个完整的随机张量。若将去噪强度设置为 1 ,就完全相当于文本转图像,因为初始潜像完全是随机的噪声。
2024-11-18
stablediffusion在线webui如何开发
开发 Stable Diffusion 在线 Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。尝试生成图像,观察不同参数对结果的影响。学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。学习如何导入自定义模型、VAE、embedding 等文件。掌握图像管理、任务管理等技巧,提高工作效率。 在完成了依赖库和 repositories 插件的安装后,还需要进行以下配置: 将 Stable Diffusion 模型放到/stablediffusionwebui/models/Stablediffusion/路径下。然后到/stablediffusionwebui/路径下,运行 launch.py 即可。运行完成后,将命令行中出现的输入到本地网页中,即可打开 Stable Diffusion WebUI 可视化界面。进入界面后,在红色框中选择 SD 模型,在黄色框中输入 Prompt 和负向提示词,在绿色框中设置生成的图像分辨率(推荐设置成 768x768),然后点击 Generate 按钮进行 AI 绘画。生成的图像会展示在界面右下角,并保存到/stablediffusionwebui/outputs/txt2imgimages/路径下。 如果选用 Stable Diffusion 作为 AIGC 后台,需要注意: DallE 缺乏室内设计能力,MidJourney 出图效果好但无法基于现实环境重绘,Stable Diffusion 出图成功率较低,但可调用 controlnet 的 MLSD 插件捕捉现实环境线条特征做二次设计。安装 Stable Diffusion WEB UI 后,修改 webuiuser.bat 文件加上 listen 和 API 参数,让 Stable Diffusion 处于网络服务状态。代码如下: @echo off set PYTHON= set GIT= set VENV_DIR= set COMMANDLINE_ARGS=xformers nohalfvae listen api git pull call webui.bat 让 Stable Diffusion 具有 AI 室内设计能力的步骤: 1. 下载室内设计模型(checkpoint 类型),放到 stable diffusion 目录/models/stablediffusion 下面。 2. 安装 controlnet 插件,使用 MLSD 插件,实现空间学习。 通过 API 方式让前端连接到 Stable Diffusion 后台的具体代码在前端开发详细展开,API 参考文档可选读。
2024-11-01
webui可以用FLUX模型吗
WebUI 可以使用 FLUX 模型。以下是相关的下载和使用信息: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 下载 dev 的工作流: 或者官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。 郑敏轩的 Flux 的 controlnet 系列中 TheMisto.ai 的 MistoLine 版: 注意:该 ControlNet 与 Flux1.dev 的 fp16/fp8 以及使用 Flux1.dev 量化的其他模型兼容。 需要节点(可以 git clone 方式下载或通过以下网盘): 夸克网盘:链接:https://pan.quark.cn/s/ad43dd5152a6 。 百度网盘:链接:https://pan.baidu.com/s/1NcOdG4AV68xTup8FvphsYA?pwd=lpvc 提取码:lpvc 。 模型: 夸克网盘:链接:https://pan.quark.cn/s/5551e813db21 。 百度网盘:链接:https://pan.baidu.com/s/1Ntf4MbTCGJ5TYDv6mgvqNQ?pwd=zhfq 提取码:zhfq 。 处理:将模型放到 ComfyUI\\models\\TheMisto_model 文件夹中。 导入官方工作流 。所需要的两个模型:
2024-10-25
webui可以用FLUX模型吗
WebUI 可以使用 FLUX 模型。以下是相关的下载和使用信息: ae.safetensors 和 flux1dev.safetensors 的下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 dev 的工作流: 官方原版的图片链接:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI ,把工作流或图片拖拽到 ComfyUI 里。 郑敏轩的 Flux 的 controlnet 系列: TheMisto.ai 的 MistoLine 版,该 ControlNet 与 Flux1.dev 的 fp16/fp8 以及使用 Flux1.dev 量化的其他模型兼容。 节点: 可以 git clone 方式下载或通过压缩包。 夸克网盘:链接:https://pan.quark.cn/s/ad43dd5152a6 百度网盘:链接:https://pan.baidu.com/s/1NcOdG4AV68xTup8FvphsYA?pwd=lpvc 提取码:lpvc 模型: 夸克网盘:链接:https://pan.quark.cn/s/5551e813db21 百度网盘:链接:https://pan.baidu.com/s/1Ntf4MbTCGJ5TYDv6mgvqNQ?pwd=zhfq 提取码:zhfq 处理:将模型放到 ComfyUI\\models\\TheMisto_model 文件夹中。 导入官方工作流: ,所需要的两个模型。
2024-10-25
Flux 的lora模型训练教程,我想用用diffuser代码训练,而不是webui或comfyui
以下是关于 Flux 的 lora 模型训练的相关信息: Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:https://github.com/city96/ComfyUIGGUF 在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件搜不到。 注意使用精度优化的低配模型时,工作流和原版不同。把官方的 fp8 工作流中底模的节点换成 NF4 或者 GUFF 即可。 相关生态发展迅速,有 Lora、Controlnet、IPadpter 相关生态建设,字节最近发布的 Flux Hyper lora 可用于 8 步快速生图。下节将先讲讲 Flux 的 lora 训练。
2024-09-05