直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

相同的参数下,用SD comfyui出图可以和SD webui出图保持图片效果一模一样么?

回答

理论上,在应用完全相同参数(如 Step、CFG、Seed、prompts)的情况下,SD ComfyUI 出图和 SD WebUI 出图应当能保持图片效果一模一样。但在实际操作中可能会存在一些差异,比如:

  • 提示词的多个条件下,SD 生成的图像可能无法全部满足,这与提示词引导系数有关,该系数关系到出图与文字的相关程度。
  • 不同的模型和配置也可能影响出图效果,例如 SDXL 的大模型分为 base、refiner 以及配套的 VAE 模型,用于调节图片的画面效果和色彩。

需要注意的是,相同参数下要达到完全一致的出图效果并非绝对,还会受到多种因素的综合影响。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

SD新手:入门图文教程

[title]SD新手:入门图文教程[heading2]三、功能介绍[heading3]文生图最简流程CFG Scale(提示词相关性)图像与你的提示的匹配程度。增加这个值将导致图像更接近你的提示,但它也在一定程度上降低了图像质量。可以用更多的采样步骤来抵消。过高的CFG Scale体现为粗犷的线条和过锐化的图像。一般开到7~11。CFG Scale与采样器之间的关系:生成批次每次生成图像的组数。一次运行生成图像的数量为“批次*批次数量”。每批数量同时生成多少个图像。增加这个值可以提高性能,但也需要更多的显存。大的Batch Size需要消耗巨量显存。若没有超过12G的显存,请保持为1。尺寸指定图像的长宽。出图尺寸太宽时,图中可能会出现多个主体。1024之上的尺寸可能会出现不理想的结果,推荐使用小尺寸分辨率+高清修复(Hires fix)。种子种子决定模型在生成图片时涉及的所有随机性,它初始化了Diffusion算法起点的初始值。理论上,在应用完全相同参数(如Step、CFG、Seed、prompts)的情况下,生产的图片应当完全相同。高清修复通过勾选"Highres.fix"来启用。默认情况下,文生图在高分辨率下会生成非常混沌的图像。如果使用高清修复,会型首先按照指定的尺寸生成一张图片,然后通过放大算法将图片分辨率扩大,以实现高清大图效果。最终尺寸为(原分辨率*缩放系数Upscale by)。

【SD】提示词服从度增强插件,CFG值修复

[title]【SD】提示词服从度增强插件,CFG值修复作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-06-22 20:01原文网址:https://mp.weixin.qq.com/s/bAy1-CydHneam2IDM916XQ在画图的时候,当我们的提示词中有多个条件,sd生成的图像可能无法帮我们全部满足。比如我想要绘制这样一幅图片,关键词是:一个女孩、戴着贝雷帽、绿色夹克、黄色印花裙子,在森林里弹吉他,盲盒风格。使用的大模型是revAnimated,加“blindbox”lora。但是图片生成的时候,我们却发现,夹克变成了黄色,裙子变成了绿色,而且人物的身材比例是接近真实人物的,而不是我们想要的“chibi”盲盒风格。这个情况和我们的一个参数有关,那就是提示词引导系数,它关系到出图与我们文字的相关程度。我们使用“X/Y/Z脚本”来做一个横向对比,测试分别在5/10/15/20/25/30的CFG值下,画面的效果。可以看到,随着CFG值的提高,画面与提示词关联度更高,衣服和裙子的颜色与提示词相符了,但是问题是画面出现了崩坏。那有没有办法可以既增加CFG值,又让画面保持正常呢?答案是可以的,这就需要用到这款插件——dynamic-thresholding安装方式可以在扩展列表中搜索这个插件的名字,或者是将下载好的插件,放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以看到这个插件了。点击打勾,就可以启用生效。

【SD】向未来而生,关于SDXL你要知道事儿

[title]【SD】向未来而生,关于SDXL你要知道事儿[heading1]#本地部署与在线使用[heading2]1.本地部署SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。

其他人在问
AI 出图合成技巧
以下是一些 AI 出图合成的技巧: 方法 1(SD 出图 + AI 视频软件): 在 SD 的 controlnet 中上传原图,选择深度,通过文生图生成图片,然后将生成好的图放在 AI 视频工具中进行视频生成。相关网站:dreamina:https://dreamina.jianying.com/aitool/video/generate 方法 2(MJ 出图 + AI 视频软件): 使用 Midjourney 垫图加上描述出图,再去视频工具中转成视频。可在下载项里的深度图,打开 MJ 官网(https://www.midjourney.com/)上传深度图。局部重绘有一定难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,然后合成,拼在一起再交给 MJ。各种垫图局部重绘也能无中生有。
2024-09-12
SD和MJ出图的效果怎么样?
SD(Stable Diffusion)和 MJ(Midjourney)出图效果各有特点: 初步生成方面:DALLE 3 具有强大的文本识别能力,能快速生成符合意图的画面;MJ 则通过垫图功能(Sref 和iw 组合)确保图像风格一致。 图像优化方面:对于 DALLE 3 和 MJ 跑不出来的图,SD 可用于图像的细节处理,尤其是局部重绘,如调整人物手部细节。 角色原画设计方面:相较于 SD,MJ 能生成更多样、更具设计感的角色设计,不受制于特定模型风格。使用 Midjourney + Stable Diffusion 混合模式进行原画设计,有两到三次的 Prompt 调整空间,能运用 SD Controlnet 的各种功能对设计细节进行更多更细致的调节,可产出更合理的结构、更丰富的细节,效率极高,在合适条件下一个完整方案产出示例不超过十五分钟,还能极大避免 Midjourney 可能造成的版权争议和信息泄露风险。 模型表现方面:在 UI 设计的图标类型中,SDXL 的训练素材可能较久远,表现不如 MJ。Stability AI 称 SDXL 能识字,能还原文字内容,但字形和图像效果不如 MJ。您可以在使用 SDXL 的 API 构建内容。
2024-08-19
我想利用AI创作出图片视频在抖音变现我应该怎么做?
利用AI创作图片和视频在抖音变现是一个多步骤的过程,涉及到内容创作、账号运营和商业变现等方面。以下是一些基本步骤和建议: 1. 确定内容方向: 确定你想要创作的内容类型,比如教学、娱乐、生活记录、产品展示等。 2. 学习和研究: 学习AI创作的基础知识,研究抖音平台的内容规则和用户偏好。 3. 选择AI创作工具: 选择适合你需求的AI创作工具,如图像生成工具(DALLE、Stable Diffusion等)和视频编辑工具(Adobe系列、Filmora等)。 4. 内容创作: 使用AI工具创作图片和视频内容。确保内容具有创意、高质量,并且符合抖音用户的口味。 5. 内容编辑和优化: 对生成的内容进行编辑和优化,确保画面美观、剪辑流畅,并符合抖音的格式要求。 6. 添加字幕和特效: 利用AI工具或抖音内置功能为视频添加字幕和特效,提高视频吸引力。 7. 制定发布计划: 制定合理的发布计划,保持定期更新,以吸引和维持粉丝。 8. 互动与社区建设: 在抖音上与粉丝互动,回复评论,参与挑战和话题,建立社区。 9. 分析数据: 分析视频数据,了解哪些类型的内容更受欢迎,根据数据调整创作策略。 10. 变现策略: 利用抖音的变现工具,如商品橱窗、广告植入、直播带货、参与抖音的变现计划等。 11. 合作与推广: 寻找品牌合作机会,参与抖音的推广活动,扩大你的影响力。 12. 遵守规则: 遵守抖音和相关法律法规,确保内容不侵权、不违规。 13. 持续学习和改进: 持续学习最新的AI创作技巧和抖音运营策略,不断改进你的内容和运营方式。 14. 注意版权问题: 确保使用的素材、音乐等不侵犯他人的版权。 15. 建立个人品牌: 在抖音上建立个人品牌,提高自己的知名度和影响力。 通过上述步骤,你可以利用AI创作图片和视频在抖音上进行内容创作和变现。记住,内容的质量和创意是吸引观众的关键,而持续的学习和改进则是长期成功的重要因素。
2024-07-26
用别人的模型出图商用 会侵权吗
使用别人的模型出图商用是否侵权,需要根据具体情况来判断。 以腾讯混元大模型为例,其适用场景包括给自己或身边人做头像、公众号和媒体版面排版时的文字配图、制作海报、PPT 的素材以及广告配图等。但需要注意的是,腾讯混元大模型并不主张生成图片的版权,且原素材涉及到的版权风险可能存在争议。比如,如果用混元生成了某个 IP 如皮卡丘、米奇老鼠等,或者某个名人的真人脸,都可能存在侵权风险。建议在使用配图过程中尽量避免此类情况。如果最终使用了腾讯混元大模型生成的图片,应注明“由腾讯混元大模型生成”。 从全国首例 AI 生成图片著作权案例解读来看,软件设计者通过设计算法训练出智能模型,对模型设计投入了智力成果。但图片是由创作者根据个人意愿,选取提示词、修改参数等步骤得出的最终成品,著作权属于人类创作者。尽管 AI 是工具,但法院强调著作权仍然属于人类创作者,保护了人类在知识产权领域的权益。 根据《中华人民共和国著作权法》第十一条规定,著作权属于作者,创作作品的自然人是作者。由法人或者非法人组织主持,代表法人或者非法人组织意志创作,并由法人或者非法人组织承担责任的作品,法人或者非法人组织视为作者。在未显示作者身份信息的情况下使用图片可能构成侵权。
2024-07-22
在哪可以下载sd
以下是关于下载 SD 的详细步骤: 1. 确保您的整合包版本是最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新至云盘,后台回复【SD】即可下载。在插件包里面下载相关文件。 2. 将 sdwebuiroop 文件夹拖放到“……\\sdwebuiakiv4.2\\extensions”目录下。 3. 解压 python 压缩包,替换掉根目录下的相应文件。 4. 更改到您想要安装的位置,点击右下角的安装。安装时间较长,请耐心等待。 5. 安装好之后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”,然后回车。在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,会自动开始安装 insightface。如果此阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新至云盘,后台回复【SD】即可下载。 6. 安装完成后,重新打开启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。 此外,如果不会科学上网,也可以去启动器的界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角的模型列表中进行选择(看不到就点旁边的蓝色按钮刷新一下)。旁边的 VAE 可直接在启动器里面下载,下载的 VAE 放在根目录的【……\\models\\VAE】文件夹下。Embedding 可在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2024-10-17
SD教学视频
以下为一些关于 SD 的教学视频推荐: 1. 新手从 0 入门 AI 绘画教程: 推荐系列章节教学视频: 课程内容包括:第一节课 AI 绘画原理与基础界面;第二节课 20 分钟搞懂 Prompt 与参数设置;第三节课 打破次元壁,用 AI“重绘”照片和 CG;第四节课 AI 绘画模型,“画风”自由切换;第五节课 提高 AI 绘画分辨率的方式;第六节课 LoRa | Hypernetwork 概念简析;第七节课 定向修手修脸,手把手教你玩转局部重绘;第八节课 提示词补全翻译反推,“终极”放大脚本与细节优化插件;第九节课 LoRA 从原理到实践;第十节课 零基础掌握 ControlNet。 2. 教程:SD 做中文文字 持续更新中: 视频教程: 制作思路:将中文字做成白底黑字,存成图片样式;使用文生图的方式,使用大模型真实系,输入关键词和反关键词,反复刷机得到满意效果;可输出 C4D 模型,可自由贴图材质效果;若希望有景深效果,可打开 depth;打开高清修复,分辨率联系 1024 以上,步数 29 60。 3. SD 从入门到大佬: 推荐跟着 Nenly 同学的【B站 第一套 Stable Diffusion 系统课程】合集走一遍,安装完 SD 后可参考。 可选的一些图片版教程:
2024-10-08
sd提示词网站
以下是一些与 SD 提示词相关的网站和资源: MajinAI: 词图: Black Lily: Danbooru 标签超市: 魔咒百科词典: AI 词汇加速器: NovelAI 魔导书: 鳖哲法典: Danbooru tag: AIBooru: 在写 SD 提示词时,通常的描述逻辑包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,能更精确地控制 Stable Diffusion 的绘图。 对于新手,还有以下功能型辅助网站帮助书写提示词: http://www.atoolbox.net/ ,它可以通过选项卡的方式快速填写关键词信息。 https://ai.dawnmark.cn/ ,每种参数都有缩略图可参考,方便更直观地选择提示词。 还可以去 C 站(https://civitai.com/)里面抄作业,每一张图都有详细的参数,可点击下面的复制数据按钮。 此外,还有“Easy Prompt Selector”插件,安装方式是在扩展面板中点击“从网址安装”,然后输入以下地址 https://github.com/bluepen5805/sdwebeasypromptselector ,然后将汉化包复制进“……\\sdwebuiakiv4\\extensions”路径文件夹下直接覆盖。安装完成后,重启 webUI,就可以在生成按钮下面看到多出来一个“提示词”按钮,点击它会出现下拉列表,里面有很多不同的分类,可根据需要选择提示词。
2024-09-30
SD网址多少
以下是一些常用的与 SD 相关的网址: 另外,SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库:github.com/StabilityAI/stablediffusion 。我们可以通过一系列的工具搭建准备,使用 SD 进行想要的图片生成。 关于 SD 的安装: 系统需为 Win10、Win11 。 Win 系统查看配置。 配置达标跳转至对应安装教程页: 。 配置不够可选择云端部署(Mac 也推荐云端部署): 。 备选:SD 好难,先试试简单的无界 AI: 。
2024-09-18
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
sd和comfy的详细学习教程推荐
以下是关于系统学习 SD 和 Comfy 的详细教程推荐: 学习 SD 提示词的步骤: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 相关入门教程链接: 1. 2. 3. 4. 5. 6. 7. 8. 9. 关于 Comfy 的学习,您可以参考以下知乎教程中的相关部分:,其中包含零基础使用 ComfyUI 搭建 Stable Diffusion 推理流程的内容。
2024-09-11
OpenArt的ComfyUI怎么打开
要打开 OpenArt 的 ComfyUI,您可以按照以下步骤进行操作: 1. 准备相关模型和工作流: t5xxl_fp16.safetensors 和 clip_l.safetensors 下载地址:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main 。t5xxl 分为 fp16 和 fp8,如果内存超过 32GB,用 fp16 的,没超过则用 fp8 的。 ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备好 dev 的工作流:file:dev 的官方原版 workflow.json ,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将图片导入 ComfyUI 就是工作流。 对于 GPU 性能不足、显存不够的情况,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 相关模型的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b ;百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 2. 打开 ComfyUI,把准备好的工作流或图片拖拽到 ComfyUI 里。 3. 在处理模型连接时,如果将 refiner 的模型连上提示词导致第一个 base 模型的链接断开,可以通过以下方式解决:加入一个新节点,右键点击 【新建节点】【实用工具】【Primitive 元节点】。这个节点连接谁,就会变成谁的属性。在文本节点上单击右键,选择【转换文本为输入】,此时文本节点上会多一个文本的连接点。将元节点与文本节点相连接,元节点就变成了正向提示词的输入框。同理,负向提示词框也可用元节点代替。再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。最后,能输出两个图像节点,第一个链接 base 模型的 vae,设置为预览图像;第二个链接一个 VAE 加载器的节点,加载 sdxl 自带的 vae,设置为保存图像,即最终输出的图像。设置好两个模型和提示词,点击生成。
2024-10-16
comfyui 教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户。网址:https://www.comfyuidoc.com/zh/ 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容。网址:https://www.uisdc.com/comfyui3 3. 知乎:有用户分享了部署教程和使用说明,适合有一定基础并希望进一步了解的用户。网址:https://zhuanlan.zhihu.com/p/662041596 4. Bilibili:提供了从新手入门到精通各个阶段的系列视频教程。网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 的基础界面和操作方面: 1. 熟悉 ComfyUI 的基本界面和操作。 2. Comfyui 工作区介绍。 3. 基础节点介绍。 4. KSampler: seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 cfg:一般设置为 6 8 之间较好。 sampler_name:可设置采样器算法。 scheduler:控制每个步骤中去噪的过程,可选择不同调度算法。 denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2024-10-15
comfyui使用教程
以下是 ComfyUI 的使用教程: 1. 学习资料获取: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验用户,网址:https://www.comfyuidoc.com/zh/ 。 优设网:有详细的入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,网址:https://www.uisdc.com/comfyui3 。 知乎:有用户分享部署教程和使用说明,适合有一定基础并希望进一步了解的用户,网址:https://zhuanlan.zhihu.com/p/662041596 。 Bilibili:提供了从新手入门到精通的系列视频教程,网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。 2. 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够空间,最低 100G 起步(包括模型)。 注:mac 系统、AMD 显卡、低显卡的情况也可安装使用,但功能不全,出错率偏高,建议升级设备或采用云服务器。 下载并更新 Nvidia 显卡驱动,下载地址:https://www.nvidia.cn/ geforce/drivers/ 。 下载并安装所需环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装时选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 3. 直接在 Comfy UI 中训练 LoRA 模型: 按 Enter 键安装所有所需依赖项,使其与 ComfyUI 兼容。若使用虚拟环境,需先激活。 注意事项: 图像必须放在以“”命名的文件夹中,数字应较小,如 5,且下划线必须有,其余部分不重要。 对于 data_path,必须写入包含数据库文件夹的文件夹路径。 参数: 第一行可从 checkpoint 文件夹中选择任何模型,但据说进行 LoRA 训练需选择一个基本模型。 选择一个名字为您的 LoRA,可更改默认值(epochs 数应接近 40),然后启动工作流程。 点击 Queue Prompt 后,所有事情会在命令提示符中发生,可查看训练进度。
2024-10-13
comfyui推荐一门课程
以下是一些关于 ComfyUI 的课程推荐: 在飞书学习群的“ComfyUI 共学快闪”中,有众多相关课程,例如王蓉的 Wang Easy 基础搭建和转绘、唯有葵花向日晴的基础教程、工作流开发和实际应用场景,以及热辣 Huolarr 的 AI 系统课私聊图生视频、咖菲猫咪的基础教程/工作流搭建思路/各版本模型使用的优缺点等众多课程。 “ComfyUI 共学WaytoAGI 共学计划”中也有相关资料,方便大家自学。例如知识库跳转 。
2024-10-12
如何让COMFYUI使用我的INTEL A770显卡?
要让 ComfyUI 使用您的 INTEL A770 显卡,以下是一些相关的步骤和信息供您参考: 首先,ComfyUI 本地安装的方法主要有以下几种: 1. 命令行安装: 如果您已经安装过 SD WebUI,可以跳到第二步。首先需要打开系统 Terminal,不同系统的 Terminal 可能有所不同。 Windows 用户:建议在有 NVIDIA 显卡的电脑上使用。需要下载 Miniconda3,输入相关命令进行安装,然后安装 pytorch 的 nightly 版本。 Mac 用户:安装需要根据电脑芯片不同输入不同代码。下载 Miniconda3 并输入相关命令进行安装,最后安装 pytorch。 2. 安装包安装:仅支持 Windows 系统且显卡必须是 Nivida。下载地址是,下载最新版本解压即可使用。 关于 ComfyUI 的硬件配置: ComfyUI 相比 WebUI 配置更低、系统资源占用更少、出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。 需要注意的是,目前 ComfyUI 对于 INTEL A770 显卡的支持情况可能不太明确,您可能需要根据实际情况进行尝试和调整。
2024-10-10
comfyui的文档链接
以下是关于 ComfyUI 的相关信息: 简介:ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势:对显存要求相对较低,启动速度快,出图速度快;具有更高的生成自由度;可以和 webui 共享环境和模型;可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在;生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 学习资料: ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。您可以在找到相关信息。 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可以在找到相关教程。 Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可以在找到视频教程。 ComfyUI 共学 WaytoAGI 共学计划日程安排: 开场:,8/13 20:00 22:00,讲师佑萌。 第一课:,8/14 20:00 22:00,讲师郭佑萌。 第二课:,8/15 20:00 22:00,讲师郭佑萌。 第三课:,8/16 20:00 22:00,讲师郭佑萌。 第四课:,8/20 20:00 22:00。 第二期,时间待定。 内容由 AI 大模型生成,请仔细甄别。
2024-10-08
Flux 的lora模型训练教程,我想用用diffuser代码训练,而不是webui或comfyui
以下是关于 Flux 的 lora 模型训练的相关信息: Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:https://github.com/city96/ComfyUIGGUF 在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件搜不到。 注意使用精度优化的低配模型时,工作流和原版不同。把官方的 fp8 工作流中底模的节点换成 NF4 或者 GUFF 即可。 相关生态发展迅速,有 Lora、Controlnet、IPadpter 相关生态建设,字节最近发布的 Flux Hyper lora 可用于 8 步快速生图。下节将先讲讲 Flux 的 lora 训练。
2024-09-05
我添加flux的模型后,在webui中要从哪里找到
在 webui 中找到添加的 flux 模型的方法如下: 首先,您可以安装 Civitai 助手插件。如果您上不了 C 站,可以去我的百度云盘里下载,然后放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成后,重启 webUI,就可以在上方的标签选项卡中找到这个插件。 另外,下载模型后需要将之放置在指定的目录下,不同类型的模型放置目录不同: 1. 大模型(Ckpt):放入 models\\Stablediffusion。 2. VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\\Stablediffusion 或 models\\VAE 目录,然后在 webui 的设置栏目选择。 3. Lora/LoHA/LoCon 模型:放入 extensions\\sdwebuiadditionalnetworks\\models\\lora,也可以在 models/Lora 目录。 4. Embedding 模型:放入 embeddings 目录。 模型的类型可以通过检测。安装 Civitai 助手插件后,它可以自动扫描您的所有文件,如果您的模型是从 C 站下载的,它会帮您自动匹配好缩略图。点击刷新旁边的按钮,再把鼠标放在模型的名字上,可以看见新的四个图标:🖼:用当前生成图替换为预览图;🌐:在新标签页打开这个模型的 Civitai 页面;💡:一键添加这个模型的触发词到关键词输入框;🏷:一键使用这个模型预览图所使用的关键词。
2024-08-22