理论上,在应用完全相同参数(如 Step、CFG、Seed、prompts)的情况下,SD ComfyUI 出图和 SD WebUI 出图应当能保持图片效果一模一样。但在实际操作中可能会存在一些差异,比如:
需要注意的是,相同参数下要达到完全一致的出图效果并非绝对,还会受到多种因素的综合影响。
[title]SD新手:入门图文教程[heading2]三、功能介绍[heading3]文生图最简流程CFG Scale(提示词相关性)图像与你的提示的匹配程度。增加这个值将导致图像更接近你的提示,但它也在一定程度上降低了图像质量。可以用更多的采样步骤来抵消。过高的CFG Scale体现为粗犷的线条和过锐化的图像。一般开到7~11。CFG Scale与采样器之间的关系:生成批次每次生成图像的组数。一次运行生成图像的数量为“批次*批次数量”。每批数量同时生成多少个图像。增加这个值可以提高性能,但也需要更多的显存。大的Batch Size需要消耗巨量显存。若没有超过12G的显存,请保持为1。尺寸指定图像的长宽。出图尺寸太宽时,图中可能会出现多个主体。1024之上的尺寸可能会出现不理想的结果,推荐使用小尺寸分辨率+高清修复(Hires fix)。种子种子决定模型在生成图片时涉及的所有随机性,它初始化了Diffusion算法起点的初始值。理论上,在应用完全相同参数(如Step、CFG、Seed、prompts)的情况下,生产的图片应当完全相同。高清修复通过勾选"Highres.fix"来启用。默认情况下,文生图在高分辨率下会生成非常混沌的图像。如果使用高清修复,会型首先按照指定的尺寸生成一张图片,然后通过放大算法将图片分辨率扩大,以实现高清大图效果。最终尺寸为(原分辨率*缩放系数Upscale by)。
[title]【SD】提示词服从度增强插件,CFG值修复作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-06-22 20:01原文网址:https://mp.weixin.qq.com/s/bAy1-CydHneam2IDM916XQ在画图的时候,当我们的提示词中有多个条件,sd生成的图像可能无法帮我们全部满足。比如我想要绘制这样一幅图片,关键词是:一个女孩、戴着贝雷帽、绿色夹克、黄色印花裙子,在森林里弹吉他,盲盒风格。使用的大模型是revAnimated,加“blindbox”lora。但是图片生成的时候,我们却发现,夹克变成了黄色,裙子变成了绿色,而且人物的身材比例是接近真实人物的,而不是我们想要的“chibi”盲盒风格。这个情况和我们的一个参数有关,那就是提示词引导系数,它关系到出图与我们文字的相关程度。我们使用“X/Y/Z脚本”来做一个横向对比,测试分别在5/10/15/20/25/30的CFG值下,画面的效果。可以看到,随着CFG值的提高,画面与提示词关联度更高,衣服和裙子的颜色与提示词相符了,但是问题是画面出现了崩坏。那有没有办法可以既增加CFG值,又让画面保持正常呢?答案是可以的,这就需要用到这款插件——dynamic-thresholding安装方式可以在扩展列表中搜索这个插件的名字,或者是将下载好的插件,放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以看到这个插件了。点击打勾,就可以启用生效。
[title]【SD】向未来而生,关于SDXL你要知道事儿[heading1]#本地部署与在线使用[heading2]1.本地部署SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。