Flux 和 SDXL 出图主要有以下区别:
这是生成式AI中的一个常见问题,即模型生成的人具有相同的外观。与SD1.5/SDXL不同,这不仅仅是由于多样化的数据集收敛到单个标记(如“女性”)。在Flux中,Dev/Schnell是从专业版中提取出来的,导致了多样性的丧失。该LoRA是在Flux生成的最通用的女性照片上训练的。然后以负权重应用此LoRA,它将作为一种负面提示起作用,但不需要使用负面提示!通过使用这种巧妙的技巧,LoRA基本上会告诉Flux生成任何除了典型的Flux面孔之外的东西。结果是,我们每次都能得到美丽的独特面孔!至于说为什么权重在-0.6上下效果好,这里有那个心动小姐姐的对比图,大家可以感受下不同权重的效果差别.文中用到的工作流和Lora,仅4M:[workflow(19).json](https://bytedance.feishu.cn/space/api/box/stream/download/all/SVXhbFArzoncYKxmvrWcetq7ncd?allow_redirect=1)[SameFace_Fix.safetensors](https://bytedance.feishu.cn/space/api/box/stream/download/all/KLeZbsI5lo42p1xlclbclTrJnGc?allow_redirect=1)
这个方法的目的是让FLUX模型能在较低的显存情况下也能运行.分阶段处理的思路:1.使用Flux模型进行初始生成,在较低分辨率下工作以提高效率2.采用两阶段处理:先用Flux生成,后用SDXL放大,效控制显存的使用3.使用SD放大提升图片质量工作流的流程:初始图像生成(Flux):UNETLoader:加载flux1-dev.sft模型DualCLIPLoader:加载t5xxl和clip_l模型VAELoader:加载flux-ae.sftCLIPTextEncode:处理输入提示词BasicGuider和RandomNoise:生成初始噪声和引导SamplerCustomAdvanced:使用Flux模型生成初始图像VAEDecode:解码生成的潜在图像初始图像预览:PreviewImage:显示Flux生成的初始图像图像放大和细化(SDXL):CheckpointLoaderSimple:加载SDXL模型(fenrisxl_SDXLLightning.safetensors)UpscaleModelLoader:加载RealESRGAN_x4.pth用于放大VAELoader:加载sdxl_vae.safetensorsImageSharpen:对初始图像进行锐化处理UltimateSDUpscale:使用SDXL模型和放大模型进行最终的放大和细化最终图像预览:PreviewImage:显示最终放大和细化后的图像
首先,我们来了解一下sdxl是什么。它是Stable Diffusion的开发公司最新发布的一款图像生成的大模型,我们以往所使用的模型,绝大部分都是在sd1.5的官方模型上衍生的微调大模型。虽然sd官方的模型直接生图不怎么样,但是由各路大神微调出来的模型却是相当惊艳,这也是开源软件的厉害之处。但是这一次,sdxl1.0版本的官方大模型有了一个极强的升级,它的base模型参数数量为35亿,refiner模型参数数量则达到了66亿。可能有小伙伴会疑问,为什么sdxl的模型有两个呢?这也正是SDXL相较于SD1.5或者2.1的最大区别,SDXL是由base基础模型和refiner优化模型两个模型构成,它可以在base模型的基础上再使用优化模型进行绘画,对比之前的单模型能更有针对性的优化出图质量。而且根据官方的测试显示,sdxl1.0对比之前的sd1.5和2.1,审美偏好有了很大的提升。哪怕是只用base模型出图的效果也好了不少,甚至有直逼midjourney的趋势。我总结了一下,SDXL厉害的地方主要有以下几点:[heading2]1.更大的体积和分辨率[content]从模型的容量上就可以看出来,sd1.5的大小为4G,sd2.1的大小为5G,而SDXL的base+refiner容量有13G之多。它这么庞大的原因,主要是因为SDXL是基于1024*1024的图片进行训练的,拥有更清晰的图像和更丰富的细节。而我们知道,之前的sd1.5只有512*512的分辨率。所以,这就是为什么我们在之前输出高分辨率图片的时候会出现人物肢体混乱的情况,因为sd以为我们在同时输出多张图片。在SDXL中,我们就可以直接生成1000分辨率以上的图片,再也不用担心会出现混乱的问题,并且细节的提升使它的绘画质量也达到了惊人的地步。