以下是为您分享的关于 SD 模型的相关内容:
首先是canny,它有几个不同的型号,体积越大,速度越慢。我使用的是4080ti的笔记本进行的测试,12G显存。模型sdxl base+refiner提示词:masterpiece,best quality,1girl采样方法:euler a尺寸1024*1024使用diffusers的2.5Gfull模型绘制的图片,一张图花了2分57秒,从这个效率上来看,这个大尺寸基本可以弃了。使用diffusers的320Mb的small模型,用时34s,质量上差距不大,主要是时间优势很明显。我们可以再看看其他作者的,这张是kohya的,用时33秒,更接近真实质感。sai的canny分为128lora和256lora,分别用时39秒和1分08秒,这个模型比较偏绘画的感觉。最后还有一个t2i的canny模型,用时34s,也是偏插画一点。你们觉得哪个效果更好呢?时间上基本都在30秒以上,如果关掉refiner的话,能节省一半左右的时间,平均在17秒左右。#Depth深度接下来测试一些depth模型,图形尺寸664*1024。使用diffusers的full模型,用时2分48秒,sdxl给我随机到了一个拼贴画的风格。使用diffusers的small模型,用时23s。使用kohya模型,用时42秒。这……好像和我的图片没什么关系。使用sai模型,用时1分12秒,画质还可以,稍微有点慢。使用sargezt模型,奇奇怪怪,没什么关系,用时1分52秒。
用stable diffusion可以把自己想象成一个画家在起笔画画之前,我们要先确定我们画的是什么风格的画,是二次元动漫、三次元的现实照片、还是盲盒模型。因此,在我们确定了我们照片风格之后我们就要去切换大模型,不同的模型就代表着不同的照片风格。也就是SD界面左上角的“Stable Diffusion模型”假如现在我想生成一个真人AI小姐姐,就选用chilloutmix的大模型那么问题来了,我们这些模型从哪来呢?下载的模型放在哪里呢?在我分享给大家的链接里面,有部分比较常用的大模型(后续还有比较好的模型也会分享给大家)大家可以根据文件夹名称找到需要的模型。另外,这篇文章的第三部分会跟大家详细介绍去哪里下载模型,模型存放的位置,所以一定要看到最后!
可以看到,这个预处理器提炼出了这个室内的结构线。我们输入关键词:木制、简约、无印良品。点击生成4张图,得到了与原图结构一致的设计图。好了,今天我们介绍了ControlNet中关于线条约束类的预处理器和模型。这些模型文件我也整理好了,如果想要这些模型的话,可以添加我的公众号【白马与少年】,回复【SD】即可。最后附上一张图,可以帮助大家理解ControlNet模型的命名规则,以便能够正确地使用模型。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号