以下是关于 Flux 的 Lora 模型训练的详细步骤:
作者@郑敏轩大家好,上次讲了Flux简介,我们这次来讲讲Flux的Lora训练首先你要确保你已经正确安装使用了Flux的各个模块~~哈哈,开个玩笑,其实不用安装使用也是可以训练的~但是你要把当时需要的几个模型下载下来:t5xxl_fp16.safetensorsclip_l.safetensorsae.safetensorsflux1-dev.safetensors注意:1.你不使用的话他们放到哪里都可以,甚至放一起一个文件夹,只要你知道“路径”,我们后面要引用到“路径”2.因为是训练,不是跑图,跑图我们可以寻求降低方案,训练的话,哈哈模型就用flux1-dev.safetensors这个版本,编码器也用t5xxl_fp16.safetensors这个版本最好。好,接下来我们使用青龙的训练脚本,在此给青龙大大跪拜一下~阿弥陀佛~[heading2]下载脚本[content]网盘链接:夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59通过百度网盘分享的文件:Flux_train_20.4.zip链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq提取码:pfsq--来自百度网盘超级会员V3的分享
建议使用自然语言,其他和之前SDXL的训练一样,社区前面有SD训练的内容,不多介绍了数据集放哪里?.Flux_train_20.4\train\qinglong\train就是下图红色文件夹,里面一直往里找,顺带说一下绿色部分是训练好的模型产出的地方如果此处还没有准备数据集的伙伴们呢,本身检查一下这个路径里面,会有原先放好的试验数据集,是可以直接使用的,也就是说你如果试验操作的话,这一步可以先省略,可以往下进行。等训练成功,再准备自己的训练集。[heading2]运行训练[content]约1-2小时即可训练完成[heading2]验证和lora跑图:[content]有comfyUI基础的话,直接原版工作流的模型后面,多加一个LoraloaderModelOnly的节点就可以,自行选择你的Lora和调节参数。
接下来,如果你的显卡是16G的,右键16G那个train_flux_16GLora的文件,如果你的显卡是24G或更高的,右键24G那个train_flux_24GLora的文件,(DB全参微调会对硬件要求更高一些,内存32G是不行的)不过即使是train_flux_24GLora的方式,也建议内存尽量想办法高于32G,避免意外情况的发生。刚没说完,右键用代码编辑器方式打开(图中右边红框的两种任意一种均可,没有可以下载一下)首先我们开头的绿色部分不用动理论上只改红色部分:底模路径、VAE路径、数据集路径,还有下面的clip路径和T5xxl路径:文章开头的4件套,如果你在一个文件夹里,更简单一些,不用分辨,路径填上去就行。如果不在一起,首先找到你的flux1-dev底模的文件,把他的路径复制过来,注意复制过来后还是一套双引号,有同学会多双引号或者漏双引号,以及路径错误,都会导致后面训练无法进行。注意检查,慎重。然后是ae的那个是VAE路径这里注意训练集的路径!是到train截止!里面虽然还有一层文件夹,但是到此为止!往下,在SD3训练相关参数那里,咱们4件套不是还有2位吗?路径在这里(g那个不用管,是SD3里面的)再次提醒检查格式,别漏了,错了这是最简单的少量修改方式,可以直接看下一段:数据集准备。建议随着深入以及经验丰富后再修改关于其他参数,温馨提醒修改其他深入参数的话自己最好最好备份管理。蓝色部分可改可不改,是备注名称。