以下是关于 ComfyUI-WD14 模型的相关信息:
下载下面这2个反推模型与对应的词库列表,然后放进ComfyUI\custom_nodes\ComfyUI-WD14-Tagger\models文件夹内。Hugginface下载地址:https://huggingface.co/SmilingWolf/wd-v1-4-moat-tagger-v2/tree/main(下载onnx模型文件与csv文件,然后改为对应模型名:wd-v1-4-moat-tagger-v2)网盘下载地址:(已经改好名了)度盘:pan.baidu.com/s/1d9XLF96OzWlLtUGvZiYdVA?pwd=nelyQuark:pan.quark.cn/s/ff8172bebe27重启后,在Tagger的模型列表里选择wd-v1-4-moat-tagger-v2即可。
需要用到的插件如果提示缺失节点,就通过管理器安装一下.1.提示词反推WD14-Taggerhttps://github.com/pythongosss/ComfyUl-WD14-Tagger首次使用会自动下载模型(需要网络环境)1.处理人物一致性IPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plus也可以用instantID,这里我们使用的是IPadpter,后续很多地方也会用到,建议大家也可以先用起来关于IPAdapter的使用,之前有写了一篇文章介绍,不熟悉的小伙伴可以先看下.因为作者新版本重写了代码,所以新版一定注意模型的放置位置,这样后续使用统一加载,会方便不少.1.controlNet预处理的插件comfyui_controlnet_aux https://github.com/Fannovel16/comfyui_controlnet_auxcontrolNet模型XL-CN模型下载:https://huggingface.co/lllyasviel/sd_control_collection/tree/main1.5理模型下载:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/maincontrolnet不熟悉的小伙伴,同样也可以看之前写的一篇文章,快速上手.
然而,请确保在制作字幕时禁用LoRA训练节点。原因是Comfy可能会在制作字幕之前启动训练。而它会这么做。它不关心是否有字幕存在。所以最好保险起见:在制作字幕时绕过训练节点,然后启用它,再次启动工作流程进行训练。我本可以找到一种方法将训练节点与保存节点关联起来,确保在制作字幕后才进行训练。然而,我决定不这样做。因为即使WD14标签非常出色,你可能还想在训练之前打开字幕并手动编辑它们。在两个节点之间创建链接将使整个过程变得自动化,而不让我们有机会修改字幕。寻求对Tensorboard的帮助!:)字幕,训练...还有一个遗漏的部分。如果你了解LoRA,你应该听说过Tensorboard。这是一个用于分析模型训练数据的系统。我很乐意将其包含在ComfyUI中。...但我完全不知道该怎么做^^’。目前,训练会在log文件夹中创建一个日志文件,该文件夹会在Comfy的根文件夹中创建。我认为该日志是一个我们可以在Tensorboard UI中加载的文件。但我很想让数据出现在ComfyUI中。有人能帮我吗?谢谢^^。我的第一个LoRA的结果:如果你不认识这个角色,那是来自《宝可梦钻石与珍珠》的小光(Hikari)。具体来说,是她在大祭典中的形象。在网上查看图片以比较结果: