以下是关于 SD 反推模型的相关内容:
Fooocus 模型:
Comfyui SD 学社做黏土头像的相关插件:
ControlNet 的 tile 模型:
LoRA模型默认放在这里:\Fooocus_win64_1-1-10\Fooocus\models\lorasFooocus程序默认用到了3个SDXL的模型,一个base,一个Refiner,和一个LoRA。如果单独安装,这里需要下载三个模型:SDXL基础模型:https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensorsrefiner模型:https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensorsLoRA模型:https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_offset_example-lora_1.0.safetensors如果你部署了SD秋叶包,也可以共用模型(大模型和LoRA),可以这里找到path.py文件:Fooocus_win64_1-1-10\Fooocus\modules\path.py,用text记事本打开,修改路径为秋叶包模型对应的路径:大模型路径,比如:sd-webui\models\Stable-diffusion\SDXLLoRA模型路径:比如sd-webui\models\lora都配置好之后,点击run.bat文件启动。
需要用到的插件如果提示缺失节点,就通过管理器安装一下.1.提示词反推WD14-Taggerhttps://github.com/pythongosss/ComfyUl-WD14-Tagger首次使用会自动下载模型(需要网络环境)1.处理人物一致性IPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plus也可以用instantID,这里我们使用的是IPadpter,后续很多地方也会用到,建议大家也可以先用起来关于IPAdapter的使用,之前有写了一篇文章介绍,不熟悉的小伙伴可以先看下.因为作者新版本重写了代码,所以新版一定注意模型的放置位置,这样后续使用统一加载,会方便不少.1.controlNet预处理的插件comfyui_controlnet_aux https://github.com/Fannovel16/comfyui_controlnet_auxcontrolNet模型XL-CN模型下载:https://huggingface.co/lllyasviel/sd_control_collection/tree/main1.5理模型下载:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/maincontrolnet不熟悉的小伙伴,同样也可以看之前写的一篇文章,快速上手.
作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-19 20:01原文网址:https://mp.weixin.qq.com/s/HtSbc1l5BpOgl_dIoH0T7w随着ControlNet1.1的更新,tile模型横空出世,其强大的功能让之前的一些模型变得有点黯然失色。今天我们就来盘点一下,这个神奇的Tile模型都有哪些用法。高清修复小图在我们做设计的时候,经常会遇到一些分辨率不高的素材图片,我们需要将它进行高清化处理。比如这张食物的图片,先把它拖进“WD 1.4标签器”,可以进行反推关键词,然后发送到图生图。我们可以通过翻译软件检查一下提示词有没有问题,这边通过反推得到的提示词是——“没有人,食物,食物焦点,现实,水果,静物,草莓,模糊,蛋糕,糕点,景深,甜点,模糊背景,奶油”。基本上与原图相符,可以先不调整。接下来,我们使用大模型“dreamshaper”。调整参数尺寸,放大为2K,提示词引导系数(CFG Scale)官方推荐在15以上,重绘幅度在0.5以上。打开ControlNet,导入图片。tile的预处理器是用来降低原图的分辨率的,为的是给新图有足够的空间来添加像素和细节。如果你的图片本身像素就很低,可以不使用预处理器,直接使用tile模型。可以看到放大后的图片,清晰度和细节都有了很好的提升。对比一下使用tile模型处理前后的区别。修复和增加细节我们先随便绘制一张小屋的图,可以看出,这张图中的细节不足,而且有些地方的结构也是错误的。