以下是关于动漫脸部修复的相关内容:
GFPGAN 面部修复:
背景去除:
手部修复:
SD 新手入门图文教程中的相关内容:
我们接着来看一下这个GFPGAN面部修复,我找一张模糊人像来修复一下。其他参数不变,直接将GFPGAN参数拉到1,就可以了。看一下面部修复效果,宛如重生。当然这个功能只能修复脸部,所以头发、衣服、背景等没有变化。[heading1]#背景去除[content]这个功能需要再安装一个插件REMBG,安装地址是https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg.git。安装好之后重启,就有这个选项框了。使用这张图测试一下,模型就选第一个u2net,直接点击生成。抠图效果还是蛮不错的,边缘轮廓有些黑边,用时2.86秒。如何去掉这个黑边呢,需要点击后面的Alpha matting,来调整一些参数。它们分别控制抠图边缘尺寸,前景阈值、背景阈值。通过一系列测试,推荐给大家一套比较通用的参数设置——Erode size:6、Foreground threshold:143、Background threshold:187。通过这个参数,我们就能一键得到没有黑边的图像了。另外,点击这个按钮,还可以直接生成蒙版。这里还有一个专门做服装抠图的模型,可以一键识别出模特的服装。这就非常方便我们做换装的处理了。还有一个专门给动漫抠图的模型。我们使用这张图测试一下。抠图效果还是可以的,可能是背景比较复杂,用时19秒。关于后期处理里面的一些冷僻小知识就介绍到这里了,如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号
接下来,我们以这个姿态为灵感,看能不能修复一下手部的问题。我们先来到3d骨架模型编辑器中,通过手动调整来还原一下骨架,因为只是动漫人物,系统无法自动检测。如果是写实人物的话,就方便一些,可以直接使用openpose预处理器进行姿态检测。设置好之后,可以将骨架图下载下来,后面的手部姿态不是我们想要的,可以不用。来到深度图库,将尺寸修改为画幅尺寸,然后点击“添加背景图片”,将骨架图载入进来。接下来就是选择合适的手势,将它添加进来,第一个选项框里的都是官方的深度信息图片。通过移动、缩放和旋转将手势放在合适的位置,可以发送到controlnet,默认是发送到第一个框架中。。因为官方中的手型有限,所以另外一只手从我们新增的库里面寻找一个,但是这些手型就不是深度信息图了,调整好之后,将它保存为png。启用controlnet,第一只手选择深度预处理器“depth_zoe”。第二只手选择线稿预处理器“lineary_realistic”,它们的起始步长保持在0.1-0.2之间。第三块选择“openpose”模型,因为已经是骨架图,所以不需要选择预处理器。在图生图中,进行手部的局部重绘,绘制好蒙版,为了提高成功率,可以一只手一只手的调整。这样就比之前的手好很多了。再放到ps当中,使用“创成式填充”修补一下衔接的区域。对比一下修改前和修改后的手部的区别,经过手部修复之后,姿态终于正常了。
放大算法中,Latent在许多情况下效果不错,但重绘幅度小于0.5后就不甚理想。ESRGAN_4x、SwinR 4x对0.5以下的重绘幅度有较好支持。Hires step表示在进行这一步时计算的步数。Denoising strength字面翻译是降噪强度,表现为最后生成图片对原始输入图像内容的变化程度。该值越高,放大后图像就比放大前图像差别越大。低denoising意味着修正原图,高denoising就和原图就没有大的相关性了。一般来讲阈值是0.7左右,超过0.7和原图基本上无关,0.3以下就是稍微改一些。实际执行中,具体的执行步骤为Denoising strength*Sampling Steps。面部修复修复画面中人物的面部,但是非写实风格的人物开启面部修复可能导致面部崩坏。点击“生成”