以下是关于一键抠图的相关内容:
一键抠图,省时省力操作指引:点击智能抠图卡片——上传需要抠出主体物的图片[20240903194346_rec_.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Q72Sbi9YAobL8MxZPmfcv2HhnGg?allow_redirect=1)
我们接着来看一下这个GFPGAN面部修复,我找一张模糊人像来修复一下。其他参数不变,直接将GFPGAN参数拉到1,就可以了。看一下面部修复效果,宛如重生。当然这个功能只能修复脸部,所以头发、衣服、背景等没有变化。[heading1]#背景去除[content]这个功能需要再安装一个插件REMBG,安装地址是https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg.git。安装好之后重启,就有这个选项框了。使用这张图测试一下,模型就选第一个u2net,直接点击生成。抠图效果还是蛮不错的,边缘轮廓有些黑边,用时2.86秒。如何去掉这个黑边呢,需要点击后面的Alpha matting,来调整一些参数。它们分别控制抠图边缘尺寸,前景阈值、背景阈值。通过一系列测试,推荐给大家一套比较通用的参数设置——Erode size:6、Foreground threshold:143、Background threshold:187。通过这个参数,我们就能一键得到没有黑边的图像了。另外,点击这个按钮,还可以直接生成蒙版。这里还有一个专门做服装抠图的模型,可以一键识别出模特的服装。这就非常方便我们做换装的处理了。还有一个专门给动漫抠图的模型。我们使用这张图测试一下。抠图效果还是可以的,可能是背景比较复杂,用时19秒。关于后期处理里面的一些冷僻小知识就介绍到这里了,如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号
将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。