以下是关于用 AI 修复老照片的相关内容:
使用 MutiDiffusion 插件,在显存不够时可通过分块渲染功能放大图片。对于较复杂的老照片,如人物多、场景复杂、像素低的情况,可先在 PS 里调整角度和裁切,直接上色效果不佳时,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词给蓝天、绿树、灰石砖等。
ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的高清放大工作流复杂,新模型出来后,十几个基础节点就能实现更好效果。参数调节一般先确认放大倍数,再根据图片调整 controlNet 强度。Flux.1-dev ControlNet 是为低分辨率图像开发的模型,可与 diffusers 库一起使用,训练方式采用多种人工退化方案。Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能与其他 LORA 结合使用。T5 Clip 若图片质量细节不够,可选择 fp16 版本。controlNet 传递的应是原始图片。
在新上线的 controlnet 模型中,Recolor 模型可给黑白图片重新上色,可选择 realisian 写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。这两张还算容易的,接下来就遇到比较棘手的照片了。比如这一张,是我外公外婆带着我妈和我舅舅。外公走得更早,我甚至都没见过一面,只有这些照片还记录着他存在的痕迹。而这张照片也有些年头了,一直被外婆好好保存着。人物多、场景复杂,像素非常的低,使得这张照片处理起来难度很大。我首先在ps里面进行了一下角度的调整和照片的裁切,然后使用刚才的步骤进行上色,但是直接上色的结果有点像是加了一层黄色滤镜,有颜色但是年代感还是太强了。而太具体的颜色指定,又容易让画面污染严重,因为内容实在太多了,光是指定衣服就得十来个颜色提示词,AI能分辨得清才怪。所以我决定放弃人物服装的颜色指定,只给一个场景方向,剩下的交给AI去自行决定。于是,我从网上找到了一张仙人洞的照片,让AI去帮我匹配色调。加入第二个controlnet来控制颜色,使用的是t2ia_color的模型。关键词只给了:蓝天、绿树、灰石砖这么简单的几个词。颜色终于正常了,最后经过脸部的修复和放大,得到了最终的效果。
以前做了一个高清放大的工作流,被很多小伙伴用在淘宝上做老照片修复。之前的工作流比较复杂,现在,这个模型出来,结合这个工作流,只要十几个基础的节点就能实现同样的效果,甚至可能更好。[heading3]参数的调节[content]一般做法是先确认放大的倍数,然后根据出来的图片来调整controlNet的强度。[heading3]Controlnet-Upscaler放大模型[content]模型介绍:Flux.1-dev ControlNet是Jasper研究团队为低分辨率图像开发的模型。使用方法:可直接与diffusers库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式:采用合成复杂数据退化方案,结合图像噪声、模糊和JPEG压缩等多种方式对真实图像进行人工退化。目的:这种训练方法的目的是让模型学会处理各种真实世界中可能遇到的图像退化情况,从而在实际应用中表现更好。引用文献:训练方式类似Wang,Xintao等人在2021年发表的“Real-esrgan:Training real-world blind super-resolution with pure synthetic data.”中的方法。许可证:该模型属于Flux.1-dev模型许可证范畴[heading3]Flux Ultimator细节增强[content]细节:能增加小细节,让图像尽可能逼真。鲜艳色彩增强:可放大色调的丰富性和深度。使用:在0.1的强度设置下也能有显著增强效果。集成:能顺利集成到工作流程中,与其他LORA结合使用效果好,结合时需将强度降低小于0.5。[heading3]T5 Clip[content]如果你发现出来的图片质量细节不够,选择fp16的版本。[heading3]图像的传递[content]controlNet这里传递的应该是上传的原始图片,因为这个是controlNet而不是潜空间图像。
作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-09-10 19:00原文网址:https://mp.weixin.qq.com/s/-hlnSTpGMozJ_hfQuABgLw在最近新上线的controlnet模型中,除了我们之前测试过的一众适配sdxl的模型以外,还增加了一款名为Recolor的新模型,它的作用是可以将黑白的图片进行重新上色。看到这个功能,我首先想到的就是可以用它来修复那些已经年代久远的老照片。毕竟在以前那个年代,没有现在这种可以永远保存的数码拍照技术,很多洗出来的照片也都随着岁月的流逝而褪去了色彩。如果能用AI技术恢复这些往日的时光,也许能唤醒我们心底的一些温暖。于是,我联系爸妈帮我找来了一些他们珍存的照片。他们也很热心于这件事情,立马给我发来了一大堆照片,其中有很多我也没见过的他们年轻的时候的样子,还包括我爷爷奶奶外公外婆那一辈的回忆。虽然很多照片都是黑白的,但是仍然能感受到那个时候的阳光和清风。这是我的奶奶,她离开已经有十几年了,年轻时候留下的照片不多,这一张算是保存得很好的了,那个年代的人物照片总能让人感受到一种独特的气质。既然是人物照片的还原,我这里就选择了realisian的写实大模型。提示词直接描述颜色和对应的内容。比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。因为黑白照片,颜色无从判断,所以有些只能靠猜测了。ControlNet这里选择Recolor,预处理器有两个,经过我的测试,选择“recolor_luminance”的效果会更好一些。