以下是使用 AI 给老照片上色的步骤和相关注意事项:
在给老照片上色的过程中,可能会遇到各种复杂的情况,需要根据具体照片的特点和需求进行灵活处理。
所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。
既然是人物照片的还原,我这里就选择了realisian的写实大模型。提示词直接描述颜色和对应的内容。比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。因为黑白照片,颜色无从判断,所以有些只能靠猜测了。ControlNet这里选择Recolor,预处理器有两个,经过我的测试,选择“recolor_luminance”的效果会更好一些。但是仅仅这样是不够的,从渲染的结果上我发现,颜色并不是精准地出现在我们想要的位置上的,提示词之间会出现相互的污染。而且由于照片上斑驳的痕迹,即使是背景也不能够做到完全统一,看来事情并没有我想象的那么简单。
同样难度的还有这张照片,是外婆带着我妈和舅舅拍的合影,应该是在影棚里拍的,背景是张画。这张照片的难点主要还是内容太多了,无法一一指定颜色,所以我只能逐个上色,再用ps进行融合。过程太繁琐我就不写了,直接上图。看着这些老照片一张一张的翻新,思绪也会沉浸在某段时光里。也许不曾去过,但又总觉得似曾相识;也许相隔遥远,但又觉得触手可及。小镇的深处一条长长的街巷高高的红砖房,旧旧的玻璃窗蜿蜒的藤蔓带着淡淡泥土香缠绕这慢慢的时光日落前,挥挥手说他没有等太久夜如水,月如钩总有人等在回家的路口熟悉的地方依然安详岁月不改它模样风吹过树梢,沙沙地响把故事慢慢讲-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号