直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

老照片上色

回答

以下是使用 AI 给老照片上色的步骤和相关注意事项:

  1. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。若想了解更多,可参考文章——【Stable Diffusion】超清无损放大器 StableSR
  2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。
  3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,可在显存不够的情况下将图片放大到足够的倍数。
  4. 对于人物照片的还原,选择 realisian 的写实大模型。提示词直接描述颜色和对应的内容,比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。
  5. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果会更好。但可能会出现颜色不精准出现在想要位置、提示词相互污染以及背景不能完全统一等问题。
  6. 对于内容较多的照片,如外婆带着妈妈和舅舅的合影,可能需要逐个上色,再用 ps 进行融合。

在给老照片上色的过程中,可能会遇到各种复杂的情况,需要根据具体照片的特点和需求进行灵活处理。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】用AI给老照片上色,岁月不改它模样

所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。

【SD】用AI给老照片上色,岁月不改它模样

既然是人物照片的还原,我这里就选择了realisian的写实大模型。提示词直接描述颜色和对应的内容。比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。因为黑白照片,颜色无从判断,所以有些只能靠猜测了。ControlNet这里选择Recolor,预处理器有两个,经过我的测试,选择“recolor_luminance”的效果会更好一些。但是仅仅这样是不够的,从渲染的结果上我发现,颜色并不是精准地出现在我们想要的位置上的,提示词之间会出现相互的污染。而且由于照片上斑驳的痕迹,即使是背景也不能够做到完全统一,看来事情并没有我想象的那么简单。

【SD】用AI给老照片上色,岁月不改它模样

同样难度的还有这张照片,是外婆带着我妈和舅舅拍的合影,应该是在影棚里拍的,背景是张画。这张照片的难点主要还是内容太多了,无法一一指定颜色,所以我只能逐个上色,再用ps进行融合。过程太繁琐我就不写了,直接上图。看着这些老照片一张一张的翻新,思绪也会沉浸在某段时光里。也许不曾去过,但又总觉得似曾相识;也许相隔遥远,但又觉得触手可及。小镇的深处一条长长的街巷高高的红砖房,旧旧的玻璃窗蜿蜒的藤蔓带着淡淡泥土香缠绕这慢慢的时光日落前,挥挥手说他没有等太久夜如水,月如钩总有人等在回家的路口熟悉的地方依然安详岁月不改它模样风吹过树梢,沙沙地响把故事慢慢讲-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

其他人在问
如何用SD给线稿上色
以下是使用 SD 给线稿上色的方法: 1. 准备关键词:正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切您不想要的东西。例如正关键词:,CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style。负关键词:back and white,green,blue,purple。 2. 选择真实系大模型,如 revAnimated v1.2.2 版本。 3. 注意尺寸:尺寸最好和您的草稿图保持一致,如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。 4. 最重要的 ControlNet 设置: 上传自己的草图到 ControlNet,点击启用。记得点💥的图标让预处理器生效。 点击“反转输出颜色”。 在模型里面选择“canny”的模型。 接着去设置前面的内容: 选择合适的大模型,如想要生成二次元的图,就要选择相应的模型。 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定上什么颜色。 5. ControlNet 的预处理器分类理解: 线条约束类:通过轮廓线来规定绘图的范围。 canny 边缘检测:适用于线条比较精细的图片。 scribble 涂鸦:适合粗犷的画风。 softedge 软边缘检测:对边缘的细节保留得更多,特别是有头发这类细节的时候。 lineart 线稿提取:可能是 ControlNet 目前最强的线稿上色功能。 mlsd 直线线条检测:一般用在建筑或者室内设计上。 您可以根据具体需求和线稿特点选择合适的方法和参数进行上色。
2024-12-04
AI绘画如何给线稿上色?
以下是关于 AI 绘画给线稿上色的方法: 1. 使用 Stable Diffusion 上色: 点开“ControlNet”的状态栏。 在空白处上传自己的线稿图。 点击“启用”。 点击“反转输出颜色”。 在模型里选择“canny”的模型。 选择合适的大模型,如生成二次元的图就选择相应模型。 输入关键词,先写照片质量的关键词(如最高质量、大师杰作等),接着指定颜色(如 1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛),还可加上简单背景。想要色彩更细节,可输入更多关键词控制照片,负面关键词复制前面的即可。 2. Midjourney + Stable Diffusion 组合上色: 用 Midjourney 生成线稿,PS 稍微修正错误的地方。 用 ControlNet 控制,Stable Diffusion 上色。 Midjourney 生成线稿的关键词如:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive 3. 进阶玩法: 用 MJ 的 Retexture 功能,写提示词或垫图功能给着色画上色。 用即梦参考功能,写提示词或垫图功能给着色画上色。 此外,着色画是未上色原稿,提供基础框架让创作者添加颜色,其艺术效果体现在色彩丰富性、情感表达、细节和纹理、创意发挥等方面。在 AI 绘画中,关键词结构思路包括基础描述、风格指定、色彩要求、细节强调等。
2024-12-04
怎么给线稿上色
以下是给线稿上色的方法: 1. 使用 Midjourney 和 Stable Diffusion 结合的方法: 生成线稿:使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive”。 PS 修正:对生成的线稿在 PS 中手动重绘错误的地方。 上色设置: 正关键词:添加增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。如“,CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style”。 负关键词:根据效果添加,如“back and white,green,blue,purple”。 真实系大模型:如“revAnimated v1.2.2 版本”。 尺寸:最好和草稿图保持一致,若爆显存可保持比例缩小。 ControlNet 设置:上传自己的草图到 ControlNet,点击启用,记得点💥的图标让预处理器生效。 2. 单独使用 Stable Diffusion 的方法: 上传线稿图:点开“ControlNet”的状态栏,在空白处上传线稿图,点击“启用”和“反转输出颜色”,在模型里选择“canny”的模型。 设置内容: 选择合适的大模型,如生成二次元图选择相应模型。 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定颜色,如“1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛”,还可加上简单背景。负面关键词可复制前面的。
2024-11-08
把老照片上色
以下是使用 AI 给老照片上色的步骤和方法: 1. 图片处理:将图片发送到图生图中,打开 stableSR 脚本放大两倍。stableSR 放大插件是对原图还原最精准、重绘效果最好的。可参考相关文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时将图片放大到足够倍数。 2. 模型和提示词选择:对于人物照片还原,选择 realisian 的写实大模型。提示词直接描述颜色和对应内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。 3. 复杂照片处理:对于人物多、场景复杂、像素低的照片,可先在 ps 里进行角度调整和照片裁切。直接上色可能效果不佳,如像加了黄色滤镜或颜色不精准、有污染。对于内容过多的照片,可放弃人物服装颜色指定,只给场景方向,如从网上找照片让 AI 匹配色调。可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,关键词如蓝天、绿树、灰石砖等。最后进行脸部修复和放大。
2024-08-10
老照片修复有手机端吗
老照片修复在手机端是可行的。以下是一些相关信息: 图像放大修复是 AI 绘画领域的重要部分,能应用于旧照片重现清晰、人像高清修复等场景。以前手机拍摄的低分辨率图片,如今可用 AI 技术进行高清修复。用手机也能拍摄出高清大片,提升照片质量。 【SD】用 AI 给老照片上色时,可将照片放入后期处理,使用 GFPGAN 算法让人脸变清晰。还可将图片发送到图生图中,打开 stableSR 脚本放大。切换到 sd2.1 模型修复,启用 MutiDiffusion 插件等。对于复杂的照片,可在 PS 里调整角度和裁切,放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,加入第二个 controlnet 控制颜色。
2024-12-19
老照片修复有手机端app吗
以下是为您整理的关于老照片修复的相关内容: 老照片修复可以利用 AI 技术实现。在手机端,您可以通过以下步骤和方法进行操作: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 2. 在 PS 里进行角度调整和照片裁切,然后使用特定步骤上色。对于复杂的照片,可只给场景方向,让 AI 自行决定颜色。 3. 利用 GFPGAN 算法将人脸变清晰,具体可参考相关文章。 4. 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan。 此外,图像放大修复是 AI 绘画领域的重要部分,其应用场景广泛: 1. 旧照片重现清晰,让模糊的旧照片保留珍贵回忆。 2. 人像高清修复,用手机也能拍摄出高清大片,提升照片质量。 3. 图像分辨率可无限扩大且不失真,如马斯克原始图像可多次采样放大提升分辨率。 目前不太明确是否有专门的老照片修复手机端 APP,但您可以通过上述方法和技术在手机上进行相关操作。
2024-12-19
有没有修复老照片的AI工具
以下是一些修复老照片的 AI 工具及相关操作: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 2. 辅助工具: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可增加更多细节 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰,参考文章——。 4. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。参考文章——。 在处理复杂照片时,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,关键词如“蓝天、绿树、灰石砖”。
2024-12-10
老照片修复
以下是关于用 AI 给老照片上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 4. 将照片放入后期处理,使用 GFPGAN 算法使人脸变清晰。 5. 把图片发送到图生图中,打开 stableSR 脚本放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 6. 对于复杂的照片,如人物多、场景复杂、像素低的,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如蓝天、绿树、灰石砖。 相关文章参考: 1. 【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21wechat_redirect 2. 【Stable Diffusion】超清无损放大器 StableSR:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21wechat_redirect
2024-12-04
老照片修复
以下是关于用 AI 给老照片上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 4. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 5. 把图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 6. 对于复杂的照片,如人物多、场景复杂、像素低的,可先放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 参考文章: 1. 2. 作者:白马少年,发布时间:20230910 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2024-11-06
能修复老照片吗
AI 可以修复老照片。以下是一些相关的方法和工具: 可以使用 Stable Diffusion(SD)中的 controlnet 模型中的 Recolor 新模型为黑白老照片重新上色。提示词可直接描述颜色和对应的内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。 把图片发送到图生图中,打开 stableSR 脚本,放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 辅助工具方面: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可增加更多细节 开源工作流: 其他工具和网站: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN ,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/
2024-11-05