Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

修复老照片

Answer

以下是关于用 AI 修复老照片的相关内容:

使用 MutiDiffusion 插件,在显存不够时可通过分块渲染功能放大图片。对于较复杂的老照片,如人物多、场景复杂、像素低的情况,可先在 PS 里调整角度和裁切,直接上色效果不佳时,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词给蓝天、绿树、灰石砖等。

ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的高清放大工作流复杂,新模型出来后,十几个基础节点就能实现更好效果。参数调节一般先确认放大倍数,再根据图片调整 controlNet 强度。Flux.1-dev ControlNet 是为低分辨率图像开发的模型,可与 diffusers 库一起使用,训练方式采用多种人工退化方案。Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能与其他 LORA 结合使用。T5 Clip 若图片质量细节不够,可选择 fp16 版本。controlNet 传递的应是原始图片。

在新上线的 controlnet 模型中,Recolor 模型可给黑白图片重新上色,可选择 realisian 写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】用AI给老照片上色,岁月不改它模样

启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。这两张还算容易的,接下来就遇到比较棘手的照片了。比如这一张,是我外公外婆带着我妈和我舅舅。外公走得更早,我甚至都没见过一面,只有这些照片还记录着他存在的痕迹。而这张照片也有些年头了,一直被外婆好好保存着。人物多、场景复杂,像素非常的低,使得这张照片处理起来难度很大。我首先在ps里面进行了一下角度的调整和照片的裁切,然后使用刚才的步骤进行上色,但是直接上色的结果有点像是加了一层黄色滤镜,有颜色但是年代感还是太强了。而太具体的颜色指定,又容易让画面污染严重,因为内容实在太多了,光是指定衣服就得十来个颜色提示词,AI能分辨得清才怪。所以我决定放弃人物服装的颜色指定,只给一个场景方向,剩下的交给AI去自行决定。于是,我从网上找到了一张仙人洞的照片,让AI去帮我匹配色调。加入第二个controlnet来控制颜色,使用的是t2ia_color的模型。关键词只给了:蓝天、绿树、灰石砖这么简单的几个词。颜色终于正常了,最后经过脸部的修复和放大,得到了最终的效果。

ComfyUI 老照片修复Flux Controlnet Upscale

以前做了一个高清放大的工作流,被很多小伙伴用在淘宝上做老照片修复。之前的工作流比较复杂,现在,这个模型出来,结合这个工作流,只要十几个基础的节点就能实现同样的效果,甚至可能更好。[heading3]参数的调节[content]一般做法是先确认放大的倍数,然后根据出来的图片来调整controlNet的强度。[heading3]Controlnet-Upscaler放大模型[content]模型介绍:Flux.1-dev ControlNet是Jasper研究团队为低分辨率图像开发的模型。使用方法:可直接与diffusers库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式:采用合成复杂数据退化方案,结合图像噪声、模糊和JPEG压缩等多种方式对真实图像进行人工退化。目的:这种训练方法的目的是让模型学会处理各种真实世界中可能遇到的图像退化情况,从而在实际应用中表现更好。引用文献:训练方式类似Wang,Xintao等人在2021年发表的“Real-esrgan:Training real-world blind super-resolution with pure synthetic data.”中的方法。许可证:该模型属于Flux.1-dev模型许可证范畴[heading3]Flux Ultimator细节增强[content]细节:能增加小细节,让图像尽可能逼真。鲜艳色彩增强:可放大色调的丰富性和深度。使用:在0.1的强度设置下也能有显著增强效果。集成:能顺利集成到工作流程中,与其他LORA结合使用效果好,结合时需将强度降低小于0.5。[heading3]T5 Clip[content]如果你发现出来的图片质量细节不够,选择fp16的版本。[heading3]图像的传递[content]controlNet这里传递的应该是上传的原始图片,因为这个是controlNet而不是潜空间图像。

【SD】用AI给老照片上色,岁月不改它模样

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-09-10 19:00原文网址:https://mp.weixin.qq.com/s/-hlnSTpGMozJ_hfQuABgLw在最近新上线的controlnet模型中,除了我们之前测试过的一众适配sdxl的模型以外,还增加了一款名为Recolor的新模型,它的作用是可以将黑白的图片进行重新上色。看到这个功能,我首先想到的就是可以用它来修复那些已经年代久远的老照片。毕竟在以前那个年代,没有现在这种可以永远保存的数码拍照技术,很多洗出来的照片也都随着岁月的流逝而褪去了色彩。如果能用AI技术恢复这些往日的时光,也许能唤醒我们心底的一些温暖。于是,我联系爸妈帮我找来了一些他们珍存的照片。他们也很热心于这件事情,立马给我发来了一大堆照片,其中有很多我也没见过的他们年轻的时候的样子,还包括我爷爷奶奶外公外婆那一辈的回忆。虽然很多照片都是黑白的,但是仍然能感受到那个时候的阳光和清风。这是我的奶奶,她离开已经有十几年了,年轻时候留下的照片不多,这一张算是保存得很好的了,那个年代的人物照片总能让人感受到一种独特的气质。既然是人物照片的还原,我这里就选择了realisian的写实大模型。提示词直接描述颜色和对应的内容。比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。因为黑白照片,颜色无从判断,所以有些只能靠猜测了。ControlNet这里选择Recolor,预处理器有两个,经过我的测试,选择“recolor_luminance”的效果会更好一些。

Others are asking
让老照片动起来
以下是关于让老照片动起来的相关信息: 2024 上海市杨浦区举办了“时光印记”AI 公益挑战赛,采集了 20 位老一辈建设者的老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图,重现其青春风采与城市贡献。奖项丰富,包括丰厚现金奖励、DOU+流量推广、即梦 AI 积分、歌歌 AI 会员、剪映 App 会员等,还有比赛证书、线下巡展等。报名及创作时间为即日起至 2024 年 11 月 20 日。活动组织包括上海市杨浦区民政局、跳跳糖星火公益社团、WaytoAGI、即梦 A、歌歌 Al 等。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s,评选规则为预选加专家评委多维度评选。参赛方式为报名问卷和进群获取素材。 体验让老照片动起来的工具: Dreamina 即梦:网址为 https://dreamina.jianying.com/aitool/home?subTab ,优点是不需要🪜,每天有免费额度,注册可用抖音号或手机号,注册时间 5min。上传图片后能让老照片有一些动态效果,比如水面动起来,但也可能出现画面扭曲的情况。 Sora:网址为 https://openai.com/sora ,优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用,花费时间 30 60min,价格为 GPT 4 20$一个月。
2025-03-26
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流只需十几个基础节点就能实现更好效果。 参数调节方面,一般先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlNetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,训练方式类似 Wang,Xintao 等人发表的文献中的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节,增强鲜艳色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。 对于复杂的老照片,可在 PS 中进行角度调整和裁切,若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型和简单关键词。 新上线的 controlnet 模型中,Recolor 模型可将黑白图片重新上色。 人物照片还原可选择 realisian 的写实大模型,用提示词描述颜色和内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-06
我需要找到一个方法来把我爷爷迷迷糊糊的老照片上的样子生成样貌特征完全一致的数字人脸,如何可以实现?
以下是一种可能实现将您爷爷老照片生成数字人脸的方法: 1. 利用剪映软件: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费且适合的数字人形象,比如“婉婉青春”。 软件会播放数字人的声音,您可判断是否需要,点击右下角“添加数字人”,将其添加到当前视频中。剪映会根据提供的内容生成对应音视频并添加到轨道中。 左下角会提示渲染完成时间,之后可点击预览按钮查看效果。 为让视频更美观,可增加背景图片。删除先前导入的文本内容,点击左上角“媒体”菜单并“导入”本地图片,将其添加到视频轨道上(会覆盖数字人)。 拖动背景图的角将其放大到适合尺寸,将数字人拖动到合适位置。 点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 完成后点击右上角“导出”按钮导出视频备用。 2. 若希望数字人脸换成特定的面孔,可能需要使用其他工具进行换脸。 3. 对于老照片的处理,还可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 对于复杂的老照片,可先在 ps 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。 可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。最后经过脸部修复和放大得到最终效果。
2025-03-06
老照片修复工具推荐
以下是一些老照片修复工具推荐: 视频放大工具: https://www.topazlabs.com/topazvideoai 百度网盘分享的 Topaz 全家桶:链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 ,提取码:16d1 ,复制这段内容打开「百度网盘 APP 即可获取」 Kraken.io:主要用于图像压缩,也提供免费的图像放大功能,能保证图像细节清晰度。 Deep Art Effects:强大的艺术效果编辑器,通过 AI 技术能将图像放大并赋予艺术效果,支持多种滤镜和风格。 RealESRGAN:https://replicate.com/nightmareai/realesrgan ,这是基于 RealESRGAN 的图像超分辨率增强模型,有人脸修复和可调节放大倍数选项,但使用几次要收费。 Photoshop Generative AI 功能:主要工具包括 Remove tool、Clone brush、Generative fill 以及 Neural filters,链接:https://x.com/xiaohuggg/status/1692751080973828468?s=46&t=F6BXooLyAyfvHbvr7Vw2g SD 图生图,重绘幅度小一点 图片放大工具: 本地工具放大:https://www.upscayl.org/download 开源工作流: 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn ,腾讯开源的模型,能恢复老照片,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 此外,将照片放入后期处理中,使用 GFPGAN 算法可将人脸变清晰,具体可参考文章—— 。
2025-03-05
破损老照片修复
以下是一些可用于破损老照片修复的工具和方法: 辅助工具: 视频放大:https://www.topazlabs.com/topazvideoai 【超级会员 V6】通过百度网盘分享的文件:Topaz 全家桶... 链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 提取码:16d1 复制这段内容打开「百度网盘 APP 即可获取」 Kraken.io:主要用于图像压缩,但也提供了一个免费的图像放大功能,不仅能够放大图像,还能保证图像的细节清晰度。 Deep Art Effects:是一款强大的艺术效果编辑器,通过 AI 技术能够将图像放大并赋予艺术效果,支持多种滤镜和风格,让图像更加独特。 RealESRGAN:https://replicate.com/nightmareai/realesrgan (用几次要收费) 多种组合操作 4️⃣ 使用 Photoshop Generative AI 功能修复破损老照片,主要工具包括:Remove tool, Clone brush, Generative fill 以及 Neural filters。 链接:https://x.com/xiaohuggg/status/1692751080973828468?s=46&t=F6BXooLyAyfvHbvr7Vw2g SD 图生图,重绘幅度小一点 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 【SD】用 AI 给老照片上色,岁月不改它模样:将照片放入到后期处理中,使用 GFPGAN 算法将人脸变清晰。参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以什么都不写,以免对原图产生干扰。
2025-02-27
我想把人物老照片转彩色并生成视频动起来,用什么工具
以下是一些可以将人物老照片转彩色并生成视频动起来的工具和方法: 1. 对于给老照片上色,可以使用 Stable Diffusion 及其相关插件,如 MutiDiffusion 插件。在显存不够的情况下,可利用分块渲染功能放大图片。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,通过简单的关键词如“蓝天、绿树、灰石砖”来匹配色调。同时,将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对于生成视频让图片动起来,可以使用即梦进行图生视频。只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-22
修复旧照片
以下是关于修复旧照片的相关内容: 使用 StableSR 修复旧照片: 1. 需使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 一个 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 测试结果: 1. 使用“Ultimate SD upscale”脚本放大,重绘幅度开到 0.1 能看到人物细节变化,但整个人磨皮严重,失去真实感;重绘幅度开到 0.4 则变化较大。 2. 用“后期处理”的放大方法,缩放 3 倍,眼神更锐利,但头发仍模糊。 3. 用 StableSR 放大,需将大模型和 VAE 分别调整为下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。 ComfyUI 老照片修复 Flux Controlnet Upscale: 1. 以前的高清放大工作流被用于淘宝老照片修复,现在新模型结合工作流,十几个基础节点就能实现更好效果。 2. 参数调节:先确认放大倍数,再根据图片调整 controlNet 强度。 3. ControlnetUpscaler 放大模型:是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 4. Flux Ultimator 细节增强:能增加小细节,让图像逼真,增强色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 5. T5 Clip:若图片质量细节不够,选择 fp16 版本。 6. 图像传递:controlNet 传递的应是上传的原始图片。 用 AI 给老照片上色: 在新上线的 controlnet 模型中,新增 Recolor 模型可给黑白图片重新上色。可选择 realisian 的写实大模型,提示词直接描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-26
动漫脸部修复
以下是关于动漫脸部修复的相关内容: GFPGAN 面部修复: 找一张模糊人像进行修复,其他参数不变,直接将 GFPGAN 参数拉到 1 即可。面部修复效果显著,但只能修复脸部,头发、衣服、背景等无变化。 背景去除: 需要安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好之后重启,就有选项框。 测试时模型选第一个 u2net,直接点击生成。抠图效果不错但边缘轮廓可能有黑边,用时 2.86 秒。 去掉黑边可点击后面的 Alpha matting 调整参数,如 Erode size:6、Foreground threshold:143、Background threshold:187,就能得到无黑边图像。 点击按钮还可直接生成蒙版。有专门做服装抠图和动漫抠图的模型。 手部修复: 对于动漫人物手部修复,先在 3D 骨架模型编辑器中手动调整还原骨架,若为写实人物可使用 openpose 预处理器进行姿态检测。 来到深度图库,修改尺寸并载入骨架图,选择合适手势添加,可发送到 controlnet。 启用 controlnet 时选择相应预处理器,在图生图中进行手部局部重绘,绘制蒙版,可一只手一只手调整,之后在 ps 中使用“创成式填充”修补衔接区域。 SD 新手入门图文教程中的相关内容: 放大算法中,Latent 在许多情况下效果不错,但重绘幅度小于 0.5 效果不佳,ESRGAN_4x、SwinR 4x 对 0.5 以下重绘幅度支持较好。 Hires step 表示进行这一步时计算的步数。 Denoising strength 表现为生成图片对原始输入图像内容的变化程度,一般阈值 0.7 左右,超过 0.7 与原图基本无关,0.3 以下稍作修改。 面部修复可修复人物面部,但非写实风格人物开启可能导致面部崩坏。
2025-03-13
脸部修复
以下是关于脸部修复的相关内容: 在 Stable Diffusion 中,通常初始分辨率设为 512x512 以提高抽卡效率,但这样人脸易崩。确定人物姿态和构图后,可点击面部修复和高分辨率修复达到正常效果,但小图和大图存在差异,重绘幅度低无法修复细节错误,高则会导致人物发型、服装变化大。 GFPGAN 面部修复:其他参数不变,直接将 GFPGAN 参数拉到 1 即可。此功能只能修复脸部,头发、衣服、背景等无变化。 背景去除:需安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好后重启,有选项框,模型选第一个 u2net 点击生成。抠图效果不错但有黑边,可通过点击 Alpha matting 调整参数(Erode size:6、Foreground threshold:143、Background threshold:187)去掉黑边,还能生成蒙版。有专门做服装和动漫抠图的模型。 脸部修复插件 After Detailer:安装方式可在扩展面板中搜索直接安装,或放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成重启 webUI 会出现插件面板。使用时在启用“After Detailer”前打勾,下拉菜单中有很多模型,分别针对 2D 人物的脸、手、全身和真实人物的脸部修复。选择真人脸部模型,关掉“面部修复”和“高分辨率修复”,保持 512x512 尺寸测试,人物脸部正常,细节精致。插件有正负提示词输入框,输入表情相关文字人物表情会改变,如输入“伤心、流泪”,但输入“带着墨镜”无变化,提示词仅针对表情。插件的第二单元和 controlnet 一样有多通道,将第二单元模型换成 hand 模型可修复手部,但效果有待改善,可结合 PS 蒙版处理。
2025-03-13
老旧照片修复
以下是关于用 AI 给老旧照片修复上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,在显存不够的情况下,仅使用分块渲染功能将图片放大到足够倍数。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。 4. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 5. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 6. 把图片发送到图生图中,打开 stableSR 脚本,放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 7. 对于复杂的照片,如人物多、场景复杂、像素低的情况,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 作者为白马少年,发布时间为 2023 年 9 月 10 日 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 。
2025-03-06