直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

AI怎么做老照片修复

回答

以下是使用 AI 进行老照片修复的步骤:

  1. 首先将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——【Stable Diffusion】超清无损放大器 StableSR
  2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。
  3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下,将图片放大到足够的倍数。

对于复杂的老照片,比如人物多、场景复杂、像素非常低的情况:

  1. 首先在 ps 里面进行角度的调整和照片的裁切。
  2. 然后按照上述步骤进行上色,如果直接上色效果不佳,比如像加了一层黄色滤镜、年代感太强,可以放弃人物服装的颜色指定,只给一个场景方向。
  3. 从网上找到相关的参考照片,让 AI 去匹配色调。
  4. 加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,关键词只给简单的几个词,如“蓝天、绿树、灰石砖”。
  5. 最后经过脸部的修复和放大,得到最终效果。

另外,在最近新上线的 controlnet 模型中,新增的 Recolor 模型可以将黑白图片重新上色,可用于老照片修复。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】用AI给老照片上色,岁月不改它模样

所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。

【SD】用AI给老照片上色,岁月不改它模样

这两张还算容易的,接下来就遇到比较棘手的照片了。比如这一张,是我外公外婆带着我妈和我舅舅。外公走得更早,我甚至都没见过一面,只有这些照片还记录着他存在的痕迹。而这张照片也有些年头了,一直被外婆好好保存着。人物多、场景复杂,像素非常的低,使得这张照片处理起来难度很大。我首先在ps里面进行了一下角度的调整和照片的裁切,然后使用刚才的步骤进行上色,但是直接上色的结果有点像是加了一层黄色滤镜,有颜色但是年代感还是太强了。而太具体的颜色指定,又容易让画面污染严重,因为内容实在太多了,光是指定衣服就得十来个颜色提示词,AI能分辨得清才怪。所以我决定放弃人物服装的颜色指定,只给一个场景方向,剩下的交给AI去自行决定。于是,我从网上找到了一张仙人洞的照片,让AI去帮我匹配色调。加入第二个controlnet来控制颜色,使用的是t2ia_color的模型。关键词只给了:蓝天、绿树、灰石砖这么简单的几个词。颜色终于正常了,最后经过脸部的修复和放大,得到了最终的效果。对比一下前后的效果,那个流逝的时光仿佛又回来了,外婆看到后也非常高兴,在微信上连连夸赞。

【SD】用AI给老照片上色,岁月不改它模样

在最近新上线的controlnet模型中,除了我们之前测试过的一众适配sdxl的模型以外,还增加了一款名为Recolor的新模型,它的作用是可以将黑白的图片进行重新上色。看到这个功能,我首先想到的就是可以用它来修复那些已经年代久远的老照片。毕竟在以前那个年代,没有现在这种可以永远保存的数码拍照技术,很多洗出来的照片也都随着岁月的流逝而褪去了色彩。如果能用AI技术恢复这些往日的时光,也许能唤醒我们心底的一些温暖。于是,我联系爸妈帮我找来了一些他们珍存的照片。他们也很热心于这件事情,立马给我发来了一大堆照片,其中有很多我也没见过的他们年轻的时候的样子,还包括我爷爷奶奶外公外婆那一辈的回忆。虽然很多照片都是黑白的,但是仍然能感受到那个时候的阳光和清风。这是我的奶奶,她离开已经有十几年了,年轻时候留下的照片不多,这一张算是保存得很好的了,那个年代的人物照片总能让人感受到一种独特的气质。

其他人在问
利用ai编写h5比较优秀的工具有那些?
目前在利用 AI 编写 H5 方面,以下是一些较为优秀的工具: 1. Adobe Spark:提供了易于使用的模板和设计工具,结合 AI 辅助功能,可帮助您快速创建吸引人的 H5 页面。 2. Canva:拥有丰富的模板和元素库,其 AI 功能可以为您的设计提供创意和布局建议。 3. Wix:具有强大的自定义功能,部分 AI 特性能够协助您优化页面内容和布局。 但需要注意的是,AI 在编写 H5 中的应用仍在不断发展和完善,不同工具的性能和适用场景可能会有所差异,您可以根据具体需求进行选择和尝试。
2024-11-20
有什么换脸的ai
以下是一些关于 AI 换脸的信息: 开源、免费的解决方案:facefusion 本机解决方案:需要 Python 环境及安装多个依赖软件,对编程知识有一定要求,且运行推理计算速度依赖 GPU,本地计算机若无 GPU 或 GPU 显存较小,执行速度缓慢,不推荐本地化安装。 云服务解决方案:可利用云厂商如阿里云的 PAI 和 AutoDL 提供的大模型运行环境和计算能力,如选择 AutoDL,需在算力市场中选取能接受价格且 GPU 配置更高的算力设备。通过模型镜像启动 GPU 服务器,在算法社区查找 facefusion 镜像,创建并启动实例,在终端输入相关命令启动程序(需注意添加参数 executionproviders cuda cpu 以使用 GPU 能力),通过 web 浏览器访问 facefusion 提供的 UI 界面,上传图片、视频进行换脸处理,处理完成后可下载输出的视频。 Fal.ai:用摄像头进行输入,以 30+fps AI 实时生图,把你变成另一个人,可以使用提示词控制生成图像或模仿对象,在电脑/手机上尝试,扩散模型重绘,可实时用 prompt 控制。网址:https://www.fal.ai/camera
2024-11-20
如果只能推荐3个AI辅助ppt制作的工具,你会推荐哪些?为什么?
以下为您推荐 3 个 AI 辅助 PPT 制作的工具及原因: 1. GPT4:具有强大的语言理解和生成能力,能为 PPT 提供清晰、准确且富有创意的内容大纲和文字描述。 2. WPS AI:与常用的办公软件 WPS 结合紧密,方便在熟悉的操作环境中利用 AI 功能进行 PPT 制作,提高效率。 3. chatPPT:可能提供了便捷的交互方式和智能的设计辅助,帮助用户更轻松地创建和优化 PPT。
2024-11-20
新手如何学习AI
对于新手学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自身兴趣选择特定模块深入学习。 掌握提示词的技巧,其上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出自己的作品。 知识库中有很多实践后的作品、文章分享,欢迎实践后进行分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人进行互动,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 6. 持续学习和跟进: AI 是快速发展的领域,新的研究成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2024-11-20
教培舞蹈机构如何利用人工智能ai获客引流?
对于教培舞蹈机构利用人工智能 AI 获客引流,以下是一些建议: 1. 利用 AI 驱动的客户关系管理(CRM)系统:通过分析潜在客户的行为数据和偏好,实现精准营销和个性化的服务推荐。 2. 借助 AI 聊天机器人:在网站或社交媒体平台上提供即时的咨询服务,解答潜在客户关于课程、师资、价格等常见问题,提高客户满意度和参与度。 3. 运用 AI 进行市场分析:了解市场趋势、竞争对手动态以及潜在客户的需求,从而优化课程设置和营销策略。 4. 利用 AI 生成个性化的营销内容:例如宣传文案、海报设计等,吸引潜在客户的注意力。 5. 基于 AI 的社交媒体管理工具:帮助机构更有效地发布内容、选择发布时间,并监测社交媒体上的用户反馈,及时调整营销策略。
2024-11-20
AI如何为工作提效
以下是关于 AI 如何为工作提效的相关内容: 在工作中使用 AI 能带来显著的效率改善。研究发现,使用 AI 的被测试者比未使用者平均多完成 12.2%的任务,完成速度提高 25.1%,结果质量提高 40%。 同时有以下有趣结论: 1. GPT4 等模型有能力边界,边界内处理良好,边界外则不佳,但具体边界未知。 2. 分三组测试,使用 AI 且接受培训的两组任务完成效率和质量远高于未使用组。 3. AI 对工作能力差的被测试者提升更大,会拉平高级和低级人才的差距。 4. 过于依赖 AI 可能适得其反,降低效率和质量,因无法区分其能力边界。 人类和 AI 协作有两种方式: 1. 半人马模式:人与 AI 紧密结合但各司其职,人类主导流程,根据任务性质调配资源,充分利用人类智慧与判断力及 AI 的计算与生成能力。 2. 机械人模式:人与 AI 高度融合,在细节上循环迭代优化,最终实现人机一体化,充分发挥人类灵活性和 AI 生成能力。 在技术就业市场方面,生成式人工智能带来了变革: 1. 展现出在编程、自动化任务处理和内容创作等方面的惊人能力,提高了工作效率,但威胁到一些技术岗位,如系统管理员、数字营销文案撰写等。 2. 为适应新环境的技术工作者带来新机遇,如云架构师、网络架构师和企业架构师等职位,因其需要人际交往、团队领导和复杂决策能力。 3. 促使企业领导者重新思考角色,利用 AI 提高效率,将更多精力投入创新和战略规划。 在大淘宝设计部,AI 作为工具带来了以下效果: 1. 主要工具为 Midjourney 和 Stabel Diffusion,辅助工具有 RUNWAY 和 PS beta 等。 2. 在营销设计中,整体项目设计时间减少约 18%,创意阶段丰富性提升约 150%,时间节省约 60%。 创意多样:不同创意概念提出数量增加 150%。 执行加速:创意生成阶段时间缩短平均 60%。 整体提效:从创意发散到落地执行品效都有显著提升。 总之,AI 工具不仅是技术进步,更代表了全新工作理念。
2024-11-20
老照片修复
以下是关于用 AI 给老照片上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 4. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 5. 把图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 6. 对于复杂的照片,如人物多、场景复杂、像素低的,可先放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 参考文章: 1. 2. 作者:白马少年,发布时间:20230910 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2024-11-06
能修复老照片吗
AI 可以修复老照片。以下是一些相关的方法和工具: 可以使用 Stable Diffusion(SD)中的 controlnet 模型中的 Recolor 新模型为黑白老照片重新上色。提示词可直接描述颜色和对应的内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。 把图片发送到图生图中,打开 stableSR 脚本,放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 辅助工具方面: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可增加更多细节 开源工作流: 其他工具和网站: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN ,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/
2024-11-05
老照片修复用哪个AI软件比较好
以下是一些可用于老照片修复的 AI 软件和工具: Stable Diffusion:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。还可使用 GFPGAN 算法将人脸变清晰,将图片发送到图生图中,打开 stableSR 脚本进行放大修复。 本地工具放大:https://www.upscayl.org/download 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强: magnific:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型(能恢复老照片):https://github.com/TencentARC/GFPGAN ,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/
2024-10-29
老照片修复
以下是关于用 AI 给老照片修复上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 2. 在 PS 里进行角度调整和照片裁切。 3. 将照片放入后期处理,使用 GFPGAN 算法让人脸变清晰。 4. 把图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 5. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。 6. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 7. 对于复杂的照片,如人物多、场景复杂、像素低的,可先给场景方向,让 AI 自行决定颜色。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 作者为白马少年,发布时间为 20230910 19:00,原文网址为 https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 。
2024-10-29
修复老照片的AI工具
以下是一些修复老照片的 AI 工具及相关操作步骤: 工具: 1. Stable Diffusion:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。还可使用 t2ia_color 模型和 controlnet 控制颜色。 2. GFPGAN 算法:用于将人脸变清晰。 3. 本地工具放大:https://www.upscayl.org/download 4. SD 放大:扩散模型可增加更多细节。 5. 开源工作流: 6. stability.ai 的 https://clipdrop.co/tools 7. 画质增强 magnific:https://magnific.ai/ 8. Krea:https://www.krea.ai/apps/image/enhancer 9. Image Upscaler:https://imageupscaler.com/ 10. 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 11. 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 12. 腾讯开源的模型(能恢复老照片):https://github.com/TencentARC/GFPGAN,在线测试地址:https://replicate.com/tencentarc/gfpgan 13. 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 14. Imglarger:https://imglarger.com/ 15. Let's Enhance:https://letsenhance.io/ 16. Waifu2x:http://waifu2x.udp.jp/ 操作步骤: 1. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对照片在 ps 里进行角度调整和裁切。 3. 把图片发送到图生图中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。
2024-10-08
老照片优化
以下是使用 AI 给老照片上色和优化的步骤: 1. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。不了解的朋友可参考文章——。 2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下,将图片放大到足够的倍数。 4. 为做到颜色与内容的统一,启用之前讲到过的 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。不了解这款插件的朋友可以参照文章——。 5. 在新上线的 controlnet 模型中,新增的 Recolor 模型可将黑白图片重新上色。 经过上述操作,就能完成老照片的上色和优化。
2024-09-27
大模型可以修复老旧的分辨率低的视频吗
大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。 例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。 另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D UNet 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。
2024-11-17
照片修复
以下是关于照片修复的相关知识: 图像高清修复与无损放大的流程通常分为三部分: 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,因其处理时间长。 图像高清修复:使用 Iceclear/StableSR 等模型进行高清修复并 2 倍放大,搭配 Stable SR Upscaler 模型和合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)等。 图像高清放大:用 realisticVision 底膜进行二次修复,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。 用 AI 给老照片上色: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时将图片放大。 可在 PS 里调整角度和裁切照片,然后上色。对于复杂照片,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词如蓝天、绿树、灰石砖。 将照片放入后期处理,使用 GFPGAN 算法清晰人脸,五官重绘后,再将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型修复,vae 选择 vqgan,可不写提示词以免干扰原图。
2024-11-06
请问修复旧照片怎么处理?
修复旧照片可以按照以下步骤进行处理: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,可在显存不够的情况下将图片放大到足够倍数。 5. 对于复杂的照片,可先在 ps 里进行角度调整和照片裁切,然后按照上述步骤上色。若直接上色效果不佳,比如像加了黄色滤镜或年代感太强,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。比如从网上找相关照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,使用 t2ia_color 的模型,给简单的关键词,如“蓝天、绿树、灰石砖”。 6. 修复时必须使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2024-10-31
请问修复旧的照片怎么处理?
修复旧照片可以按照以下步骤进行处理: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章——。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下,将图片放大到足够的倍数。 5. 对于复杂的照片,如人物多、场景复杂、像素低的照片,可以先在 ps 里面进行角度调整和照片裁切,然后按照上述步骤进行上色。如果直接上色效果不佳,比如像加了一层黄色滤镜或颜色指定导致画面污染严重,可以放弃人物服装的颜色指定,只给一个场景方向,让 AI 自行决定。比如从网上找一张匹配色调的照片,加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,关键词可以只给“蓝天、绿树、灰石砖”等简单的词。 6. 修复时必须要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 7. StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 8. 一个 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。这三个文件可以在百度云盘的链接中获取。安装好之后,可以用一张从网上找的神仙姐姐的照片做测试。 需要注意的是,在修复过程中,不同的照片可能需要根据具体情况进行调整和尝试,以达到最佳的修复效果。
2024-10-31