直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

修复照片

回答

以下是使用 AI 修复照片的详细步骤:

  1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章——【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿。此步骤可重绘五官,但无法使头发、衣服等元素变清晰。
  2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——【Stable Diffusion】超清无损放大器 StableSR。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。
  3. 修复时必须使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stable-diffusion-webui/models/Stable-Diffusion/文件夹中。StableSR 模块(约 400M 大小)放入 stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。VQVAE(约 750MB 大小)放在 stable-diffusion-webui/models/VAE 中。
  4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时将图片放大到足够倍数。
  5. 对于复杂照片,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。例如加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,关键词如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】用AI给老照片上色,岁月不改它模样

[title]【SD】用AI给老照片上色,岁月不改它模样将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。

【SD】超清无损放大器StableSR

[title]【SD】超清无损放大器StableSR这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

【SD】用AI给老照片上色,岁月不改它模样

[title]【SD】用AI给老照片上色,岁月不改它模样启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。这两张还算容易的,接下来就遇到比较棘手的照片了。比如这一张,是我外公外婆带着我妈和我舅舅。外公走得更早,我甚至都没见过一面,只有这些照片还记录着他存在的痕迹。而这张照片也有些年头了,一直被外婆好好保存着。人物多、场景复杂,像素非常的低,使得这张照片处理起来难度很大。我首先在ps里面进行了一下角度的调整和照片的裁切,然后使用刚才的步骤进行上色,但是直接上色的结果有点像是加了一层黄色滤镜,有颜色但是年代感还是太强了。而太具体的颜色指定,又容易让画面污染严重,因为内容实在太多了,光是指定衣服就得十来个颜色提示词,AI能分辨得清才怪。所以我决定放弃人物服装的颜色指定,只给一个场景方向,剩下的交给AI去自行决定。于是,我从网上找到了一张仙人洞的照片,让AI去帮我匹配色调。加入第二个controlnet来控制颜色,使用的是t2ia_color的模型。关键词只给了:蓝天、绿树、灰石砖这么简单的几个词。颜色终于正常了,最后经过脸部的修复和放大,得到了最终的效果。对比一下前后的效果,那个流逝的时光仿佛又回来了,外婆看到后也非常高兴,在微信上连连夸赞。

其他人在问
老照片修复有手机端吗
老照片修复在手机端是可行的。以下是一些相关信息: 图像放大修复是 AI 绘画领域的重要部分,能应用于旧照片重现清晰、人像高清修复等场景。以前手机拍摄的低分辨率图片,如今可用 AI 技术进行高清修复。用手机也能拍摄出高清大片,提升照片质量。 【SD】用 AI 给老照片上色时,可将照片放入后期处理,使用 GFPGAN 算法让人脸变清晰。还可将图片发送到图生图中,打开 stableSR 脚本放大。切换到 sd2.1 模型修复,启用 MutiDiffusion 插件等。对于复杂的照片,可在 PS 里调整角度和裁切,放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,加入第二个 controlnet 控制颜色。
2024-12-19
老照片修复有手机端app吗
以下是为您整理的关于老照片修复的相关内容: 老照片修复可以利用 AI 技术实现。在手机端,您可以通过以下步骤和方法进行操作: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 2. 在 PS 里进行角度调整和照片裁切,然后使用特定步骤上色。对于复杂的照片,可只给场景方向,让 AI 自行决定颜色。 3. 利用 GFPGAN 算法将人脸变清晰,具体可参考相关文章。 4. 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan。 此外,图像放大修复是 AI 绘画领域的重要部分,其应用场景广泛: 1. 旧照片重现清晰,让模糊的旧照片保留珍贵回忆。 2. 人像高清修复,用手机也能拍摄出高清大片,提升照片质量。 3. 图像分辨率可无限扩大且不失真,如马斯克原始图像可多次采样放大提升分辨率。 目前不太明确是否有专门的老照片修复手机端 APP,但您可以通过上述方法和技术在手机上进行相关操作。
2024-12-19
有没有修复老照片的AI工具
以下是一些修复老照片的 AI 工具及相关操作: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 2. 辅助工具: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可增加更多细节 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰,参考文章——。 4. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。参考文章——。 在处理复杂照片时,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,关键词如“蓝天、绿树、灰石砖”。
2024-12-10
老照片修复
以下是关于用 AI 给老照片上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 4. 将照片放入后期处理,使用 GFPGAN 算法使人脸变清晰。 5. 把图片发送到图生图中,打开 stableSR 脚本放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 6. 对于复杂的照片,如人物多、场景复杂、像素低的,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如蓝天、绿树、灰石砖。 相关文章参考: 1. 【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21wechat_redirect 2. 【Stable Diffusion】超清无损放大器 StableSR:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21wechat_redirect
2024-12-04
大模型可以修复老旧的分辨率低的视频吗
大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。 例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。 另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D UNet 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。
2024-11-17
照片修复
以下是关于照片修复的相关知识: 图像高清修复与无损放大的流程通常分为三部分: 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,因其处理时间长。 图像高清修复:使用 Iceclear/StableSR 等模型进行高清修复并 2 倍放大,搭配 Stable SR Upscaler 模型和合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)等。 图像高清放大:用 realisticVision 底膜进行二次修复,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。 用 AI 给老照片上色: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时将图片放大。 可在 PS 里调整角度和裁切照片,然后上色。对于复杂照片,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词如蓝天、绿树、灰石砖。 将照片放入后期处理,使用 GFPGAN 算法清晰人脸,五官重绘后,再将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型修复,vae 选择 vqgan,可不写提示词以免干扰原图。
2024-11-06
我想根据一些旧照片,使用AI绘画重新画一下,希望可以更像手绘,可以打印出来出来作为纪念,有什么工具可以用
目前有以下几种工具可供您选择来实现根据旧照片进行类似手绘风格的 AI 绘画并打印出来作为纪念: 1. DALL·E2:能够生成逼真且富有创意的图像,包括手绘风格。 2. StableDiffusion:具有强大的图像生成能力,可通过设置相关参数获得手绘效果。 3. Midjourney:能创作出风格多样的图像,包括您期望的手绘风格。 您可以根据自己的需求和使用习惯选择适合的工具。
2024-12-20
如何将照片生成漫画风格的图片
以下是将照片生成漫画风格图片的方法: 使用 SD 模型和 lora 的组合: 1. 选择大模型“Flat2D Animerge”,适合生成卡通动漫图片,官方建议 CFG 值在 5 或 6(使用动态阈值修复时可拉到 11)。 2. 选择两个 lora,“Chinese painting style”可增加中国画水彩风格效果,权重设置为 0.4;“Crayon drawing”可添加简单线条和小孩子的笔触,权重设置为 0.8。 3. 将图片丢到标签器中反推出关键词,然后发送到“文生图”。 4. 在正向提示词末尾添加上述 lora。 5. 按照参考图设置好尺寸,重绘幅度开 0.5 让 AI 更自由发挥,想更接近原图可降低数值。 6. 将图放入 controlnet 中,选择 tile 模型,权重为 0.5,控制模式选择“更注重提示词”。 使用 Midjourney 以图绘图功能生成迪斯尼卡通风格头像: 1. 选择一张满意的图片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,上传文件选取图片并发送(记得点击回车或发送按钮)。 2. 点击图片,在浏览器中打开,复制图片链接。 3. 使用图片链接加 prompt 提示词发送给 Midjourney 进行以图绘图。 复杂提示词示例:Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 不同照片生成:可更换照片使用相同提示词重新生成。 其他调整:若觉得风格太过卡通,可把提示词里的 Disney 换成 Pixar;若为女孩,把提示词里的 boy 换成 girl。每次生成 4 张图片,对某一张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击下方的 V1~V4 进行修改。
2024-12-19
照片转动画
以下是一些将照片转动画的工具和相关信息: 网站: Morph Studio:https://app.morphstudio.com/ ,还在内测。 Heygen:https://www.heygen.com/ ,数字人/对口型。 Kaiber:https://kaiber.ai/ 。 Moonvalley:https://moonvalley.ai/ 。 Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 美图旗下:https://www.miraclevision.com/ 。 Neverends:https://neverends.life/create ,操作傻瓜。 SD:Animatediff SVD deforum ,自己部署。 Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 Krea:https://www.krea.ai/ 。 Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 descript:https://www.descript.com/?ref=feizhuke.com 。 veed.io:https://www.veed.io/ ,自动翻译自动字幕。 clipchamp:https://app.clipchamp.com/ 。 typeframes:https://www.revid.ai/?ref=aibot.cn 。 VIGGLE: 是一款创新的可控视频生成平台,基于 JST1 技术,允许用户自由创建和控制 3D 角色的动作。在游戏开发、动画制作及 VR/AR 等领域展现出巨大潜力。 体验地址:https://www.viggle.ai/ 。 官方 Discord:https://discord.gg/viggle 。 操作方式(以网页端举例): Upload a character image of any size.上传任意尺寸的角色图像。 For better results,use a fullbody photo with a clean background.为了获得更好的效果,请使用背景干净的全身照片。 Image size图像大小(最大 10MB)。 The photo you upload must comply with您上传的照片必须符合社区规则。 全球 AI 电影马拉松大赛获奖短片《种子》创作思路分享: 图片转视频主要用到了其实整个视频还是比较顺利的。主要用到 runway 的笔刷,即梦的前后帧,Pixverse、pika 等,画面都不难出,难出的就再抽他个一百次就行。 主要说三个本次用到的转场画面: 360 人物环绕:在主角的梦境破碎,从年轻变老的这一段,尝试了很多方式去表达,最后决定人物环绕拍摄的方式去做。而技术的思路是先用 MJ 做一组不同角度的人物站立图,然后通过 comfyui 的首尾帧进行视频制作。 母亲的影子:当时的想法是这组图既能在播放时看到母亲的轮廓,又能在暂停时自己成为一张完整的图片。参考节气图的思路,在 SDXL 工作流中加入了两个 controlnet,先在 base 里控制构图,再在 refiner 里再控制母亲在画面中的强度。 上帝之手:先出了一张伸手的图,然后用 runway 跑相互接近,然后转视频序列帧后在 comfyui 里用 controlnet 控制构图,按顺序自动出图跑一晚上,最后再剪辑序列帧就好了。
2024-12-18
有没有根据布料照片和模特照片生成衣服上身效果的工具或 comfyUI 工作流
以下是一些与根据布料照片和模特照片生成衣服上身效果相关的工具和工作流: 1. 藏师傅的方法:将第二步的提示词和 Logo 图片放到 Comfyui 工作流就行。Lora 需要用到 InContext LoRA 中的 visualidentitydesign,可从以下地址下载:https://huggingface.co/alivilab/InContextLoRA/tree/main 。工作流下载:https://github.com/op7418/Comfyuiworkflow/blob/main/FLUX/Logo%20%E5%91%A8%E8%BE%B9%E7%94%9F%E6%88%90.json 。 2. 彭青云分享的内容:本地部署 Comfyui 有多种方式,如官方的本地部署包、秋叶整合包和二狗子老师制作的通往 AGI 之路黑猴子流专属包。处理好软件和模型后,打开一键启动,稍等片刻就会进入工作界面。通过正反提示词、文本链接图像,点击右侧队列即可生成图像。 3. ComfyUI BrushNet:原项目 https://tencentarc.github.io/BrushNet/ ,插件地址 https://github.com/kijai/ComfyUIBrushNetWrapper ,模型下载 https://huggingface.co/Kijai/BrushNetfp16/tree/main 。第一次运行会自动下载需要的模型,如果是用的 ComfyUIBrushNetWrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 到 ComfyUI/models/brushnet,也可手动下载放在这个文件夹里面。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。工作流方面,可配合 mj 出底图,在底图不变的基础上,添加文字或者图片内容。还可以使用 GDinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改。
2024-12-13