直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

修复照片

回答

以下是使用 AI 修复照片的详细步骤:

  1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章——【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿。此步骤可重绘五官,但无法使头发、衣服等元素变清晰。
  2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——【Stable Diffusion】超清无损放大器 StableSR。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。
  3. 修复时必须使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stable-diffusion-webui/models/Stable-Diffusion/文件夹中。StableSR 模块(约 400M 大小)放入 stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。VQVAE(约 750MB 大小)放在 stable-diffusion-webui/models/VAE 中。
  4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时将图片放大到足够倍数。
  5. 对于复杂照片,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。例如加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,关键词如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】用AI给老照片上色,岁月不改它模样

[title]【SD】用AI给老照片上色,岁月不改它模样将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。

【SD】超清无损放大器StableSR

[title]【SD】超清无损放大器StableSR这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

【SD】用AI给老照片上色,岁月不改它模样

[title]【SD】用AI给老照片上色,岁月不改它模样启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。这两张还算容易的,接下来就遇到比较棘手的照片了。比如这一张,是我外公外婆带着我妈和我舅舅。外公走得更早,我甚至都没见过一面,只有这些照片还记录着他存在的痕迹。而这张照片也有些年头了,一直被外婆好好保存着。人物多、场景复杂,像素非常的低,使得这张照片处理起来难度很大。我首先在ps里面进行了一下角度的调整和照片的裁切,然后使用刚才的步骤进行上色,但是直接上色的结果有点像是加了一层黄色滤镜,有颜色但是年代感还是太强了。而太具体的颜色指定,又容易让画面污染严重,因为内容实在太多了,光是指定衣服就得十来个颜色提示词,AI能分辨得清才怪。所以我决定放弃人物服装的颜色指定,只给一个场景方向,剩下的交给AI去自行决定。于是,我从网上找到了一张仙人洞的照片,让AI去帮我匹配色调。加入第二个controlnet来控制颜色,使用的是t2ia_color的模型。关键词只给了:蓝天、绿树、灰石砖这么简单的几个词。颜色终于正常了,最后经过脸部的修复和放大,得到了最终的效果。对比一下前后的效果,那个流逝的时光仿佛又回来了,外婆看到后也非常高兴,在微信上连连夸赞。

其他人在问
修复老照片的AI工具
以下是一些修复老照片的 AI 工具及相关操作步骤: 工具: 1. Stable Diffusion:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。还可使用 t2ia_color 模型和 controlnet 控制颜色。 2. GFPGAN 算法:用于将人脸变清晰。 3. 本地工具放大:https://www.upscayl.org/download 4. SD 放大:扩散模型可增加更多细节。 5. 开源工作流: 6. stability.ai 的 https://clipdrop.co/tools 7. 画质增强 magnific:https://magnific.ai/ 8. Krea:https://www.krea.ai/apps/image/enhancer 9. Image Upscaler:https://imageupscaler.com/ 10. 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 11. 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 12. 腾讯开源的模型(能恢复老照片):https://github.com/TencentARC/GFPGAN,在线测试地址:https://replicate.com/tencentarc/gfpgan 13. 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 14. Imglarger:https://imglarger.com/ 15. Let's Enhance:https://letsenhance.io/ 16. Waifu2x:http://waifu2x.udp.jp/ 操作步骤: 1. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对照片在 ps 里进行角度调整和裁切。 3. 把图片发送到图生图中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。
2024-10-08
AI怎么做老照片修复
以下是使用 AI 进行老照片修复的步骤: 1. 首先将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——。 2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下,将图片放大到足够的倍数。 对于复杂的老照片,比如人物多、场景复杂、像素非常低的情况: 1. 首先在 ps 里面进行角度的调整和照片的裁切。 2. 然后按照上述步骤进行上色,如果直接上色效果不佳,比如像加了一层黄色滤镜、年代感太强,可以放弃人物服装的颜色指定,只给一个场景方向。 3. 从网上找到相关的参考照片,让 AI 去匹配色调。 4. 加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,关键词只给简单的几个词,如“蓝天、绿树、灰石砖”。 5. 最后经过脸部的修复和放大,得到最终效果。 另外,在最近新上线的 controlnet 模型中,新增的 Recolor 模型可以将黑白图片重新上色,可用于老照片修复。
2024-09-28
照片修复
以下是关于照片修复的相关知识: 1. 【SD】无需 Lora,一键换脸插件 Roop:启用 ROOP 插件,选择要替换的人物照片,面部修复选“GFPGAN”。右边参数数值越低人物越像但图像模糊,数值越高人物不像但图像清晰,可按需设置,如 0.5。最下面有放大算法,相当于高清修复。设置好后点击生成,若人脸像素偏低模糊,可将图发送到“图生图”,开较小重绘幅度,使用 controlnet 中的 tile 模型重绘。如需此插件,可添加公众号【白马与少年】回复【SD】。推荐使用最新秋叶整合包,科学上网很重要,此插件需谨慎使用,切勿触犯法律。 2. 图像高清修复,无损放大 N 倍: 实现技术拆解:第二部分进行高清修复,把原本模糊的图片修复,并进行 2 倍放大。 Checkpoint 大模型使用 Iceclear/StableSR,搭配 Stable SR Upscaler 模型,推理图片噪点以还原图像。提示词部分应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。全程采取两次高清修复。 3. 辅助工具:放大/扩图: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可增加更多细节 开源工作流: 相关工具和网站: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ ,能够提供图片的放大和降噪功能,通过使用深度学习技术提高图像质量,同时保留细节和纹理,简单易用且效果好。
2024-09-11
老照片修复
以下是关于老照片修复的相关内容: 使用 AI 给老照片上色及修复的步骤: 1. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章——。 2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 辅助工具: 1. 本地工具放大:https://www.upscayl.org/download 2. SD 放大:扩散模型可以增加更多细节 3. 开源工作流: 4. stability.ai 的 https://clipdrop.co/tools 5. 画质增强 magnific 遥遥领先:https://magnific.ai/ 6. Krea https://www.krea.ai/apps/image/enhancer 7. Image Upscaler:https://imageupscaler.com/ 8. 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 9. 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 10. 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN 11. 在线测试地址:https://replicate.com/tencentarc/gfpgan 12. 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 13. Imglarger:https://imglarger.com/ 14. Let's Enhance:https://letsenhance.io/ 15. Waifu2x:http://waifu2x.udp.jp/ ,能够提供图片的放大和降噪功能,通过使用深度学习技术可以提高图像的质量,同时保留细节和纹理。 在最近新上线的 controlnet 模型中,新增的 Recolor 模型可将黑白图片重新上色,可用于修复老照片。
2024-08-29
修复视频清晰度用什么软件
以下是一些可用于修复视频清晰度的软件及相关操作: 1. Ebsynth Utility:选择前面模糊的片段,点击 DELETE 键或退格键删除,处理完成后点击右上角的导出按钮导出新视频,注意导出名称最好使用英文。同时,若下载的视频比例不标准,需丢进剪影处理。对于分辨率很模糊的视频,可先提升分辨率再绘制,提升分辨率推荐使用插件 TopazVideoAI。 2. WinkStudio(美图旗下):用得最多的是画质修复,有锐化效果,能让视频清晰,但可能会锐化过头。人像增强效果不错。还包括画质超分和视频补帧功能,但补帧最大导入 2K 的视频。
2024-08-21
我想修复一部老电影,我应该用哪个ai软件
如果您想修复一部老电影,可以考虑使用 Stable Diffusion 软件。以下是一些具体的操作步骤和要点: 1. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——。 2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以什么都不写,以免对原图产生干扰。 3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能帮助在显存不够的情况下,将图片放大到足够的倍数。 4. 为做到颜色与内容的统一,启用之前讲到过的一款 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。您可以参照文章——。 5. 对于人物照片的还原,选择 realisian 的写实大模型。提示词直接描述颜色和对应的内容,比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。ControlNet 这里选择 Recolor,预处理器选择“recolor_luminance”的效果会更好一些。但要注意,可能会出现提示词之间相互污染、颜色不能精准出现在想要位置以及背景不能完全统一等问题。
2024-08-20
如何合成照片
以下是关于合成照片的相关内容: 使用 Midjourney(MJ)生成人物图片: 1. 确定人物形象:如“a little girl wearing a yellow floral skirt + 人物动作 + 风格词”,在 MJ 中生成直到得到满意的人物图像。 垫图 URL + “In the forest,a little girl wearing a yellow floral skirt is playing happily,super high details,HDsmooth,by Jon Burgerman,s 400 ar 3:4 niji 5 style expressive iw 2” “iw”取值范围在,不填写默认“iw = 1”,“iw”值越大越接近垫的图像,反之更接近提示词。为确保人物一致性,取“iw 2”。 合成人物和场景: 1. 使用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐: 将合成后的图作为垫图(“iw 2”),MJ 重新生图,提示词如:“垫图 url + Little girl wearing a yellow floral skirt,and her friend brown bear,taking shelter in the cave,rainstorm,super high details,HDsmooth,by Jon Burgerman,s 400 ar 3:4 niji 5 style expressive iw 2” 使用 Camera Motion 合成照片: 1. 上传图片:点击“AddImage”上传图片。 2. 输入提示词:在“Prompt”中输入提示词。 3. 设置运镜方向:选择想要的运镜方向,输入。 4. 设置运动幅度:运动幅度和画面主体运动幅度有关,与运镜大小无关,可设置成任意值。 5. 其它:选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 6. 生成视频:点击“create”,生成视频。 照片数字人工作流及语音合成(TTS)API 出门问问 Mobvoi: 1. 照片数字人工作流 使用文档: 出门问问:语音合成(TTS)API 获取地址 参数及说明: 字段名:text,必填,类型为 String,要合成的文本内容,限制为 1000 字符。支持 ssml 标记语言,使用说明见附录 3。 字段名:appkey,必填,类型为 String,开发者在 AI 开放平台上申请的 appkey。 字段名:signature,必填,类型为 String,签名,通过“appkey + secret + timestamp”进行 md5 加密,得到的 32 位 MD5 值。每次请求实时计算签名,签名有效期为 10 分钟。 字段名:timestamp,必填,类型为 Long,当前时间戳,单位为秒。 字段名:speaker,否,类型为 String,合成音频指定发音人,默认值:cissy_meet,其他发音人传值及计费价格请参考声音商店。 字段名:audio_type,否,类型为 String,合成音频的格式,默认值:mp3,可选值:pcm/mp3/speexwb10/wav,只支持这四种格式中的一种。 字段名:speed,否,类型为 Float,发音人合成的语速,支持小数点后两位,默认值:1.0,可选值:0.5 2.0。 字段名:convert,否,类型为 String,默认值:无,可选值:robot,是否转化为机器声。 Request Header 设置
2024-10-16
手写字照片转文本的工具
目前暂时没有关于手写字照片转文本工具的相关内容。但您可以通过以下几种常见的方式来实现这一功能: 1. 利用手机端的扫描应用,如扫描全能王等,它们通常具备将手写文字照片转换为文本的功能。 2. 部分办公软件也有类似功能,例如 WPS 中的扫描功能。 3. 在线工具如百度 OCR 等,也能对图片中的手写文字进行识别和转换。
2024-10-15
有没有一个ai,我提供照片之后他可以按照我的要求进行设计
以下为您介绍一些关于通过 AI 按照您的要求对提供的照片进行设计的相关知识: 关键词和主题描述: 图片内容通常分为二维插画和三维立体两种表现形式。 主题描述可以包括场景、故事、元素、物体或人物的细节搭配。比如描述一个动物园,要列举其中的动物、设施等;描述人物要独立描述其特征。 但大场景中多个角色的细节不太容易通过关键词生成。 设计风格: 设计师可能难以直接表达设计风格,可通过找风格类关键词参考或垫图/喂图,让 AI 结合主题描述生成相应风格的图片。 对于某些材质的描述,如玻璃、透明塑料等,关键词的运用有很多门道,需要针对特定风格进行“咒语测试”。 Midjourney 工具: Midjourney 是容易上手的 AI 绘图工具,适合新手。 对于 UI 设计,可使用指令模板「ui design forapplication,mobile app,iPhone,iOS,Apple Design Award,screenshot,single screen,high resolution,dribbble」,将“类型”替换为产品关键词描述(英文)生成 UI 设计图。 如出行类可使用「距离、车费、费用结算、优惠金额、地图」等关键词。 餐饮类可使用「介绍咖啡的特色、口味、咖啡豆产地、价格」等关键词。 运动类可使用「卡路里、步数、距离、某种运动」等描述。 若想指定生成某个页面(如首页、登录页等),可再加页面指令描述,如「landing page、Profile Page」。 社交平台可用「landing page」生成登录页设计。 信息类可用「Profile Page」生成个人资料页。 目前,Midjourney 产出的设计图更适合在 APP 设计的初始阶段,如头脑风暴和风格探索中提供灵感和创意,直接落地开发仍有距离,但随着技术迭代,这种距离有望缩短。
2024-10-13
如何在midjourney中只进行照片背景修改,而不修改人物姿态和表情
在 Midjourney 中只修改照片背景而不修改人物姿态和表情,您可以参考以下方法: 1. 得益于cref,midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果您只想关注人脸,请调低到 0。您不需要对角色原图使用/describe 来贴近目标生成角色的形象,因为cref 会帮您完成这件事情。 2. 风格复制和服装的替换,则应当用提示词(prompt)和sref,默认值 100,越高越接近参考图像的风格。 3. 如果遇到“形似而神不似”的问题,即 MJ 直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有一些细微的差距,您可以按照以下步骤操作: 使用/settings 确保您处于模式并且 Remix 设置为打开。 选择带有您想要更改的面部的图像。使用将其从网格中分离出来,然后选择。 由于您已经开启了 Remix,您将能够编辑提示。 从提示中删除cref 和cw。一旦删除了它们,修改提示以对面部进行更改。例如,您可以慷慨地选择面部的下半部分,并添加“清洁剃须”来除去胡须。您可以尝试使用小的负权重,例如 tattoos::0.5 来移除纹身。 注意:当您对更改满意时,请确保不要再次添加cref 到提示中!一旦添加回来,“面部交换”将再次发生,那些不需要的属性将重新出现。 4. 有时,Midjourney 在正确将角色放置在背景中时会遇到一些困难。如果结果不连贯(例如,您看到头部朝后或图像被奇怪地裁剪),请尝试将 stylize增加到 800 1000。您也可以尝试将cw 同时降低到低于 100 的值,视情况而定。
2024-10-10
有没有照片生成卡通形象的AI工具
以下为您介绍一些可以将照片生成卡通形象的 AI 工具: Midjourney: 之前有制作过相关的视频教程,教大家从零开始使用并通过简单的提示词生成图片。 利用其以图绘图功能生成迪斯尼卡通风格的头像。具体操作是先选一张满意的照片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,上传文件选取图片并发送(记得点击回车或发送按钮)。然后获取图片链接,加上 prompt 提示词发送给 Midjourney 即可。 出门问问: 这是一家以生成式 AI 和语音交互为核心的人工智能公司,提供面向创作者的 AIGC 工具等。 仅需上传一张照片,输入一段文字或者上传一段音频,就可以生成短视频让“照片开口说话”。不同风格的照片如真人、卡通、有胡须遮挡、有眼镜装饰等都可以驱动尝试。 如果您想用真人照片来生成卡通头像,就用“真人照片”+“照片描述”+“方法 1 的关键词”来处理。在使用过程中如果生成了满意的图,记得存起来,下次同种类型可直接拿来喂图,效果更好。
2024-10-10
我想用AI工具将照片风格化,提供现实照片后,生成元宇宙风格的图片,有哪些工具可以达成效果?
目前市面上有一些可以将照片风格化为元宇宙风格的 AI 工具,例如: 1. DALL·E2:能够根据输入的描述或原始图片生成富有创意和独特风格的图像。 2. StableDiffusion:具有强大的图像生成能力,可以通过设置相关参数和提示来实现照片的风格化。 3. Midjourney:可以根据输入的指令生成令人惊艳的图像效果,包括将照片转化为特定风格。 您可以根据自己的需求和使用习惯选择适合的工具。
2024-10-08