Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

照片超清修复

Answer

以下是关于照片超清修复的相关内容:

使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型进行照片超清修复,需将该模型放入 stable-diffusion-webui/models/Stable-Diffusion/文件夹中,StableSR 模块(约 400M 大小)放入 stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中,VQVAE(约 750MB 大小)放在 stable-diffusion-webui/models/VAE 中。

以神仙姐姐的照片为例进行测试,其原始分辨率为 512x768,放大后较模糊。先使用“Ultimate SD upscale”脚本放大,重绘幅度开到 0.1 能看到人物细节变化,但重绘幅度开到 0.4 会使人物变化较大且失去真实感。用“后期处理”的放大方法,缩放 3 倍后眼神更锐利,但头发仍模糊。最后用 StableSR 放大时,需将大模型和 VAE 分别调整为下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。

Tusiart 简易上手教程中提到高清修复是在原本图像分辨率基础上让其更精细,高清修复采样次数与前面采样次数理解相同,重绘幅度相当于图生图的重绘。

在 Stable Diffusion 中,AI 出图默认分辨率为 512x512,用于商业不够。提高最终出图分辨率可使用高清修复功能,如将初始分辨率设为 800x420,选择放大倍率为 2,理论上放大倍率越高图片越清晰,但实际效果与电脑配置和显卡显存有关。先以 800x420 画图并获取种子值,然后填入随机数种子固定图片,放大时可选择算法,如二次元绘图用 R-ESRGAN 4x+Anime6B,写实类风格用 R-ESRGAN 4x+。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。

Tusiart简易上手教程

1.高清修复:在本来设置的图像分辨率基础上,让图像分辨率变得更加精细。我理解是和原来的图像分辨率设置形成了两次绘图的流程,第一次绘图出内容,第二次绘图添加画面精细。2.修复方式:这个我没懂,每次学别人的操作,还不知道影响在哪,等我学会了我会回来改这里的哈哈哈。读者老爷们可以催更。3.高清修复采样次数:和前面采样次数一样理解就好。4.重绘幅度:相当于图生图的重绘。在原有的内容上,如果重绘幅度不是0,那么就会在变得高清的同时有一部分内容上的变动,不过用户看不到中间过程。1.ADetailer:面部修复插件,治愈脸部崩坏的超强小工具,高阶技能,后面再学。

【SD】如何画出商用级别的高清大图

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-04 21:00原文网址:https://mp.weixin.qq.com/s/zy0MyjCUxCF1C-WC6cUdBg在Stable Diffusion中,AI出图的默认分辨率为512x512,这也是大多数模型训练的尺寸。这个分辨率出的图运用到商业上显然是不够的,我们通常的做法是提高分辨率,增加提高精细度的关键词等等。但是,直接拉高分辨率的做法不仅会让我们的出图效率变低,也会使构图出现问题。这张图是在1600x840的分辨率下绘制的,不仅出图时间很长,而且在一个画面中出现了两个人物,所以,初始的分辨率不易过高。那么,我们用什么方法来提高最终的出图分辨率呢?一、高清修复在文生图功能中,有一个内置的高清修复(Hires-Fix)功能,可以看到当我们将初始分辨率设置为800x420时,选择放大倍率为2,高清修复可以将我们的分辨率放大至1600x840。理论上放大倍率越高,图片就会越清晰,这里的倍数最高可以到4倍,但是到底能不能画出来,就和你的电脑配置、显卡显存息息相关了。我们先用800x420画一张图,在生成图的下方可以看到这张图片的种子值。然后将数字填入随机数种子里,这样就能固定这张图片。接下来我们选择高清修复,放大两倍,放大算法选择R-ESRGAN 4x+Anime6B。这个算法通常是二次元绘图用的,如果是写实类的风格,可以选择R-ESRGAN 4x+。

Others are asking
请推荐视频清晰度修复的AI网站
以下为您推荐一些视频清晰度修复的 AI 网站: 1. https://www.topazlabs.com/topazvideoai :Topaz Video AI 是一款用于消除视频抖动和运动模糊的插件,可提升画质、帧率等。解压对应文件后,右键管理员运行 VideoAIportable.exe 文件,导入处理好的视频进行操作。预设部分有放大视频、提升画质等功能,稳定 AI 模式分为自动裁切和完整帧,强度在 60 左右为宜。 2. Kraken.io :主要用于图像压缩,但也提供免费的图像放大功能,能保证图像细节清晰度。 3. Deep Art Effects :强大的艺术效果编辑器,通过 AI 技术能将图像放大并赋予艺术效果,支持多种滤镜和风格。 4. https://replicate.com/nightmareai/realesrgan :基于 RealESRGAN 的图像超分辨率增强模型,可选人脸修复和调节放大倍数,但使用几次后收费。 此外,还可以通过以下方式进行视频清晰度修复: 使用 Photoshop Generative AI 功能,主要工具包括 Remove tool、Clone brush、Generative fill 以及 Neural filters。链接:https://x.com/xiaohuggg/status/1692751080973828468?s=46&t=F6BXooLyAyfvHbvr7Vw2g SD 图生图,重绘幅度小一点。 另外,新的视频修复与超分辨率工具具有画面缺失修补、模糊去除、清晰度提升(最高 4 倍超分辨率)等功能,同时支持去模糊、修复、超分任务,操作简便,仅需一张 13G 显存 GPU。项目地址:https://visionxl.github.io
2025-02-25
视频清晰度修复
以下是关于视频清晰度修复的相关信息: Tusiart 简易上手教程中提到: 高清修复:在本来设置的图像分辨率基础上,让图像分辨率变得更加精细,相当于两次绘图流程,第一次绘图出内容,第二次绘图添加画面精细。 高清修复采样次数:和前面采样次数一样理解。 重绘幅度:相当于图生图的重绘,在原有的内容上,如果重绘幅度不是 0,会在变得高清的同时有一部分内容变动,用户看不到中间过程。 ADetailer 是面部修复插件,属于高阶技能。 XiaoHu.AI 日报 12 月 8 日中提到新的视频修复与超分辨率工具: 功能亮点包括画面缺失修补、模糊去除、清晰度提升(最高 4 倍超分辨率)。 同时支持去模糊、修复、超分任务,操作简便,仅需一张 13G 显存 GPU。 项目地址:
2025-02-25
修复图片
以下是关于修复图片的相关知识: 使用 ControlNet 的 tile 模型修复图片: 对于分辨率不高的素材图片,可先拖进“WD 1.4 标签器”反推关键词,再发送到图生图。使用大模型“dreamshaper”,调整参数尺寸放大为 2K,提示词引导系数在 15 以上,重绘幅度在 0.5 以上。 若图片像素很低,可直接使用 tile 模型,其预处理器用于降低原图分辨率,为新图添加像素和细节提供空间。 对于细节不足或结构错误的图片,启用 tile 预处理器,在提示词中增加相关描述可得到不同效果,如增加“秋天”“冬天”等关键词。 但 tile 模型是对图像重绘,非局部修改,会使整个图像有微变化。 图像高清修复、无损放大 N 倍的流程: 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 大模型和 Stable SR Upscaler 模型,搭配包含目的内容的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality),进行 2 倍放大修复。 图像高清放大:对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。
2025-02-23
老照片修复用什么
以下是一些用于老照片修复的方法和工具: 1. 使用 SD 中的 ControlNet 模型,特别是其中的 Recolor 新模型,可对黑白老照片进行重新上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor 时,预处理器选择“recolor_luminance”效果较好。 2. 超清无损放大器 StableSR:需要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入指定文件夹,同时安装 StableSR 模块和 VQVAE。通过不同的放大方法测试,如“Ultimate SD upscale”脚本、“后期处理”的放大方法和 StableSR 的放大,StableSR 对原图还原较为精准,重绘效果较好。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰,但无法使头发、衣服等元素变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本进行放大修复。 相关参考文章: 1. 【SD】用 AI 给老照片上色,岁月不改它模样:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 2. 【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21wechat_redirect 3. 【Stable Diffusion】超清无损放大器 StableSR:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21wechat_redirect
2025-02-18
我想把黑白老照片修复成彩色,然后给人物换衣服。请问哪个AI网站或者软件可以免费使用
以下为您介绍可免费使用的将黑白老照片修复成彩色并给人物换衣服的方法: 使用 Stable Diffusion 可以实现此需求。在新上线的 controlnet 模型中,新增的 Recolor 模型能将黑白图片重新上色。操作时选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰,可参考文章——。 之后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-02-04
黑白老照片修复
以下是关于黑白老照片修复的相关内容: 1. 利用新上线的 controlnet 模型中的 Recolor 新模型为黑白照片上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 2. 字节发布的新模型 SeedEdit 也可用于黑白老照片上色,通过输入相应的提示词,如“给画面上色,时尚,舒服”,还能进行元素替换、移除无关元素和切换各种风格。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。
2025-02-01
将婴儿彩超图生成照片的AI提示词
以下是关于将婴儿彩超图生成照片的 AI 提示词相关信息: 在图生图功能中,除了文本提词框,还有图片输入口。可将照片拖入,通过反推提示词的按钮(如 CLIP 可反推出完整含义的句子,DeepBooru 可反推出关键词组)获取提示词,但可能存在瑕疵,需手动补充信息。调整宽度和高度使红框匹配图片,并注意提示词相关性和重绘幅度这两个重要参数。 以生成蜘蛛侠生日海报为例,可在 Midjoureny Feed 中寻找优秀案例,复制 prompt 来跑,如使用“baby spider man”“birthday”等关键词。还可将 prompt 交给智谱清言拆解以获取更多关键词。找到满意的图后记录 seed 值保障一致性,为增加专属定制感可增加细节,如“4 岁男孩”“英文名 Andy”“西瓜(儿子的小名)”等。MJ 擅长创意和高质量图片,但细节处理随机,可通过调整“权重”和“局部重绘”解决。
2025-02-24
照片黑白转彩色
以下是关于照片黑白转彩色的几种方法: 基于 ipadapter 工作流的方法: 1. 基于 ipadapter 最新工作流“ipadapter_advanced.json”,其中 controlnet 模型用于控制生成的图片。 2. 将一张黑白素材图片和一张彩色风格图片进行风格迁移完成转绘。 3. 具体步骤包括: 先创建节点加载图片。 读取一张所需风格的图片作为参考图。 将图像用蓝色的线连接到 cn 应用,通过 cn 的深度学习模型(SDxl 版本),采用 Zoe 深度预处理器。 对要生成的图片进行填写提示词,如正向提示词:illustration of clouds and meadows and mountains and trees,calm,executable,high quality。 生成(添加到提示词队列)。 使用 MutiDiffusion 插件的方法: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度的调整和照片的裁切,然后使用上述步骤进行上色。如果直接上色效果不佳,可以放弃人物服装的颜色指定,只给一个场景方向,如从网上找一张参考照片让 AI 去匹配色调,加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,并给出简单的关键词,如蓝天、绿树、灰石砖。 使用 DALL·E 编辑功能的方法: 1. 在 DALL·E 编辑器界面更改完图片后点击保存。 2. 可以在编辑器界面右侧的对话面板中输入提示来更改图片,例如输入「make it black and white」将图像更新为黑白。 3. 在 ChatGPT 移动应用程序上使用 DALL·E 进行编辑,选择左下角的「编辑」调出提示选项,选择「Select」访问选择工具,突出显示要编辑的图像部分,通过屏幕左侧的滑块更改图片大小,选择完图像部分后选择屏幕右下角的「Next」按钮,在弹出的对话面板中输入提示对图像进行更改。
2025-02-22
我想把人物老照片转彩色并生成视频动起来,用什么工具
以下是一些可以将人物老照片转彩色并生成视频动起来的工具和方法: 1. 对于给老照片上色,可以使用 Stable Diffusion 及其相关插件,如 MutiDiffusion 插件。在显存不够的情况下,可利用分块渲染功能放大图片。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,通过简单的关键词如“蓝天、绿树、灰石砖”来匹配色调。同时,将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对于生成视频让图片动起来,可以使用即梦进行图生视频。只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-22
两张照片还原人脸,用什么AI工具
以下是一些可用于两张照片还原人脸的 AI 工具和方法: 1. Stable Diffusion: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 利用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan,提示词可不写。 2. Midjourney(MJ):加上简单的相机参数、写实风格,使用 MJ v 6.0 绘图,可调整图片比例。 3. InsightFaceSwap: 输入“/saveid”,idname 可随意填写,上传原图。 换脸操作输入“/swapid”,id 填写之前设置的名称,上传分割好的图。 选择效果较好的图片,注意插件每日免费使用次数。 此外,还会用到 PS 进行图片的角度调整、裁切、裁剪、拼接等操作。
2025-02-21
照片转线稿
以下是关于照片转线稿的相关信息: 教程:线稿上色 Midjourney + Stable Diffusion sd 上色: 正关键词:主要前面添加了增加照片质感常用的 + mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+ 风格参数。 负关键词:看自己的效果添加。添加一切您不想要的东西,前面调用了词嵌入(bad_prompt_version2neg, badhandv4, easynegative)需要去 c 站下载,这些主要是为了控制人手部错误的,在最后一步放大的时候,却起到了反作用,强行给小猫咪小动物 5 个手指(建议不加,或者建议生成的时候加,放大的时候去掉)。 正关键词示例:, CG, unity, official art, amazing, finely detail, an extremely delicate and beautiful, extremely detailed, 3d, rendering, c4d, blender, octane render, Chinese festive color scheme, open mouth, 1 tooth, The cat has a pair of white gloves, a cute cat cartoon IP character, black line sketch, wearing a hat, wearing a collar around the neck, carrying a huge red bag, matching rope and straps at his wrists, Chinese element style, poular toys, blind box toys, Disney style。 负关键词示例:back and white, green, blue, purple。 真实系大模型:revAnimated v1.2.2 版本。 尺寸:最好和您的草稿图保持一致(前面的步骤没有截图。这里重新做了一张)如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。 最重要的 ControlNet 设置:上传自己的草图到 ControlNet,点击启用。记得点💥的图标让预处理器生效。 摊位信息: AI 3D 打印纹身印章:通过 AI 将图片转绘成简约线条插画风格,然后现场 3D 打印出来,最终交付定制化的纹身印章产品。具体流程:适用 comfyui 工作流生成 + 输出线稿素材;将线稿生成模型文件;输入 3D 打印机,输出定制图案模型(预计打印时间 3 5 分钟)。印章图案为软性材料,印章颜料为可水洗安全材料,可另选半永久植物染料。摊位区域为 E,摊位编号为 69,摊位类型为 3D 印章。 星流一站式 AI 设计工具: 右侧生成器入门模式图片参考: 全部图片参考功能:原图、景深、线稿轮廓、姿势、Lineart 线稿、Scribble 线稿、光影、Segmant 构图分割。 其他参考功能:SoftEdge 线稿、配色参考、配色打乱、法线贴图、MLSD 线稿。
2025-02-20