直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型可以修复老旧的分辨率低的视频吗

回答

大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。

例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。

另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D U-Net 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

Sora的一个区别特征是其能够在原始尺寸上训练、理解和生成视频及图像,如图5所示。传统方法通常会调整视频的大小、裁剪或调整宽高比,以适应一个统一标准——通常是以固定低分辨率的正方形帧的短片段[27][28][29]。这些样本通常在更宽的时间跨度上生成,并依赖于分别训练的帧插入和分辨率渲染模型作为最后一步,这在视频中造成了不一致性。利用扩散变换器架构[4](见3.2.4节),Sora是第一个拥抱视觉数据多样性的模型,并且可以在从宽屏1920x1080p视频到竖屏1080x1920p视频以及之间的任何格式上采样,而不会损害它们的原始尺寸。图5:Sora可以生成从1920x1080p到1080x1920p及其间任何尺寸或分辨率的图像。图6:Sora(右)与一个修改版的模型(左)之间的比较,后者将视频裁剪成正方形——这是模型训练中的一种常见做法——凸显了优势。在原始尺寸上训练数据显著改善了生成视频的构图和框架。经验发现,通过保持原始宽高比,Sora实现了更自然和连贯的视觉叙事。如图6所示,Sora与一个在统一裁剪的正方形视频上训练的模型之间的比较展示了明显的优势。Sora生成的视频展示了更好的框架,确保场景中完全捕捉到了主体,与正方形裁剪导致的有时被截断的视图相反。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

基础模型用于低分辨率视频生成,然后通过级联扩散模型进行细化以提高分辨率。基础视频和超分辨率模型采用3D U-Net架构,以时空可分离的方式使用。该架构将时间注意力和卷积层与空间对应物结合起来,以有效捕获帧间依赖性。它采用v-预测参数化以确保数值稳定性,并使用条件增强来促进模型间的并行训练。该过程涉及对图像和视频的联合训练,将每个图像视为一个帧以利用更大的数据集,并使用无分类器引导[57]来增强提示的忠实度。应用渐进式蒸馏[58]来简化采样过程,显著减少计算负载同时保持感知质量。结合这些方法和技术,Imagen Video不仅能生成高保真度的视频,还能展现出卓越的可控性,如其生成多样化视频、文字动画和各种艺术风格内容的能力所示。14(a)额外的时间层。通过插入学习将帧对齐成时间一致序列的时间层,将预训练的LDM转变为视频生成器。在优化过程中,图像骨干θ保持固定,只有时间层li的参数ϕ接受训练。14(b)视频LDM堆栈。视频LDM首先生成稀疏关键帧,然后使用相同的潜在扩散模型进行两次时间插值以实现高帧率。最后,将潜在视频解码到像素空间,并可选地应用视频上采样器扩散模型。图14:视频LDM的整体框架。来源:视频LDM[36]。

其他人在问
有哪些免费的可以提高图片分辨率的网站
以下是一些免费提高图片分辨率的方法和相关网站: 1. 在 Stable Diffusion 中: 文生图功能中有内置的高清修复(HiresFix)功能。将初始分辨率设置为 800x420 时,选择放大倍率为 2,理论上放大倍率越高,图片越清晰,但最高可达 4 倍,实际效果与电脑配置和显卡显存有关。 先以较低分辨率画图,获取生成图的种子值,然后将其填入随机数种子以固定图片,再进行高清修复,放大算法如二次元绘图可选择 RESRGAN 4x+ Anime6B,写实类风格可选择 RESRGAN 4x+。 2. Stability AI 推出的基于 Discord 的工具: :将低分辨率、低质量的图像转换为 4k 杰作,价格为 25 积分。 :简单、低成本的分辨率提升,价格为 0.2 积分。 此外,在 MJ 应用中也有相关操作,如复制图像链接和提示词等步骤来生成新的图像,并通过改变比例和镜头拉远等操作调整构图,最终提升分辨率。
2024-11-06
提升视频分辨率
提升视频分辨率的方法有很多,以下是几种常见的方法: 1. 使用视频编辑软件:大多数视频编辑软件都提供了提升视频分辨率的功能。你可以使用这些软件来调整视频的分辨率、帧率和质量等参数,以提高视频的清晰度和质量。 2. 使用 AI 视频增强工具:AI 视频增强工具可以使用机器学习算法来提升视频的分辨率和质量。这些工具通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 3. 使用视频转换工具:视频转换工具可以将低分辨率视频转换为高分辨率视频。这些工具通常使用高级算法来提高视频的分辨率和质量,同时保持视频的原始格式和质量。 4. 使用 AI 视频生成模型:AI 视频生成模型可以使用机器学习算法来生成高分辨率视频。这些模型通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 需要注意的是,提升视频分辨率可能会导致视频质量下降或出现其他问题。因此,在提升视频分辨率之前,你应该仔细评估视频的质量和需求,并选择最适合的方法来提升视频分辨率。
2024-06-13
在线提升分辨率的工具
在线提升分辨率的工具包括 Bigjpg、Topaz Gigapixel AI、GIGAGAN、Deep Art Effects 等。
2024-03-20
如何给不清晰的视频增加清晰度?
以下是给不清晰的视频增加清晰度的一些方法: 1. 使用转绘教程(Ebsynth Utility): 处理素材:一般无需特别处理,但若片子太长或开头结尾有特效,可打开剪影导入视频。将素材拖入轨道,若视频开头有模糊部分,拖动时间轴到正常部分,点击分割按钮或使用快捷键 Ctrl+B 进行分割(MAC 用户需另行查看),然后删除模糊片段。导出新视频时,名称最好使用英文。 注意事项: 校准:下载的视频若比例不标准,需在剪影中处理,否则 SD 图片绘制可能报错。 视频缩小:对于 4K 等大分辨率视频,SD 最大只能完成 20482048 的绘制,且制作时间长。 对于分辨率很模糊的视频,可先提升分辨率再绘制,若仍不行则放弃。提升分辨率可使用插件(TopazVideoAI)。 2. 利用 FMANet:FMANet 能将模糊低分辨率视频恢复为清晰高分辨率,可解决快速移动物体或摄像机引起的视频模糊,智能理解物体运动,改善画质,去除模糊。相关链接:http://kaistviclab.github.io/fmanetsite/ 、https://x.com/xiaohuggg/status/1746160750610075689?s=20
2024-11-17
什么软件可以自动给视频翻译并加字幕
以下是一些可以自动给视频翻译并加字幕的软件: 1. Opusclip:利用长视频剪成短视频。网址:https://www.opus.pro/ 2. Raskai:短视频素材直接翻译至多语种。网址:https://zh.rask.ai/ 3. invideoAI:输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。网址:https://invideo.io/make/aivideogenerator/ 4. descript:屏幕/播客录制>PPT 方式做视频。 5. veed.io:自动翻译自动字幕。网址:https://www.veed.io/ 6. Reccloud:免费的在线 AI 字幕生成工具,可直接上传视频精准识别,能对识别的字幕进行翻译,自动生成双语字幕。声称已处理 1.2 亿+视频,识别准确率接近 100%。 7. 绘影字幕:一站式专业视频自动字幕编辑器,提供简单、准确、快速的字幕制作和翻译服务。支持 95 种语言,准确率高达 98%,可自定义视频字幕样式。 8. Arctime:对视频语音自动识别并转换为字幕,甚至支持自动打轴。支持 Windows 和 Linux 等主流平台,支持 SRT 和 ASS 等字幕功能。 9. 网易见外:国内知名语音平台,支持视频智能字幕功能,转换正确率较高,支持音频转写功能。 以上工具各有特点,您可以根据自己的需求选择最适合您的视频自动字幕工具。请注意,部分内容由 AI 大模型生成,请仔细甄别。
2024-11-17
图片 视频处理 应用推荐
以下是为您推荐的一些图片和视频处理应用: Runway:具有文生视频、Prompt+图像生成视频、无 Prompt 直接图片转视频等功能。支持 motion 控制和运镜调节,还提供 30 多项图片、视频处理能力,如 Inpainting 视频修复、Motion Tracking 视频主体跟随运动、Remove Any Background 删除视频元素/背景、3D Texture 生成 3D 纹理等。近期控制台上线了 Watch 模块,可查看官方精选的创意案例。 AiLogoArt:将您的 Logo 融入 AI 生成的图象中,能在几分钟内获得专业品牌图片。 PlainScribe:可将大文件转录为完美的文本,上传文件处理完成后可搜索文本或下载 CSV 文件,适用于各种大文件,有灵活的按需付费模式。 RIX:面向开发者的人工智能搜索引擎,可使用 Web 搜索模式查找最新信息或切换到 GPTknowledge 模式获得预先训练的知识即时答案,还能通过流行网站快捷方式简化搜索。 Magic Clips:能让人工智能挑选出录制的最佳时刻,并转化为适合媒体的短视频片段,可添加字幕。 以下是一些从事相关工作的人员: yangzec:学习多模态 AI 的使用和开发应用 凯叔 AI:插画设计 清墨.SALEX:日常工作 above:批量作图 ehhe:绘画,视频,人像,电商背景图 kone:AI 商业应用 xman:自媒体创作 Alan:绘画和视频处理 在野:视频创作 tang:照片处理等 阿鲁:生产 大大大松树:视频工作流 BigPeng:好玩 冻奶味:工作+娱乐休闲 Lily:视频和电商,写真 tim:能用在生产中 木兰:广告推广素材制作 吴:电商 马化腾:Ai 绘画 蔡徐坤:Ai 视频,Ai 绘画,Ai 音乐 吴林林:爱好,家人做写真 初尘:文生视频,做自媒体 ning:工作流
2024-11-16
做视频需要那些AI工具
以下是一些做视频可能用到的 AI 工具及相关流程: 工具方面: Pika Pixverse Runway SVD 流程方面: 1. 故事构思:确定您要讲述的故事,可以是原创(基于自身或周围人的经历、梦境、想象等),也可以是改编(经典 IP、名著、新闻、二创等)。多与他人讨论故事,不断修改完善。 2. 剧本写作:短片创作篇幅较小,情节和角色相对简单,可从自身经历或短篇故事改编入手。不断实践并总结经验。 3. 图像生成:使用 AI 工具(如 Stable Diffusion 或 Midjourney)根据小说内容生成角色和场景的视觉描述,并创建相应图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要重新编辑某些场景或调整音频。 9. 输出与分享:完成编辑后,输出最终视频并在所需平台分享。 请注意,具体的操作步骤和所需工具可能因项目需求和个人偏好有所不同。同时,AI 工具的可用性和功能可能会变化,建议直接访问工具网址获取最新信息和使用指南。
2024-11-16
AI制作视频的案例
以下是一些 AI 制作视频的案例和相关信息: 1. 把小说做成视频的制作流程: 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 2. 制作视频的工具推荐: 最佳动画工具:用于在视频中为人脸制作动画的 最佳语音克隆: 现在,生成一个完全由人工智能生成的角色的视频,阅读完全由人工智能编写的脚本,用人工智能制作的声音说话,由人工智能制作动画,这简直是微不足道的。但要注意深度伪造是一个巨大的问题,这些系统需要合乎道德地使用。 最近还发布了第一个商用文本到视频工具 Runway v2。它创建了 4 秒的短剪辑,更像是对未来发展的展示,但如果你想了解这个领域的未来发展,值得一看。 3. 开箱即用的解决方案 Invideo AI 脚本生成+视频匹配: 产品特点:能够在数十秒时间内轻松实现 Prompt 转视频,并且支持通过编辑器进行后期更改。未来可以使用这类产品快速、低成本地进行视频画面制作。官网地址:https://ai.invideo.io 功能介绍:在官方教程中,建议对视频平台、主旨内容、视频长度、语气、脚本风格进行描述。上传视频后,还会再次询问视频内容倾向。如果对生成的视频不满意,可以重新选择内容倾向进行编辑,也可以修改脚本、搜索并替换视频片段(区别于 Pika labs、Runway 的 AI 生成视频,Invideo 的原理是 AI 生成脚本并匹配视频素材)。在视频生成后,仍可以通过 Prompt 修改视频内容,免费账户无法去除视频上的水印。 实践案例:输入 Prompt“K 公司刚研制出了一款新品乳液,采用了天然草本精华,使用后肤色洁白透亮,并且不再担心冬天气候干燥带来的皮肤干裂困扰,请帮这款新品制作一个 30s 的宣传片”,选择 Youtube 平台非常快速地生成了该视频,标题为“Embrace Winter with K's Herbal Emulsion 用 K's 草本乳液拥抱冬天”,实际视频为 27s。
2024-11-15
制作数字人视频
以下是用 10 分钟轻松制作 AI 数字人视频的方法: 1. 生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择后软件会播放数字人的声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,剪映会生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,之后可点击预览查看效果。 2. 增加背景图片: 直接删除先前导入的文本内容,因为视频音频已包含文字内容。 为让视频更美观,点击左上角“媒体”菜单并“导入”选择本地图片上传,如一张书架图片,点击图片右下角加号添加到视频轨道(会覆盖数字人),将图片轨道最右侧竖线向右拖拽至与视频对齐,选中轨道,在显示区域拖动图片角放大到合适尺寸,并将数字人拖动到合适位置。 3. 增加字幕: 点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段形成字幕。 至此,数字人视频完成,点击右上角“导出”按钮导出视频备用。 制作数字人视频免费,数字人换脸约 0.8 元,总成本包括时间(约 10 分钟)、制作数字人视频(免费)、数字人换脸(约 0.8 元)。数字人换脸时长方面,经实际测试 1 分 28 秒的视频,总转换时间约 200 秒。
2024-11-14
照片修复
以下是关于照片修复的相关知识: 图像高清修复与无损放大的流程通常分为三部分: 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,因其处理时间长。 图像高清修复:使用 Iceclear/StableSR 等模型进行高清修复并 2 倍放大,搭配 Stable SR Upscaler 模型和合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)等。 图像高清放大:用 realisticVision 底膜进行二次修复,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。 用 AI 给老照片上色: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时将图片放大。 可在 PS 里调整角度和裁切照片,然后上色。对于复杂照片,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词如蓝天、绿树、灰石砖。 将照片放入后期处理,使用 GFPGAN 算法清晰人脸,五官重绘后,再将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型修复,vae 选择 vqgan,可不写提示词以免干扰原图。
2024-11-06
老照片修复
以下是关于用 AI 给老照片上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 4. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 5. 把图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 6. 对于复杂的照片,如人物多、场景复杂、像素低的,可先放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 参考文章: 1. 2. 作者:白马少年,发布时间:20230910 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2024-11-06
能修复老照片吗
AI 可以修复老照片。以下是一些相关的方法和工具: 可以使用 Stable Diffusion(SD)中的 controlnet 模型中的 Recolor 新模型为黑白老照片重新上色。提示词可直接描述颜色和对应的内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。 把图片发送到图生图中,打开 stableSR 脚本,放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 辅助工具方面: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可增加更多细节 开源工作流: 其他工具和网站: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN ,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/
2024-11-05
请问修复旧照片怎么处理?
修复旧照片可以按照以下步骤进行处理: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,可在显存不够的情况下将图片放大到足够倍数。 5. 对于复杂的照片,可先在 ps 里进行角度调整和照片裁切,然后按照上述步骤上色。若直接上色效果不佳,比如像加了黄色滤镜或年代感太强,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。比如从网上找相关照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,使用 t2ia_color 的模型,给简单的关键词,如“蓝天、绿树、灰石砖”。 6. 修复时必须使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2024-10-31
请问修复旧的照片怎么处理?
修复旧照片可以按照以下步骤进行处理: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章——。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下,将图片放大到足够的倍数。 5. 对于复杂的照片,如人物多、场景复杂、像素低的照片,可以先在 ps 里面进行角度调整和照片裁切,然后按照上述步骤进行上色。如果直接上色效果不佳,比如像加了一层黄色滤镜或颜色指定导致画面污染严重,可以放弃人物服装的颜色指定,只给一个场景方向,让 AI 自行决定。比如从网上找一张匹配色调的照片,加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,关键词可以只给“蓝天、绿树、灰石砖”等简单的词。 6. 修复时必须要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 7. StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 8. 一个 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。这三个文件可以在百度云盘的链接中获取。安装好之后,可以用一张从网上找的神仙姐姐的照片做测试。 需要注意的是,在修复过程中,不同的照片可能需要根据具体情况进行调整和尝试,以达到最佳的修复效果。
2024-10-31
老照片修复用哪个AI软件比较好
以下是一些可用于老照片修复的 AI 软件和工具: Stable Diffusion:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。还可使用 GFPGAN 算法将人脸变清晰,将图片发送到图生图中,打开 stableSR 脚本进行放大修复。 本地工具放大:https://www.upscayl.org/download 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强: magnific:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型(能恢复老照片):https://github.com/TencentARC/GFPGAN ,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/
2024-10-29