Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型可以修复老旧的分辨率低的视频吗

Answer

大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。

例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。

另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D U-Net 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

Sora的一个区别特征是其能够在原始尺寸上训练、理解和生成视频及图像,如图5所示。传统方法通常会调整视频的大小、裁剪或调整宽高比,以适应一个统一标准——通常是以固定低分辨率的正方形帧的短片段[27][28][29]。这些样本通常在更宽的时间跨度上生成,并依赖于分别训练的帧插入和分辨率渲染模型作为最后一步,这在视频中造成了不一致性。利用扩散变换器架构[4](见3.2.4节),Sora是第一个拥抱视觉数据多样性的模型,并且可以在从宽屏1920x1080p视频到竖屏1080x1920p视频以及之间的任何格式上采样,而不会损害它们的原始尺寸。图5:Sora可以生成从1920x1080p到1080x1920p及其间任何尺寸或分辨率的图像。图6:Sora(右)与一个修改版的模型(左)之间的比较,后者将视频裁剪成正方形——这是模型训练中的一种常见做法——凸显了优势。在原始尺寸上训练数据显著改善了生成视频的构图和框架。经验发现,通过保持原始宽高比,Sora实现了更自然和连贯的视觉叙事。如图6所示,Sora与一个在统一裁剪的正方形视频上训练的模型之间的比较展示了明显的优势。Sora生成的视频展示了更好的框架,确保场景中完全捕捉到了主体,与正方形裁剪导致的有时被截断的视图相反。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

基础模型用于低分辨率视频生成,然后通过级联扩散模型进行细化以提高分辨率。基础视频和超分辨率模型采用3D U-Net架构,以时空可分离的方式使用。该架构将时间注意力和卷积层与空间对应物结合起来,以有效捕获帧间依赖性。它采用v-预测参数化以确保数值稳定性,并使用条件增强来促进模型间的并行训练。该过程涉及对图像和视频的联合训练,将每个图像视为一个帧以利用更大的数据集,并使用无分类器引导[57]来增强提示的忠实度。应用渐进式蒸馏[58]来简化采样过程,显著减少计算负载同时保持感知质量。结合这些方法和技术,Imagen Video不仅能生成高保真度的视频,还能展现出卓越的可控性,如其生成多样化视频、文字动画和各种艺术风格内容的能力所示。14(a)额外的时间层。通过插入学习将帧对齐成时间一致序列的时间层,将预训练的LDM转变为视频生成器。在优化过程中,图像骨干θ保持固定,只有时间层li的参数ϕ接受训练。14(b)视频LDM堆栈。视频LDM首先生成稀疏关键帧,然后使用相同的潜在扩散模型进行两次时间插值以实现高帧率。最后,将潜在视频解码到像素空间,并可选地应用视频上采样器扩散模型。图14:视频LDM的整体框架。来源:视频LDM[36]。

Others are asking
老旧照片高清修复
以下是关于老旧照片高清修复的方法: 1. 使用 Stable Diffusion 进行修复: 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。可参考文章。 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章。 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 为做到颜色与内容的统一,启用 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。可参考文章。 2. 使用 ComfyUI 进行修复: 结合 Flux Controlnet Upscale 模型,以前的工作流比较复杂,现在只要十几个基础的节点就能实现同样的效果,甚至可能更好。 参数调节:一般先确认放大的倍数,然后根据出来的图片调整 controlNet 的强度。 ControlnetUpscaler 放大模型:Flux.1dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,可放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。 T5 Clip:如果发现出来的图片质量细节不够,选择 fp16 的版本。 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。
2025-01-19
有哪些免费的可以提高图片分辨率的网站
以下是一些免费提高图片分辨率的方法和相关网站: 1. 在 Stable Diffusion 中: 文生图功能中有内置的高清修复(HiresFix)功能。将初始分辨率设置为 800x420 时,选择放大倍率为 2,理论上放大倍率越高,图片越清晰,但最高可达 4 倍,实际效果与电脑配置和显卡显存有关。 先以较低分辨率画图,获取生成图的种子值,然后将其填入随机数种子以固定图片,再进行高清修复,放大算法如二次元绘图可选择 RESRGAN 4x+ Anime6B,写实类风格可选择 RESRGAN 4x+。 2. Stability AI 推出的基于 Discord 的工具: :将低分辨率、低质量的图像转换为 4k 杰作,价格为 25 积分。 :简单、低成本的分辨率提升,价格为 0.2 积分。 此外,在 MJ 应用中也有相关操作,如复制图像链接和提示词等步骤来生成新的图像,并通过改变比例和镜头拉远等操作调整构图,最终提升分辨率。
2024-11-06
提升视频分辨率
提升视频分辨率的方法有很多,以下是几种常见的方法: 1. 使用视频编辑软件:大多数视频编辑软件都提供了提升视频分辨率的功能。你可以使用这些软件来调整视频的分辨率、帧率和质量等参数,以提高视频的清晰度和质量。 2. 使用 AI 视频增强工具:AI 视频增强工具可以使用机器学习算法来提升视频的分辨率和质量。这些工具通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 3. 使用视频转换工具:视频转换工具可以将低分辨率视频转换为高分辨率视频。这些工具通常使用高级算法来提高视频的分辨率和质量,同时保持视频的原始格式和质量。 4. 使用 AI 视频生成模型:AI 视频生成模型可以使用机器学习算法来生成高分辨率视频。这些模型通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 需要注意的是,提升视频分辨率可能会导致视频质量下降或出现其他问题。因此,在提升视频分辨率之前,你应该仔细评估视频的质量和需求,并选择最适合的方法来提升视频分辨率。
2024-06-13
在线提升分辨率的工具
在线提升分辨率的工具包括 Bigjpg、Topaz Gigapixel AI、GIGAGAN、Deep Art Effects 等。
2024-03-20
如何用现有人的照片生成拜年短视频
以下是用现有人的照片生成拜年短视频的流程: 1. 拍摄训练的图片:先拍好所需图片。 2. 使用 EasyPhoto 开始训练:放入图片开始炼丹,等待显示“The training has been completed.”表示完成。 3. 训练好的 lora 用来推理:开始推理,注意推理使用的底图尽量选择和自己外形、头发相似的图片,因为除了面部,发型等也是关键。 4. 先用 Stable different 脸一个自己脸部的 Lora,然后生成各种不同风格的图片。 5. 配音。 6. 在 heygen 里面让图片口型和配音对上。 7. 后期剪辑。 8. 封面制作。 制作最后的拜年祝福语,希望以上工作流能对您有所帮助。
2025-01-22
图片生成视频的ai有哪些
以下是一些图片生成视频的 AI 工具: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频。它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的相关网站可以查看:https://www.waytoagi.com/category/38 。 另外,使用快影(可灵)处理图片生成视频的步骤如下: 1. 打开快影(需要先通过内测申请),选择 AI 创作。 2. 选择 AI 生成视频。 3. 选择图生视频。 4. 上传处理好的图片,填写想要的互动动作和效果,然后点击生成视频。 5. 排队等待生成结束,点击下载。 以上工具均适合于不同的使用场景和需求,您可以根据自己的具体情况进行选择。
2025-01-21
制作ai视频都需要用到哪些工具
制作 AI 视频通常需要用到以下工具: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):适用于创建小说中的场景和角色图像的 AI 图像生成工具。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,能生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 此外,制作 AI 视频还需要考虑故事的来源和剧本写作。故事来源可以是原创(如个人或周围人的经历、梦境、想象的故事等),也可以是改编(如经典 IP、名著、新闻、二创等)。剧本写作方面,虽然有一定门槛,但可以从自身或朋友的经历改编入手,多与他人讨论并不断实践总结。在生成视频画面时,可能需要大量抽卡来获取合适的画面。比如在科幻片、战争片、奇幻片等不同类型的视频中,通过不同的工具生成相应的画面。
2025-01-21
有哪些能够生成视频封面的ai
以下是一些能够生成视频封面的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要注意是收费的。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 如果您想用 AI 把小说做成视频,可参考以下制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-01-21
有哪些能够提升视频流畅度的ai
以下是一些能够提升视频流畅度的 AI 技术和工具: 1. 关键帧+补间技术: 关键帧生成方式多样,如通过 Stable Diffusion 等方式,能保证不同帧风格一致。 补帧算法包括光流补帧(计算量小、速度快)、基于姿态补帧(适合复杂运动对象)、重参考补帧等。 完善策略有渐进补帧、递归框架、增强后处理、对比学习、模糊处理、融合多个模型等。 2. DiT:能将视频分解成帧并逐帧去噪,生成流畅连贯的视频,在时间维度上保持一致性。 3. 视频配音效的 AI 工具: 支持 50 多种语言配音,音质自然流畅,提供实时配音等功能,并能将语音转录为文本,与多种工具整合。 Vidnoz AI 支持 23 多种语言配音,有语音克隆等功能,提供语音参数自定义和背景音乐添加工具,有不同定价方案。 在选择相关工具时,需考虑支持的语言数量、语音质量、自定义选项和价格等因素。
2025-01-21
有哪些能够提升视频清晰度的ai
以下是一些能够提升视频清晰度的 AI 技术和工具: 1. EvTexture:一种新方法,能解决视频细节模糊和抖动问题。利用事件相机捕获的高频动态细节来改善视频的纹理质量,让视频在处理复杂细节(如树叶、衣服上的条纹等)时更加清晰。 详细内容:https://xiaohu.ai/p/10270 ,https://x.com/imxiaohu/status/1805185573352784177 2. RealESRGANVideo:可将视频清晰度提升至 2K 或 4K,提供不同模型处理模式,用户可根据视频内容选择最适合的模型。 详细内容:https://x.com/xiaohuggg/status/1729336570115920325?s=20
2025-01-21
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流,十几个基础节点就能实现更好效果。 参数调节方面,先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlnetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,类似 Wang,Xintao 等人在 2021 年发表的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 新上线的 controlnet 模型中的 Recolor 模型可给黑白图片重新上色。 人物照片还原选择 realisian 的写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 之后将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型修复,vae 选择 vqgan,可不写提示词以免干扰原图。
2025-01-20
视频修复AI工具
以下是一些视频修复 AI 工具及相关信息: 软件教程: Sora:https://waytoagi.feishu.cn/wiki/S5zGwt5JHiezbgk5YGic0408nBc Hedra:https://waytoagi.feishu.cn/wiki/PvBwwvN36iFob7kqZktcCzZFnxd 应用教程: 视频转绘:https://waytoagi.feishu.cn/wiki/ZjKpwSd5hiy6ZhkiBVHcOBb6n9r 视频拆解:https://waytoagi.feishu.cn/wiki/WeKMwHRTmiVpYjkVdYpcFjqun6b 图片精修:https://waytoagi.feishu.cn/wiki/CfJLwknV1i8nyRkPaArcslWrnle 几个视频 AIGC 工具: Opusclip:利用长视频剪成短视频 Raskai:短视频素材直接翻译至多语种 invideoAI:输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频 descript:屏幕/播客录制>PPT 方式做视频 veed.io:自动翻译自动字幕 clipchamp:微软的 AI 版剪映 typeframes:类似 invideoAI,内容呈现文本主体比重更多 google vids Topaz Video AI 使用介绍(显卡不好的可以跳过): 解压对应文件,推荐使用绿色版(安装包已在网盘,可直接下载)。 右键,管理员运行 VideoAIportable.exe 文件。 导入处理好的视频。 主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。 右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等。 稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动需开启,次数一般选择 2 保持默认不变。 帧插值 AI 里主要是识别对应的帧和帧之间进行修复替换,有几种模型。 增强 AI 选择不同模型对视频进行整体优化,包括面部、去噪、锐化提升等。 12 月 8 日 Xiaohu.AI 日报中的新的视频修复与超分辨率工具: 功能亮点:画面缺失修补、模糊去除、清晰度提升(最高 4 倍超分辨率)。 同时支持去模糊、修复、超分任务,操作简便,仅需一张 13G 显存 GPU。 链接:https://x.com/imxiaohu/status/1865636467055497267 项目地址:https://visionxl.github.io
2025-01-14
照片修复工具有哪些
以下是一些常见的照片修复工具: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片: https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 关于 ComfyUI BrushNet 的介绍: 这个过程有点像小时候玩的连点成图游戏,只不过是电脑在操作图片。具体来说: 1. 掩码:如同一张有洞的纸覆盖在图片上,电脑程序通过这些洞知晓哪些部分需要修复。 2. 编码器:是电脑的大脑,把需要修复的图片转换成能理解和处理的信息。 3. 噪声潜在空间:为使修复部分不单调,程序会加入随机性,让修复的图片更自然。 4. BrushNet 和冻结的 UNet(Frozen UNet,预训练好且固定不变的):像画家的画笔和调色板,协助电脑细致完成修复工作。 5. 去噪和生成图像:程序尝试去除不需要的噪声,创建出真实的图片部分。 6. 模糊掩码和合成:最后,程序用特殊技巧将新生成的图片和原始图片融合,如同用橡皮擦去画作错误并重画,只是运用的是电脑技术。
2024-12-27
老照片修复有手机端吗
老照片修复在手机端是可行的。以下是一些相关信息: 图像放大修复是 AI 绘画领域的重要部分,能应用于旧照片重现清晰、人像高清修复等场景。以前手机拍摄的低分辨率图片,如今可用 AI 技术进行高清修复。用手机也能拍摄出高清大片,提升照片质量。 【SD】用 AI 给老照片上色时,可将照片放入后期处理,使用 GFPGAN 算法让人脸变清晰。还可将图片发送到图生图中,打开 stableSR 脚本放大。切换到 sd2.1 模型修复,启用 MutiDiffusion 插件等。对于复杂的照片,可在 PS 里调整角度和裁切,放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,加入第二个 controlnet 控制颜色。
2024-12-19
老照片修复有手机端app吗
以下是为您整理的关于老照片修复的相关内容: 老照片修复可以利用 AI 技术实现。在手机端,您可以通过以下步骤和方法进行操作: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 2. 在 PS 里进行角度调整和照片裁切,然后使用特定步骤上色。对于复杂的照片,可只给场景方向,让 AI 自行决定颜色。 3. 利用 GFPGAN 算法将人脸变清晰,具体可参考相关文章。 4. 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan。 此外,图像放大修复是 AI 绘画领域的重要部分,其应用场景广泛: 1. 旧照片重现清晰,让模糊的旧照片保留珍贵回忆。 2. 人像高清修复,用手机也能拍摄出高清大片,提升照片质量。 3. 图像分辨率可无限扩大且不失真,如马斯克原始图像可多次采样放大提升分辨率。 目前不太明确是否有专门的老照片修复手机端 APP,但您可以通过上述方法和技术在手机上进行相关操作。
2024-12-19