Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型可以修复老旧的分辨率低的视频吗

Answer

大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。

例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。

另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D U-Net 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

Sora的一个区别特征是其能够在原始尺寸上训练、理解和生成视频及图像,如图5所示。传统方法通常会调整视频的大小、裁剪或调整宽高比,以适应一个统一标准——通常是以固定低分辨率的正方形帧的短片段[27][28][29]。这些样本通常在更宽的时间跨度上生成,并依赖于分别训练的帧插入和分辨率渲染模型作为最后一步,这在视频中造成了不一致性。利用扩散变换器架构[4](见3.2.4节),Sora是第一个拥抱视觉数据多样性的模型,并且可以在从宽屏1920x1080p视频到竖屏1080x1920p视频以及之间的任何格式上采样,而不会损害它们的原始尺寸。图5:Sora可以生成从1920x1080p到1080x1920p及其间任何尺寸或分辨率的图像。图6:Sora(右)与一个修改版的模型(左)之间的比较,后者将视频裁剪成正方形——这是模型训练中的一种常见做法——凸显了优势。在原始尺寸上训练数据显著改善了生成视频的构图和框架。经验发现,通过保持原始宽高比,Sora实现了更自然和连贯的视觉叙事。如图6所示,Sora与一个在统一裁剪的正方形视频上训练的模型之间的比较展示了明显的优势。Sora生成的视频展示了更好的框架,确保场景中完全捕捉到了主体,与正方形裁剪导致的有时被截断的视图相反。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

基础模型用于低分辨率视频生成,然后通过级联扩散模型进行细化以提高分辨率。基础视频和超分辨率模型采用3D U-Net架构,以时空可分离的方式使用。该架构将时间注意力和卷积层与空间对应物结合起来,以有效捕获帧间依赖性。它采用v-预测参数化以确保数值稳定性,并使用条件增强来促进模型间的并行训练。该过程涉及对图像和视频的联合训练,将每个图像视为一个帧以利用更大的数据集,并使用无分类器引导[57]来增强提示的忠实度。应用渐进式蒸馏[58]来简化采样过程,显著减少计算负载同时保持感知质量。结合这些方法和技术,Imagen Video不仅能生成高保真度的视频,还能展现出卓越的可控性,如其生成多样化视频、文字动画和各种艺术风格内容的能力所示。14(a)额外的时间层。通过插入学习将帧对齐成时间一致序列的时间层,将预训练的LDM转变为视频生成器。在优化过程中,图像骨干θ保持固定,只有时间层li的参数ϕ接受训练。14(b)视频LDM堆栈。视频LDM首先生成稀疏关键帧,然后使用相同的潜在扩散模型进行两次时间插值以实现高帧率。最后,将潜在视频解码到像素空间,并可选地应用视频上采样器扩散模型。图14:视频LDM的整体框架。来源:视频LDM[36]。

Others are asking
老旧照片高清修复
以下是关于老旧照片高清修复的方法: 1. 使用 Stable Diffusion 进行修复: 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。可参考文章。 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章。 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 为做到颜色与内容的统一,启用 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。可参考文章。 2. 使用 ComfyUI 进行修复: 结合 Flux Controlnet Upscale 模型,以前的工作流比较复杂,现在只要十几个基础的节点就能实现同样的效果,甚至可能更好。 参数调节:一般先确认放大的倍数,然后根据出来的图片调整 controlNet 的强度。 ControlnetUpscaler 放大模型:Flux.1dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,可放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。 T5 Clip:如果发现出来的图片质量细节不够,选择 fp16 的版本。 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。
2025-01-19
可以提高图片分辨率的AI软件
以下是一些可以提高图片分辨率的 AI 软件: 1. ComfyUISUPIR:简单易用,能够提高图片分辨率和质量,但需要下载约 10GB 的 CLIP 模型,可能存在不便。提供了 GitHub 和在线体验链接。 2. InvSR:通过 1 到 5 步提升图像清晰度,用户可在效率与效果间自由调节,即便仅处理一步,也能媲美多步骤方法,适用于老照片修复及生成图优化。 您可以根据自己的需求选择适合的软件。
2025-02-11
有哪些免费的可以提高图片分辨率的网站
以下是一些免费提高图片分辨率的方法和相关网站: 1. 在 Stable Diffusion 中: 文生图功能中有内置的高清修复(HiresFix)功能。将初始分辨率设置为 800x420 时,选择放大倍率为 2,理论上放大倍率越高,图片越清晰,但最高可达 4 倍,实际效果与电脑配置和显卡显存有关。 先以较低分辨率画图,获取生成图的种子值,然后将其填入随机数种子以固定图片,再进行高清修复,放大算法如二次元绘图可选择 RESRGAN 4x+ Anime6B,写实类风格可选择 RESRGAN 4x+。 2. Stability AI 推出的基于 Discord 的工具: :将低分辨率、低质量的图像转换为 4k 杰作,价格为 25 积分。 :简单、低成本的分辨率提升,价格为 0.2 积分。 此外,在 MJ 应用中也有相关操作,如复制图像链接和提示词等步骤来生成新的图像,并通过改变比例和镜头拉远等操作调整构图,最终提升分辨率。
2024-11-06
提升视频分辨率
提升视频分辨率的方法有很多,以下是几种常见的方法: 1. 使用视频编辑软件:大多数视频编辑软件都提供了提升视频分辨率的功能。你可以使用这些软件来调整视频的分辨率、帧率和质量等参数,以提高视频的清晰度和质量。 2. 使用 AI 视频增强工具:AI 视频增强工具可以使用机器学习算法来提升视频的分辨率和质量。这些工具通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 3. 使用视频转换工具:视频转换工具可以将低分辨率视频转换为高分辨率视频。这些工具通常使用高级算法来提高视频的分辨率和质量,同时保持视频的原始格式和质量。 4. 使用 AI 视频生成模型:AI 视频生成模型可以使用机器学习算法来生成高分辨率视频。这些模型通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 需要注意的是,提升视频分辨率可能会导致视频质量下降或出现其他问题。因此,在提升视频分辨率之前,你应该仔细评估视频的质量和需求,并选择最适合的方法来提升视频分辨率。
2024-06-13
在线提升分辨率的工具
在线提升分辨率的工具包括 Bigjpg、Topaz Gigapixel AI、GIGAGAN、Deep Art Effects 等。
2024-03-20
想学习和北邦一样的图片生成动画视频,应该怎么做?
以下是学习和北邦一样的图片生成动画视频的方法: 1. 使用 Runway: 进入 Runway 官网首页,点击“start with image”。 直接将图片拖进来。 动画幅度尽量用 3,5 有时候会乱跑。 啥都不用改,直接点击生成即可。 注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行。 直接点删除,然后重新上传下面的图即可(最多可以放几个可自行测试)。 重复步骤即可生成所有视频。 (Runway 是收费的,也可以找免费的,或在闲鱼、淘宝买号。) 2. 使用即梦:上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主,生成速度根据视频节奏选择,比如选择慢速。 3. ComfyUI AniamteDiff: 了解 IPAdapter、Animatediff、controlNet 的用法和这三个之间通过蒙蔽遮罩灵活搭配生成视频的方法。 模型加载用到两个 lora,一个是 Animatediff v3_sd15_mm 运动模型需要的 v3_sd15_adapter,lora 的强度在合理范围内越高,画面越稳定;另一个 more_details 这个 lora 是给画面添加更多细节。 上传 4 张图片,并且使用 image batch 复制图像来制作批次,这是为了在使用 IPAdapter 时候,每一帧都可以参考上传的图片,让风格迁移更像。 上传的蒙版视频是为了在帧与帧之间做遮罩过渡,添加一个动态的效果。 用 IPAdapter 来做图像的风格迁移,对应四张图片。使用遮罩来控制每张图片显示的帧数,从第 0 帧开始计算,一张图片 16 帧,加上中间过渡的 8 帧。需要显示的帧设置为 1,隐藏的为 0,以此类推。这样就把 4 张图片融合成了一个 96 帧的序列,并且使用遮罩控制每一帧显示出来的画面。
2025-02-22
语音处理 视频处理工具
以下是一些语音处理和视频处理工具的相关信息: Notebook LM: 文字文档处理:可导入人工智能相关的 PDF 格式论文,左侧栏快速加载,提供常见问题解答、学习指南、目录、时间轴、简报文档等功能,对不相关问题会拒绝回复。 视频处理:可复制 YouTube 视频网址链接进行处理,操作与文字文档类似,但文本输出格式存在问题。 音频播客处理:可自定义或使用默认设置生成音频播客,能控制时长范围,最长约 15 分钟,最短 1 2 分钟,生成内容自然。 老金:Voice 语音识别与发送语音 音频处理工具 ffmpeg:点击地址进行安装 讯飞 API key 申请:讯飞免费一年,量很大,足够用。在讯飞上申请一个 API Key,网址为:https://www.xfyun.cn/services/rtasr 。进入控制台创建应用,获取 3 个要用到的 Key。 配置 Cow:打开根目录的 config.json 进行总开关配置,按需配置,开启是 true,关闭是 false。因发送语音不能是语音条,所以只开了语音识别。配置讯飞的 key,进入/chatgptonwechat/voice/xunfei 下的 config.json,把对应的 key 配置进来即可。配置完成,重新扫码登录。 MMVid:一个集成的视频理解系统,能处理和理解长视频内容并进行问答。应用场景包括快速的视频剪辑、快速的图生视频、快速诊断等。由 Microsoft Azure AI 开发,结合了 GPT4V 的能力和其他视觉、音频和语音处理工具,能处理和理解长视频和复杂任务。能够自动识别和解释视频中的元素,如人物行为、情感表达、场景变化和对话内容,从而实现对视频故事线的理解。其核心功能是将视频中的多模态信息(如视觉图像、音频信号和语言对话)转录成详细的文本脚本,这样大语言模型就能够理解视频内容。
2025-02-22
几个短视频生成一个全新的新视频用什么好
以下是几种可以将几个短视频生成一个全新视频的工具和方法: 1. Sora: 技术原理:用特别的网络压缩视频,将其变成类似“补丁”的小片段,然后利用变换器技术根据文字提示生成新视频,能生成各种大小和形状的视频,并确保自然衔接。 相关链接:Sora 技术报告原文:https://openai.com/research/videogenerationmodelsasworldsimulators 2. PixVerse V2: 输入提示词:支持文生和图生视频。 上传图片:如无图片上传,可忽略此步骤。 选择视频时长:支持 5s 和 8s 的视频生成。 添加新片段:所有 Scene 画面风格会与 Scene 1 保持一致,可添加多个 Scene,最多支持 5 个同时生成。 生成视频:每次生成需花费 30 Credits,默认将所有片段拼接,不支持单片段下载。 编辑生成的视频:可从角色、环境、动作等方面进行编辑,未修改的 Scene 再次生成时会改变。 3. Video: 使用video 参数创建短视频,展示初始图形生成过程,仅适用于图像网格,可与版本为 1、2、3、test 和 testp 的模型版本一起使用。 获取视频链接:添加video 到提示词结尾,等任务结束后点击表情符号,选择✉️emoji,在私信中收到视频链接,在浏览器中查看并下载。
2025-02-22
文生视频
以下是关于文生视频的相关信息: 文字生成视频的 AI 产品有: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:可作为 Stable Diffusion 的插件,在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多的文生视频网站可查看:https://www.waytoagi.com/category/38 (内容由 AI 大模型生成,请仔细甄别) PixVerse V2 的使用教程: 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择,目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,可在提示词中加入“Anime”“Realistic”等词语。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,图生视频暂不支持“Magic Brush”“Camera Motion”“Motion Strength”等功能,如需使用上述功能,请将模型切换至“PixVerse V1”。 Sora 的模型推理策略: 官方展示 Sora 的应用包括文生视频、图生视频、视频反推、视频编辑、视频融合等。一些有意思的做法如: 1. 文生视频:喂入 DiT 的是文本 embedding+全噪声 patch。 2. 视频编辑:类似 SDEdit 的做法,在视频上加点噪声(不要搞成全是噪声),然后拿去逐步去噪。 3. 图生视频、视频反推、视频融合:喂入 DiT 的是文本 embedding(可选)+特定帧用给定图片的 embedding+其他帧用全噪声 patch。
2025-02-22
我想把人物老照片转彩色并生成视频动起来,用什么工具
以下是一些可以将人物老照片转彩色并生成视频动起来的工具和方法: 1. 对于给老照片上色,可以使用 Stable Diffusion 及其相关插件,如 MutiDiffusion 插件。在显存不够的情况下,可利用分块渲染功能放大图片。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,通过简单的关键词如“蓝天、绿树、灰石砖”来匹配色调。同时,将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对于生成视频让图片动起来,可以使用即梦进行图生视频。只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-22
爆款AI视频
以下是关于爆款 AI 视频的相关内容: 2025AI 春晚: 行业身份:首届 AI 春晚发起人&总导演,包括央视总台论坛&直播、TEDxAI 演讲、得到分享等。 爆款视频案例:快手&国家反诈中心合作,微博 650w+热搜,快手 520w+热搜(6 月 28 日);央视&海尔冰箱首支 AI 概念短片(6 月 29 日);个人制作视频,无推流,快手平台 636w 播放(6 月 29 日)。 社区与企业关系:涉及 WaytoAGI、AIGCxChina 等聚会,以及德必集团、万兴集团、福布斯 AItop50 等的论坛分享,还有嘉定区政府颁奖、温州 AI 音乐大会、腾讯研究院论坛、江西财经大学分享、宣亚集团分享等。 WTF:1w 粉 10w 粉仅仅用时 13 天,像素级拆解《动物时装秀》: 作者模仿动物时装秀账号效果不错并分享教程。一个爆款视频至少要满足以下几点: 切片:短视频通过不断切片,增加信息密度,从长视频和其他短视频中脱颖而出。 通感:利用人的直觉脑,不让观众动脑子,如头疗、水疗直播间靠声音让人舒服,美食直播间靠展示美食吸引人。 反差:可参考抖音航线里行舟大佬的相关文档。 视频模型:Sora: OpenAI 突然发布首款文生视频模型 Sora,能够根据文字指令创造逼真且充满想象力的场景,生成 1 分钟的超长一镜到底视频,女主角、背景人物等都有惊人的一致性和稳定性,远超其他 AI 视频工具。
2025-02-21
老照片修复用什么
以下是一些用于老照片修复的方法和工具: 1. 使用 SD 中的 ControlNet 模型,特别是其中的 Recolor 新模型,可对黑白老照片进行重新上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor 时,预处理器选择“recolor_luminance”效果较好。 2. 超清无损放大器 StableSR:需要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入指定文件夹,同时安装 StableSR 模块和 VQVAE。通过不同的放大方法测试,如“Ultimate SD upscale”脚本、“后期处理”的放大方法和 StableSR 的放大,StableSR 对原图还原较为精准,重绘效果较好。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰,但无法使头发、衣服等元素变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本进行放大修复。 相关参考文章: 1. 【SD】用 AI 给老照片上色,岁月不改它模样:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 2. 【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21wechat_redirect 3. 【Stable Diffusion】超清无损放大器 StableSR:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21wechat_redirect
2025-02-18
我想把黑白老照片修复成彩色,然后给人物换衣服。请问哪个AI网站或者软件可以免费使用
以下为您介绍可免费使用的将黑白老照片修复成彩色并给人物换衣服的方法: 使用 Stable Diffusion 可以实现此需求。在新上线的 controlnet 模型中,新增的 Recolor 模型能将黑白图片重新上色。操作时选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰,可参考文章——。 之后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-02-04
黑白老照片修复
以下是关于黑白老照片修复的相关内容: 1. 利用新上线的 controlnet 模型中的 Recolor 新模型为黑白照片上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 2. 字节发布的新模型 SeedEdit 也可用于黑白老照片上色,通过输入相应的提示词,如“给画面上色,时尚,舒服”,还能进行元素替换、移除无关元素和切换各种风格。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。
2025-02-01
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流,十几个基础节点就能实现更好效果。 参数调节方面,先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlnetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,类似 Wang,Xintao 等人在 2021 年发表的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 新上线的 controlnet 模型中的 Recolor 模型可给黑白图片重新上色。 人物照片还原选择 realisian 的写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 之后将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型修复,vae 选择 vqgan,可不写提示词以免干扰原图。
2025-01-20
视频修复AI工具
以下是一些视频修复 AI 工具及相关信息: 软件教程: Sora:https://waytoagi.feishu.cn/wiki/S5zGwt5JHiezbgk5YGic0408nBc Hedra:https://waytoagi.feishu.cn/wiki/PvBwwvN36iFob7kqZktcCzZFnxd 应用教程: 视频转绘:https://waytoagi.feishu.cn/wiki/ZjKpwSd5hiy6ZhkiBVHcOBb6n9r 视频拆解:https://waytoagi.feishu.cn/wiki/WeKMwHRTmiVpYjkVdYpcFjqun6b 图片精修:https://waytoagi.feishu.cn/wiki/CfJLwknV1i8nyRkPaArcslWrnle 几个视频 AIGC 工具: Opusclip:利用长视频剪成短视频 Raskai:短视频素材直接翻译至多语种 invideoAI:输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频 descript:屏幕/播客录制>PPT 方式做视频 veed.io:自动翻译自动字幕 clipchamp:微软的 AI 版剪映 typeframes:类似 invideoAI,内容呈现文本主体比重更多 google vids Topaz Video AI 使用介绍(显卡不好的可以跳过): 解压对应文件,推荐使用绿色版(安装包已在网盘,可直接下载)。 右键,管理员运行 VideoAIportable.exe 文件。 导入处理好的视频。 主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。 右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等。 稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动需开启,次数一般选择 2 保持默认不变。 帧插值 AI 里主要是识别对应的帧和帧之间进行修复替换,有几种模型。 增强 AI 选择不同模型对视频进行整体优化,包括面部、去噪、锐化提升等。 12 月 8 日 Xiaohu.AI 日报中的新的视频修复与超分辨率工具: 功能亮点:画面缺失修补、模糊去除、清晰度提升(最高 4 倍超分辨率)。 同时支持去模糊、修复、超分任务,操作简便,仅需一张 13G 显存 GPU。 链接:https://x.com/imxiaohu/status/1865636467055497267 项目地址:https://visionxl.github.io
2025-01-14