直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型可以修复老旧的分辨率低的视频吗

回答

大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。

例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。

另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D U-Net 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

Sora的一个区别特征是其能够在原始尺寸上训练、理解和生成视频及图像,如图5所示。传统方法通常会调整视频的大小、裁剪或调整宽高比,以适应一个统一标准——通常是以固定低分辨率的正方形帧的短片段[27][28][29]。这些样本通常在更宽的时间跨度上生成,并依赖于分别训练的帧插入和分辨率渲染模型作为最后一步,这在视频中造成了不一致性。利用扩散变换器架构[4](见3.2.4节),Sora是第一个拥抱视觉数据多样性的模型,并且可以在从宽屏1920x1080p视频到竖屏1080x1920p视频以及之间的任何格式上采样,而不会损害它们的原始尺寸。图5:Sora可以生成从1920x1080p到1080x1920p及其间任何尺寸或分辨率的图像。图6:Sora(右)与一个修改版的模型(左)之间的比较,后者将视频裁剪成正方形——这是模型训练中的一种常见做法——凸显了优势。在原始尺寸上训练数据显著改善了生成视频的构图和框架。经验发现,通过保持原始宽高比,Sora实现了更自然和连贯的视觉叙事。如图6所示,Sora与一个在统一裁剪的正方形视频上训练的模型之间的比较展示了明显的优势。Sora生成的视频展示了更好的框架,确保场景中完全捕捉到了主体,与正方形裁剪导致的有时被截断的视图相反。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

基础模型用于低分辨率视频生成,然后通过级联扩散模型进行细化以提高分辨率。基础视频和超分辨率模型采用3D U-Net架构,以时空可分离的方式使用。该架构将时间注意力和卷积层与空间对应物结合起来,以有效捕获帧间依赖性。它采用v-预测参数化以确保数值稳定性,并使用条件增强来促进模型间的并行训练。该过程涉及对图像和视频的联合训练,将每个图像视为一个帧以利用更大的数据集,并使用无分类器引导[57]来增强提示的忠实度。应用渐进式蒸馏[58]来简化采样过程,显著减少计算负载同时保持感知质量。结合这些方法和技术,Imagen Video不仅能生成高保真度的视频,还能展现出卓越的可控性,如其生成多样化视频、文字动画和各种艺术风格内容的能力所示。14(a)额外的时间层。通过插入学习将帧对齐成时间一致序列的时间层,将预训练的LDM转变为视频生成器。在优化过程中,图像骨干θ保持固定,只有时间层li的参数ϕ接受训练。14(b)视频LDM堆栈。视频LDM首先生成稀疏关键帧,然后使用相同的潜在扩散模型进行两次时间插值以实现高帧率。最后,将潜在视频解码到像素空间,并可选地应用视频上采样器扩散模型。图14:视频LDM的整体框架。来源:视频LDM[36]。

其他人在问
有哪些免费的可以提高图片分辨率的网站
以下是一些免费提高图片分辨率的方法和相关网站: 1. 在 Stable Diffusion 中: 文生图功能中有内置的高清修复(HiresFix)功能。将初始分辨率设置为 800x420 时,选择放大倍率为 2,理论上放大倍率越高,图片越清晰,但最高可达 4 倍,实际效果与电脑配置和显卡显存有关。 先以较低分辨率画图,获取生成图的种子值,然后将其填入随机数种子以固定图片,再进行高清修复,放大算法如二次元绘图可选择 RESRGAN 4x+ Anime6B,写实类风格可选择 RESRGAN 4x+。 2. Stability AI 推出的基于 Discord 的工具: :将低分辨率、低质量的图像转换为 4k 杰作,价格为 25 积分。 :简单、低成本的分辨率提升,价格为 0.2 积分。 此外,在 MJ 应用中也有相关操作,如复制图像链接和提示词等步骤来生成新的图像,并通过改变比例和镜头拉远等操作调整构图,最终提升分辨率。
2024-11-06
提升视频分辨率
提升视频分辨率的方法有很多,以下是几种常见的方法: 1. 使用视频编辑软件:大多数视频编辑软件都提供了提升视频分辨率的功能。你可以使用这些软件来调整视频的分辨率、帧率和质量等参数,以提高视频的清晰度和质量。 2. 使用 AI 视频增强工具:AI 视频增强工具可以使用机器学习算法来提升视频的分辨率和质量。这些工具通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 3. 使用视频转换工具:视频转换工具可以将低分辨率视频转换为高分辨率视频。这些工具通常使用高级算法来提高视频的分辨率和质量,同时保持视频的原始格式和质量。 4. 使用 AI 视频生成模型:AI 视频生成模型可以使用机器学习算法来生成高分辨率视频。这些模型通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 需要注意的是,提升视频分辨率可能会导致视频质量下降或出现其他问题。因此,在提升视频分辨率之前,你应该仔细评估视频的质量和需求,并选择最适合的方法来提升视频分辨率。
2024-06-13
在线提升分辨率的工具
在线提升分辨率的工具包括 Bigjpg、Topaz Gigapixel AI、GIGAGAN、Deep Art Effects 等。
2024-03-20
如何通过图片素材,自动剪辑视频
以下是通过图片素材自动剪辑视频的步骤: 1. 访问 Adobe Firefly 网站(https://firefly.adobe.com/),选择“生成视频”。 2. 在“生成视频”页面的“提示”字段中输入文本提示,您还可以使用“上传”选项在“图像”部分使用图像作为第一帧,并为视频剪辑提供方向参考。添加图像以提供清晰的视觉引导,使生成的视频更紧密地与您的愿景对齐。 3. 在“常规设置”部分,确定“宽高比”和“每秒帧数”。 4. 在“高级”部分,您可以使用“种子”选项添加种子编号,以帮助启动流程并控制 AI 创建内容的随机性。如果使用相同的种子、提示和控制设置,可以重新生成类似的视频剪辑。 5. 选择“生成”。 此外,关于生成视频的常见问题解答: 视频模型可能需要裁剪您的图像以适应所需的图像大小,这是从中心完成的,可能会丢失边缘部分图像。要自己裁剪图像,可以使用 Adobe Express 等 Adobe 应用程序。 种子是帮助启动流程的数字,控制 AI 创建内容的随机性。如果使用相同的种子、提示和控制设置,可以重新生成类似的资源。如果更改了提示、上传的图像和控制等属性,则使用相同的种子。如果属性保持不变,则会生成新的种子。 当更改任何设置或提示时,种子将保持不变,这可能导致生成的人物在种族、民族或肤色方面看起来相似。在“高级设置”下更改种子编号可能会改变人物的种族、民族或肤色。
2024-12-19
我想用AI把图片生成营销视频
以下是关于用 AI 把图片生成营销视频的相关信息: 生成式人工智能在营销中的应用:DALLE 2 和其他图像生成工具已被用于广告,如亨氏使用番茄酱瓶的图像和类似标签论证“这就是人工智能眼中‘番茄酱’的样子”;雀巢使用维米尔画作的人工智能增强版帮助销售酸奶品牌;Stitch Fix 服装公司使用 DALLE 2 根据客户偏好创建服装可视化;美泰使用该技术生成玩具设计和营销的图像。 判断图片是否为 AI 生成:AI 作画的画质画风偶尔会波动,不像人类画师作品质量大多稳定向上发展,AI 就像皮下雇佣无数画技参差不齐画手的批皮营销号,画质质量胡乱。 制作商业级 AI 视频广告的出图方法:MJ 出图质量稳定,使用门槛低,暂时无其他替代工具。常规操作是登录 Discord 网站,打开 MJ 服务器出图,通过/imagine 命令输入提示词生成图片。若想提高效率,可使用 Autojourney 插件,它是电脑浏览器的一个插件,能批量发送提示词、自动下载图片、自动放大图片、生成提示词等,在浏览器拓展程序中下载安装,激活后将 MJ 出图提示词复制到插件中即可自动批量出图,一次可输入 10 组提示词。
2024-12-19
目前我已经有了一个可以文生视频或者图生视频的模型但是只能6秒,我要如何利用agent自动流实现这个模型可以生成更长,更可靠质量的视频呢
要利用 agent 自动流实现生成更长、更可靠质量的视频,您可以参考以下几种模型和方法: 1. PixVerse V2 模型: 8 秒的视频生成需要花费 30 Credits,5 秒的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。 目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. Meta Movie Gen 模型: Movie Gen 由视频生成和音频生成两个模型组成。 Movie Gen Video:30B 参数 Transformer 模型,可以从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。对于精确视频编辑,它可以执行添加、删除或替换元素,或背景替换、样式更改等全局修改。对于个性化视频,它在保持角色身份一致性和运动自然性方面取得 SOTA 性能。 Movie Gen Audio:13B 参数 Transformer 模型,可以接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。 Movie Gen Video 通过预训练微调范式完成,在骨干网络架构上,它沿用了 Transformer,特别是 Llama3 的许多设计。预训练阶段在海量的视频文本和图像文本数据集上进行联合训练,学习对视觉世界的理解。微调阶段研究人员精心挑选了一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。为了进一步提高效果,模型还引入了流匹配(Flow Matching)作为训练目标,这使得视频生成的效果在精度和细节表现上优于扩散模型。 3. Sora 模型: 文生视频,图生视频,视频生视频,支持多种视频定制选项,如分辨率(从 480p 到 1080p)、视频长度(从 5 秒到更长时间)和视频风格。用户可以浏览社区共享的视频,获取灵感和学习技巧(直接抄别人 prompt)。 故事板:允许用户通过时间线指导视频中的多个动作,创建更加复杂的视频序列。 混音和编辑:提供视频混音功能,允许用户将视频转换成新的风格。支持视频的延伸和剪辑,以及创建循环视频。 高级功能:包括混合功能,可以将两个视频场景合并成一个新的场景。 对于已经拥有 OpenAI Plus 或 Pro 账户的用户,Sora 的使用是包含在现有订阅中的,无需额外支付费用。OpenAI Plus 订阅每月 50 次视频生成次数;OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可以根据需要选择更高分辨率的视频生成,但这可能会减少每月的使用次数。Sora 的发布初期,对于某些地区(如欧洲和英国)可能会有延迟。
2024-12-19
nova有个图生视频的功能,但是只能生成6秒钟,我要如何组合服务去实现可以文生长视频并且也可以图生长视频呢
以下是一些实现文生长视频和图生长视频的方法: 1. 使用 PixVerse V2 模型: 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. 利用 runway: 视频的大部分片段用 runway(https://app.runwayml.com/)制作,少数的片段用的是即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。 以汽车内饰这一片段为例,登录 runway 账户后,在首页的左侧点击“Text/Imagine to Video”,中文即是“文生视频/图生视频”。点击 2 处将汽车内饰的图片上传到 runway 中。其中 1 处可以更改生成图片所用到的大模型版本,数字越大代表模型越强。目前只有 Gen2 每天有免费额度。3 处用于输入提示词。4 处可以修改生成的视频时长为 5s 或 10s,时长越长,生成的效果可能越不稳定。5 处可以看到生成的结果。提示词方框中输入的运镜方式“Roll Clockwise Shot slowly”是,即摄像机围绕垂直轴顺时针旋转,常用于创造动态的、有时令人眩晕的视觉效果。不想动脑的话,每个片段的运镜方式根据分镜表的建议来即可。运镜提示词该如何填写呢?可以参照:。runway 对于这些专有的运镜方式理解的很好。其他的提示词可以不填,先看看效果,如果效果不好,再补充简短的提示词重新生成视频。很多时候提示词过多,生成的视频就很怪异,像吃了毒蘑菇后看到的幻觉一样。改变提示词,改变生成时长,多抽卡几次,毕竟 runway 会员可以无限抽卡。 3. 海外产品 viva: viva 发布了首个开放给全部用户使用的 Sora 同架构视频生成模型,而且现阶段免费。支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。文生视频单次可以生成一条 5 秒的视频,图生视频是 4 秒视频。
2024-12-19
多图生成视频方案
以下是关于多图生成视频的几种方案: 1. 方法一: 利用 MJ 画图,先画出来一张想要的底图。 使用 InsightFaceSwap 这个插件来换脸或者让脸部更像,但因该插件对多人脸部同时处理效果不好,所以先需要进行图片的分割裁剪,分别利用插件处理后,再把图片重新缝合。 最后利用可灵或者其他软件来让图片动起来。 2. 方法二: 直接在网上寻找能够融合两张照片的软件或者项目,直接对图片进行融合。如果没有,就纯 P 图,然后利用图生视频的项目完成内容。 3. 利用现有的知识和工具,如具备 DiT(能够进行图片生成),把视频生成看作独立的图片生成,使用 DiT 生成多帧图片然后串起来就是视频,但这样可能会导致生成的多帧图像不连贯。 4. 使用视频工具 VIGGLE: Mix 模式:先上传一个视频和一张角色图像,Viggle 会自动将视频的动态赋予给这个角色,形成一段新视频,能模拟出角色的 3D 状态,准确还原复杂动作。 Multi 模式:通过视频的动作,将上传的多个角色进行识别并赋予动作,形成一段新视频。 Move 模式:将视频的动作直接映射在图片人物身上,实现“让静态图动起来”。 您可以根据实际需求和操作难度选择适合您的方案。
2024-12-19
免费的图生视频软件有推荐吗
以下是为您推荐的免费图生视频软件: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果您熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Kaiber:这是一款视频转视频 AI,能够将原视频转换成各种风格的视频。 此外,您还可以通过以下途径获取更多相关信息: 1. 更多的文生视频的网站可以查看: 2. Vidu 全球上线,Web 端访问:https://www.vidu.studio/ ,具有极速生成、动漫风格、角色可控、精准理解、大片质感等特点。 关于 SVD 图生视频模型的下载和使用: 1. 下载模型:最新模型在前面,建议除开第一个模型都下载。 https://huggingface.co/stabilityai/sv3d/ 【Stable Video 3D模型,最新模型,生成图片 3D 旋转视频,暂时没测试是否能支持】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vidxt11/ 【SVD 1.1 XT 版,支持生成 1024x576 分辨率每秒 14 帧视频,优化了文件大小,提高生成效率】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vidxt 【SVD 1.0 XT 版,支持生成 1024x576 分辨率生成每秒 25 帧视频】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vid 【SVD1.0 版,支持生成生成 1024x576 分辨率每秒 14 帧视频】 2. 放置模型:下载好的 SVD 图生视频模型放置在指定文件夹下。 3. 使用方法:Controlnet 中上传原图选择深度,预处理器可选择不同算法,右侧深度模型记得选择深度模型,获得需要的深度图。结合大模型和提示词,利用文生图就可以生成图片。然后上传制作好的图片,选择 SVD 图生视频大模型,设置参数,生成视频。 内容由 AI 大模型生成,请仔细甄别。
2024-12-19
老照片修复有手机端吗
老照片修复在手机端是可行的。以下是一些相关信息: 图像放大修复是 AI 绘画领域的重要部分,能应用于旧照片重现清晰、人像高清修复等场景。以前手机拍摄的低分辨率图片,如今可用 AI 技术进行高清修复。用手机也能拍摄出高清大片,提升照片质量。 【SD】用 AI 给老照片上色时,可将照片放入后期处理,使用 GFPGAN 算法让人脸变清晰。还可将图片发送到图生图中,打开 stableSR 脚本放大。切换到 sd2.1 模型修复,启用 MutiDiffusion 插件等。对于复杂的照片,可在 PS 里调整角度和裁切,放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,加入第二个 controlnet 控制颜色。
2024-12-19
老照片修复有手机端app吗
以下是为您整理的关于老照片修复的相关内容: 老照片修复可以利用 AI 技术实现。在手机端,您可以通过以下步骤和方法进行操作: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 2. 在 PS 里进行角度调整和照片裁切,然后使用特定步骤上色。对于复杂的照片,可只给场景方向,让 AI 自行决定颜色。 3. 利用 GFPGAN 算法将人脸变清晰,具体可参考相关文章。 4. 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan。 此外,图像放大修复是 AI 绘画领域的重要部分,其应用场景广泛: 1. 旧照片重现清晰,让模糊的旧照片保留珍贵回忆。 2. 人像高清修复,用手机也能拍摄出高清大片,提升照片质量。 3. 图像分辨率可无限扩大且不失真,如马斯克原始图像可多次采样放大提升分辨率。 目前不太明确是否有专门的老照片修复手机端 APP,但您可以通过上述方法和技术在手机上进行相关操作。
2024-12-19
有没有修复老照片的AI工具
以下是一些修复老照片的 AI 工具及相关操作: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下放大图片。 2. 辅助工具: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可增加更多细节 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰,参考文章——。 4. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。参考文章——。 在处理复杂照片时,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,关键词如“蓝天、绿树、灰石砖”。
2024-12-10
老照片修复
以下是关于用 AI 给老照片上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 4. 将照片放入后期处理,使用 GFPGAN 算法使人脸变清晰。 5. 把图片发送到图生图中,打开 stableSR 脚本放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 6. 对于复杂的照片,如人物多、场景复杂、像素低的,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如蓝天、绿树、灰石砖。 相关文章参考: 1. 【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21wechat_redirect 2. 【Stable Diffusion】超清无损放大器 StableSR:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21wechat_redirect
2024-12-04
照片修复
以下是关于照片修复的相关知识: 图像高清修复与无损放大的流程通常分为三部分: 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,因其处理时间长。 图像高清修复:使用 Iceclear/StableSR 等模型进行高清修复并 2 倍放大,搭配 Stable SR Upscaler 模型和合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)等。 图像高清放大:用 realisticVision 底膜进行二次修复,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。 用 AI 给老照片上色: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时将图片放大。 可在 PS 里调整角度和裁切照片,然后上色。对于复杂照片,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词如蓝天、绿树、灰石砖。 将照片放入后期处理,使用 GFPGAN 算法清晰人脸,五官重绘后,再将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型修复,vae 选择 vqgan,可不写提示词以免干扰原图。
2024-11-06
老照片修复
以下是关于用 AI 给老照片上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 4. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 5. 把图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 6. 对于复杂的照片,如人物多、场景复杂、像素低的,可先放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 参考文章: 1. 2. 作者:白马少年,发布时间:20230910 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2024-11-06