Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型可以修复老旧的分辨率低的视频吗

Answer

大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。

例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。

另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D U-Net 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

Sora的一个区别特征是其能够在原始尺寸上训练、理解和生成视频及图像,如图5所示。传统方法通常会调整视频的大小、裁剪或调整宽高比,以适应一个统一标准——通常是以固定低分辨率的正方形帧的短片段[27][28][29]。这些样本通常在更宽的时间跨度上生成,并依赖于分别训练的帧插入和分辨率渲染模型作为最后一步,这在视频中造成了不一致性。利用扩散变换器架构[4](见3.2.4节),Sora是第一个拥抱视觉数据多样性的模型,并且可以在从宽屏1920x1080p视频到竖屏1080x1920p视频以及之间的任何格式上采样,而不会损害它们的原始尺寸。图5:Sora可以生成从1920x1080p到1080x1920p及其间任何尺寸或分辨率的图像。图6:Sora(右)与一个修改版的模型(左)之间的比较,后者将视频裁剪成正方形——这是模型训练中的一种常见做法——凸显了优势。在原始尺寸上训练数据显著改善了生成视频的构图和框架。经验发现,通过保持原始宽高比,Sora实现了更自然和连贯的视觉叙事。如图6所示,Sora与一个在统一裁剪的正方形视频上训练的模型之间的比较展示了明显的优势。Sora生成的视频展示了更好的框架,确保场景中完全捕捉到了主体,与正方形裁剪导致的有时被截断的视图相反。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

基础模型用于低分辨率视频生成,然后通过级联扩散模型进行细化以提高分辨率。基础视频和超分辨率模型采用3D U-Net架构,以时空可分离的方式使用。该架构将时间注意力和卷积层与空间对应物结合起来,以有效捕获帧间依赖性。它采用v-预测参数化以确保数值稳定性,并使用条件增强来促进模型间的并行训练。该过程涉及对图像和视频的联合训练,将每个图像视为一个帧以利用更大的数据集,并使用无分类器引导[57]来增强提示的忠实度。应用渐进式蒸馏[58]来简化采样过程,显著减少计算负载同时保持感知质量。结合这些方法和技术,Imagen Video不仅能生成高保真度的视频,还能展现出卓越的可控性,如其生成多样化视频、文字动画和各种艺术风格内容的能力所示。14(a)额外的时间层。通过插入学习将帧对齐成时间一致序列的时间层,将预训练的LDM转变为视频生成器。在优化过程中,图像骨干θ保持固定,只有时间层li的参数ϕ接受训练。14(b)视频LDM堆栈。视频LDM首先生成稀疏关键帧,然后使用相同的潜在扩散模型进行两次时间插值以实现高帧率。最后,将潜在视频解码到像素空间,并可选地应用视频上采样器扩散模型。图14:视频LDM的整体框架。来源:视频LDM[36]。

Others are asking
老旧照片修复
以下是关于用 AI 给老旧照片修复上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,在显存不够的情况下,仅使用分块渲染功能将图片放大到足够倍数。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。 4. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 5. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 6. 把图片发送到图生图中,打开 stableSR 脚本,放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 7. 对于复杂的照片,如人物多、场景复杂、像素低的情况,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 作者为白马少年,发布时间为 2023 年 9 月 10 日 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 。
2025-03-06
老旧照片高清修复
以下是关于老旧照片高清修复的方法: 1. 使用 Stable Diffusion 进行修复: 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。可参考文章。 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章。 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 为做到颜色与内容的统一,启用 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。可参考文章。 2. 使用 ComfyUI 进行修复: 结合 Flux Controlnet Upscale 模型,以前的工作流比较复杂,现在只要十几个基础的节点就能实现同样的效果,甚至可能更好。 参数调节:一般先确认放大的倍数,然后根据出来的图片调整 controlNet 的强度。 ControlnetUpscaler 放大模型:Flux.1dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,可放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。 T5 Clip:如果发现出来的图片质量细节不够,选择 fp16 的版本。 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。
2025-01-19
免费增强图像分辨率的
以下是一些免费增强图像分辨率的工具和方法: 1. Kraken.io:主要用于图像压缩,但也提供免费的图像放大功能,能保证图像细节清晰度。 2. Deep Art Effects:强大的艺术效果编辑器,通过 AI 技术放大图像并赋予艺术效果,支持多种滤镜和风格。 3. Waifu2x:提供图片放大和降噪功能,使用深度学习技术提高图像质量,保留细节和纹理,简单易用效果好。 4. Bigjpg:强大的图像分辨率增强工具,使用神经网络算法加大图像尺寸,提高图像质量,处理速度快。 此外,还有以下相关资源: 1. 【超级会员 V6】通过百度网盘分享的 Topaz 全家桶,链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 ,提取码:16d1 ,复制这段内容打开「百度网盘 APP 即可获取」。 2. RealESRGAN:基于 RealESRGAN 的图像超分辨率增强模型,具有可选的人脸修复和可调节的放大倍数,但使用几次后要收费。 3. InvSR:开源图像超分辨率模型,提升图像分辨率的开源新工具,只需一个采样步骤(支持 1 5 的材料步骤)即可增强图像,可以高清修复图像。地址、在线试用地址:https://github.com/zsyOAOA/InvSR?tab=readme ov filerailway_car online demo 、https://huggingface.co/spaces/OAOA/InvSR 。 4. GIGAGAN:https://mingukkang.github.io/GigaGAN/ 。 5. Topaz Gigapixel AI:https://www.topazlabs.com/gigapixel ai 。 6. Topaz Photo AI:https://www.topazlabs.com/ 。 7. discord:https://discord.gg/m5wPDgkaWP 。
2025-03-24
可以提高图片分辨率的AI软件
以下是一些可以提高图片分辨率的 AI 软件: 1. ComfyUISUPIR:简单易用,能够提高图片分辨率和质量,但需要下载约 10GB 的 CLIP 模型,可能存在不便。提供了 GitHub 和在线体验链接。 2. InvSR:通过 1 到 5 步提升图像清晰度,用户可在效率与效果间自由调节,即便仅处理一步,也能媲美多步骤方法,适用于老照片修复及生成图优化。 您可以根据自己的需求选择适合的软件。
2025-02-11
有哪些免费的可以提高图片分辨率的网站
以下是一些免费提高图片分辨率的方法和相关网站: 1. 在 Stable Diffusion 中: 文生图功能中有内置的高清修复(HiresFix)功能。将初始分辨率设置为 800x420 时,选择放大倍率为 2,理论上放大倍率越高,图片越清晰,但最高可达 4 倍,实际效果与电脑配置和显卡显存有关。 先以较低分辨率画图,获取生成图的种子值,然后将其填入随机数种子以固定图片,再进行高清修复,放大算法如二次元绘图可选择 RESRGAN 4x+ Anime6B,写实类风格可选择 RESRGAN 4x+。 2. Stability AI 推出的基于 Discord 的工具: :将低分辨率、低质量的图像转换为 4k 杰作,价格为 25 积分。 :简单、低成本的分辨率提升,价格为 0.2 积分。 此外,在 MJ 应用中也有相关操作,如复制图像链接和提示词等步骤来生成新的图像,并通过改变比例和镜头拉远等操作调整构图,最终提升分辨率。
2024-11-06
提升视频分辨率
提升视频分辨率的方法有很多,以下是几种常见的方法: 1. 使用视频编辑软件:大多数视频编辑软件都提供了提升视频分辨率的功能。你可以使用这些软件来调整视频的分辨率、帧率和质量等参数,以提高视频的清晰度和质量。 2. 使用 AI 视频增强工具:AI 视频增强工具可以使用机器学习算法来提升视频的分辨率和质量。这些工具通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 3. 使用视频转换工具:视频转换工具可以将低分辨率视频转换为高分辨率视频。这些工具通常使用高级算法来提高视频的分辨率和质量,同时保持视频的原始格式和质量。 4. 使用 AI 视频生成模型:AI 视频生成模型可以使用机器学习算法来生成高分辨率视频。这些模型通常可以自动识别视频中的低分辨率区域,并使用高级算法来提高这些区域的分辨率和质量。 需要注意的是,提升视频分辨率可能会导致视频质量下降或出现其他问题。因此,在提升视频分辨率之前,你应该仔细评估视频的质量和需求,并选择最适合的方法来提升视频分辨率。
2024-06-13
在线提升分辨率的工具
在线提升分辨率的工具包括 Bigjpg、Topaz Gigapixel AI、GIGAGAN、Deep Art Effects 等。
2024-03-20
小白不懂MCP,请搜索waytoAGI中与智能体相关的内容(特别是视频形式的)让我来学习
以下是为您整理的关于 MCP 的相关内容: 一、什么是 MCP MCP(Model Context Protocol)是一种通用的方式,向各类大语言模型提供数据源和工具。它是一个开放协议,用于标准化应用程序向大语言模型提供上下文的方式。可以将 MCP 想象成 AI 应用程序的 USBC 接口,为 AI 模型连接不同的数据源和工具提供了标准化方式。 二、相关文章的写作目的和探讨内容 1. 作者因在 WaytoAGI 社区阅读了他人优秀文章,决定逼自己做输出,对自我学习进行总结。 2. 文章从作者自身疑问出发,通过动手实践的方式探索:利用自然语言交互,大模型为什么会调用 MCP 工具;大模型调用 MCP 工具,从客户端到服务端发生了什么;安装了类似 MCP 工具,大模型如何选择用哪一个。 三、MCP 和 AI 工具的未来 自 OpenAI 发布函数调用以来,思考解锁智能体和工具使用生态系统所需条件。MCP 于 2024 年 11 月推出,在开发者和 AI 社区中已获广泛关注,被视为潜在解决方案。探讨了其如何改变 AI 与工具的交互方式、开发人员的使用情况及仍需解决的挑战。 四、MCP 小白图文使用教程 MCP 服务器有三大核心功能: 1. 资源:是服务器提供给 AI 的数据内容,如文件、数据库结构或特定信息,每个资源通过唯一 URI 标识。 2. 工具:允许 AI 模型执行特定操作,如查询数据库、调用 API 或执行计算,每个工具由名称和描述其模式的元数据唯一标识。 3. 提示:提供结构化消息和指令,用于与语言模型交互,客户端可以发现可用提示、检索其内容并提供参数进行自定义。 希望以上内容对您有所帮助。
2025-04-08
实时翻译视频语音
以下是为您整理的相关信息: 实时翻译视频语音的工具: StreamSpeech:这是一个实时语言翻译模型,能够实现流媒体语音输入的实时翻译,输出目标语音和文本,具有同步翻译、低延迟的特点,还能展示实时语音识别结果。 给视频配音效的 AI 工具: 支持 50 多种语言的配音,音质自然流畅,提供实时配音功能,适用于直播和演讲,能将语音转录为文本,方便后期字幕制作和编辑。 Vidnoz AI:支持 23 多种语言的配音,音质高保真,支持文本转语音和语音克隆功能,提供语音参数自定义和背景音乐添加工具,提供面向个人和企业的经济实惠的定价方案。 在选择视频配音工具时,请考虑支持的语言数量、语音质量、自定义选项和价格等因素。
2025-04-07
视频脚本生成工具
以下是一些视频脚本生成工具: 1. ChatGPT + 剪映:ChatGPT 可生成视频小说脚本,剪映能根据脚本自动分析出视频所需场景、角色、镜头等要素,并生成对应素材和文本框架,能快速实现从文字到画面的转化,节省时间和精力。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户轻松创建和编辑高质量视频,无需视频编辑或设计经验,用户提供文本描述即可生成相应视频内容。 4. VEED.IO:提供 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway:AI 视频创作工具,能够将文本转化为风格化的视频内容,适用于多种应用场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可根据文本脚本生成视频。 如果想用 AI 把小说做成视频,可参考以下制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 此外,还有微短剧编剧提示词 01——创意生成器,这是一个基于关键词快速生成短视频剧本创意的 AI 提示工具,能帮助创作者、制片人或投资人快速获得一个结构完整的商业化短剧创意方案。其主要功能包括根据 2 3 个关键词生成完整的短剧创意、自动匹配最适合的爽点组合、设计合理的付费点和剧情节奏、突出创意亮点和商业价值。使用方法为输入 2 3 个核心关键词,系统将自动生成创意概述(类型定位、受众、主要爽点)、故事梗概(300 字故事概要)、情节设计(亮点和付费点设计)、创意能力说明(创新性和商业价值)。使用技巧包括关键词最好包含一个场景和一个核心冲突,尽量选择有情感张力的词组搭配,多尝试不同关键词组合获得更多灵感。但需注意生成的创意仅供参考,建议基于此进行二次创作,结合市场需求和制作预算进行调整,实际制作时需要考虑可执行性。依旧推荐 claude,chatgpt、Gemini,通义、豆包等工具,如果不会用,建议去学习下。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-04-07
目前好用的免费的图片生成 视频生成 ai
以下是为您推荐的好用的免费的图片生成和视频生成 AI 工具: 1. Pika Labs: 被网友评价为目前全球最好用的文本生成视频 AI。 功能:直接发送指令或上传图片生成 3 秒动态视频。 费用:目前内测免费。 操作步骤: 加入 Pika Labs 的 Discord 频道:在浏览器中打开链接 https://discord.gg/dmtmQVKEgt ,点击加入邀请。 在 generate 区生成:左边栏出现一只狐狸的头像就意味着操作成功了,如果没成功点开头像把机器人邀请至服务器。接着在 Discord 频道的左侧,找到“generate”子区,随便选择一个进入。 生成视频:输入/create,在弹出的 prompt 文本框内输入描述,比如/create prompt:future war,4K ar 16:9,按 Enter 发送出去就能生成视频了。也可以输入/create,在弹出的 prompt 文本框内输入描述,点击“增加”上传本地图片,就能让指定图片生成对应指令动态效果。 下载保存:喜欢的效果直接右上角点击下载保存到本地。如果对生成的视频不满意,如图像清晰度不够高或场景切换不够流畅等,可以点击再次生成按钮,系统会进一步优化生成的效果。 2. Grok 客户端: 支持免费生成图像和聊天功能。 图像生成效果优秀,可以趁机薅羊毛。 下载链接:https://apps.apple.com/us/app/grok/id6670324846 、https://x.com/imxiaohu/status/1877282636986552648 3. 香港科技大学与 Adobe 发布的 TransPixar: 可生成带透明背景的视频(RGBA 格式),实现更丰富的视觉效果。 传统 RGB 视频无法实现的透明效果,比如烟雾扩散等,可直接无缝叠加到其他背景中。 大幅减少后期手动抠图或添加透明效果的工作量,适用于电影特效制作等场景。 相关链接:https://x.com/imxiaohu/status/1877195139028066576 、项目地址:https://wileewang.github.io/TransPixar/ 、GitHub:https://github.com/wileewang/TransPixar
2025-04-04
有没有专门学习配置微信机器人和企业微信机器人的相关教学视频
以下是一些专门学习配置微信机器人和企业微信机器人的相关教学视频: 【共学最全版本】微信机器人共学教程: 日程安排: 6 月 19 日 20:00 开始:从零到一,搭建微信机器人,参与者要求为 0 基础小白,分享人为张梦飞,主持人为小元,助教为金永勋、奥伏。 6 月 20 日 20:00 开始:Coze 接入、构建你的智能微信助手,分享人为张梦飞,主持人为吕昭波,助教为安仔、阿飞。 6 月 23 日 20:00 开始:微信机器人插件拓展教学,要求完成第一课,分享人为张梦飞,主持人为安仔,助教为空心菜、AYBIAO、阿飞。 6 月 24 日 20:00 开始:虚拟女友“李洛云”开发者自述,要求完成第一课,分享人为皮皮,主持人为大雨。 6 月 25 日 20:00 开始:FastGPT:“本地版 coze"部署教学,要求完成第一课,分享人为张梦飞,主持人为银海,助教为金永勋、AYBIAO。 6 月 27 日 20:00 开始:Hook 机制的机器人使用和部署教学,要求 0 基础小白,有一台 Windows 10 以上系统的电脑,分享人为张梦飞,主持人为 Stuart,助教为阿飞、空心菜。 第二天教程内容: 修改配置:主要更改标黄的四行,可以直接清空原文件配置,把以下配置粘贴进你的 config.json 文件中。 获取 key 和 id:进入官网 https://www.coze.cn/home ,获取到的令牌就是"coze_api_key",像下方一样填入即可。"coze_api_key":"pat_diajdkasjdlksajdlksajdasdjlkasjdlas",获取 bot_id 并填入:"coze_bot_id":"86787989080"。 微信机器人大事件记录: 皇子:零成本、零代码搭建一个智能微信客服,保姆级教程 安仔:不用黑魔法,小白也能做一个对接 GPT 大模型的微信聊天机器人 张梦飞:【保姆级】一步一图,手把手教你把 AI 接入微信 张梦飞:FastGPT+OneAPI+COW 带有知识库的机器人完整教程 张梦飞:基于 Hook 机制的微信 AI 机器人,无需服务器,运行更稳定,风险更小 张梦飞:【保姆级教程】这可能是你在地球上能白嫖到的,能力最强的超级微信机器人!一步一图,小白友好 在自己的电脑上部署 COW 微信机器人项目
2025-04-04
有没有 coze 相关教学视频
以下是一些与 Coze 相关的教学视频: 概览与介绍:https://waytoagi.feishu.cn/wiki/YGgzwDfWLiqsDWk2ENpcSGuqnxg 基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库:https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb 大聪明:保姆级教程:Coze 打工你躺平:https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb 安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent:https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb Coze“图像流”抢先体验:https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏:https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档:https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ 7 颗扣子 coze 的搭建视频: 第一颗扣子 野菩萨出品:2 分钟解锁超野速度的图像流 bot 创建过程,献上野菩萨的明信片:https://www.coze.cn/store/bot/7384556560263020583 第二颗扣子 Stuart:2 分钟教你制作炉石卡牌:https://www.coze.cn/s/i68g8bLY/ 原理拆解: 第三颗扣子 陈慧凌:2 分钟做毛毡效果:https://www.coze.cn/s/i65gDW2Y/ 第四颗扣子 银海:银河照相馆:https://www.coze.cn/store/bot/7384885149625761801 第五颗扣子 Speed 团队:Speed 团队 菜品秀秀:https://www.coze.cn/store/bot/7384434376446148618 原理拆解:
2025-04-04
修复旧照片
以下是关于修复旧照片的相关内容: 使用 StableSR 修复旧照片: 1. 需使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 一个 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 测试结果: 1. 使用“Ultimate SD upscale”脚本放大,重绘幅度开到 0.1 能看到人物细节变化,但整个人磨皮严重,失去真实感;重绘幅度开到 0.4 则变化较大。 2. 用“后期处理”的放大方法,缩放 3 倍,眼神更锐利,但头发仍模糊。 3. 用 StableSR 放大,需将大模型和 VAE 分别调整为下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。 ComfyUI 老照片修复 Flux Controlnet Upscale: 1. 以前的高清放大工作流被用于淘宝老照片修复,现在新模型结合工作流,十几个基础节点就能实现更好效果。 2. 参数调节:先确认放大倍数,再根据图片调整 controlNet 强度。 3. ControlnetUpscaler 放大模型:是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 4. Flux Ultimator 细节增强:能增加小细节,让图像逼真,增强色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 5. T5 Clip:若图片质量细节不够,选择 fp16 版本。 6. 图像传递:controlNet 传递的应是上传的原始图片。 用 AI 给老照片上色: 在新上线的 controlnet 模型中,新增 Recolor 模型可给黑白图片重新上色。可选择 realisian 的写实大模型,提示词直接描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-26
修复老照片
以下是关于用 AI 修复老照片的相关内容: 使用 MutiDiffusion 插件,在显存不够时可通过分块渲染功能放大图片。对于较复杂的老照片,如人物多、场景复杂、像素低的情况,可先在 PS 里调整角度和裁切,直接上色效果不佳时,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词给蓝天、绿树、灰石砖等。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的高清放大工作流复杂,新模型出来后,十几个基础节点就能实现更好效果。参数调节一般先确认放大倍数,再根据图片调整 controlNet 强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可与 diffusers 库一起使用,训练方式采用多种人工退化方案。Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能与其他 LORA 结合使用。T5 Clip 若图片质量细节不够,可选择 fp16 版本。controlNet 传递的应是原始图片。 在新上线的 controlnet 模型中,Recolor 模型可给黑白图片重新上色,可选择 realisian 写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-24
动漫脸部修复
以下是关于动漫脸部修复的相关内容: GFPGAN 面部修复: 找一张模糊人像进行修复,其他参数不变,直接将 GFPGAN 参数拉到 1 即可。面部修复效果显著,但只能修复脸部,头发、衣服、背景等无变化。 背景去除: 需要安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好之后重启,就有选项框。 测试时模型选第一个 u2net,直接点击生成。抠图效果不错但边缘轮廓可能有黑边,用时 2.86 秒。 去掉黑边可点击后面的 Alpha matting 调整参数,如 Erode size:6、Foreground threshold:143、Background threshold:187,就能得到无黑边图像。 点击按钮还可直接生成蒙版。有专门做服装抠图和动漫抠图的模型。 手部修复: 对于动漫人物手部修复,先在 3D 骨架模型编辑器中手动调整还原骨架,若为写实人物可使用 openpose 预处理器进行姿态检测。 来到深度图库,修改尺寸并载入骨架图,选择合适手势添加,可发送到 controlnet。 启用 controlnet 时选择相应预处理器,在图生图中进行手部局部重绘,绘制蒙版,可一只手一只手调整,之后在 ps 中使用“创成式填充”修补衔接区域。 SD 新手入门图文教程中的相关内容: 放大算法中,Latent 在许多情况下效果不错,但重绘幅度小于 0.5 效果不佳,ESRGAN_4x、SwinR 4x 对 0.5 以下重绘幅度支持较好。 Hires step 表示进行这一步时计算的步数。 Denoising strength 表现为生成图片对原始输入图像内容的变化程度,一般阈值 0.7 左右,超过 0.7 与原图基本无关,0.3 以下稍作修改。 面部修复可修复人物面部,但非写实风格人物开启可能导致面部崩坏。
2025-03-13
脸部修复
以下是关于脸部修复的相关内容: 在 Stable Diffusion 中,通常初始分辨率设为 512x512 以提高抽卡效率,但这样人脸易崩。确定人物姿态和构图后,可点击面部修复和高分辨率修复达到正常效果,但小图和大图存在差异,重绘幅度低无法修复细节错误,高则会导致人物发型、服装变化大。 GFPGAN 面部修复:其他参数不变,直接将 GFPGAN 参数拉到 1 即可。此功能只能修复脸部,头发、衣服、背景等无变化。 背景去除:需安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好后重启,有选项框,模型选第一个 u2net 点击生成。抠图效果不错但有黑边,可通过点击 Alpha matting 调整参数(Erode size:6、Foreground threshold:143、Background threshold:187)去掉黑边,还能生成蒙版。有专门做服装和动漫抠图的模型。 脸部修复插件 After Detailer:安装方式可在扩展面板中搜索直接安装,或放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成重启 webUI 会出现插件面板。使用时在启用“After Detailer”前打勾,下拉菜单中有很多模型,分别针对 2D 人物的脸、手、全身和真实人物的脸部修复。选择真人脸部模型,关掉“面部修复”和“高分辨率修复”,保持 512x512 尺寸测试,人物脸部正常,细节精致。插件有正负提示词输入框,输入表情相关文字人物表情会改变,如输入“伤心、流泪”,但输入“带着墨镜”无变化,提示词仅针对表情。插件的第二单元和 controlnet 一样有多通道,将第二单元模型换成 hand 模型可修复手部,但效果有待改善,可结合 PS 蒙版处理。
2025-03-13
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流只需十几个基础节点就能实现更好效果。 参数调节方面,一般先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlNetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,训练方式类似 Wang,Xintao 等人发表的文献中的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节,增强鲜艳色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。 对于复杂的老照片,可在 PS 中进行角度调整和裁切,若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型和简单关键词。 新上线的 controlnet 模型中,Recolor 模型可将黑白图片重新上色。 人物照片还原可选择 realisian 的写实大模型,用提示词描述颜色和内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-06