Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

动漫脸部修复

Answer

以下是关于动漫脸部修复的相关内容:

GFPGAN 面部修复

  • 找一张模糊人像进行修复,其他参数不变,直接将 GFPGAN 参数拉到 1 即可。面部修复效果显著,但只能修复脸部,头发、衣服、背景等无变化。

背景去除

  • 需要安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg.git 。安装好之后重启,就有选项框。
  • 测试时模型选第一个 u2net,直接点击生成。抠图效果不错但边缘轮廓可能有黑边,用时 2.86 秒。
  • 去掉黑边可点击后面的 Alpha matting 调整参数,如 Erode size:6、Foreground threshold:143、Background threshold:187,就能得到无黑边图像。
  • 点击按钮还可直接生成蒙版。有专门做服装抠图和动漫抠图的模型。

手部修复

  • 对于动漫人物手部修复,先在 3D 骨架模型编辑器中手动调整还原骨架,若为写实人物可使用 openpose 预处理器进行姿态检测。
  • 来到深度图库,修改尺寸并载入骨架图,选择合适手势添加,可发送到 controlnet。
  • 启用 controlnet 时选择相应预处理器,在图生图中进行手部局部重绘,绘制蒙版,可一只手一只手调整,之后在 ps 中使用“创成式填充”修补衔接区域。

SD 新手入门图文教程中的相关内容

  • 放大算法中,Latent 在许多情况下效果不错,但重绘幅度小于 0.5 效果不佳,ESRGAN_4x、SwinR 4x 对 0.5 以下重绘幅度支持较好。
  • Hires step 表示进行这一步时计算的步数。
  • Denoising strength 表现为生成图片对原始输入图像内容的变化程度,一般阈值 0.7 左右,超过 0.7 与原图基本无关,0.3 以下稍作修改。
  • 面部修复可修复人物面部,但非写实风格人物开启可能导致面部崩坏。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】图片高清化+面部修复+一键抠图,一些你不知道的事儿

我们接着来看一下这个GFPGAN面部修复,我找一张模糊人像来修复一下。其他参数不变,直接将GFPGAN参数拉到1,就可以了。看一下面部修复效果,宛如重生。当然这个功能只能修复脸部,所以头发、衣服、背景等没有变化。[heading1]#背景去除[content]这个功能需要再安装一个插件REMBG,安装地址是https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg.git。安装好之后重启,就有这个选项框了。使用这张图测试一下,模型就选第一个u2net,直接点击生成。抠图效果还是蛮不错的,边缘轮廓有些黑边,用时2.86秒。如何去掉这个黑边呢,需要点击后面的Alpha matting,来调整一些参数。它们分别控制抠图边缘尺寸,前景阈值、背景阈值。通过一系列测试,推荐给大家一套比较通用的参数设置——Erode size:6、Foreground threshold:143、Background threshold:187。通过这个参数,我们就能一键得到没有黑边的图像了。另外,点击这个按钮,还可以直接生成蒙版。这里还有一个专门做服装抠图的模型,可以一键识别出模特的服装。这就非常方便我们做换装的处理了。还有一个专门给动漫抠图的模型。我们使用这张图测试一下。抠图效果还是可以的,可能是背景比较复杂,用时19秒。关于后期处理里面的一些冷僻小知识就介绍到这里了,如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

【SD】完美手部修复插件Depth Library

接下来,我们以这个姿态为灵感,看能不能修复一下手部的问题。我们先来到3d骨架模型编辑器中,通过手动调整来还原一下骨架,因为只是动漫人物,系统无法自动检测。如果是写实人物的话,就方便一些,可以直接使用openpose预处理器进行姿态检测。设置好之后,可以将骨架图下载下来,后面的手部姿态不是我们想要的,可以不用。来到深度图库,将尺寸修改为画幅尺寸,然后点击“添加背景图片”,将骨架图载入进来。接下来就是选择合适的手势,将它添加进来,第一个选项框里的都是官方的深度信息图片。通过移动、缩放和旋转将手势放在合适的位置,可以发送到controlnet,默认是发送到第一个框架中。。因为官方中的手型有限,所以另外一只手从我们新增的库里面寻找一个,但是这些手型就不是深度信息图了,调整好之后,将它保存为png。启用controlnet,第一只手选择深度预处理器“depth_zoe”。第二只手选择线稿预处理器“lineary_realistic”,它们的起始步长保持在0.1-0.2之间。第三块选择“openpose”模型,因为已经是骨架图,所以不需要选择预处理器。在图生图中,进行手部的局部重绘,绘制好蒙版,为了提高成功率,可以一只手一只手的调整。这样就比之前的手好很多了。再放到ps当中,使用“创成式填充”修补一下衔接的区域。对比一下修改前和修改后的手部的区别,经过手部修复之后,姿态终于正常了。

SD新手:入门图文教程

放大算法中,Latent在许多情况下效果不错,但重绘幅度小于0.5后就不甚理想。ESRGAN_4x、SwinR 4x对0.5以下的重绘幅度有较好支持。Hires step表示在进行这一步时计算的步数。Denoising strength字面翻译是降噪强度,表现为最后生成图片对原始输入图像内容的变化程度。该值越高,放大后图像就比放大前图像差别越大。低denoising意味着修正原图,高denoising就和原图就没有大的相关性了。一般来讲阈值是0.7左右,超过0.7和原图基本上无关,0.3以下就是稍微改一些。实际执行中,具体的执行步骤为Denoising strength*Sampling Steps。面部修复修复画面中人物的面部,但是非写实风格的人物开启面部修复可能导致面部崩坏。点击“生成”

Others are asking
文案生成动漫
以下是为您提供的关于文案生成动漫的相关信息: Anifusion 工具: 这是一款基于人工智能的在线工具,网址为 https://anifusion.ai/ ,其 Twitter 账号为 https://x.com/anifusion_ai 。 主要功能: AI 文本生成漫画:输入描述性提示,AI 生成漫画页面或图像。 直观的布局工具:提供预设模板,可自定义漫画布局。 强大的画布编辑器:在浏览器中优化和完善 AI 生成的作品。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型实现不同风格和效果。 商业使用权:用户对创作作品拥有完整商业使用权。 使用案例: 独立漫画创作。 快速原型设计。 教育内容创作。 营销材料制作。 粉丝艺术和同人志创作。 优点:非艺术家也能轻松创作漫画,基于浏览器无需额外软件,具备快速迭代和原型设计能力,拥有创作的全部商业权利。 利用 AI 批量生成、模仿和复刻《小林漫画》: 需求分析:选用扣子搭建工作流,解决国内可直接使用且批量生产的需求,可能需牺牲一定质量的文案和图片效果。 批量生成句子:建议一次不要生成太多,如设置一次生成五句。 句子提取:将生成的句子逐个提取,针对每个句子画图。 图片生成:根据句子结合特有画风等描述绘图。 图片和句子结合:由于扣子工作流环境缺少相关包,可替换为搞定设计或使用 PS 脚本处理图片。 输入观点一键生成文案短视频: 概述:基于其他博主开源的视频生成工作流进行功能优化,实现视频全自动创建。 功能:通过表单输入主题观点,自动创建文案短视频,并推送视频链接到飞书消息。 涉及工具:Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径: 通过 Coze 创建智能体,创建工作流,使用 DeepSeek R1 创建文案和视频。 发布 Coze 智能体到飞书多维表格。 在多维表格中使用字段捷径引用智能体。 在多维表格中创建自动化流程,推送消息给指定飞书用户。
2025-03-16
出图是动漫/真人有什么区别和需要注意的点?
动漫出图和真人出图有以下区别和需要注意的点: 版权和法律意识:对于知名动漫角色的使用,要特别注意版权和法律问题。 模型和文件:LORA 在提炼图片特征方面功能强大,其文件通常有几十上百兆,承载的信息量远大于 Embedding,在还原真人物品时,LORA 的细节精度更高。下载的 LORA 需放在特定文件夹,使用时要注意作者使用的大模型,通常配套使用效果最佳,同时还需加入特定触发词保证正常使用。 提示词:设置文生图提示词时,正向提示词和负向提示词的准确设定对出图效果有重要影响。 参数设置:包括迭代步数、采样方法、尺寸等参数的合理设置,会影响出图的质量和效果。
2025-03-16
我想用ai动漫人物唱歌
以下是一些可以帮助您实现用 AI 动漫人物唱歌的相关信息和资源: 在 AI 图像处理方面,有一些项目可以将图像进行动漫化处理,例如卡通头像制作等。 在音频与音乐制作方面,有专属歌曲创作、声音克隆、AI 唱歌等项目。比如制作专属歌曲、声音克隆/视频对口型等。 腾讯 AniPortrait 可以根据音频和静态人脸图片生成逼真的动态视频,支持多种语言、面部重绘、头部姿势控制。相关链接:https://github.com/ZejunYang/AniPortrait 、https://arxiv.org/abs/2403.17694 、https://x.com/imxiaohu/status/1772965256220045659?s=20 。 Hedra Studio 推出的 Character3 AI 支持全身动态与情感控制,能唱歌、说话甚至表演。
2025-03-12
AI 动漫
以下是为您整理的关于 AI 动漫的相关内容: Anifusion: 网址:https://anifusion.ai/ ,Twitter 账号:https://x.com/anifusion_ai 特点:基于人工智能的在线工具,能帮助用户轻松创建专业质量的漫画和动漫作品,即使无绘画技能,输入文本描述即可转化为漫画页面或动漫图像。 主要功能: AI 文本生成漫画:根据输入的描述性提示生成漫画页面或面板。 直观的布局工具:提供预设模板,也可自定义漫画布局。 强大的画布编辑器:在浏览器中直接优化和完善生成的艺术作品。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型实现不同风格和效果。 商业使用权:用户对创作作品拥有完整商业使用权。 使用案例:独立漫画创作、快速原型设计、教育内容创作、营销材料制作、粉丝艺术和同人志创作。 优点:非艺术家也能轻松创作漫画;基于浏览器的全方位解决方案,无需安装额外软件;快速迭代和原型设计能力;拥有创作的全部商业权利。 MewXAI: 网址:https://www.mewxai.cn/ 功能介绍: MX 绘画:拥有众多超火模型和上百种风格,支持文生图、图生图。 MX Cute:自研的可爱风动漫大模型,融合想象力和逻辑性。 MJ 绘画:创意度和想象力极高,适用于多种创作。 边缘检测:对草图上色,有多种渲染风格可选。 室内设计:上传空间图,完成多种不同风格的室内/建筑设计。 姿态检测:精准控制人物动作,可生成单人或多人姿势。 AI 艺术二维码:几秒内创建令人惊叹的下一代艺术二维码。 AI 艺术字:把光影文字、隐藏文字、艺术字融入艺术作品。 Niji V5: 相关文章:,原文地址:https://www.163.com/dy/article/I2A75HES05316KSS.html 特点:Midjourney 的动漫专用模型,擅长创建动态和动感十足的镜头,注重角色和构图,图像质量高,在动画方面表现出色。 提示制作:制作迷人的 Midjourney 提示对于制作出色的动画至关重要,了解相关流派关键词和艺术家姓名能提升体验。
2025-02-18
动漫制作中如何使用ai辅助工作
在动漫制作中使用 AI 辅助工作,大致流程如下: 1. 面临时间和金钱的双重压力,需找到适合的制作捷径。AI 目前主要是辅助工具,负责搞定图和片,其他部分仍依赖人工。 2. 效率至关重要。和视频相关的所有内容、资料都记录在飞书文档里。 3. 分工方面,有人负责前期的内容构思和脚本编写,有人主要负责图片、视频生成和视频剪辑。 4. Midjourney 提示词围绕皮克斯、迪士尼、3D 风格来写,例如:"a small white Chiense dragon,anthropomorphic,Smile with surprise,wearing a school uniform,looking at a blurry gift box in the foreground,super closeup shot,camera focus on his face,3D render,Unreal Engine,Pixar 3D style,blurry classroom scene,bright sunshinear 16:9niji 6",重点是"a small white Chiense dragon,anthropomorphic,3D render,Unreal Engine,Pixar 3D style",尺寸比例 16:9,模型选择 niji 6,其他根据需求调整。 5. 动画制作主要使用 Runway,因其控制笔刷有优势。
2025-02-18
如何制作动漫角色工作的AI视频
以下是制作动漫角色工作的 AI 视频的相关方法和建议: 一、准备工作 1. 想出点子 最佳免费选项: 付费选项:4.0,但由于与互联网连接,必应可能更好 2. 选择工具 用于在视频中为人脸制作动画的。 用于从文本创建视频的 最佳语音克隆: 二、制作流程 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 三、解决技术问题的策略 1. 面对一致性的挑战时,尽可能保持叙事性内容中角色的关键特征和外轮廓的一致。 2. 保持角色的位置一致性。 3. 减少故事中需要观众记住的角色数量。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。同时,深度伪造是一个巨大的问题,这些系统需要合乎道德地使用。
2025-02-17
脸部修复
以下是关于脸部修复的相关内容: 在 Stable Diffusion 中,通常初始分辨率设为 512x512 以提高抽卡效率,但这样人脸易崩。确定人物姿态和构图后,可点击面部修复和高分辨率修复达到正常效果,但小图和大图存在差异,重绘幅度低无法修复细节错误,高则会导致人物发型、服装变化大。 GFPGAN 面部修复:其他参数不变,直接将 GFPGAN 参数拉到 1 即可。此功能只能修复脸部,头发、衣服、背景等无变化。 背景去除:需安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好后重启,有选项框,模型选第一个 u2net 点击生成。抠图效果不错但有黑边,可通过点击 Alpha matting 调整参数(Erode size:6、Foreground threshold:143、Background threshold:187)去掉黑边,还能生成蒙版。有专门做服装和动漫抠图的模型。 脸部修复插件 After Detailer:安装方式可在扩展面板中搜索直接安装,或放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成重启 webUI 会出现插件面板。使用时在启用“After Detailer”前打勾,下拉菜单中有很多模型,分别针对 2D 人物的脸、手、全身和真实人物的脸部修复。选择真人脸部模型,关掉“面部修复”和“高分辨率修复”,保持 512x512 尺寸测试,人物脸部正常,细节精致。插件有正负提示词输入框,输入表情相关文字人物表情会改变,如输入“伤心、流泪”,但输入“带着墨镜”无变化,提示词仅针对表情。插件的第二单元和 controlnet 一样有多通道,将第二单元模型换成 hand 模型可修复手部,但效果有待改善,可结合 PS 蒙版处理。
2025-03-13
ipadapter的作用是什么,能实现人物的一致性吗?比如参考人物的脸部特征
IP Adapter 即图像提示词适配器,其作用包括: 能够“复刻图像”,用户输入图像可直接生成内容或风格相似的图像。 注重图像风格和语义的复刻,兼容性强,可与结构控制插件一起使用,既控制结构,也控制图像的语义和风格。 是解决角色和风格一致性的优雅方法,能够非常精准地提取风格参考图中的角色和风格特征。 在处理人物一致性方面,IP Adapter 有一定的应用,例如在相关的图生图操作中会用到。关于其使用,之前有文章介绍。同时,Midjourney 也有类似的人物一致性相关功能。
2024-08-25
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流只需十几个基础节点就能实现更好效果。 参数调节方面,一般先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlNetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,训练方式类似 Wang,Xintao 等人发表的文献中的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节,增强鲜艳色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。 对于复杂的老照片,可在 PS 中进行角度调整和裁切,若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型和简单关键词。 新上线的 controlnet 模型中,Recolor 模型可将黑白图片重新上色。 人物照片还原可选择 realisian 的写实大模型,用提示词描述颜色和内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-06
老旧照片修复
以下是关于用 AI 给老旧照片修复上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,在显存不够的情况下,仅使用分块渲染功能将图片放大到足够倍数。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。 4. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 5. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 6. 把图片发送到图生图中,打开 stableSR 脚本,放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 7. 对于复杂的照片,如人物多、场景复杂、像素低的情况,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 作者为白马少年,发布时间为 2023 年 9 月 10 日 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 。
2025-03-06
老照片修复工具推荐
以下是一些老照片修复工具推荐: 视频放大工具: https://www.topazlabs.com/topazvideoai 百度网盘分享的 Topaz 全家桶:链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 ,提取码:16d1 ,复制这段内容打开「百度网盘 APP 即可获取」 Kraken.io:主要用于图像压缩,也提供免费的图像放大功能,能保证图像细节清晰度。 Deep Art Effects:强大的艺术效果编辑器,通过 AI 技术能将图像放大并赋予艺术效果,支持多种滤镜和风格。 RealESRGAN:https://replicate.com/nightmareai/realesrgan ,这是基于 RealESRGAN 的图像超分辨率增强模型,有人脸修复和可调节放大倍数选项,但使用几次要收费。 Photoshop Generative AI 功能:主要工具包括 Remove tool、Clone brush、Generative fill 以及 Neural filters,链接:https://x.com/xiaohuggg/status/1692751080973828468?s=46&t=F6BXooLyAyfvHbvr7Vw2g SD 图生图,重绘幅度小一点 图片放大工具: 本地工具放大:https://www.upscayl.org/download 开源工作流: 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn ,腾讯开源的模型,能恢复老照片,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 此外,将照片放入后期处理中,使用 GFPGAN 算法可将人脸变清晰,具体可参考文章—— 。
2025-03-05
我现在要对一些很糊的图像进行图像修复,就是把图像变高清,有什么工具吗?
以下是一些可用于图像修复变高清的工具和方法: 1. 图像修复放大流程: 输入原始图像:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 模型,并搭配 Stable SR Upscaler 模型,推理图片噪点以还原图像。提示词应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。 图像高清放大:对第一次放大修复后的图像进行二次修复,realisticVision 底膜效果较好。使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型进行二次放大。 2. 星流一站式 AI 设计工具: 右侧生成器的高级模式:与入门模式相比增加了基础模型、图片参考等更多功能。基础模型允许使用更多微调大模型和更多图像控制功能,如高清分辨率修复等。同时,还可以调整放大算法、重绘幅度等参数,以及选择不同的采样器。 3. SD 新手入门图文教程: 文生图最简流程中的一些参数: CFG Scale(提示词相关性):控制图像与提示的匹配程度,一般开到 7 11。 生成批次和每批数量:影响生成图像的组数和数量。 尺寸:推荐使用小尺寸分辨率结合高清修复(Hires fix)。 种子:决定模型生成图片的随机性。 高清修复:通过勾选“Highres.fix”启用,先按指定尺寸生成图片,再通过放大算法扩大分辨率以实现高清大图效果。
2025-03-04
我现在要对一些很糊的图像进行图像修复,有什么好用的工具吗?
以下为您推荐一些用于图像修复的工具和方法: 1. StableSR: 需要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stablediffusionwebui/models/StableDiffusion/文件夹中。 StableSR模块(约400M大小)放入stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 还有一个VQVAE(约750MB大小)放在stablediffusionwebui/models/VAE中。 测试时发现,不同的重绘幅度效果不同,重绘幅度较大时可能会改变人物形象,对于追求最大保真度的老照片修复,重绘方法不太好。 2. Stable Diffusion: 除生成新照片外,可用于修复糊的照片,效果较好。 恢复画质的功能叫“后期处理”,上传图片后选择放大器,修复二次元照片选“RESRGAN 4x+Anime68”,其他实物照片选“RESRGAN 4x+”。 修复真人照片时,放大器选择“无(None)”,并将“GFPGAN强度”参数拉满(1),可修复人脸,但其他部分可能仍较糊。 3. 图像修复放大流程: 分为输入原始图像、修复图像、放大并重绘图像三部分。 图像输入:添加Load Image节点加载图像,不建议上传大分辨率图片,处理时间长。 图像高清修复:Checkpoint大模型使用Iceclear/StableSR,并搭配Stable SR Upscaler模型,提示词包含正向和反向描述。 图像高清放大:用realisticVision底膜,使用提示词反推node提取画面提示词,搭配tile ControlNet提升细节感,用合适的高清放大模型二次放大。
2025-03-04