Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

修复图片

Answer

以下是关于修复图片的相关知识:

使用 ControlNet 的 tile 模型修复图片

  • 对于分辨率不高的素材图片,可先拖进“WD 1.4 标签器”反推关键词,再发送到图生图。使用大模型“dreamshaper”,调整参数尺寸放大为 2K,提示词引导系数在 15 以上,重绘幅度在 0.5 以上。
  • 若图片像素很低,可直接使用 tile 模型,其预处理器用于降低原图分辨率,为新图添加像素和细节提供空间。
  • 对于细节不足或结构错误的图片,启用 tile 预处理器,在提示词中增加相关描述可得到不同效果,如增加“秋天”“冬天”等关键词。
  • 但 tile 模型是对图像重绘,非局部修改,会使整个图像有微变化。

图像高清修复、无损放大 N 倍的流程

  • 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。
  • 图像高清修复:使用 Iceclear/StableSR 大模型和 Stable SR Upscaler 模型,搭配包含目的内容的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality),进行 2 倍放大修复。
  • 图像高清放大:对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】最强控制插件ControlNet(4)细节狂魔tile

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-19 20:01原文网址:https://mp.weixin.qq.com/s/HtSbc1l5BpOgl_dIoH0T7w随着ControlNet1.1的更新,tile模型横空出世,其强大的功能让之前的一些模型变得有点黯然失色。今天我们就来盘点一下,这个神奇的Tile模型都有哪些用法。高清修复小图在我们做设计的时候,经常会遇到一些分辨率不高的素材图片,我们需要将它进行高清化处理。比如这张食物的图片,先把它拖进“WD 1.4标签器”,可以进行反推关键词,然后发送到图生图。我们可以通过翻译软件检查一下提示词有没有问题,这边通过反推得到的提示词是——“没有人,食物,食物焦点,现实,水果,静物,草莓,模糊,蛋糕,糕点,景深,甜点,模糊背景,奶油”。基本上与原图相符,可以先不调整。接下来,我们使用大模型“dreamshaper”。调整参数尺寸,放大为2K,提示词引导系数(CFG Scale)官方推荐在15以上,重绘幅度在0.5以上。打开ControlNet,导入图片。tile的预处理器是用来降低原图的分辨率的,为的是给新图有足够的空间来添加像素和细节。如果你的图片本身像素就很低,可以不使用预处理器,直接使用tile模型。可以看到放大后的图片,清晰度和细节都有了很好的提升。对比一下使用tile模型处理前后的区别。修复和增加细节我们先随便绘制一张小屋的图,可以看出,这张图中的细节不足,而且有些地方的结构也是错误的。

【SD】最强控制插件ControlNet(4)细节狂魔tile

由于这张图是采用高分辨率文生图绘制的,分辨率是1800x1200,所以我们在ControlNet中启用了tile预处理器,让图片先缩小,给AI足够的空间去绘制细节。修复图中,增加了很多的细节。我们在提示词中增加“秋天”这个关键词,就得到了秋天的景色。再试试,冬天的效果,选择更注重提示词的模式。修改添加细节这里我们先绘制一个女孩的图片,使用的“meinapastel_V4”大模型。关键词信息:(杰作,最好的质量,高分辨率:1.4),1女孩,女人,星蝴蝶,绿色鱿鱼装,角发带,微笑,看着观众。使用tile模型,添加新的提示词:红眼睛、蓝头带。得到结果,成功调整了图片的细节。但是tile模型的原理实际上是对图像进行重绘,并不是像ps那样可以只改局部,所以整个图像上还是会有些微的变化。分区放大

图像高清修复,无损放大 N 倍

整个图像修复放大的流程分为三部分:输入原始图像、修复图像、放大并重绘图像。下面将详细拆解每一部分的生成原理。[heading3]一、图像输入[content]第一部分添加Load Image节点加载图像,只需上传需要处理的图片即可。不建议上传大分辨率的图片,图片分辨率越大,处理的时间就越长。[heading3]二、图像高清修复[content]第二部分进行高清修复,把原本模糊的图片修复,并进行2倍放大。Checkpoint大模型使用Iceclear/StableSR,这是一种新颖的方法来利用封装在预先训练的文本到图像扩散模型中的先验知识来实现盲超分辨率(SR)。具体来说,就是通过时间感知编码器,在不改变预先训练的合成模型的情况下实现有希望的恢复结果,从而保留生成先验并最小化训练成本。并且需要搭配Stable SR Upscaler模型才能在最大程度上修复图像,推理图片每个噪点,以还原图像。提示词部分应包含我们想要达到的目的内容,在此场景中如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)全程采取两次高清修复,这一次修复原始图像分辨率并且放大,已经很完美还原,但是分辨率并不够,继续进行下一步。[heading3]三、图像高清放大[content]这一步主要针对第一次放大修复后的图像,进行二次修复。这里用realisticVision底膜最合适,这个模型在重绘扩图放大等领域效果非常好。使用提示词反推node对图像进行画面提示词提取,搭配tile ControlNet提升画面细节感,然后需用合适的高清放大模型,对图像进行二次放大。

Others are asking
老照片修复用什么
以下是一些用于老照片修复的方法和工具: 1. 使用 SD 中的 ControlNet 模型,特别是其中的 Recolor 新模型,可对黑白老照片进行重新上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor 时,预处理器选择“recolor_luminance”效果较好。 2. 超清无损放大器 StableSR:需要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入指定文件夹,同时安装 StableSR 模块和 VQVAE。通过不同的放大方法测试,如“Ultimate SD upscale”脚本、“后期处理”的放大方法和 StableSR 的放大,StableSR 对原图还原较为精准,重绘效果较好。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰,但无法使头发、衣服等元素变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本进行放大修复。 相关参考文章: 1. 【SD】用 AI 给老照片上色,岁月不改它模样:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 2. 【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21wechat_redirect 3. 【Stable Diffusion】超清无损放大器 StableSR:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21wechat_redirect
2025-02-18
我想把黑白老照片修复成彩色,然后给人物换衣服。请问哪个AI网站或者软件可以免费使用
以下为您介绍可免费使用的将黑白老照片修复成彩色并给人物换衣服的方法: 使用 Stable Diffusion 可以实现此需求。在新上线的 controlnet 模型中,新增的 Recolor 模型能将黑白图片重新上色。操作时选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰,可参考文章——。 之后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-02-04
黑白老照片修复
以下是关于黑白老照片修复的相关内容: 1. 利用新上线的 controlnet 模型中的 Recolor 新模型为黑白照片上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 2. 字节发布的新模型 SeedEdit 也可用于黑白老照片上色,通过输入相应的提示词,如“给画面上色,时尚,舒服”,还能进行元素替换、移除无关元素和切换各种风格。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。
2025-02-01
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流,十几个基础节点就能实现更好效果。 参数调节方面,先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlnetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,类似 Wang,Xintao 等人在 2021 年发表的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 新上线的 controlnet 模型中的 Recolor 模型可给黑白图片重新上色。 人物照片还原选择 realisian 的写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 之后将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型修复,vae 选择 vqgan,可不写提示词以免干扰原图。
2025-01-20
老旧照片高清修复
以下是关于老旧照片高清修复的方法: 1. 使用 Stable Diffusion 进行修复: 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。可参考文章。 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章。 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 为做到颜色与内容的统一,启用 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。可参考文章。 2. 使用 ComfyUI 进行修复: 结合 Flux Controlnet Upscale 模型,以前的工作流比较复杂,现在只要十几个基础的节点就能实现同样的效果,甚至可能更好。 参数调节:一般先确认放大的倍数,然后根据出来的图片调整 controlNet 的强度。 ControlnetUpscaler 放大模型:Flux.1dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,可放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。 T5 Clip:如果发现出来的图片质量细节不够,选择 fp16 的版本。 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。
2025-01-19
视频修复AI工具
以下是一些视频修复 AI 工具及相关信息: 软件教程: Sora:https://waytoagi.feishu.cn/wiki/S5zGwt5JHiezbgk5YGic0408nBc Hedra:https://waytoagi.feishu.cn/wiki/PvBwwvN36iFob7kqZktcCzZFnxd 应用教程: 视频转绘:https://waytoagi.feishu.cn/wiki/ZjKpwSd5hiy6ZhkiBVHcOBb6n9r 视频拆解:https://waytoagi.feishu.cn/wiki/WeKMwHRTmiVpYjkVdYpcFjqun6b 图片精修:https://waytoagi.feishu.cn/wiki/CfJLwknV1i8nyRkPaArcslWrnle 几个视频 AIGC 工具: Opusclip:利用长视频剪成短视频 Raskai:短视频素材直接翻译至多语种 invideoAI:输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频 descript:屏幕/播客录制>PPT 方式做视频 veed.io:自动翻译自动字幕 clipchamp:微软的 AI 版剪映 typeframes:类似 invideoAI,内容呈现文本主体比重更多 google vids Topaz Video AI 使用介绍(显卡不好的可以跳过): 解压对应文件,推荐使用绿色版(安装包已在网盘,可直接下载)。 右键,管理员运行 VideoAIportable.exe 文件。 导入处理好的视频。 主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。 右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等。 稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动需开启,次数一般选择 2 保持默认不变。 帧插值 AI 里主要是识别对应的帧和帧之间进行修复替换,有几种模型。 增强 AI 选择不同模型对视频进行整体优化,包括面部、去噪、锐化提升等。 12 月 8 日 Xiaohu.AI 日报中的新的视频修复与超分辨率工具: 功能亮点:画面缺失修补、模糊去除、清晰度提升(最高 4 倍超分辨率)。 同时支持去模糊、修复、超分任务,操作简便,仅需一张 13G 显存 GPU。 链接:https://x.com/imxiaohu/status/1865636467055497267 项目地址:https://visionxl.github.io
2025-01-14
清除图片水印
以下是一些清除图片水印的工具和方法: 1. AVAide Watermark Remover:这是一个在线工具,使用 AI 技术从图片中去除水印。它支持多种图片格式,如 JPG、JPEG、PNG、GIF 等。操作简单,只需上传图片,选择水印区域,然后保存并下载处理后的图片即可。这个工具还提供了其他功能,如去除文本、对象、人物、日期和贴纸等。 2. Vmake:这个工具同样提供 AI 去除图片水印的功能。用户可以上传最多 10 张图片,AI 会自动检测并移除图片上的水印。处理完成后,用户可以选择保存生成的文件。这个工具适合需要快速去除水印的用户,尤其是那些需要在社交媒体上分享图片的用户。 3. AI 改图神器:这个工具提供 AI 智能图片修复去水印的功能,可以一键去除图片中的多余物体、人物或水印,不留任何痕迹。支持直接粘贴图像或上传手机图像,操作简单方便。 此外,在处理图片去水印时,还可以: 对于从某些网站下载的带有 logo 水印的图片,可使用 ps 去除,或者使用工具 https://clipdrop.co/cleanup 。 请注意,这些工具各有特点,可以根据您的具体需求选择最适合您的去水印工具。内容由 AI 大模型生成,请仔细甄别。
2025-02-23
批量抠图100张图片
以下是批量抠图 100 张图片的方法: 1. 登录星流:输入用户名密码登录,星流每天提供 100 免费点数可生成 100 张图片。 2. 输入对应的提示词,点击生图,默认生图一张图片 1 个积分,每次生成 4 张图,可多抽几次选择喜欢的图片。 3. 对杯中的内容进行局部重绘: PS AI 处理:把生成好的图片下载下来导入到可使用生成式创造功能的 PS 中,使用选区工具选择杯中鲨鱼部分,点击创成式填充按钮输入 prompt 等待生成。 直接用星流处理:选中需要处理的图片,点击顶部局部重绘按钮,选择杯子中间有水的地方,在右边输入框输入提示词“白色的杯子里装着水”点击生成等待。 另外,还为您推荐一个自动抠图的网站:把所有图片批量进行统一分辨率裁切,分辨率需是 64 的倍数。
2025-02-23
怎么撰写指令才能让deepseek生成自己想要的图片提示词
要让 DeepSeek 生成自己想要的图片提示词,您可以参考以下要点: 1. 明确角色:您是一个专注于为中国儿童创作简单易懂绘画描述的专家。 2. 遵循生成规则: 当输入主体和图片风格后,生成符合逻辑且简单易懂的描述词汇,不增加除主体和画面描述外的其他元素。 若关键词未明显说明是外国,则提到中国。 若关键词未明确是古代,则默认是现代场景和人物。 描述镜头,如近景、远景、特写、中景等。 涉及多个元素时,描述角色方位以营造空间感。 主体为单个人物时,体现人物全身特写。 描述人物的维度包括人物主体、服饰穿搭、发型发色、五官特点、皮肤特点、面部表情、肢体动作、年龄、镜头等。 描述场景的维度包括室内户外、大场景、白天黑夜、特定时段、环境光照、天空、光源方向等。 强调画面主体,其他不体现。若主体是物体则画面主体是物体,是人则主体是人,是风景则主体是风景描述。 3. 利用反推功能:对于图生图,除文本提词框外,还可通过图片框输入。有两种反推提示词的按钮,CLIP 可反推出完整含义的句子,DeepBooru 可反推出关键词组,但可能存在瑕疵,需要手动补充提示词信息。 4. 具体使用步骤: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 此外,还可参考一些成功的案例和设计思路,如将 Agent 封装成 Prompt 并储存在文件,通过提示词文件让 DeepSeek 实现联网和深度思考功能,优化输出质量等。
2025-02-23
生成图片的AI
以下是关于生成图片的 AI 的相关信息: 全国首例 AI 生成图片著作权案例解读:Stable Diffusion 模型可根据文本指令生成与文本信息匹配的图片,其生成结果取决于使用者输入的提示词,非排列组合工作模式下难有完全相同的输出图片,类似于画笔,使用者的设计决定最终成果。案例中法官承认依靠使用者输出设计生成的图片属美术作品,受著作权保护,鼓励创作,为艺术创作提供支持与新思路,节省创作成本。法律适用包括《中华人民共和国著作权法》第三条及《中华人民共和国著作权法实施条例》第四条。 文生图工具:是利用人工智能技术通过分析输入文本描述生成图片的工具。受欢迎的工具包括 DALL·E(OpenAI 推出,可生成逼真图片)、StableDiffusion(开源,能生成高质量图片,支持多种模型和算法)、MidJourney(因高质量生成效果和友好界面在创意设计人群中流行)。在 WaytoAGI 网站可查看更多文生图工具。 AIGC 法律风险研究报告中的图像生成类:图像生成离不开深度学习算法,如生成对抗网络(GANs)、变分自编码器(VAEs)、Stable Diffusion 等,可用于数据增强、创造艺术、生成产品图像等。具有代表性的海外项目包括 Stable Diffusion(Stability AI)、DALLE 3(Open AI)、StyleGAN 2(NVIDIA)、DCGAN(Deep Convolutional GAN)。
2025-02-23
快速生成小红书风格的图片推荐用什么软件
以下是一些可以快速生成小红书风格图片的软件和相关步骤: 1. DeepSeek+扣子: 生成单词:输入单词主题、图片风格、单词数量等,选择 deepseekr1 模型生成单词数组。 生成视频 1: 循环:包括将数组变量打散为单个变量、进入生图工作流、裁剪(将图片 url 转图片)、将图片放到背景上。 制作固定元素:如背景图和结尾图,可使用百度图片或即梦生成,并用 ps 或美图秀秀调整尺寸并添加元素。 2. 提示词: 角色:作为专业的单词生成助手,围绕主题挖掘相关英语单词,提供精准实用的单词、中文、美式音标内容。 技能:输出关联英语单词,并以数组形式呈现。 限制:仅围绕用户输入主题输出相关内容,以符合要求的数组形式呈现。
2025-02-22
想学习和北邦一样的图片生成动画视频,应该怎么做?
以下是学习和北邦一样的图片生成动画视频的方法: 1. 使用 Runway: 进入 Runway 官网首页,点击“start with image”。 直接将图片拖进来。 动画幅度尽量用 3,5 有时候会乱跑。 啥都不用改,直接点击生成即可。 注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行。 直接点删除,然后重新上传下面的图即可(最多可以放几个可自行测试)。 重复步骤即可生成所有视频。 (Runway 是收费的,也可以找免费的,或在闲鱼、淘宝买号。) 2. 使用即梦:上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主,生成速度根据视频节奏选择,比如选择慢速。 3. ComfyUI AniamteDiff: 了解 IPAdapter、Animatediff、controlNet 的用法和这三个之间通过蒙蔽遮罩灵活搭配生成视频的方法。 模型加载用到两个 lora,一个是 Animatediff v3_sd15_mm 运动模型需要的 v3_sd15_adapter,lora 的强度在合理范围内越高,画面越稳定;另一个 more_details 这个 lora 是给画面添加更多细节。 上传 4 张图片,并且使用 image batch 复制图像来制作批次,这是为了在使用 IPAdapter 时候,每一帧都可以参考上传的图片,让风格迁移更像。 上传的蒙版视频是为了在帧与帧之间做遮罩过渡,添加一个动态的效果。 用 IPAdapter 来做图像的风格迁移,对应四张图片。使用遮罩来控制每张图片显示的帧数,从第 0 帧开始计算,一张图片 16 帧,加上中间过渡的 8 帧。需要显示的帧设置为 1,隐藏的为 0,以此类推。这样就把 4 张图片融合成了一个 96 帧的序列,并且使用遮罩控制每一帧显示出来的画面。
2025-02-22