Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

老旧照片高清修复

Answer

以下是关于老旧照片高清修复的方法:

  1. 使用 Stable Diffusion 进行修复:
  2. 使用 ComfyUI 进行修复:
    • 结合 Flux Controlnet Upscale 模型,以前的工作流比较复杂,现在只要十几个基础的节点就能实现同样的效果,甚至可能更好。
    • 参数调节:一般先确认放大的倍数,然后根据出来的图片调整 controlNet 的强度。
    • Controlnet-Upscaler 放大模型:Flux.1-dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。
    • Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,可放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。
    • T5 Clip:如果发现出来的图片质量细节不够,选择 fp16 的版本。
    • 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】用AI给老照片上色,岁月不改它模样

将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。

【SD】用AI给老照片上色,岁月不改它模样

但是仅仅这样是不够的,从渲染的结果上我发现,颜色并不是精准地出现在我们想要的位置上的,提示词之间会出现相互的污染。而且由于照片上斑驳的痕迹,即使是背景也不能够做到完全统一,看来事情并没有我想象的那么简单。为了做到颜色与内容的统一,我启用了之前讲到过的一款cutoff插件来进行控制,依次按顺序设置好颜色提示词,不了解这款插件的朋友可以参照我这篇文章——[【Stable Diffusion】告别提示词颜色污染!Cutoff插件](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487436&idx=1&sn=dba5cf7a170223deda6a706fa2e14f6b&chksm=c2515908f526d01eae402083a7f93e4c5c7dca057693a25847bb8e97929c875617777cbb9721&scene=21#wechat_redirect)。终于得到了一张配色正确的照片,但是还没有完,由于以前的照片像素比较低,接下来我准备将它变得更高清一点。

ComfyUI 老照片修复Flux Controlnet Upscale

以前做了一个高清放大的工作流,被很多小伙伴用在淘宝上做老照片修复。之前的工作流比较复杂,现在,这个模型出来,结合这个工作流,只要十几个基础的节点就能实现同样的效果,甚至可能更好。[heading3]参数的调节[content]一般做法是先确认放大的倍数,然后根据出来的图片来调整controlNet的强度。[heading3]Controlnet-Upscaler放大模型[content]模型介绍:Flux.1-dev ControlNet是Jasper研究团队为低分辨率图像开发的模型。使用方法:可直接与diffusers库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式:采用合成复杂数据退化方案,结合图像噪声、模糊和JPEG压缩等多种方式对真实图像进行人工退化。目的:这种训练方法的目的是让模型学会处理各种真实世界中可能遇到的图像退化情况,从而在实际应用中表现更好。引用文献:训练方式类似Wang,Xintao等人在2021年发表的“Real-esrgan:Training real-world blind super-resolution with pure synthetic data.”中的方法。许可证:该模型属于Flux.1-dev模型许可证范畴[heading3]Flux Ultimator细节增强[content]细节:能增加小细节,让图像尽可能逼真。鲜艳色彩增强:可放大色调的丰富性和深度。使用:在0.1的强度设置下也能有显著增强效果。集成:能顺利集成到工作流程中,与其他LORA结合使用效果好,结合时需将强度降低小于0.5。[heading3]T5 Clip[content]如果你发现出来的图片质量细节不够,选择fp16的版本。[heading3]图像的传递[content]controlNet这里传递的应该是上传的原始图片,因为这个是controlNet而不是潜空间图像。

Others are asking
有没有什么网站可以免费将低精度的图片转化为高清图片
以下是一些可以免费将低精度图片转化为高清图片的网站和相关信息: Stability AI 推出的基于 Discord 的媒体生成和编辑工具: :可将任何低分辨率、低质量的图像转换为 4k 杰作,价格为 25 积分。 :简单、低成本的分辨率提升,价格为 0.2 积分。 图像高清修复放大的流程分为三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,分辨率越大处理时间越长。 2. 图像高清修复:把原本模糊的图片修复,并进行 2 倍放大。Checkpoint 大模型使用 Iceclear/StableSR,搭配 Stable SR Upscaler 模型能最大程度修复图像,推理图片每个噪点以还原图像。提示词部分应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear);反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。全程采取两次高清修复,第一次修复原始图像分辨率并且放大,若分辨率不够继续下一步。 3. 图像高清放大:针对第一次放大修复后的图像进行二次修复,realisticVision 底膜最合适,使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型进行二次放大。
2025-01-16
国内能免费生成高清AI图片的网站有哪些
以下是一些国内能免费生成高清 AI 图片的网站: 1. 通义万相:作为国产 AI 工具,在中文理解和处理方面表现出色。用户可以从多种艺术风格和图像风格中进行选择,生成的图像质量较高,细节丰富。重点是现在免费,每天签到获取灵感值就可以。但为了符合国内监管要求,某些类型的图像可能无法生成,在处理非中文语言或国际化内容方面可能存在不足。 2. 可灵:由快手团队开发的 AI 应用,主要用于生成高质量的图像和视频,图像质量非常高。最初采用内测邀请制,现在已向所有用户开放使用。不过价格相对较高,重度用户年费可能达几千元,平均每月使用成本在 400 到 600 元之间。临时或轻度使用有每日免费点数和 60 多元单月的最便宜包月选项。
2025-01-16
用AI高清化视频的网站或工具有哪些,免费的
以下是一些可以用于 AI 高清化视频的免费网站或工具: Runway:网址为 https://runwayml.com ,有网页和 app ,使用方便。工具教程: 即梦:网址为 https://dreamina.jianying.com/ ,为剪映旗下产品,生成 3 秒,动作幅度有很大升级,有最新 S 模型和 P 模型。工具教程: Kling:网址为 kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。视频模型: Vidu:网址为 https://www.vidu.studio/ haiper:网址为 https://app.haiper.ai/ Pika:网址为 https://pika.art/ ,可控性强,可以对嘴型,可配音。工具教程: 智谱清影:网址为 https://chatglm.cn/video ,开源了,可以自己部署 cogvideo 。工具教程: PixVerse:网址为 https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。工具教程: luma:网址为 https://lumalabs.ai/ Minimax 海螺 AI:网址为 https://hailuoai.video/ ,非常听话,语义理解能力非常强。视频模型: SVD:网址为 https://stablevideo.com/ ,对于景观更好用。工具教程:
2024-12-30
我想用AI做高质量高清图片,我应该怎么做
如果您想用 AI 做高质量高清图片,可以参考以下方法: 1. 了解默认分辨率:在 Stable Diffusion 中,AI 出图的默认分辨率为 512x512,用于商业通常不够。 2. 注意初始分辨率:初始分辨率不宜过高,例如 1600x840 的分辨率可能导致出图时间长和构图问题。 3. 运用高清修复:在文生图功能中有内置的高清修复(HiresFix)功能。将初始分辨率设置为 800x420 时,选择放大倍率为 2,可将分辨率放大至 1600x840。理论上放大倍率越高图片越清晰,但受电脑配置和显卡显存影响。放大算法如 RESRGAN 4x+Anime6B 常用于二次元绘图,写实类风格可选择 RESRGAN 4x+。 4. 固定图片种子值:先以 800x420 画一张图,获取其种子值并填入随机数种子以固定图片。 5. 底图制作:对于游戏截图升级为高质量图片,可在游戏内直接截图作为图生图的底层素材。为使底图清晰、拍摄自由,在 UE4 引擎游戏中可使用常用调整画质代码,如 r.ViewDistanceScale 10、r.ForceLOD 0、foliage.LODDistanceScale 10 等,并通过 ToggleDebugCamera 实现自由相机,使用 HighResShot 1920X1080(尺寸可调节)进行高品质截图。 通过这些技巧,您就可以得到足以商用的高清图片素材。
2024-12-25
把图片变成高清的工具
以下是一些可以将图片变成高清的工具及相关介绍: 悠船: 进入对应的图片,常用的图片调整内容包括变化、高清、重塑、扩图等。 变化:能让生成的图片产生一定改变,细微表示改变幅度小,强烈则表示改变幅度大。 高清:放大图片,“直接”表示啥都不变直接出高清,“创意”表示在图片基础上进行微小的优化调整。 风格变化:基于生成的图片作为上传图片(垫图)再创作。 拓展:可对图片进行上下左右的拓展。 缩放:指的是镜头,如 2x 表示镜头拉远 2 倍。 局部重绘:可以选择一个区域进行修改,建议选择区域大一些,太小无法修改。 使用图片即垫图,使用风格即参考图片风格,使用提示词即复制图片的提示词。 清影: 输入一张图片和相应的提示词,清影大模型将根据提示把图片转变为视频画面。也可以只输入一张图片,模型将自行发挥想象力把图片扩展为一段有故事的视频。 技巧:选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将图片变清晰。提示词要简单清晰,可以选择不写 prompt 让模型自己操控图片动起来,或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。如果不明确模型如何理解图片,可将照片发送到清言对话框进行识图明确主体描述。
2024-12-07
我输入模糊的图片,可以生成一副相对高清的图片,请问用什么AI工具
以下是一些可以将模糊图片生成相对高清图片的 AI 工具: 1. Magnific:https://magnific.ai/ 2. ClipDrop:https://clipdrop.co/imageupscaler 3. Image Upscaler:https://imageupscaler.com/ 4. Krea:https://www.krea.ai/ 更多工具可以查看网站的图像放大工具库:https://www.waytoagi.com/category/17 这些 AI 画质增强工具都具有不同的特点和功能,可以根据您的具体需求选择合适的工具进行使用。 另外,如果您想从游戏截图升级到 KV 品质,可以参考以下 AI 工具使用方法: 目前市面上有线上和线下本地部署的两种 AI 。线上的优势为出图速度快,不吃本地显卡的配置,且无需自己下载动辄几个 G 的模型,还能看其他创作者的制作的图片,但为了节约算力成本他们只支持出最高 1024X1024 左右的图,制作横板、高清等图片就会受限。线下部署的优势为可以自己添加插件,不卡算力,出图质量高于线上平台,但是使用期间电脑基本处于宕机状态,如果配置不高的话还会出现生成半天之后爆显存的情况,导致出图失败。 所以我们这里充分发挥线上和线下平台的优势。线上用于找参考、测试模型,线下作为主要的出图工具。在线上绘图网站的绘图广场上发现自己想要的画风,点击创作,会自动匹配创作的使用的模型 lora 和 tag。截取一小张游戏人物作为底图,目的是将线上平台有限的算力全部堆在人物身上。多批次、多数量地尝试不同的画风,得出最符合游戏的一款模型+lora 组合。最后在 C 站(https://civitai.com/ )上下载对应模型到本地,加载部署后就可以开始正式生图了! 关于 AI 去水印的工具,目前市面上有一些不错的选项: 1. AVAide Watermark Remover:这是一个在线工具,使用 AI 技术从图片中去除水印。它支持多种图片格式,如 JPG、JPEG、PNG、GIF 等。操作简单,只需上传图片,选择水印区域,然后保存并下载处理后的图片即可。这个工具还提供了其他功能,如去除文本、对象、人物、日期和贴纸等。 2. Vmake:这个工具同样提供 AI 去除图片水印的功能。用户可以上传最多 10 张图片,AI 会自动检测并移除图片上的水印。处理完成后,用户可以选择保存生成的文件。这个工具适合需要快速去除水印的用户,尤其是那些需要在社交媒体上分享图片的用户。 3. AI 改图神器:这个工具提供 AI 智能图片修复去水印的功能,可以一键去除图片中的多余物体、人物或水印,不留任何痕迹。支持直接粘贴图像或上传手机图像,操作简单方便。 这些工具各有特点,可以根据您的具体需求选择最适合您的去水印工具。
2024-11-29
大模型可以修复老旧的分辨率低的视频吗
大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。 例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。 另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D UNet 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。
2024-11-17
修复图片
以下是关于修复图片的相关知识: 使用 ControlNet 的 tile 模型修复图片: 对于分辨率不高的素材图片,可先拖进“WD 1.4 标签器”反推关键词,再发送到图生图。使用大模型“dreamshaper”,调整参数尺寸放大为 2K,提示词引导系数在 15 以上,重绘幅度在 0.5 以上。 若图片像素很低,可直接使用 tile 模型,其预处理器用于降低原图分辨率,为新图添加像素和细节提供空间。 对于细节不足或结构错误的图片,启用 tile 预处理器,在提示词中增加相关描述可得到不同效果,如增加“秋天”“冬天”等关键词。 但 tile 模型是对图像重绘,非局部修改,会使整个图像有微变化。 图像高清修复、无损放大 N 倍的流程: 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 大模型和 Stable SR Upscaler 模型,搭配包含目的内容的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality),进行 2 倍放大修复。 图像高清放大:对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。
2025-02-23
老照片修复用什么
以下是一些用于老照片修复的方法和工具: 1. 使用 SD 中的 ControlNet 模型,特别是其中的 Recolor 新模型,可对黑白老照片进行重新上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor 时,预处理器选择“recolor_luminance”效果较好。 2. 超清无损放大器 StableSR:需要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入指定文件夹,同时安装 StableSR 模块和 VQVAE。通过不同的放大方法测试,如“Ultimate SD upscale”脚本、“后期处理”的放大方法和 StableSR 的放大,StableSR 对原图还原较为精准,重绘效果较好。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰,但无法使头发、衣服等元素变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本进行放大修复。 相关参考文章: 1. 【SD】用 AI 给老照片上色,岁月不改它模样:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 2. 【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21wechat_redirect 3. 【Stable Diffusion】超清无损放大器 StableSR:http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21wechat_redirect
2025-02-18
我想把黑白老照片修复成彩色,然后给人物换衣服。请问哪个AI网站或者软件可以免费使用
以下为您介绍可免费使用的将黑白老照片修复成彩色并给人物换衣服的方法: 使用 Stable Diffusion 可以实现此需求。在新上线的 controlnet 模型中,新增的 Recolor 模型能将黑白图片重新上色。操作时选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰,可参考文章——。 之后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-02-04
黑白老照片修复
以下是关于黑白老照片修复的相关内容: 1. 利用新上线的 controlnet 模型中的 Recolor 新模型为黑白照片上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 2. 字节发布的新模型 SeedEdit 也可用于黑白老照片上色,通过输入相应的提示词,如“给画面上色,时尚,舒服”,还能进行元素替换、移除无关元素和切换各种风格。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。
2025-02-01
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流,十几个基础节点就能实现更好效果。 参数调节方面,先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlnetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,类似 Wang,Xintao 等人在 2021 年发表的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 新上线的 controlnet 模型中的 Recolor 模型可给黑白图片重新上色。 人物照片还原选择 realisian 的写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 之后将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型修复,vae 选择 vqgan,可不写提示词以免干扰原图。
2025-01-20
视频修复AI工具
以下是一些视频修复 AI 工具及相关信息: 软件教程: Sora:https://waytoagi.feishu.cn/wiki/S5zGwt5JHiezbgk5YGic0408nBc Hedra:https://waytoagi.feishu.cn/wiki/PvBwwvN36iFob7kqZktcCzZFnxd 应用教程: 视频转绘:https://waytoagi.feishu.cn/wiki/ZjKpwSd5hiy6ZhkiBVHcOBb6n9r 视频拆解:https://waytoagi.feishu.cn/wiki/WeKMwHRTmiVpYjkVdYpcFjqun6b 图片精修:https://waytoagi.feishu.cn/wiki/CfJLwknV1i8nyRkPaArcslWrnle 几个视频 AIGC 工具: Opusclip:利用长视频剪成短视频 Raskai:短视频素材直接翻译至多语种 invideoAI:输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频 descript:屏幕/播客录制>PPT 方式做视频 veed.io:自动翻译自动字幕 clipchamp:微软的 AI 版剪映 typeframes:类似 invideoAI,内容呈现文本主体比重更多 google vids Topaz Video AI 使用介绍(显卡不好的可以跳过): 解压对应文件,推荐使用绿色版(安装包已在网盘,可直接下载)。 右键,管理员运行 VideoAIportable.exe 文件。 导入处理好的视频。 主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。 右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等。 稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动需开启,次数一般选择 2 保持默认不变。 帧插值 AI 里主要是识别对应的帧和帧之间进行修复替换,有几种模型。 增强 AI 选择不同模型对视频进行整体优化,包括面部、去噪、锐化提升等。 12 月 8 日 Xiaohu.AI 日报中的新的视频修复与超分辨率工具: 功能亮点:画面缺失修补、模糊去除、清晰度提升(最高 4 倍超分辨率)。 同时支持去模糊、修复、超分任务,操作简便,仅需一张 13G 显存 GPU。 链接:https://x.com/imxiaohu/status/1865636467055497267 项目地址:https://visionxl.github.io
2025-01-14
照片黑白转彩色
以下是关于照片黑白转彩色的几种方法: 基于 ipadapter 工作流的方法: 1. 基于 ipadapter 最新工作流“ipadapter_advanced.json”,其中 controlnet 模型用于控制生成的图片。 2. 将一张黑白素材图片和一张彩色风格图片进行风格迁移完成转绘。 3. 具体步骤包括: 先创建节点加载图片。 读取一张所需风格的图片作为参考图。 将图像用蓝色的线连接到 cn 应用,通过 cn 的深度学习模型(SDxl 版本),采用 Zoe 深度预处理器。 对要生成的图片进行填写提示词,如正向提示词:illustration of clouds and meadows and mountains and trees,calm,executable,high quality。 生成(添加到提示词队列)。 使用 MutiDiffusion 插件的方法: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度的调整和照片的裁切,然后使用上述步骤进行上色。如果直接上色效果不佳,可以放弃人物服装的颜色指定,只给一个场景方向,如从网上找一张参考照片让 AI 去匹配色调,加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,并给出简单的关键词,如蓝天、绿树、灰石砖。 使用 DALL·E 编辑功能的方法: 1. 在 DALL·E 编辑器界面更改完图片后点击保存。 2. 可以在编辑器界面右侧的对话面板中输入提示来更改图片,例如输入「make it black and white」将图像更新为黑白。 3. 在 ChatGPT 移动应用程序上使用 DALL·E 进行编辑,选择左下角的「编辑」调出提示选项,选择「Select」访问选择工具,突出显示要编辑的图像部分,通过屏幕左侧的滑块更改图片大小,选择完图像部分后选择屏幕右下角的「Next」按钮,在弹出的对话面板中输入提示对图像进行更改。
2025-02-22
我想把人物老照片转彩色并生成视频动起来,用什么工具
以下是一些可以将人物老照片转彩色并生成视频动起来的工具和方法: 1. 对于给老照片上色,可以使用 Stable Diffusion 及其相关插件,如 MutiDiffusion 插件。在显存不够的情况下,可利用分块渲染功能放大图片。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,通过简单的关键词如“蓝天、绿树、灰石砖”来匹配色调。同时,将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对于生成视频让图片动起来,可以使用即梦进行图生视频。只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-22
两张照片还原人脸,用什么AI工具
以下是一些可用于两张照片还原人脸的 AI 工具和方法: 1. Stable Diffusion: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 利用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan,提示词可不写。 2. Midjourney(MJ):加上简单的相机参数、写实风格,使用 MJ v 6.0 绘图,可调整图片比例。 3. InsightFaceSwap: 输入“/saveid”,idname 可随意填写,上传原图。 换脸操作输入“/swapid”,id 填写之前设置的名称,上传分割好的图。 选择效果较好的图片,注意插件每日免费使用次数。 此外,还会用到 PS 进行图片的角度调整、裁切、裁剪、拼接等操作。
2025-02-21
照片转线稿
以下是关于照片转线稿的相关信息: 教程:线稿上色 Midjourney + Stable Diffusion sd 上色: 正关键词:主要前面添加了增加照片质感常用的 + mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+ 风格参数。 负关键词:看自己的效果添加。添加一切您不想要的东西,前面调用了词嵌入(bad_prompt_version2neg, badhandv4, easynegative)需要去 c 站下载,这些主要是为了控制人手部错误的,在最后一步放大的时候,却起到了反作用,强行给小猫咪小动物 5 个手指(建议不加,或者建议生成的时候加,放大的时候去掉)。 正关键词示例:, CG, unity, official art, amazing, finely detail, an extremely delicate and beautiful, extremely detailed, 3d, rendering, c4d, blender, octane render, Chinese festive color scheme, open mouth, 1 tooth, The cat has a pair of white gloves, a cute cat cartoon IP character, black line sketch, wearing a hat, wearing a collar around the neck, carrying a huge red bag, matching rope and straps at his wrists, Chinese element style, poular toys, blind box toys, Disney style。 负关键词示例:back and white, green, blue, purple。 真实系大模型:revAnimated v1.2.2 版本。 尺寸:最好和您的草稿图保持一致(前面的步骤没有截图。这里重新做了一张)如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。 最重要的 ControlNet 设置:上传自己的草图到 ControlNet,点击启用。记得点💥的图标让预处理器生效。 摊位信息: AI 3D 打印纹身印章:通过 AI 将图片转绘成简约线条插画风格,然后现场 3D 打印出来,最终交付定制化的纹身印章产品。具体流程:适用 comfyui 工作流生成 + 输出线稿素材;将线稿生成模型文件;输入 3D 打印机,输出定制图案模型(预计打印时间 3 5 分钟)。印章图案为软性材料,印章颜料为可水洗安全材料,可另选半永久植物染料。摊位区域为 E,摊位编号为 69,摊位类型为 3D 印章。 星流一站式 AI 设计工具: 右侧生成器入门模式图片参考: 全部图片参考功能:原图、景深、线稿轮廓、姿势、Lineart 线稿、Scribble 线稿、光影、Segmant 构图分割。 其他参考功能:SoftEdge 线稿、配色参考、配色打乱、法线贴图、MLSD 线稿。
2025-02-20
如何让老照片动起来
以下是一些让老照片动起来的方法和相关信息: 1. 参加“时光印记”AI 公益挑战赛:该挑战赛采集了杨浦 20 位老一辈建设者老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s。报名及创作时间为即日起至 2024 年 11 月 20 日。参赛方式为填写报名问卷和进群获取素材。 2. 使用 Dreamina 即梦工具:不需要🪜,每天有免费额度。注册可用抖音号或手机号,上传照片即可尝试让老照片动起来。 3. 使用 Sora 工具:优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用。
2025-02-14