Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

老旧照片高清修复

Answer

以下是关于老旧照片高清修复的方法:

  1. 使用 Stable Diffusion 进行修复:
  2. 使用 ComfyUI 进行修复:
    • 结合 Flux Controlnet Upscale 模型,以前的工作流比较复杂,现在只要十几个基础的节点就能实现同样的效果,甚至可能更好。
    • 参数调节:一般先确认放大的倍数,然后根据出来的图片调整 controlNet 的强度。
    • Controlnet-Upscaler 放大模型:Flux.1-dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。
    • Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,可放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。
    • T5 Clip:如果发现出来的图片质量细节不够,选择 fp16 的版本。
    • 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】用AI给老照片上色,岁月不改它模样

将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。

【SD】用AI给老照片上色,岁月不改它模样

但是仅仅这样是不够的,从渲染的结果上我发现,颜色并不是精准地出现在我们想要的位置上的,提示词之间会出现相互的污染。而且由于照片上斑驳的痕迹,即使是背景也不能够做到完全统一,看来事情并没有我想象的那么简单。为了做到颜色与内容的统一,我启用了之前讲到过的一款cutoff插件来进行控制,依次按顺序设置好颜色提示词,不了解这款插件的朋友可以参照我这篇文章——[【Stable Diffusion】告别提示词颜色污染!Cutoff插件](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487436&idx=1&sn=dba5cf7a170223deda6a706fa2e14f6b&chksm=c2515908f526d01eae402083a7f93e4c5c7dca057693a25847bb8e97929c875617777cbb9721&scene=21#wechat_redirect)。终于得到了一张配色正确的照片,但是还没有完,由于以前的照片像素比较低,接下来我准备将它变得更高清一点。

ComfyUI 老照片修复Flux Controlnet Upscale

以前做了一个高清放大的工作流,被很多小伙伴用在淘宝上做老照片修复。之前的工作流比较复杂,现在,这个模型出来,结合这个工作流,只要十几个基础的节点就能实现同样的效果,甚至可能更好。[heading3]参数的调节[content]一般做法是先确认放大的倍数,然后根据出来的图片来调整controlNet的强度。[heading3]Controlnet-Upscaler放大模型[content]模型介绍:Flux.1-dev ControlNet是Jasper研究团队为低分辨率图像开发的模型。使用方法:可直接与diffusers库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式:采用合成复杂数据退化方案,结合图像噪声、模糊和JPEG压缩等多种方式对真实图像进行人工退化。目的:这种训练方法的目的是让模型学会处理各种真实世界中可能遇到的图像退化情况,从而在实际应用中表现更好。引用文献:训练方式类似Wang,Xintao等人在2021年发表的“Real-esrgan:Training real-world blind super-resolution with pure synthetic data.”中的方法。许可证:该模型属于Flux.1-dev模型许可证范畴[heading3]Flux Ultimator细节增强[content]细节:能增加小细节,让图像尽可能逼真。鲜艳色彩增强:可放大色调的丰富性和深度。使用:在0.1的强度设置下也能有显著增强效果。集成:能顺利集成到工作流程中,与其他LORA结合使用效果好,结合时需将强度降低小于0.5。[heading3]T5 Clip[content]如果你发现出来的图片质量细节不够,选择fp16的版本。[heading3]图像的传递[content]controlNet这里传递的应该是上传的原始图片,因为这个是controlNet而不是潜空间图像。

Others are asking
生成高清视频
以下是关于生成高清视频的相关信息: Meta 发布的 Meta Movie Gen 文生视频模型: 由视频生成和音频生成两个模型组成。 Movie Gen Video 是 30B 参数的 Transformer 模型,能从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens,可进行精确视频编辑和个性化视频生成,在保持角色身份一致性和运动自然性方面表现出色,通过预训练微调范式完成,沿用了 Transformer 特别是 Llama3 的许多设计,预训练阶段在海量视频文本和图像文本数据集上联合训练,微调阶段进行有监督微调,还引入流匹配作为训练目标,效果优于扩散模型。 Movie Gen Audio 是 13B 参数的 Transformer 模型,能接受视频输入及可选文本提示生成高保真音频。 Sora 相对于其他文本生成视频 AI 的优势: 能够生成高达一分钟的高清视频。 支持生成不同分辨率、纵横比的视频。 能生成显示人物复杂、动态运动的视频,运动自然流畅。 能够捕捉和再现丰富的场景细节。 在生成长视频时能保持场景和角色的一致性。 能够处理多角色交互,角色互动自然有信服力。 采用类似 GPT 的技术,自然语言理解强大。 能模拟动作对环境的影响。 可以模拟视频游戏等数字环境。 一些海外的 AI 视频生成工具: Haiper(有免费额度):https://haiper.ai/ ,能文生视频、图生视频、素描生视频、扩展视频,生成 HD 超高清视频,文生视频支持选择风格、秒数、种子值,图生视频只能写提示词、秒数、种子值,还能进行视频重绘和局部重绘。 DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile ,能生成 2 秒图生视频,还可以做短视频拼长视频。 Morph studio(内测):https://app.morphstudio.com/ ,暂未对外开放,可在官网提交内测申请,discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3 秒视频。
2025-03-25
能将像素低的图片高清化的AI工具
目前有一些可以将像素低的图片高清化的 AI 工具,例如: 1. Topaz Gigapixel AI:能够通过深度学习算法对图片进行放大和增强,提高清晰度和细节。 2. Adobe Photoshop 的增强功能:Photoshop 中的一些智能滤镜和插件也可以在一定程度上改善图片的清晰度。 需要注意的是,不同的工具在处理不同类型的图片时效果可能会有所差异,您可以根据具体需求进行选择和尝试。
2025-03-19
我现在要对一些很糊的图像进行图像修复,就是把图像变高清,有什么工具吗?
以下是一些可用于图像修复变高清的工具和方法: 1. 图像修复放大流程: 输入原始图像:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 模型,并搭配 Stable SR Upscaler 模型,推理图片噪点以还原图像。提示词应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。 图像高清放大:对第一次放大修复后的图像进行二次修复,realisticVision 底膜效果较好。使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型进行二次放大。 2. 星流一站式 AI 设计工具: 右侧生成器的高级模式:与入门模式相比增加了基础模型、图片参考等更多功能。基础模型允许使用更多微调大模型和更多图像控制功能,如高清分辨率修复等。同时,还可以调整放大算法、重绘幅度等参数,以及选择不同的采样器。 3. SD 新手入门图文教程: 文生图最简流程中的一些参数: CFG Scale(提示词相关性):控制图像与提示的匹配程度,一般开到 7 11。 生成批次和每批数量:影响生成图像的组数和数量。 尺寸:推荐使用小尺寸分辨率结合高清修复(Hires fix)。 种子:决定模型生成图片的随机性。 高清修复:通过勾选“Highres.fix”启用,先按指定尺寸生成图片,再通过放大算法扩大分辨率以实现高清大图效果。
2025-03-04
有没有什么网站可以免费将低精度的图片转化为高清图片
以下是一些可以免费将低精度图片转化为高清图片的网站和相关信息: Stability AI 推出的基于 Discord 的媒体生成和编辑工具: :可将任何低分辨率、低质量的图像转换为 4k 杰作,价格为 25 积分。 :简单、低成本的分辨率提升,价格为 0.2 积分。 图像高清修复放大的流程分为三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,分辨率越大处理时间越长。 2. 图像高清修复:把原本模糊的图片修复,并进行 2 倍放大。Checkpoint 大模型使用 Iceclear/StableSR,搭配 Stable SR Upscaler 模型能最大程度修复图像,推理图片每个噪点以还原图像。提示词部分应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear);反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。全程采取两次高清修复,第一次修复原始图像分辨率并且放大,若分辨率不够继续下一步。 3. 图像高清放大:针对第一次放大修复后的图像进行二次修复,realisticVision 底膜最合适,使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型进行二次放大。
2025-01-16
国内能免费生成高清AI图片的网站有哪些
以下是一些国内能免费生成高清 AI 图片的网站: 1. 通义万相:作为国产 AI 工具,在中文理解和处理方面表现出色。用户可以从多种艺术风格和图像风格中进行选择,生成的图像质量较高,细节丰富。重点是现在免费,每天签到获取灵感值就可以。但为了符合国内监管要求,某些类型的图像可能无法生成,在处理非中文语言或国际化内容方面可能存在不足。 2. 可灵:由快手团队开发的 AI 应用,主要用于生成高质量的图像和视频,图像质量非常高。最初采用内测邀请制,现在已向所有用户开放使用。不过价格相对较高,重度用户年费可能达几千元,平均每月使用成本在 400 到 600 元之间。临时或轻度使用有每日免费点数和 60 多元单月的最便宜包月选项。
2025-01-16
用AI高清化视频的网站或工具有哪些,免费的
以下是一些可以用于 AI 高清化视频的免费网站或工具: Runway:网址为 https://runwayml.com ,有网页和 app ,使用方便。工具教程: 即梦:网址为 https://dreamina.jianying.com/ ,为剪映旗下产品,生成 3 秒,动作幅度有很大升级,有最新 S 模型和 P 模型。工具教程: Kling:网址为 kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。视频模型: Vidu:网址为 https://www.vidu.studio/ haiper:网址为 https://app.haiper.ai/ Pika:网址为 https://pika.art/ ,可控性强,可以对嘴型,可配音。工具教程: 智谱清影:网址为 https://chatglm.cn/video ,开源了,可以自己部署 cogvideo 。工具教程: PixVerse:网址为 https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。工具教程: luma:网址为 https://lumalabs.ai/ Minimax 海螺 AI:网址为 https://hailuoai.video/ ,非常听话,语义理解能力非常强。视频模型: SVD:网址为 https://stablevideo.com/ ,对于景观更好用。工具教程:
2024-12-30
老旧照片修复
以下是关于用 AI 给老旧照片修复上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,在显存不够的情况下,仅使用分块渲染功能将图片放大到足够倍数。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。 4. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 5. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 6. 把图片发送到图生图中,打开 stableSR 脚本,放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 7. 对于复杂的照片,如人物多、场景复杂、像素低的情况,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 作者为白马少年,发布时间为 2023 年 9 月 10 日 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 。
2025-03-06
大模型可以修复老旧的分辨率低的视频吗
大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。 例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。 另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D UNet 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。
2024-11-17
修复旧照片
以下是关于修复旧照片的相关内容: 使用 StableSR 修复旧照片: 1. 需使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 一个 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 测试结果: 1. 使用“Ultimate SD upscale”脚本放大,重绘幅度开到 0.1 能看到人物细节变化,但整个人磨皮严重,失去真实感;重绘幅度开到 0.4 则变化较大。 2. 用“后期处理”的放大方法,缩放 3 倍,眼神更锐利,但头发仍模糊。 3. 用 StableSR 放大,需将大模型和 VAE 分别调整为下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。 ComfyUI 老照片修复 Flux Controlnet Upscale: 1. 以前的高清放大工作流被用于淘宝老照片修复,现在新模型结合工作流,十几个基础节点就能实现更好效果。 2. 参数调节:先确认放大倍数,再根据图片调整 controlNet 强度。 3. ControlnetUpscaler 放大模型:是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 4. Flux Ultimator 细节增强:能增加小细节,让图像逼真,增强色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 5. T5 Clip:若图片质量细节不够,选择 fp16 版本。 6. 图像传递:controlNet 传递的应是上传的原始图片。 用 AI 给老照片上色: 在新上线的 controlnet 模型中,新增 Recolor 模型可给黑白图片重新上色。可选择 realisian 的写实大模型,提示词直接描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-26
修复老照片
以下是关于用 AI 修复老照片的相关内容: 使用 MutiDiffusion 插件,在显存不够时可通过分块渲染功能放大图片。对于较复杂的老照片,如人物多、场景复杂、像素低的情况,可先在 PS 里调整角度和裁切,直接上色效果不佳时,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词给蓝天、绿树、灰石砖等。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的高清放大工作流复杂,新模型出来后,十几个基础节点就能实现更好效果。参数调节一般先确认放大倍数,再根据图片调整 controlNet 强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可与 diffusers 库一起使用,训练方式采用多种人工退化方案。Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能与其他 LORA 结合使用。T5 Clip 若图片质量细节不够,可选择 fp16 版本。controlNet 传递的应是原始图片。 在新上线的 controlnet 模型中,Recolor 模型可给黑白图片重新上色,可选择 realisian 写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-24
动漫脸部修复
以下是关于动漫脸部修复的相关内容: GFPGAN 面部修复: 找一张模糊人像进行修复,其他参数不变,直接将 GFPGAN 参数拉到 1 即可。面部修复效果显著,但只能修复脸部,头发、衣服、背景等无变化。 背景去除: 需要安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好之后重启,就有选项框。 测试时模型选第一个 u2net,直接点击生成。抠图效果不错但边缘轮廓可能有黑边,用时 2.86 秒。 去掉黑边可点击后面的 Alpha matting 调整参数,如 Erode size:6、Foreground threshold:143、Background threshold:187,就能得到无黑边图像。 点击按钮还可直接生成蒙版。有专门做服装抠图和动漫抠图的模型。 手部修复: 对于动漫人物手部修复,先在 3D 骨架模型编辑器中手动调整还原骨架,若为写实人物可使用 openpose 预处理器进行姿态检测。 来到深度图库,修改尺寸并载入骨架图,选择合适手势添加,可发送到 controlnet。 启用 controlnet 时选择相应预处理器,在图生图中进行手部局部重绘,绘制蒙版,可一只手一只手调整,之后在 ps 中使用“创成式填充”修补衔接区域。 SD 新手入门图文教程中的相关内容: 放大算法中,Latent 在许多情况下效果不错,但重绘幅度小于 0.5 效果不佳,ESRGAN_4x、SwinR 4x 对 0.5 以下重绘幅度支持较好。 Hires step 表示进行这一步时计算的步数。 Denoising strength 表现为生成图片对原始输入图像内容的变化程度,一般阈值 0.7 左右,超过 0.7 与原图基本无关,0.3 以下稍作修改。 面部修复可修复人物面部,但非写实风格人物开启可能导致面部崩坏。
2025-03-13
脸部修复
以下是关于脸部修复的相关内容: 在 Stable Diffusion 中,通常初始分辨率设为 512x512 以提高抽卡效率,但这样人脸易崩。确定人物姿态和构图后,可点击面部修复和高分辨率修复达到正常效果,但小图和大图存在差异,重绘幅度低无法修复细节错误,高则会导致人物发型、服装变化大。 GFPGAN 面部修复:其他参数不变,直接将 GFPGAN 参数拉到 1 即可。此功能只能修复脸部,头发、衣服、背景等无变化。 背景去除:需安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好后重启,有选项框,模型选第一个 u2net 点击生成。抠图效果不错但有黑边,可通过点击 Alpha matting 调整参数(Erode size:6、Foreground threshold:143、Background threshold:187)去掉黑边,还能生成蒙版。有专门做服装和动漫抠图的模型。 脸部修复插件 After Detailer:安装方式可在扩展面板中搜索直接安装,或放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成重启 webUI 会出现插件面板。使用时在启用“After Detailer”前打勾,下拉菜单中有很多模型,分别针对 2D 人物的脸、手、全身和真实人物的脸部修复。选择真人脸部模型,关掉“面部修复”和“高分辨率修复”,保持 512x512 尺寸测试,人物脸部正常,细节精致。插件有正负提示词输入框,输入表情相关文字人物表情会改变,如输入“伤心、流泪”,但输入“带着墨镜”无变化,提示词仅针对表情。插件的第二单元和 controlnet 一样有多通道,将第二单元模型换成 hand 模型可修复手部,但效果有待改善,可结合 PS 蒙版处理。
2025-03-13
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流只需十几个基础节点就能实现更好效果。 参数调节方面,一般先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlNetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,训练方式类似 Wang,Xintao 等人发表的文献中的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节,增强鲜艳色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。 对于复杂的老照片,可在 PS 中进行角度调整和裁切,若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型和简单关键词。 新上线的 controlnet 模型中,Recolor 模型可将黑白图片重新上色。 人物照片还原可选择 realisian 的写实大模型,用提示词描述颜色和内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-06
用照片生成漫画
以下是关于用照片生成漫画的相关内容: 一、使用 MJ 生成照片漫画 1. 需求分析 用自己的图片、照片生成以照片人物为主体的运动员头像漫画。 2. 操作步骤 输入:使用 ChatGPT 完成对应工作,输入奥林匹克项目生成人物描述,并结合设定好的提示词。 ChatGPT 生成描述:添加中国人、中国运动服和项目场景描述,生成 MJ 画图的提示词。 MJ 绘图测试:测试 MJ 绘图提示词的稳定性,确定是否需要垫图等。 局部重绘:使用局部重绘,结合 cref 链接照片,调整 cw 参数。 二、OpenAI GPT4o 图像生成模型 1. 核心功能 先进的多模态模型,能生成精确、真实感强的图像,具有实际用途。 2. 亮点功能 精确的文本渲染,能在图像中准确生成文字。 多样化场景生成,支持从真实感到漫画风格等多种图像生成,可根据上传图像进行灵感转化或视觉改造,具有上下文感知能力。 3. 技术改进 联合训练在线图像和文本的分布,学会图像与语言及图像之间的关系,后期训练优化在视觉流畅性和一致性方面表现出色。 4. 实际应用场景 信息传递、创意设计、教育与演示等。 5. 局限性 存在某些场景或细节的限制,如偶尔会过于紧密地裁剪较长图像,多语言呈现不佳。 6. 访问和可用性 已集成到 ChatGPT 中,Plus、Pro、Team 和 Free 用户推出,Enterprise 和 Edu 即将访问。开发人员很快可通过 API 使用,图像渲染时间较长。 三、四格漫画 可生成四种风格的四格漫画,需简体中文描述,足够幽默有趣的故事。
2025-03-27
让老照片动起来
以下是关于让老照片动起来的相关信息: 2024 上海市杨浦区举办了“时光印记”AI 公益挑战赛,采集了 20 位老一辈建设者的老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图,重现其青春风采与城市贡献。奖项丰富,包括丰厚现金奖励、DOU+流量推广、即梦 AI 积分、歌歌 AI 会员、剪映 App 会员等,还有比赛证书、线下巡展等。报名及创作时间为即日起至 2024 年 11 月 20 日。活动组织包括上海市杨浦区民政局、跳跳糖星火公益社团、WaytoAGI、即梦 A、歌歌 Al 等。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s,评选规则为预选加专家评委多维度评选。参赛方式为报名问卷和进群获取素材。 体验让老照片动起来的工具: Dreamina 即梦:网址为 https://dreamina.jianying.com/aitool/home?subTab ,优点是不需要🪜,每天有免费额度,注册可用抖音号或手机号,注册时间 5min。上传图片后能让老照片有一些动态效果,比如水面动起来,但也可能出现画面扭曲的情况。 Sora:网址为 https://openai.com/sora ,优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用,花费时间 30 60min,价格为 GPT 4 20$一个月。
2025-03-26
照片涂抹替换
以下是关于照片涂抹替换的相关内容: 如果您运营网店且没有资金请模特,可使用 Stable Diffusion 来制作商品展示图。首先,真人穿好要卖的衣服并拍照,获取具有真实质感的照片。若身材方面有问题,可借助美图秀秀或 PS 处理。然后选好真人照片风格的 realisitic 底模,如 majicmixRealistic_v7。接着根据不同平台需求换头,如面向海外市场换白女头。在图生图下的局部重绘选项卡中,涂抹自己要替换的部分。 字节发布的新模型 SeedEdit 也能实现照片的修改。即使是真人图像,它也能 hold 住。例如可以通过输入 Prompt 指令让戴珍珠耳环的少女手里拿着一杯奶茶,给《老友记》中的瑞秋戴上时髦的墨镜,给奥黛丽・赫本更换帽子颜色,给黑白老照片上色,移除画中无关元素,进行元素替换以及切换各种风格,如涂鸦、乐高、3D、皮克斯、迪士尼等。 星流一站式 AI 设计工具中的顶部图像编辑工具具有多种功能: 换脸:自动替换原图的脸部信息。使用时选中图像进入扩展功能界面,自动提取面部信息,上传想要替换到图像的图片,选择与放大图像相对应的重绘风格可提升效果。 智能擦除:智能擦除能帮您擦除图片上的任意元素,并根据图片内容填充空白区域。使用时选中图像进入智能擦除功能界面,用套索或框选工具进行选区,点击擦除。 剪裁:裁剪可以将图片裁切成任意大小。使用时选中图像进入剪裁功能界面,拖动选区边界选择需要保留的部分,按下键盘 Enter 进行确认。
2025-03-26
照片转动漫的工具
以下为一些照片转动漫的工具及相关信息: 1. VIGGLE: 是一款创新的可控视频生成平台,基于 JST1 技术,允许用户自由创建和控制 3D 角色的动作,在游戏开发、动画制作及 VR/AR 等领域有巨大潜力。 Viggle AI 是利用骨骼动画将图片转化为一致性角色动画的工具,简化了动画制作流程。 体验地址:https://www.viggle.ai/ 官方 Discord:https://discord.gg/viggle 操作方式(以网页端举例): Upload a character image of any size.上传任意尺寸的角色图像。 For better results,use a fullbody photo with a clean background.为了获得更好的效果,请使用背景干净的全身照片。 Image size图像大小(最大 10MB) 您上传的照片必须符合社区规则。 2. 莱森: 利用一致性 MJ 出海马体写真的教程。 用醒图(英文版叫做 hypic)或者美图秀秀等 App 调整脸部,拖拖修图进度条就好了。 关注醒图【人像>面部重塑>面部>比例】,调整上庭、中庭、下庭。 在转绘部分,照片>Minecraft 风格幅度变化大时,若sw 风格权重拉满仍复制不了像素小人风格,可能是cw 太高,调低 cw 可能成功复制。 cref 和 sref 同时参考多张 url 时,上传同一个人不同角度的照片,容易使结果畸形。 若 MJ 直出的皮肤缺乏质感,可打开醒图【人像>手动美颜>皮肤肌理】。 若想快速调整光源,可试试 Luminar,可官方下载购买完整版,或在 macos 订阅 setapp 使用有基础功能的 Luminar 版本。 3. 个性: 操作: 复杂提示词,如:Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 不同照片生成,若对照片风格不满意可更换照片使用相同提示词重新生成。 其他调整,如觉得 Disney 风格太过卡通,可把提示词里的 Disney 换成 Pixar,若为女孩,可把 boy 换成 girl。每次生成 4 张图片,对某一张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击下方的 V1~V4 进行修改。
2025-03-19