Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

修复旧照片

Answer

以下是关于修复旧照片的相关内容:

使用 StableSR 修复旧照片:

  1. 需使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stable-diffusion-webui/models/Stable-Diffusion/文件夹中。
  2. StableSR 模块(约 400M 大小)放入 stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。
  3. 一个 VQVAE(约 750MB 大小)放在 stable-diffusion-webui/models/VAE 中。

测试结果:

  1. 使用“Ultimate SD upscale”脚本放大,重绘幅度开到 0.1 能看到人物细节变化,但整个人磨皮严重,失去真实感;重绘幅度开到 0.4 则变化较大。
  2. 用“后期处理”的放大方法,缩放 3 倍,眼神更锐利,但头发仍模糊。
  3. 用 StableSR 放大,需将大模型和 VAE 分别调整为下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。

ComfyUI 老照片修复 Flux Controlnet Upscale:

  1. 以前的高清放大工作流被用于淘宝老照片修复,现在新模型结合工作流,十几个基础节点就能实现更好效果。
  2. 参数调节:先确认放大倍数,再根据图片调整 controlNet 强度。
  3. Controlnet-Upscaler 放大模型:是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。
  4. Flux Ultimator 细节增强:能增加小细节,让图像逼真,增强色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。
  5. T5 Clip:若图片质量细节不够,选择 fp16 版本。
  6. 图像传递:controlNet 传递的应是上传的原始图片。

用 AI 给老照片上色: 在新上线的 controlnet 模型中,新增 Recolor 模型可给黑白图片重新上色。可选择 realisian 的写实大模型,提示词直接描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。

ComfyUI 老照片修复Flux Controlnet Upscale

以前做了一个高清放大的工作流,被很多小伙伴用在淘宝上做老照片修复。之前的工作流比较复杂,现在,这个模型出来,结合这个工作流,只要十几个基础的节点就能实现同样的效果,甚至可能更好。[heading3]参数的调节[content]一般做法是先确认放大的倍数,然后根据出来的图片来调整controlNet的强度。[heading3]Controlnet-Upscaler放大模型[content]模型介绍:Flux.1-dev ControlNet是Jasper研究团队为低分辨率图像开发的模型。使用方法:可直接与diffusers库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式:采用合成复杂数据退化方案,结合图像噪声、模糊和JPEG压缩等多种方式对真实图像进行人工退化。目的:这种训练方法的目的是让模型学会处理各种真实世界中可能遇到的图像退化情况,从而在实际应用中表现更好。引用文献:训练方式类似Wang,Xintao等人在2021年发表的“Real-esrgan:Training real-world blind super-resolution with pure synthetic data.”中的方法。许可证:该模型属于Flux.1-dev模型许可证范畴[heading3]Flux Ultimator细节增强[content]细节:能增加小细节,让图像尽可能逼真。鲜艳色彩增强:可放大色调的丰富性和深度。使用:在0.1的强度设置下也能有显著增强效果。集成:能顺利集成到工作流程中,与其他LORA结合使用效果好,结合时需将强度降低小于0.5。[heading3]T5 Clip[content]如果你发现出来的图片质量细节不够,选择fp16的版本。[heading3]图像的传递[content]controlNet这里传递的应该是上传的原始图片,因为这个是controlNet而不是潜空间图像。

【SD】用AI给老照片上色,岁月不改它模样

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-09-10 19:00原文网址:https://mp.weixin.qq.com/s/-hlnSTpGMozJ_hfQuABgLw在最近新上线的controlnet模型中,除了我们之前测试过的一众适配sdxl的模型以外,还增加了一款名为Recolor的新模型,它的作用是可以将黑白的图片进行重新上色。看到这个功能,我首先想到的就是可以用它来修复那些已经年代久远的老照片。毕竟在以前那个年代,没有现在这种可以永远保存的数码拍照技术,很多洗出来的照片也都随着岁月的流逝而褪去了色彩。如果能用AI技术恢复这些往日的时光,也许能唤醒我们心底的一些温暖。于是,我联系爸妈帮我找来了一些他们珍存的照片。他们也很热心于这件事情,立马给我发来了一大堆照片,其中有很多我也没见过的他们年轻的时候的样子,还包括我爷爷奶奶外公外婆那一辈的回忆。虽然很多照片都是黑白的,但是仍然能感受到那个时候的阳光和清风。这是我的奶奶,她离开已经有十几年了,年轻时候留下的照片不多,这一张算是保存得很好的了,那个年代的人物照片总能让人感受到一种独特的气质。既然是人物照片的还原,我这里就选择了realisian的写实大模型。提示词直接描述颜色和对应的内容。比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。因为黑白照片,颜色无从判断,所以有些只能靠猜测了。ControlNet这里选择Recolor,预处理器有两个,经过我的测试,选择“recolor_luminance”的效果会更好一些。

Others are asking
修复老照片
以下是关于用 AI 修复老照片的相关内容: 使用 MutiDiffusion 插件,在显存不够时可通过分块渲染功能放大图片。对于较复杂的老照片,如人物多、场景复杂、像素低的情况,可先在 PS 里调整角度和裁切,直接上色效果不佳时,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词给蓝天、绿树、灰石砖等。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的高清放大工作流复杂,新模型出来后,十几个基础节点就能实现更好效果。参数调节一般先确认放大倍数,再根据图片调整 controlNet 强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可与 diffusers 库一起使用,训练方式采用多种人工退化方案。Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能与其他 LORA 结合使用。T5 Clip 若图片质量细节不够,可选择 fp16 版本。controlNet 传递的应是原始图片。 在新上线的 controlnet 模型中,Recolor 模型可给黑白图片重新上色,可选择 realisian 写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-24
动漫脸部修复
以下是关于动漫脸部修复的相关内容: GFPGAN 面部修复: 找一张模糊人像进行修复,其他参数不变,直接将 GFPGAN 参数拉到 1 即可。面部修复效果显著,但只能修复脸部,头发、衣服、背景等无变化。 背景去除: 需要安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好之后重启,就有选项框。 测试时模型选第一个 u2net,直接点击生成。抠图效果不错但边缘轮廓可能有黑边,用时 2.86 秒。 去掉黑边可点击后面的 Alpha matting 调整参数,如 Erode size:6、Foreground threshold:143、Background threshold:187,就能得到无黑边图像。 点击按钮还可直接生成蒙版。有专门做服装抠图和动漫抠图的模型。 手部修复: 对于动漫人物手部修复,先在 3D 骨架模型编辑器中手动调整还原骨架,若为写实人物可使用 openpose 预处理器进行姿态检测。 来到深度图库,修改尺寸并载入骨架图,选择合适手势添加,可发送到 controlnet。 启用 controlnet 时选择相应预处理器,在图生图中进行手部局部重绘,绘制蒙版,可一只手一只手调整,之后在 ps 中使用“创成式填充”修补衔接区域。 SD 新手入门图文教程中的相关内容: 放大算法中,Latent 在许多情况下效果不错,但重绘幅度小于 0.5 效果不佳,ESRGAN_4x、SwinR 4x 对 0.5 以下重绘幅度支持较好。 Hires step 表示进行这一步时计算的步数。 Denoising strength 表现为生成图片对原始输入图像内容的变化程度,一般阈值 0.7 左右,超过 0.7 与原图基本无关,0.3 以下稍作修改。 面部修复可修复人物面部,但非写实风格人物开启可能导致面部崩坏。
2025-03-13
脸部修复
以下是关于脸部修复的相关内容: 在 Stable Diffusion 中,通常初始分辨率设为 512x512 以提高抽卡效率,但这样人脸易崩。确定人物姿态和构图后,可点击面部修复和高分辨率修复达到正常效果,但小图和大图存在差异,重绘幅度低无法修复细节错误,高则会导致人物发型、服装变化大。 GFPGAN 面部修复:其他参数不变,直接将 GFPGAN 参数拉到 1 即可。此功能只能修复脸部,头发、衣服、背景等无变化。 背景去除:需安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装好后重启,有选项框,模型选第一个 u2net 点击生成。抠图效果不错但有黑边,可通过点击 Alpha matting 调整参数(Erode size:6、Foreground threshold:143、Background threshold:187)去掉黑边,还能生成蒙版。有专门做服装和动漫抠图的模型。 脸部修复插件 After Detailer:安装方式可在扩展面板中搜索直接安装,或放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成重启 webUI 会出现插件面板。使用时在启用“After Detailer”前打勾,下拉菜单中有很多模型,分别针对 2D 人物的脸、手、全身和真实人物的脸部修复。选择真人脸部模型,关掉“面部修复”和“高分辨率修复”,保持 512x512 尺寸测试,人物脸部正常,细节精致。插件有正负提示词输入框,输入表情相关文字人物表情会改变,如输入“伤心、流泪”,但输入“带着墨镜”无变化,提示词仅针对表情。插件的第二单元和 controlnet 一样有多通道,将第二单元模型换成 hand 模型可修复手部,但效果有待改善,可结合 PS 蒙版处理。
2025-03-13
老照片修复
以下是关于老照片修复的相关内容: ComfyUI 老照片修复 Flux Controlnet Upscale: 以前的高清放大工作流复杂,新模型结合工作流只需十几个基础节点就能实现更好效果。 参数调节方面,一般先确认放大倍数,再根据图片调整 ControlNet 强度。 ControlNetUpscaler 放大模型是 Jasper 研究团队为低分辨率图像开发的,可与 diffusers 库一起使用,采用多种方式对真实图像进行人工退化训练,训练方式类似 Wang,Xintao 等人发表的文献中的方法,遵循 Flux.1dev 模型许可证范畴。 Flux Ultimator 能增加小细节,增强鲜艳色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。 ControlNet 传递的应是上传的原始图片。 【SD】用 AI 给老照片上色,岁月不改它模样: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。 对于复杂的老照片,可在 PS 中进行角度调整和裁切,若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型和简单关键词。 新上线的 controlnet 模型中,Recolor 模型可将黑白图片重新上色。 人物照片还原可选择 realisian 的写实大模型,用提示词描述颜色和内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-06
老旧照片修复
以下是关于用 AI 给老旧照片修复上色的详细步骤和方法: 1. 启用 MutiDiffusion 插件,在显存不够的情况下,仅使用分块渲染功能将图片放大到足够倍数。 2. 在 PS 里进行角度调整和照片裁切。 3. 对于人物照片还原,选择 realisian 的写实大模型,提示词直接描述颜色和对应内容。 4. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 5. 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 6. 把图片发送到图生图中,打开 stableSR 脚本,放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 7. 对于复杂的照片,如人物多、场景复杂、像素低的情况,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定颜色,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 作者为白马少年,发布时间为 2023 年 9 月 10 日 19:00,原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw 。
2025-03-06
老照片修复工具推荐
以下是一些老照片修复工具推荐: 视频放大工具: https://www.topazlabs.com/topazvideoai 百度网盘分享的 Topaz 全家桶:链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 ,提取码:16d1 ,复制这段内容打开「百度网盘 APP 即可获取」 Kraken.io:主要用于图像压缩,也提供免费的图像放大功能,能保证图像细节清晰度。 Deep Art Effects:强大的艺术效果编辑器,通过 AI 技术能将图像放大并赋予艺术效果,支持多种滤镜和风格。 RealESRGAN:https://replicate.com/nightmareai/realesrgan ,这是基于 RealESRGAN 的图像超分辨率增强模型,有人脸修复和可调节放大倍数选项,但使用几次要收费。 Photoshop Generative AI 功能:主要工具包括 Remove tool、Clone brush、Generative fill 以及 Neural filters,链接:https://x.com/xiaohuggg/status/1692751080973828468?s=46&t=F6BXooLyAyfvHbvr7Vw2g SD 图生图,重绘幅度小一点 图片放大工具: 本地工具放大:https://www.upscayl.org/download 开源工作流: 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn ,腾讯开源的模型,能恢复老照片,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 此外,将照片放入后期处理中,使用 GFPGAN 算法可将人脸变清晰,具体可参考文章—— 。
2025-03-05
用照片生成漫画
以下是关于用照片生成漫画的相关内容: 一、使用 MJ 生成照片漫画 1. 需求分析 用自己的图片、照片生成以照片人物为主体的运动员头像漫画。 2. 操作步骤 输入:使用 ChatGPT 完成对应工作,输入奥林匹克项目生成人物描述,并结合设定好的提示词。 ChatGPT 生成描述:添加中国人、中国运动服和项目场景描述,生成 MJ 画图的提示词。 MJ 绘图测试:测试 MJ 绘图提示词的稳定性,确定是否需要垫图等。 局部重绘:使用局部重绘,结合 cref 链接照片,调整 cw 参数。 二、OpenAI GPT4o 图像生成模型 1. 核心功能 先进的多模态模型,能生成精确、真实感强的图像,具有实际用途。 2. 亮点功能 精确的文本渲染,能在图像中准确生成文字。 多样化场景生成,支持从真实感到漫画风格等多种图像生成,可根据上传图像进行灵感转化或视觉改造,具有上下文感知能力。 3. 技术改进 联合训练在线图像和文本的分布,学会图像与语言及图像之间的关系,后期训练优化在视觉流畅性和一致性方面表现出色。 4. 实际应用场景 信息传递、创意设计、教育与演示等。 5. 局限性 存在某些场景或细节的限制,如偶尔会过于紧密地裁剪较长图像,多语言呈现不佳。 6. 访问和可用性 已集成到 ChatGPT 中,Plus、Pro、Team 和 Free 用户推出,Enterprise 和 Edu 即将访问。开发人员很快可通过 API 使用,图像渲染时间较长。 三、四格漫画 可生成四种风格的四格漫画,需简体中文描述,足够幽默有趣的故事。
2025-03-27
让老照片动起来
以下是关于让老照片动起来的相关信息: 2024 上海市杨浦区举办了“时光印记”AI 公益挑战赛,采集了 20 位老一辈建设者的老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图,重现其青春风采与城市贡献。奖项丰富,包括丰厚现金奖励、DOU+流量推广、即梦 AI 积分、歌歌 AI 会员、剪映 App 会员等,还有比赛证书、线下巡展等。报名及创作时间为即日起至 2024 年 11 月 20 日。活动组织包括上海市杨浦区民政局、跳跳糖星火公益社团、WaytoAGI、即梦 A、歌歌 Al 等。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s,评选规则为预选加专家评委多维度评选。参赛方式为报名问卷和进群获取素材。 体验让老照片动起来的工具: Dreamina 即梦:网址为 https://dreamina.jianying.com/aitool/home?subTab ,优点是不需要🪜,每天有免费额度,注册可用抖音号或手机号,注册时间 5min。上传图片后能让老照片有一些动态效果,比如水面动起来,但也可能出现画面扭曲的情况。 Sora:网址为 https://openai.com/sora ,优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用,花费时间 30 60min,价格为 GPT 4 20$一个月。
2025-03-26
照片涂抹替换
以下是关于照片涂抹替换的相关内容: 如果您运营网店且没有资金请模特,可使用 Stable Diffusion 来制作商品展示图。首先,真人穿好要卖的衣服并拍照,获取具有真实质感的照片。若身材方面有问题,可借助美图秀秀或 PS 处理。然后选好真人照片风格的 realisitic 底模,如 majicmixRealistic_v7。接着根据不同平台需求换头,如面向海外市场换白女头。在图生图下的局部重绘选项卡中,涂抹自己要替换的部分。 字节发布的新模型 SeedEdit 也能实现照片的修改。即使是真人图像,它也能 hold 住。例如可以通过输入 Prompt 指令让戴珍珠耳环的少女手里拿着一杯奶茶,给《老友记》中的瑞秋戴上时髦的墨镜,给奥黛丽・赫本更换帽子颜色,给黑白老照片上色,移除画中无关元素,进行元素替换以及切换各种风格,如涂鸦、乐高、3D、皮克斯、迪士尼等。 星流一站式 AI 设计工具中的顶部图像编辑工具具有多种功能: 换脸:自动替换原图的脸部信息。使用时选中图像进入扩展功能界面,自动提取面部信息,上传想要替换到图像的图片,选择与放大图像相对应的重绘风格可提升效果。 智能擦除:智能擦除能帮您擦除图片上的任意元素,并根据图片内容填充空白区域。使用时选中图像进入智能擦除功能界面,用套索或框选工具进行选区,点击擦除。 剪裁:裁剪可以将图片裁切成任意大小。使用时选中图像进入剪裁功能界面,拖动选区边界选择需要保留的部分,按下键盘 Enter 进行确认。
2025-03-26
照片转动漫的工具
以下为一些照片转动漫的工具及相关信息: 1. VIGGLE: 是一款创新的可控视频生成平台,基于 JST1 技术,允许用户自由创建和控制 3D 角色的动作,在游戏开发、动画制作及 VR/AR 等领域有巨大潜力。 Viggle AI 是利用骨骼动画将图片转化为一致性角色动画的工具,简化了动画制作流程。 体验地址:https://www.viggle.ai/ 官方 Discord:https://discord.gg/viggle 操作方式(以网页端举例): Upload a character image of any size.上传任意尺寸的角色图像。 For better results,use a fullbody photo with a clean background.为了获得更好的效果,请使用背景干净的全身照片。 Image size图像大小(最大 10MB) 您上传的照片必须符合社区规则。 2. 莱森: 利用一致性 MJ 出海马体写真的教程。 用醒图(英文版叫做 hypic)或者美图秀秀等 App 调整脸部,拖拖修图进度条就好了。 关注醒图【人像>面部重塑>面部>比例】,调整上庭、中庭、下庭。 在转绘部分,照片>Minecraft 风格幅度变化大时,若sw 风格权重拉满仍复制不了像素小人风格,可能是cw 太高,调低 cw 可能成功复制。 cref 和 sref 同时参考多张 url 时,上传同一个人不同角度的照片,容易使结果畸形。 若 MJ 直出的皮肤缺乏质感,可打开醒图【人像>手动美颜>皮肤肌理】。 若想快速调整光源,可试试 Luminar,可官方下载购买完整版,或在 macos 订阅 setapp 使用有基础功能的 Luminar 版本。 3. 个性: 操作: 复杂提示词,如:Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 不同照片生成,若对照片风格不满意可更换照片使用相同提示词重新生成。 其他调整,如觉得 Disney 风格太过卡通,可把提示词里的 Disney 换成 Pixar,若为女孩,可把 boy 换成 girl。每次生成 4 张图片,对某一张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击下方的 V1~V4 进行修改。
2025-03-19
怎么免费生成一张我需要的场景照片
以下是几种免费生成您需要的场景照片的方法: 1. 利用 MJ 应用: 构思适合画绘本的故事,将其分为多个场景,用包含环境、人物、动作的话描述每个场景。例如:故事名《Lily 的奇妙之旅》,场景 1 为“Lily 来到一个阳光明媚的森林,跳过清澈的小溪,愉快玩耍。在路上结识了一只友善的棕熊,她们成为了旅伴。” 为每个场景生成图片时,设置 prompt 包括场景和风格,如“Walking in a mysterious cave with glittering gems,little girl Lily wearing a yellow floral skirt,her friend brown bear,dim,dreamlike,super high details,HDsmooth,by Jon Burgerman,s 400niji 5style expressivear 3:4”。 若只需要场景图像,可使用 mj 的 region vary 工具将人物完全框选,删除人物描述词后重新生成。 2. 悠船的使用: 写好提示词,右上可下载对应图片。 进行参数调整,注意任何点击都会重新生成图片,免费用户可能会提示超出套餐。 常用的图片调整内容包括变化(幅度有细微和强烈之分)、高清(有“直接”和“创意”两种方式)、风格变化(基于生成的图片再创作)、拓展(上下左右拓展图片)、缩放(指镜头)、局部重绘(选择区域要大)。 可以使用垫图、参考风格和提示词配合生成符合要求的图片。 3. Stable Diffusion 的使用: 把觉得好看的照片导进去,如果是从 SD 下载下来的 PNG 格式照片,右边会自动弹出照片的信息,包括正面关键词、负面关键词等,复制这些信息到“文生图”页面的关键词文本框中,点击生成按钮下的第一个小按钮,SD 会自动分配信息,就能得到差不多的照片(前提是有一样的大模型和 Lora)。 如果导入照片后右边没有生成信息,可用“标签器(Tagger)”来生成照片的关键词。
2025-03-07