Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

sd 人物的模样及服装等统一

Answer

以下是关于人物模样及服装的 SD 关键词描述:

  • 人物类型:肌肉公主、舞者、啦啦队等。
  • 性别:单人,包括女人和男人。
  • 身体特征:有光泽的皮肤、苍白皮肤、白皙皮肤等。
  • 头发样式:直发、卷发、波浪卷等。
  • 头发颜色:挑染、内层挑染、头发内变色等。
  • 头发长度:长发、很短的头发、短发等。
  • 具体人物:初音未来、绫波(碧蓝航线)、比那名居天子、蛮啾(碧蓝航线)、爱宕、时崎狂三、洛琪希、西住美穗、星街彗星、时雨、蒂法·洛克哈特、中野一花、南达科他州(碧蓝航线)、白上吹雪、白井黑子、岛风等。
  • 发型特点:身前,单侧编发,人妻发型;挑染,条纹发色;短碎发等。
  • 面部特征:死鱼眼、晒痕、眼睛发光、垂耳(狗)等。
Content generated by AI large model, please carefully verify (powered by aily)

References

SD关键词

|肌肉_princess_dancer_cheerleader|肌肉_公主_舞者_啦啦队|性别_solo_female_male|性别_单人_女人_男人|身体_shiny_skin_pale_skin_fair_skin|身体_有光泽的皮肤_苍白皮肤_白皙皮肤|头发样式_straight_hair_curly_hair|头发样式_直发_卷发_波浪卷|头发颜色_streaked_hair_xx_colored_inner_hair_xx_and_xx_hair|头发颜色_挑染_内层挑染_头发内变色|头发长度_long_hair_very_short_hair _short_hair |头发长度_长发_很短的头发_短发|hatsune_miku_saber|翻译1_初音未来_saber|人物名称2_ayanami_(azur_lane)_hinanawi_tenshi|翻译2_绫波(碧蓝航线)_[比那名居天子](http://www.baidu.com/link?url=DTB-VLskf-_AYaa_jVCViGc1lmBfIkRD6K1F94DBELz2aqXmas9nX_abBrb2AC_4Hz-lTO6CZ2jw56xFmCLnka)|manjuu_(azur_lane)_atago_(azur_lane)|蛮啾(碧蓝航线)_爱宕|tokisaki_kurumi_mushoku_tensei,_roxy_migurdia|时崎狂三_洛琪希|实际组合_身前,单侧编发,人妻发型?|挑染,条纹发色|短碎发|死鱼眼|晒痕|眼睛发光|垂耳(狗)|Option 1_||-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-||||||||||||||nishizumi_miho|西住美穗|hoshimachi_suisei|[星街彗星](http://www.baidu.com/link?url=9PKD0tz9ciaLuMeh_nY2Y_O3P1Ss5dUb5gbDai67AFEabvL75CyXPh3mo613dkY5JjsNWXKpjefdpiTxgHx8cWuU7WubSL8X5DFMRiABVZW)|shigure_(azur_lane)|时雨|||||||||||

SD关键词

|肌肉_princess_dancer_cheerleader|肌肉_公主_舞者_啦啦队|性别_solo_female_male|性别_单人_女人_男人|身体_shiny_skin_pale_skin_fair_skin|身体_有光泽的皮肤_苍白皮肤_白皙皮肤|头发样式_straight_hair_curly_hair|头发样式_直发_卷发_波浪卷|头发颜色_streaked_hair_xx_colored_inner_hair_xx_and_xx_hair|头发颜色_挑染_内层挑染_头发内变色|头发长度_long_hair_very_short_hair _short_hair |头发长度_长发_很短的头发_短发|hatsune_miku_saber|翻译1_初音未来_saber|人物名称2_ayanami_(azur_lane)_hinanawi_tenshi|翻译2_绫波(碧蓝航线)_[比那名居天子](http://www.baidu.com/link?url=DTB-VLskf-_AYaa_jVCViGc1lmBfIkRD6K1F94DBELz2aqXmas9nX_abBrb2AC_4Hz-lTO6CZ2jw56xFmCLnka)|manjuu_(azur_lane)_atago_(azur_lane)|蛮啾(碧蓝航线)_爱宕|tokisaki_kurumi_mushoku_tensei,_roxy_migurdia|时崎狂三_洛琪希|实际组合_身前,单侧编发,人妻发型?|挑染,条纹发色|短碎发|死鱼眼|晒痕|眼睛发光|垂耳(狗)|Option 1_||-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-||||||||||||||tifa_lockhart|蒂法·洛克哈特|nakano_ichika|中野一花|south_dakota_(azur_lane)|南达科他州|||||||||||

SD关键词

|肌肉_princess_dancer_cheerleader|肌肉_公主_舞者_啦啦队|性别_solo_female_male|性别_单人_女人_男人|身体_shiny_skin_pale_skin_fair_skin|身体_有光泽的皮肤_苍白皮肤_白皙皮肤|头发样式_straight_hair_curly_hair|头发样式_直发_卷发_波浪卷|头发颜色_streaked_hair_xx_colored_inner_hair_xx_and_xx_hair|头发颜色_挑染_内层挑染_头发内变色|头发长度_long_hair_very_short_hair _short_hair |头发长度_长发_很短的头发_短发|hatsune_miku_saber|翻译1_初音未来_saber|人物名称2_ayanami_(azur_lane)_hinanawi_tenshi|翻译2_绫波(碧蓝航线)_[比那名居天子](http://www.baidu.com/link?url=DTB-VLskf-_AYaa_jVCViGc1lmBfIkRD6K1F94DBELz2aqXmas9nX_abBrb2AC_4Hz-lTO6CZ2jw56xFmCLnka)|manjuu_(azur_lane)_atago_(azur_lane)|蛮啾(碧蓝航线)_爱宕|tokisaki_kurumi_mushoku_tensei,_roxy_migurdia|时崎狂三_洛琪希|实际组合_身前,单侧编发,人妻发型?|挑染,条纹发色|短碎发|死鱼眼|晒痕|眼睛发光|垂耳(狗)|Option 1_||-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-||||||||||||||shirakami_fubuki|白上吹雪|shirai_kuroko|白井黑子|shimakaze_(azur_lane)|岛风|||||||||||

Others are asking
开源模型的MIT模式、Apache、GPL、BSD模式的模型案例有哪些?
目前开源模型的 MIT 模式、Apache、GPL、BSD 模式的具体案例众多且不断更新。MIT 模式的开源模型如 TensorFlow Lite;Apache 模式的有 MXNet;GPL 模式的像 Gnuplot;BSD 模式的例如 OpenCV 等。但请注意,这只是其中的一部分,实际情况可能会有所变化。
2025-02-14
开源模型的MIT模式、Apache、GPL、BSD模式的定义和区别
MIT 模式:这是一种相对宽松的开源许可模式。允许使用者对软件进行修改、再发布,并且几乎没有限制,只要求在再发布时保留原版权声明和许可声明。 Apache 模式:提供了较为宽松的使用条件,允许修改和再发布代码,但要求在修改后的文件中明确注明修改信息。同时,还包含一些专利相关的条款。 GPL 模式:具有较强的传染性和约束性。如果基于 GPL 许可的代码进行修改和再发布,修改后的代码也必须以 GPL 许可发布,以保证代码的开源性和可共享性。 BSD 模式:也是一种较为宽松的许可模式,允许使用者自由地修改和再发布代码,通常只要求保留原版权声明。 总的来说,这些开源许可模式在对使用者的限制和要求上有所不同,您在选择使用开源模型时,需要根据具体需求和项目情况来确定适合的许可模式。
2025-02-14
可以不学sd而是直接学comfyui
学习 ComfyUI 而不先学习 SD 是可行的。ComfyUI 具有一些独特的优势,例如更接近 SD 的底层工作原理,能够实现自动化工作流以消灭重复性工作,作为强大的可视化后端工具还能实现 SD 之外的功能,如调用 API 等,并且可根据定制需求开发节点或模块。 比如,有人基于 ComfyUI 中的创建了工作流,不仅能用于绿幕素材的抠图,还能自动生成定制需求的抠图素材,全程只需几秒。 在电脑硬件方面,使用 ComfyUI 时,系统要求 Windows7 以上,显卡要求 NVDIA 独立显卡且显存至少 4G 起步,硬盘需留有至少 100G 空间(包括模型)。但 mac 系统、AMD 显卡、低显卡的情况也能安装使用,只是功能不全、出错率偏高,严重影响使用体验,建议升级设备或采用云服务器。
2025-02-08
除了SD,有哪些方便快捷的网站可以用的?
以下是一些方便快捷的 AI 相关网站: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/ 3. 哩布哩布 AI:其在线 SD 界面和本地部署界面区别不大,每天有一百次生成次数,且已集成最新的 SDXL 模型。 4. Clipdrop:https://clipdrop.co/stablediffusion ,和 midjourney 的使用方法相似,每天免费 400 张图片,需排队,出四张图约二三十秒。 此外,还有一些 AI 视频相关的网站: 1. SVD:https://stablevideo.com/ ,对于景观更好用。 2. Morph Studio:https://app.morphstudio.com/ ,还在内测。 3. Heygen:https://www.heygen.com/ ,数字人/对口型。 4. Kaiber:https://kaiber.ai/ 5. Moonvalley:https://moonvalley.ai/ 6. Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 7. 美图旗下:https://www.miraclevision.com/ 8. Neverends:https://neverends.life/create ,操作傻瓜。 9. Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 10. Krea:https://www.krea.ai/ 11. Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 12. Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 13. invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 14. descript:https://www.descript.com/?ref=feizhuke.com 15. veed.io:https://www.veed.io/ ,自动翻译自动字幕。 16. clipchamp:https://app.clipchamp.com/ 17. typeframes:https://www.revid.ai/?ref=aibot.cn
2025-02-04
SD曝显存
在使用 SD 进行超大尺寸绘制时,直接调分辨率绘制超高分辨率的图片(如 10000x768 的清明上河图)通常会爆显存。正常尺寸设置最高到 2048,无法直接设置 10000 的宽度。解决方法是先在 PS 中设置所需尺寸的画布并保存为 jpg 图片,然后将图片放入 ControlNet 中,点击右下角箭头将尺寸信息发送到生成设置,填入正反向提示词,并启用 Tiled Diffusion 插件(方案选择 Mixture of Diffusers)防止接缝产生。 在 ComfyUI 中,模型的安装部署方面,FLUX 模型建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8,模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8 降低显存使用量,但可能稍降质量。clip 模型(t5xxl_fp16.safetensors 和 clip_l.safetensors)放在 ComfyUI/models/clip/文件夹,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率。Vae 模型下载后放入 ComfyUI/models/vae 文件夹。 在生成过程中,ComfyUI 处理 SDXL 模型比 webUI 更有效率。例如,ComfyUI 生成过程中显存占用率为 7 9GB,每次生成耗时 13 15s;webUI 显存占用率为 8 11GB,每次生成耗时 25s。此外,还可对 SDXL 进行风格控制,添加【新建节点】【实用工具】【SDXL Promot Styler Advanced】节点,通过右键增加输入点将文本提示词赋予 base 和 refiner 并切换风格。
2025-02-02
sd 的imagebrowser在哪下载
Stable Diffusion 的 ImageBrowser 插件可以通过以下方式下载: 因为该插件还没有收录到官方的插件列表当中,您可以到这个网址去下载:https://github.com/hnmr293/sdwebuicutoff ,或者是去作者的云盘链接下载。安装之后重启,就可以看到这个插件。 另外,大多数的模型都是在 Civitai(C 站)这个网站里面下载,网址为:https://civitai.com/ 。使用 C 站时需要科学上网,点击右上角的筛选按钮,在框框里面找到自己需要的模型类型。下载的模型保存位置如下: 大模型:存放在 SD 根目录的【……\\models\\Stablediffusion】文件夹。 Lora:存放在根目录下的相应文件夹。 VAE:存放在根目录的【……\\models\\VAE】文件夹。 如果不会科学上网,也可以去启动器的界面直接下载模型。下载的 Embedding 可以在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2025-01-23
生图后,人物的模样及服装等统一,用哪一款
在保持人物模样及服装等统一方面,如果使用 Midjourney ,有以下相关信息: 1. Midjourney 有新功能 Cref ,可以先跑一张主角的定妆照,在需要出现主角人物的地方,扔进去 Cref 以保持发型、人脸、衣服。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,比对欧美的人脸的一致性效果差,年轻人的效果相对较好,亚洲老人的效果惨不忍睹。而且 Cref 的效果在画面的审美和构图上有一定的破坏性,所以原则上能不用 Cref 就不用,比如只有背影的时候,写个短发男人黑卫衣就可以。 2. 对于人物一致性,还有两个取巧的方式,一个是生成动物,动物会比较容易保持一致性,另一个方式是特定的名人或有特殊属性的人物。 3. 在使用 Cref 时,您可以在提示词后添加 cref URL 并附上人物图像的 URL ,还可以使用 cw 来修改参考强度,强度 100(cw 100)为默认值,会使用人物的脸、头发和衣服,强度 0(cw 0)时则只关注脸(适合改变服装或发型等)。Cref 不仅适用于 Niji 和普通的 Midjourney 模型,还可以与 sref 结合使用。在网页版 alpha 中,您可以通过拖拽或粘贴图像到想象栏,选择相应图标来设置图像为图像提示、风格参考或人物参考,Shift + 选择一个选项可以将一张图像用于多个类别。
2024-10-10
请推荐一款,可以快速生成电商服装模特的ai工具
以下为您推荐几款可快速生成电商服装模特的 AI 工具: 1. Stable Diffusion:如果您要开淘宝网店,可借助它初步制作展示商品。比如卖绿色淑女裙,先真人穿衣服拍照,处理好照片,选好 realisitic 真人照片风格的底模,再根据不同平台换头,通过图生图下的局部重绘选项卡涂抹替换部分,并设置好 prompts&parameters。 2. ComfyUI:这个工作流适用于电商服饰行业的换装、虚拟试穿等场景。首先生成适合服装的模特,可抽卡抽到满意的模特,加入 Redux 模型,强度不用太高,让提示词生效。然后进行高精度的换装,先预处理拼出 mask,再重绘 mask 区域。 3. 达摩院:支持虚拟换装、姿态编辑,您可以直接在 https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR 进行测试。
2025-02-02
服装设计用什么AI
在服装设计领域,以下 AI 工具和应用较为常见: 1. DALLE 2:Stitch Fix 服装公司使用它根据客户对颜色、面料和款式的偏好创建服装可视化。 2. Midjourney:在“海岱青州”晚会项目中,服装部门利用它为本地神兽“峱”生成最终演出服的设定图。 3. AIGC:可用于基于 AIGC 的服装概念设计。
2025-01-09
服装设计用什么AI
在服装设计领域,以下 AI 工具和应用较为常见: 1. DALLE 2 等图像生成工具:如服装公司 Stitch Fix 用其根据客户对颜色、面料和款式的偏好创建服装可视化。 2. Midjourney:在“海岱青州”晚会项目中,服装部门利用 Midjourney 为本地神兽“峱”生成最终演出服的设定图。 3. AIGC:基于 AIGC 可以进行服装概念设计,它正在逐步改变服装行业。
2025-01-08
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
ai生成服装模特视频
以下是一些与生成服装模特视频相关的 AI 技术和应用: 1. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 2. 生成式人工智能在营销中的应用:Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 此外,还有一些其他相关的 AI 技术,如: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画,Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。相关链接:GitHub:https://github.com/novitalabs/AnimateAnyone ;API:https://novita.ai/playgroundanimateanyone ;https://x.com/imxiaohu/status/1796191458052944072 2. 音频生成方面,有 Udio130 音乐生成模型,能生成 2 分钟的音频,提升曲目连贯性和结构,新增高级控制功能。相关链接:详细:https://xiaohu.ai/p/8738 ;https://x.com/imxiaohu/status/1795999902830629249 3. 代码生成方面,有 Mistral AI 推出的 Codestral 代码生成模型,支持 80 多种编程语言,包括 Python、Java、C 等,能自动完成代码、编写测试,并能填补未完成的代码部分,拥有 32k 上下文窗口,在多项基准测试中表现出色。相关链接:详细:https://mistral.ai/news/codestral/ ;https://x.com/imxiaohu/status/1795987350713192937 4. 音乐演示方面,有 Suno 音乐演示,新视频展示从任何声音创作歌曲。相关链接:https://x.com/imxiaohu/status/1795976717905043467
2025-01-06
ai生成服装模特图的工具
以下是一些可以生成服装模特图的工具: 1. DALLE 2:已被用于广告,如亨氏、雀巢、Stitch Fix 等公司的相关应用。Stitch Fix 正在尝试使用它根据客户对颜色、面料和款式的偏好创建服装可视化。 2. 可以使用万能固定句式来生成服装模特图,如“「主题」+「风格」+「材质」+「元素」+「玄学佐料」”,并通过具体的示例和咒语关键词来实现,如“Chinese dress”。 3. TryOffDiff:能够逆向打造服装图片,将衣服从照片中“摘取”生成标准化服装图,保留图案、褶皱、徽标等精细细节,适用于商品目录制作及电商平台服装展示需求。详细介绍:
2025-01-06
音频驱动视频人物口型
以下是关于音频驱动视频人物口型的相关信息: PixVerse V3 : 本次更新内容丰富,包括已有能力升级,提供更精准的提示词理解能力和更惊艳的视频动态效果。 支持多种视频比例,如 16:9、9:16、3:4、4:3、1:1。 Style风格化功能重新回归升级,支持动漫、现实、粘土和 3D 四种风格选择,同时支持文生视频和图生视频的风格化。 全新上线了 Lipsync 功能,在生成的视频基础上,允许用户输入文案或上传音频文件,PixVerse 会自动根据文案或音频文件内容,对视频中的人物口型进行适配。 还有 Effect 功能,提供 8 个创意效果,包括变身僵尸、巫师帽、怪兽入侵等万圣节主题模板,一键实现创意构思。并且 Extend 功能支持将生成的视频再延长 5 8 秒,且支持控制延长部分的内容。 字节跳动开源的 LatentSync : 是精准唇形同步工具,能够自动根据音频调整角色嘴型,实现精准口型同步,无需复杂中间步骤。 提出“时间对齐”技术,解决画面跳动或不一致问题,效果显著。 具有开箱即用的特点,预训练模型加持,操作简单,支持高度定制化训练。 GitHub 链接:https://github.com/bytedance/LatentSync 论文链接:https://arxiv.org/pdf/2412.09262
2025-02-16
基于参考图片人物形象生成指定迪士尼风格的图片
以下是关于基于参考图片人物形象生成指定迪士尼风格图片的相关内容: 在 Midjourney 中,生成指定迪士尼风格的图片可以通过以下方式: 1. 角色参考(cref):cref 的功能是保持图像角色的一致性。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref):sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果想引用一张图,但只是把它作为新图的一部分,可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。 生成一张 Disney 风格的头像的具体步骤如下: 1. 选一张比较满意的图片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,然后点击上传文件,选取图片,然后在聊天框发送(记得点击回车或发送按钮)。 2. 图片会上传到服务器并生成一张唯一的链接,点击图片,然后点击在浏览器中打开,然后可以看到浏览器上方有一个链接,复制下来。 3. 使用这个链接加 prompt 提示词来发送给 Midjourney,Midjourney 会根据需求生成特定的图片,这就是 Midjourney 的以图绘图。 此外,在生成 3D 效果图时,如生成可爱的拟人小鹿角色,可以在即梦图片生成界面中导入参考图,参考选项为参考轮廓边缘,生图模型选择 图片 2.0,输入包含角色、细节描述、场景、风格材质等的提示词,生成图片。
2025-02-12
文生图人物一致性
以下是关于文生图人物一致性的相关内容: 在使用 ControlNet 进行文生图时,首先进入文生图界面填写提示词生成一张图。然后将图片拖入 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。在没有明确指向性提示词的情况下,人物形象能保持一致,但表情、动作、服装会有随机不同程度的变化。可以通过添加关键词来给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等,例如添加“红裙子”“黑色校服、哭泣”“抱手、生气”“在花丛中奔跑、开心”“红色棒球帽,时尚卫衣,在商场逛街”。通过一系列测试,这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。 另外,在 PIKA1.0 新模型中,人的一致性已经逆天,再加上其强大的语义理解和大幅度的动作,在文生图方面表现出色。
2025-02-11
多人物场景,人物一致性如何保证
在多人物场景中保证人物一致性可以参考以下方法: 1. 在使用 Midjourney 出图时,多角色情况下,放弃参考角色(cref 提示),只用参考风格(sref 提示)。这样的好处是不会出现奇怪的组合,坏处是出图较随机。 2. 多用局部重绘,虽然具有随机性,但多试几次能得到一致性较好的图。 3. 出图时先只出一个主要角色和场景。当出现多角色场景时,把其他角色抠图粘贴过来。比如老虎向兔子认错的场景,若兔子和老虎不一致,可先出稳定的老虎,再粘贴兔子以保证一致性。 4. 按照“三个确定”的 SOP 处理: 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。 确定前后图的构图风格:出第二张图时,将第二张图提示词描述后加入第一张图的构图风格(iw 参数)。 确定图片角色一致性:在保证构图风格没问题的基础上,保证人物一致性。先保证构图再确认角色一致性,因为 MJ 在重绘时,将角色在镜头中的位置挪动处理较难,固定位置重绘局部内容相对容易,若先保证人物内容,会很依赖 MJ 抽卡,随机性大。
2025-02-10
请推荐一下你知道的人物头像转卡通图的平台,要求效果好,和原图相似度高,最好是免费的
以下为一些人物头像转卡通图效果好、与原图相似度高且可能免费的平台及相关操作技巧: 1. Stable Diffusion: 可以使用【X/Y/Z plot】脚本来做参数对比,将 X 轴设置为提示词相关性(取值范围 1 30,每次增加 5),Y 轴设置为重绘幅度(取值范围 0 1,每次增加 0.2)。 提示词相关性在 6 11 中间为最佳,重绘幅度 0.4 时和原图比较接近。 可使用绘图功能,如增加红色眼镜、去掉衣服图案等,局部重绘可只改变涂抹部分。 2. 复杂提示词: 如 Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 。 可根据需求调整提示词,如将 Disney 换成 Pixar,boy 换成 girl 等。 3. 通用人物模版: 用真人照片+照片描述+方法 1 的关键词来处理。 需要注意的是,不同平台的效果可能因图片和操作而有所差异,您可以自行尝试。
2025-02-06
我想把黑白老照片修复成彩色,然后给人物换衣服。请问哪个AI网站或者软件可以免费使用
以下为您介绍可免费使用的将黑白老照片修复成彩色并给人物换衣服的方法: 使用 Stable Diffusion 可以实现此需求。在新上线的 controlnet 模型中,新增的 Recolor 模型能将黑白图片重新上色。操作时选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰,可参考文章——。 之后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-02-04