Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何使用stable diffusion 生成模特换装的工作流

Answer

Stable Diffusion 是一种强大的生成模型,常用于图像生成和修改任务。利用 Stable Diffusion 实现模特换装可以通过以下步骤和工作流程进行:

工作流程

  1. 准备环境

    • 确保你有合适的硬件配置,特别是具有高性能 GPU 的计算机。
    • 安装必要的软件和依赖项,如 Python、CUDA、PyTorch 等。
  2. 获取模型

    • 下载并安装 Stable Diffusion 模型。
    • 可以从 Hugging Face 的模型库中找到合适的预训练模型,也可以使用自己的数据进行微调。
  3. 数据准备

    • 模特图像:准备高质量的模特图像,确保背景简单以便后续处理。
    • 服装图像:收集或创建各种服装的图像,最好是带有透明背景的 PNG 格式。
  4. 图像预处理

    • 使用图像编辑工具(如 Photoshop 或 GIMP)将模特图像和服装图像裁剪成合适的大小和比例。
    • 如果需要,可以使用 OpenCV 或 PIL 进行自动化预处理。
  5. 定义输入格式

    • 将模特图像和服装图像输入 Stable Diffusion 模型的方式需要提前定义。
    • 典型输入包括模特的基本特征(如位置、姿态)和服装的特征(如颜色、纹理)。
  6. 生成换装图像

    • 使用 Stable Diffusion 模型,输入模特图像和服装图像,生成换装后的模特图像。
    • 可以调整生成参数(如扩散步数、采样方法)以获得最佳结果。
  7. 后处理

    • 对生成的图像进行后处理,如调整亮度、对比度,或者进一步修正细节。
    • 使用图像编辑工具或自动化脚本完成后处理步骤。
  8. 评估和优化

    • 评估生成图像的质量,根据需要进行微调或更改模型参数。
    • 可以使用人工评估或引入评价指标(如 FID、IS 分数)进行量化评估。

示例代码

以下是一个简化的 Python 示例代码,展示如何使用 Stable Diffusion 模型进行图像生成:

import torch
from transformers import StableDiffusionPipeline

# 加载模型
model_id = "CompVis/stable-diffusion-v1-4"
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16).to("cuda")

# 准备输入
prompt = "A model wearing a red dress standing on a white background"

# 生成图像
image = pipe(prompt).images[0]

# 保存图像
image.save("output.png")

工具和资源

  1. Hugging Face

    • 提供预训练的 Stable Diffusion 模型和相关文档。
    • 链接:Hugging Face
  2. OpenCV 和 PIL

    • 用于图像预处理和后处理。
    • 安装:pip install opencv-python pillow
  3. 图像编辑工具

    • 如 Photoshop 或 GIMP,用于手动处理图像。

提示

  • 硬件要求:高性能的 GPU 可以显著加快图像生成速度。
  • 数据质量:高质量的输入图像和精细的预处理可以提高生成图像的效果。
  • 参数调整:根据生成结果不断调整模型参数以获得最佳效果。
  • 模型微调:如果预训练模型不能完全满足需求,可以考虑使用自己的数据集进行微调。

通过这些步骤和工具,您可以使用 Stable Diffusion 模型生成模特换装的图像,创建高质量的视觉效果。

Content generated by AI large model, please carefully verify (powered by aily)

References

教程:超详细的Stable Diffusion教程

假如我现在有一张非常好看的照片,唯独我觉得她的衣服不好看,那我要怎么在不改变其它地方的情况下,给她换上更好看的衣服呢?这里用到的是图生图中局部重绘的功能,导入要调整的照片点击右边的画笔可以调整大小,把人物衣服部分全部涂黑接着输入关键词,先输入质量词(如:高质量,高清画质,8k等)然后描写一下你想要生成什么样的衣服比如我这里输入的就是:粉色汉服,精致的裙子,极具细节的服装负面关键词就直接复制我们前面用的点击生成就可以啦!同样的道理,我们还可以用这个功能来换脸,只是我们涂黑的部分就变成了脸,输入的关键词就是描写脸部、五官的单词。上面的方法用来换衣服只能整体去换,如果我想指定衣服的颜色就只能在关键词里面告诉SD要怎么调整假如现在我想指定服装的颜色,比如:蓝色的衣袖,粉色的衣服,还要有黄色的花纹这时候我们只靠关键词是不行的,出来的照片也不一定准确那我们就可以用到一个新的功能——“涂鸦重绘”导入照片之后,在右边调整画笔大小和颜色,然后就可以自己设计衣服的颜色啦

教程:超详细的Stable Diffusion教程

通过输入关键词,我们已经能够生成一张稍微好看一点的小姐姐的照片了,但是现在我想要生成5678张照片,而且我要出来的照片都是同一张脸,这怎么办呢?这时候我们就要用到Lora模型简单来说,Lora可以固定我们照片的特征:人物特征、动作特征、还有照片风格点击“生成”下面的的第三个按钮,就会弹出新的选项框找到Lora,就会出现我们下载保存到电脑的Lora模型点击我们要用的Lora,就会自动添加到关键词的文本框里面前面那四张照片用到的就是这三个Lora,由此可见,我们的Lora是可以叠加使用的但是建议新手不要使用太多lora,因为这样照片出问题了,你也不知道是哪个Lora有问题另外,Lora之间一样用英文逗号隔开每个Lora后面都有数字,这是用来调整这个Lora的权重的,正常情况下是1,我们一般只会去降低权重,因为增加权重照片可能就会变得奇奇怪怪每个Lora设置的权重不一样,出来的照片就会不一样想要生成一个好看的小姐姐,就要多去尝试不同的权重组合现在问题又来了,我们怎么选择Lora呢?这个问题就要回归到你最开始想要生成什么样的照片

我用Stable Diffusion做电商!

如果你要开淘宝网店,那么在淘宝网页上展示的商品就要漂亮精致,紧紧抓住消费者的心♥!我们可以借助AI作图工具,简单地代替请模特特地搞拍摄的过程啦!这里介绍很简单的利用AI绘画局部逐渐美化女装商品展示图的方法。我是运营网店的女装店主,我没有钱请模特了。。。我可以用stable diffusion来初步制作自己的展示商品!比如我这里要卖这个绿色的淑女裙。(左图)我尝试了直接拿真人穿的衣服抠出来生成,效果很不好。(右图)借鉴了一些视频和方法,我总结了一些我觉得实用性较高,也比较简单的步骤。我觉得局部重绘是比较合适和真实的方法。真人穿衣服拍照。拿到穿衣服的比较真实质感的照片。【如果是身材方面有点难处那就借助美图秀秀or ps吧】ok,比如我(不具有做模特资质的小美女)穿好了我卖的漂亮衣服摆好pose摆几张啦!选好底模!一定要是realistic的,真人照片风格的底模。我这里选的是很经典的majicmixRealistic_v7。换头,根据不同平台换头!比如面向海外市场的,就得换白女头吧。面向中老妇女的,换妈妈头。ok,我这里换白女头,比如我要放在亚马逊上卖。操作就是图生图下的局部重绘选项卡下涂抹自己替换的部分。prompts & parameters

Others are asking
Stable Diffusion从哪可以使用
以下是关于 Stable Diffusion 的使用途径: 1. 模型获取: 在分享的链接中,有部分常用的大模型。文章的第三部分会详细介绍更多模型的下载途径及模型存放位置。 您可以从上的推理代码。 2. 低配置电脑使用: 可以通过云平台,如“青椒云”来畅玩 SD。点击链接 http://account.qingjiaocloud.com/signup?inviteCode=R0JJ9CHY 下载。 云平台使用步骤: 点击链接,注册账号。 下载并安装后,登录账号。 点击右上角个人中心进行实名认证。 进行实名认证后回到主界面,点击新增云桌面,选“AIGC 尝鲜”,新注册有优惠券可免费试用。 点击“开机”按钮,稍等后点击“进入桌面”,进入桌面后可关闭弹出框。 点击“此电脑”,在 C 盘找到 SD 根目录,点击“A 启动器.exe”。 点击右下角“一键启动”进入 SD。 用完记得关机,避免持续计费。
2025-03-07
stable diffusion是免费还是收费
Stable Diffusion 是开源免费的。其具有以下特点和使用规则: 优势在于开源免费、可以本地化部署、创作自由度很高,但需要较好的电脑配置,尤其是显卡。 所有代码均在 GitHub 上公开,大家可以拷贝使用。 免费用于非商业用途:个人和组织可以免费将该模型用于非商业用途,包括科学研究。 免费用于商业用途(年收入高达 100 万美元):初创公司、中小型企业和创作者可以免费将该模型用于商业目的,只要其年总收入低于 100 万美元。对于年收入超过 100 万美元的组织,需联系相关方咨询企业许可证。
2025-03-05
Stable Diffusion 教程
以下是关于 Stable Diffusion 的教程: Stable Diffusion 是什么: 稳定扩散(Stable Diffusion)是一个 AI 自动生成图片的软件,通过输入文字就能生成对应的图片。 入门教程: 新人视频教程:https://waytoagi.feishu.cn/wiki/O5jEwgZIRiQ10xkqGOQcKtSBnSe 文字教程:https://zhuanlan.zhihu.com/p/622238031 模型网站: C 站SD 模型网站:https://civitai.com/ Liblibai模型+在线 SD:https://www.liblib.ai/ huggingface:https://huggingface.co/models?pipeline_tag=texttoimage&sort=trending 吐司站:https://tusiart.com/ 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 为什么要学 Stable Diffusion 及其强大之处: 学习 Stable Diffusion 非常简单,目的是花更少时间快速入门。 它可以生成真人 AI 美女、头像、壁纸,辅助绘画,还能用于恢复画质、室内设计等,有很多功能和应用场景。 希望以上内容对您有所帮助。
2025-03-04
Stable Diffusion 模型在哪
Stable Diffusion 模型可以从以下几个地方获取和存放: 1. 部分常用的大模型可以在分享的链接中获取,大家可以根据文件夹名称找到需要的模型。 2. 大多数模型可以在 Civitai(C 站)这个网站(https://civitai.com/)下载。下载方法如下: 科学上网(自行解决)。 点击右上角的筛选按钮,在框框里面找到自己需要的模型类型,如 Checkpoint=大模型、LoRA=Lora 等。 看照片,看到感兴趣的点进去,点击右边的“Download”保存到电脑本地。 3. 模型存放位置: 大模型:SD 根目录,即下载存放 SD 的那个文件夹。 Lora: VAE: 4. 如果不知道下载的模型是哪个类型,不知道要放到哪个文件夹,可以使用秋叶的模型解析工具(https://spell.novelai.dev/),把模型拖动到空白处,会自动弹出模型的信息。 另外,ComfyUI 存放路径:models/checkpoints/ 。
2025-03-04
本地部署stable-diffusion
以下是关于本地部署 Stable Diffusion 的详细步骤: 1. 准备工作: 电脑配置需能支持 SD 运行。 2. 下载整合包: 可以选择 B 站秋叶分享的整合包,链接:https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru 。 3. 安装整合包: 打开链接,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,避免 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次进入。 4. 启动和配置: 双击启动器,等待更新,接着点击左边第二个“高级选项”。 在显存优化里,根据自己电脑的显存选择(即查看的专用 GPU 内存)。 回到第一个一键启动,点击右下角的一键启动。 若出现报错,可回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 5. 注意事项: 并不是指定了显存优化量就一定不会超显存,在出图时如果启动了过多的优化项(如高清修复、人脸修复、过大模型)时,依然有超出显存导致出图失败的几率。 xFormers 能极大地改善内存消耗和速度,建议开启。 Stable Diffusion webui 的更新比较频繁,可根据需求在“版本管理”目录下更新。 同样地,也请注意插件的更新。在 webui 的“扩展”选项卡下,可以安装插件。点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。安装完毕后,需要重新启动用户界面。
2025-03-02
关于Stable Diffusion,个人本地附属,对机器的配置要求
Stable Diffusion 本地化部署对机器配置有一定要求: 1. 电脑系统:需为 Win10 或者 Win11,避免使用更低版本的系统。查看电脑系统的方法为在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 2. 电脑性能: 运行内存:8GB 以上。查看方法为鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里面找到“内存”,只要看图中划线的参数即可。8GB 勉强达到标准,16GB 可正常使用,32GB 能非常自由地使用。 显卡:需为英伟达(俗称 N 卡)的显卡,显卡内存 4GB 以上。查看方法为在任务管理器中先看右上角显卡的名字或型号,确认是 NVIDIA 后,再查看显存,4GB 显存可运行 SD,推荐 8GB 以上显存。 如果电脑配置不够,可选择云端部署(Mac 也推荐云端部署),或者先试试简单的无界 AI。
2025-02-27
comfyui flux 模特换衣服 的新手 教程
以下是关于 ComfyUI Flux 模特换衣服的新手教程: 工作流整体思路: 1. 生成适合服装的模特: 可以抽卡,抽到满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Reduxprompt 节点风格细节等级需注意(1=27×27 最强,14=1×1 最弱)。 2. 进行高精度的换装: 先进行预处理的工作,拼出来 mask。 重绘 mask 区域。 工作流解释: 1. 模特生成: 先生成与衣服匹配的模特,先不关注衣服的相似度,抽出满意的模特。 2. 服装高精度处理: mask 的处理:做两个工作,将模特身上的衣服分割出来,拼接出来对应模特与衣服合并后图片的遮罩。 提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装教程: 1. 在扩展面板中使用网址安装 Segment Anything,guthub 地址:https://github.com/continuerevolution/sdwebuisegmentanything 。重启之后安装 SAM 模型。 2. 在 github 上有三个 SAM 模型,由大到小分别是 vit_h,可根据情况选择,大部分选 vit_l 。将下载好的 SAM 模型放在指定路径。 3. 测试 SAM 模型效果,左键点击要保留的部分打上黑点,右键点击不要的部分打上红点,双击不需要的点可移除。 4. 预览分离结果,选择合适的蒙版进行服装替换等操作。 点开“展开蒙版设置”,设定蒙版扩展量,建议 30,然后点击发送到“重绘蒙版”。 5. 换衣步骤:在图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 6. 若出现衔接问题,可通过降低重绘幅度或添加 openpose 控制人物身体姿势。还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,自行试验选择效果好的。
2025-03-04
ai模特换服装生成视频
以下是为您提供的关于 AI 模特换服装生成视频的相关信息: 阿里巴巴开发了 ViViD 视频虚拟试穿技术,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 。 此外,目前在电商平台上已经有很多商品图片,特别是衣服的效果图是由 AI 生成的,AI 模特不需要像人一样辛苦换衣服和摆 Pose 。
2025-02-21
AI模特换装
以下是关于 AI 模特换装的相关信息: 字节发布的新模型 SeedEdit 可对图片进行编辑,包括模特服装颜色的更换。例如输入“Change the blue Nike tracksuit to black Nike tracksuit”,SeedEdit 能迅速响应并完成换装。 在达摩院中可以直接进行 AI 模特虚拟换装的测试,网址为:https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR ,其支持虚拟换装和姿态编辑。 AI 模特换装的应用广泛,在电商平台上,很多衣服的效果图已由 AI 生成,AI 模特无需像真人一样辛苦换装和摆姿势。
2025-02-21
我想学习通过衣服图片生成模特视频
以下是关于通过衣服图片生成模特视频的相关内容: 如果您要通过衣服图片生成模特视频,有以下两种方法可供参考: 方法一:使用 Stable Diffusion 1. 真人穿衣服拍照,并拿到穿衣服的真实质感照片。如果身材方面有难处,可以借助美图秀秀或 PS 进行处理。 2. 选好底模,一定要是 realistic 的真人照片风格底模,例如 majicmixRealistic_v7。 3. 根据不同平台换头,比如面向海外市场换白女头,面向中老妇女换妈妈头。 4. 在图生图下的局部重绘选项卡下涂抹自己替换的部分,并设置好 prompts 和 parameters,例如 breathtaking cinematic photo, masterpiece, best quality, , blonde hair, silver necklace, carrying a white bag, standing, full body, detailed face, big eyes, detailed hands 等。 方法二:使用即梦的智能参考功能 1. 打开即梦官网 https://jimeng.jianying.com/ 。 2. 选择图片生成。 3. 选择导入参考图(上传一张参考图,点击智能参考)。 模特图自由定制:智能参考可以让模特图的变装、换发型、换脸、换发色和调整人物姿势变得轻而易举。 产品图随心变化:可以改变产品材质,调整画面背景。 电商海报一键搞定:支持随意更改背景、元素,适应不同的营销主题。 希望以上内容对您有所帮助。
2025-02-04
请推荐一款,可以快速生成电商服装模特的ai工具
以下为您推荐几款可快速生成电商服装模特的 AI 工具: 1. Stable Diffusion:如果您要开淘宝网店,可借助它初步制作展示商品。比如卖绿色淑女裙,先真人穿衣服拍照,处理好照片,选好 realisitic 真人照片风格的底模,再根据不同平台换头,通过图生图下的局部重绘选项卡涂抹替换部分,并设置好 prompts&parameters。 2. ComfyUI:这个工作流适用于电商服饰行业的换装、虚拟试穿等场景。首先生成适合服装的模特,可抽卡抽到满意的模特,加入 Redux 模型,强度不用太高,让提示词生效。然后进行高精度的换装,先预处理拼出 mask,再重绘 mask 区域。 3. 达摩院:支持虚拟换装、姿态编辑,您可以直接在 https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR 进行测试。
2025-02-02
怎么用ai完成淘宝模特图片的批量修改,风格都是一致的
以下是使用 AI 完成淘宝模特图片批量修改且风格一致的方法: 1. 利用 Stable Diffusion 进行局部重绘: 真人穿衣服拍照,获取真实质感的照片。若身材方面有问题,可借助美图秀秀或 PS 处理。 选好真人照片风格的底模,如 majicmixRealistic_v7。 根据不同平台需求换头,如面向海外市场换白女头。 在图生图下的局部重绘选项卡下涂抹自己替换的部分,并设置好 prompts 和 parameters。 2. 大淘宝设计部的实践: 对于定制化真人模特实景素材的主题活动,通过 AI 可将策划、搭建、拍摄、设计融为一个闭环流程,短时间内完成页面所有素材的生产和输出。 在 UI 设计场景中,采用 AI 能力可快速定制多种视觉效果,通过 SD 中 controlnet 的有效控制,生成指定范围内的 ICON、界面皮肤等内容。 通过对 AI 大模型的训练和应用,算法从模特姿态、背景风格、装饰元素等多个维度进行效果升级,结合用户数据提供定制化的线上真人化模特体验。 一张商品图,结合用户的自定义输入,可生成多张场景效果,无需 3D 模型、显卡渲染和线下拍摄。 此外,字节发布的新模型 SeedEdit 也可用于图片编辑,每次编辑尽量使用单指令,多指令最好少于 3 种变化。为保证效果,局部编辑时下指令要精准,参考图要清晰、分辨率高。若编辑效果不明显或变化过多,可调整编辑强度。
2025-01-21
抠图换装
以下是关于抠图换装的相关内容: 在 SD 中,画蒙版存在一定难度。在 SD 里用鼠标涂画笔工具少且不稳定,精确绘制困难;在 PS 里画蒙版虽简单但流程麻烦,需不停导入导出图片且有人可能不会 PS。 对于大多数人,能在一个软件解决就不开第二个。基于此,介绍 SD 中的抠图神器 Segment Anything,它是基于深度学习算法的图像分割工具,能将图像像素分配到对应区域,实现精准边缘识别,自动检测提高分割效率。 另外,GFPGAN 可进行面部修复,找一张模糊人像,将其参数拉到 1 即可。背景去除需安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装重启后有选项框,测试抠图效果不错但有黑边,可通过点击 Alpha matting 调整参数如 Erode size:6、Foreground threshold:143、Background threshold:187 去掉黑边,还能直接生成蒙版。此外,还有专门做服装抠图的模型,方便换装处理,也有专门给动漫抠图的模型。 在 MJ 应用中,提到做一些秀气女性角色时,style expressive/style cute 有一定效果。出图靠量累积,实现基本统一画风后可进一步抠图换底。非人生物的 OC 出图成功率低,如 2 号机器人生成方便,3 号神秘人难做,可先绘制符合部分要求的图像再局部重绘。7 号泰迪熊先生同理,MJ 出的泰迪熊多为全身像,可扩展出身体。
2025-03-03
ai 换装怎么换职业妆照
以下是关于 AI 换装换职业妆照的步骤: 1. 来到图生图中,若图片已进入“上传重绘蒙版”但因 bug 看不见,错误时可手动保存蒙版。 2. 进行换衣步骤,提示词输入“蓝色毛衣”,将蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度设为 1。但由于蒙版区域较大,AI 填写内容时可能出现与之前的手衔接不上的问题。 3. 可通过降低重绘幅度或添加 openpose 来控制人物身体,得到正确姿势。 4. 除图生图的局部重绘外,还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,具体使用哪个可自行试验选择效果好的。
2025-02-27
换装
以下是关于 AI 换装的相关知识: 【SD】商业换装如此简单,Segment Anything 保姆级教学 如果在使用过程中发生错误,可能需要部署使用环境,傻瓜安装教学模式如下: 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。若安装过 roop 可跳过此步骤。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 此软件最大的作用是帮助快速高效生成蒙版,从而进行人物的换装或者图片中元素的替换。若想获取插件安装包,可添加公众号【白马与少年】,回复【SD】。 ComfyUI 换装服饰一致性 此工作流可用于电商服饰行业、换装、虚拟试穿等场景,在提升效果的同时简化了工作流,没有繁琐的依赖和环境,更多使用了原生的节点。 工作流的整体思路是: 首先,生成适合服装的模特。很多时候换装效果不好、有违和感是因为服装和人物不匹配,所以要先抽卡抽到满意的模特,可加入 Redux 模型,强度不用太高,让提示词生效。 第二步,开始进行高精度的换装。先进行预处理的工作,拼出来 mask,然后重绘 mask 区域。 高精度换装前的准备: 1. 将模特身上的衣服分割出来。 2. 拼接出来对应模特与衣服合并后图片的遮罩。 使用的是 Flux 的 fill 模型,提示词书写的格式为:这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装如此简单,Segment Anything 中 GroundingDINO 模型分割 有时需要更精确的蒙版,如人物的眼睛或身上的配饰等,单靠 SAM 模型很难得到想要的蒙版,此时需要使用 GroundingDINO。 启用 GroundingDINO,AI 会自动下载模型,若无法下载可去云盘直接下载,放到特定文件目录下。在检测提示词中输入“eye”,AI 可根据语义分割自动检测出眼睛部分,并设置好蒙版。还可通过预览箱体得到眼睛编号,选择调整单一眼睛。 例如,只想调整左边眼睛,勾选 1 即可。选择想要修改的蒙版,上传到重绘蒙版当中,添加提示词“闭眼”并生成。还可给人物换背景,加载生成的背景蒙版,大模型选择 revAnimated_v122,正向提示词:简单背景、花、国画、工笔。蒙版模式选择“重绘非蒙版内容”。若头发部分没抠好,可放入图生图中使用 tile 模型做整体细化,还能给人物衣服添加国风元素。最后可到 PS 使用创成式填充修复头发。
2025-01-14
换装
以下是关于 AI 换装的相关知识: 【SD】商业换装如此简单,Segment Anything 保姆级教学 如果在使用过程中发生错误,可能需要部署使用环境,傻瓜安装教学模式如下: 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。若安装过 roop 可跳过此步骤。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 这个软件最大的作用,就是帮助我们快速高效地生成蒙版,从而进行人物的换装或者图片中元素的替换。若想获取插件安装包,可以添加公众号【白马与少年】,回复【SD】。 ComfyUI 换装服饰一致性 此工作流可用于电商服饰行业、换装、虚拟试穿等场景,在提升效果的同时简化了工作流,没有繁琐的依赖和环境,更多使用了原生的节点。 工作流的整体思路是: 首先,生成适合服装的模特。很多时候换装效果不好、有违和感是因为服装和人物不匹配,所以要先抽卡抽到满意的模特,再进入第二步。 第二步,开始进行高精度的换装。先进行预处理的工作,拼出来 mask,然后重绘 mask 区域。 模特生成:先生成与衣服匹配的模特,这里可以先不关注衣服的相似度,先抽出满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Reduxprompt 节点风格细节等级(1=27×27 最强,14=1×1 最弱)。 服装高精度处理: mask 的处理:高精度换装前要做两个工作,一是将模特身上的衣服分割出来,二是拼接出来对应模特与衣服合并后图片的遮罩。 提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里把权重调整为最大,就可以对 mask 位置的服装进行进一步处理,还原原来的服装细节并得到需要的模特。 【SD】商业换装如此简单,Segment Anything 中 GroundingDINO 模型分割 有时需要更精确的蒙版,如人物的眼睛或身上的配饰等,单靠 SAM 模型难以得到想要的蒙版,此时需要使用 GroundingDINO。启用 GroundingDINO,AI 会自动下载模型,若没有魔法可去云盘直接下载,放到特定文件目录下。在检测提示词中输入“eye”,AI 可根据语义分割自动检测出眼睛部分并设置好蒙版,还可通过预览箱体得到眼睛编号,选择调整单一眼睛。选择想要修改的蒙版,上传到重绘蒙版中,添加提示词生成图片。还可给人物换背景,加载生成的背景蒙版,选择大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”。若头发部分没抠好,可放入图生图中细化,再用 PS 创成式填充修复头发。
2025-01-10
ai换装,目前主流工具有哪些
目前主流的 AI 换装工具包括:InterAlia(https://interalia.vcflab.org/)。需要注意的是,虽然底层都是大模型,但 AI 工具各有侧重,不同公司也会进行各自的优化。关于每一种工具的详细入门、讲解和应用,WayToAIG 已经分好了类目。
2025-01-02