Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

换装

Answer

以下是关于 AI 换装的相关知识:

【SD】商业换装如此简单,Segment Anything 保姆级教学

如果在使用过程中发生错误,可能需要部署使用环境,傻瓜安装教学模式如下:

  1. 安装 cuda_11.8.0_522.06_windows.exe。
  2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。若安装过 roop 可跳过此步骤。
  3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。
  4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。
  5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。
  6. 重启,装好了,重启电脑,即可运行。

这个软件最大的作用,就是帮助我们快速高效地生成蒙版,从而进行人物的换装或者图片中元素的替换。若想获取插件安装包,可以添加公众号【白马与少年】,回复【SD】。

ComfyUI 换装服饰一致性

此工作流可用于电商服饰行业、换装、虚拟试穿等场景,在提升效果的同时简化了工作流,没有繁琐的依赖和环境,更多使用了原生的节点。

工作流的整体思路是: 首先,生成适合服装的模特。很多时候换装效果不好、有违和感是因为服装和人物不匹配,所以要先抽卡抽到满意的模特,再进入第二步。

第二步,开始进行高精度的换装。先进行预处理的工作,拼出来 mask,然后重绘 mask 区域。

模特生成:先生成与衣服匹配的模特,这里可以先不关注衣服的相似度,先抽出满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Redux-prompt 节点风格细节等级(1=27×27 最强,14=1×1 最弱)。

服装高精度处理: mask 的处理:高精度换装前要做两个工作,一是将模特身上的衣服分割出来,二是拼接出来对应模特与衣服合并后图片的遮罩。

提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里把权重调整为最大,就可以对 mask 位置的服装进行进一步处理,还原原来的服装细节并得到需要的模特。

【SD】商业换装如此简单,Segment Anything 中 GroundingDINO 模型分割

有时需要更精确的蒙版,如人物的眼睛或身上的配饰等,单靠 SAM 模型难以得到想要的蒙版,此时需要使用 GroundingDINO。启用 GroundingDINO,AI 会自动下载模型,若没有魔法可去云盘直接下载,放到特定文件目录下。在检测提示词中输入“eye”,AI 可根据语义分割自动检测出眼睛部分并设置好蒙版,还可通过预览箱体得到眼睛编号,选择调整单一眼睛。选择想要修改的蒙版,上传到重绘蒙版中,添加提示词生成图片。还可给人物换背景,加载生成的背景蒙版,选择大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”。若头发部分没抠好,可放入图生图中细化,再用 PS 创成式填充修复头发。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】商业换装如此简单,Segment Anything保姆级教学

如果在以上使用过程中发生错误,那么你可能需要部署一下使用环境,我们再次开启最傻瓜安装教学模式。1.安装cuda_11.8.0_522.06_windows.exe。2.安装VisualStudioSetup.exe,选择C++的桌面开发安装。以上步骤,我们在安装roop的时候也做过,如果安装过roop的可以跳过。3.拷贝ninja,打开ninja文件包,把里面的内容拷贝到秋叶包根目录。4.拷贝python,打开python文件包,把里面的内容拷贝到秋叶包根目录替换。5.拷贝模型,SAM和GroundingDINO的模型都在这了,放到对应的文件夹即可。6.重启,装好了,重启电脑,即可运行。[heading3]#最后[content]以上,就是关于segment anything插件的安装教程和使用方法讲解,这个软件最大的作用,就是帮助我们快速高效的生成蒙版,从而进行人物的换装或者图片中元素的替换。如果想要获取插件安装包的话,可以添加我的公众号【白马与少年】,回复【SD】即可。-END-

ComfyUI 换装服饰一致性

这个工作流,可以用在电商服饰行业,换装,虚拟试穿等场景。在提升效果的同时,简化了工作流。没有繁琐的依赖,环境,更多的使用了原生的节点。工作流的整体思路是:首先,生成适合服装的模特。为什么做这一步?这是因为,很多时候,换装的效果不好,有违和感,是因为服装和人物匹配。这一步,我们可以抽卡,抽到满意的模特后进入第二步。第二步,开始进行高精度的换装。先进行预处理的工作,拼出来mask然后重绘mask区域。[heading3]工作流解释[content][heading4]模特生成[content]接下来一起来过一下工作流先生成与衣服匹配的模特这里可以先不关注衣服的相似度,先抽出满意的模特。这里加入Redux模型,强度不用太高。让提示词生效,Redux-prompt节点风格细节等级(1=27×27最强,14=1×1最弱))。[heading4]服装高精度处理[content][heading5]mask的处理[content]高精度换装前的准备:这里做两个工作1.将模特身上的衣服分割出来2.拼接出来对应模特与衣服合并后图片的遮罩[heading5]提示词格式与Redux权重[content]这里使用的是Flux的fill模型,提示词书写的格式:这是一组图片,左边是衣服,右边的模特穿着左边的衣服需要注意的是,Redux这里,把权重的调整为最大。这样我们就可以对mask位置,对服装进行了进一步的处理原来的服装细节得到了还原,并且也有了需要的模特。

【SD】商业换装如此简单,Segment Anything保姆级教学

但有的时候,我们需要更精确一点的蒙版,比如人物的眼睛,或者是身上的配饰等等。单靠SAM模型就很难得到想要的蒙版了,这个时候我们就需要使用到segment anything中的GroundingDINO了。启用GroundingDINO,AI会自动下载模型,此时会需要用魔法,没有魔法的同学可以去我的云盘直接下载。放到这个文件目录下“……sd-webui-aki-v4.2\extensions\sd-webui-segment-anything\models\grounding-dino”点击启用,在检测提示词中输入“eye”,AI就可以根据语义分割帮我们自动检测出眼睛的部分,并设置好蒙版。我们还可以通过预览箱体,来得到两只眼睛的编号,通过编号可以选择调整单一的眼睛。比如,我只想调整左边那只眼睛,我就只需要勾选1就可以了。和刚才一样,选择我们想要修改的蒙版,上传到重绘蒙版当中。添加提示词“闭眼”。点击生成,可以看到图片就修改好了。我们再来给人物换个背景试试,加载刚才生成的背景蒙版。大模型选择revAnimated_v122,正向提示词:简单背景、花、国画、工笔。蒙版模式选择“重绘非蒙版内容”。得到这张图片,头发的部分没有抠太好。我们将它再次放入图生图中,使用tile模型做一次整体细化,除了融合人物之外,还能给人物的衣服也添加上国风元素。生成,人物好像变得高级了一些。来到PS,使用创成式填充修复一下头发。完成啦。

Others are asking
抠图换装
以下是关于抠图换装的相关内容: 在 SD 中,画蒙版存在一定难度。在 SD 里用鼠标涂画笔工具少且不稳定,精确绘制困难;在 PS 里画蒙版虽简单但流程麻烦,需不停导入导出图片且有人可能不会 PS。 对于大多数人,能在一个软件解决就不开第二个。基于此,介绍 SD 中的抠图神器 Segment Anything,它是基于深度学习算法的图像分割工具,能将图像像素分配到对应区域,实现精准边缘识别,自动检测提高分割效率。 另外,GFPGAN 可进行面部修复,找一张模糊人像,将其参数拉到 1 即可。背景去除需安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git 。安装重启后有选项框,测试抠图效果不错但有黑边,可通过点击 Alpha matting 调整参数如 Erode size:6、Foreground threshold:143、Background threshold:187 去掉黑边,还能直接生成蒙版。此外,还有专门做服装抠图的模型,方便换装处理,也有专门给动漫抠图的模型。 在 MJ 应用中,提到做一些秀气女性角色时,style expressive/style cute 有一定效果。出图靠量累积,实现基本统一画风后可进一步抠图换底。非人生物的 OC 出图成功率低,如 2 号机器人生成方便,3 号神秘人难做,可先绘制符合部分要求的图像再局部重绘。7 号泰迪熊先生同理,MJ 出的泰迪熊多为全身像,可扩展出身体。
2025-03-03
ai 换装怎么换职业妆照
以下是关于 AI 换装换职业妆照的步骤: 1. 来到图生图中,若图片已进入“上传重绘蒙版”但因 bug 看不见,错误时可手动保存蒙版。 2. 进行换衣步骤,提示词输入“蓝色毛衣”,将蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度设为 1。但由于蒙版区域较大,AI 填写内容时可能出现与之前的手衔接不上的问题。 3. 可通过降低重绘幅度或添加 openpose 来控制人物身体,得到正确姿势。 4. 除图生图的局部重绘外,还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,具体使用哪个可自行试验选择效果好的。
2025-02-27
AI模特换装
以下是关于 AI 模特换装的相关信息: 字节发布的新模型 SeedEdit 可对图片进行编辑,包括模特服装颜色的更换。例如输入“Change the blue Nike tracksuit to black Nike tracksuit”,SeedEdit 能迅速响应并完成换装。 在达摩院中可以直接进行 AI 模特虚拟换装的测试,网址为:https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR ,其支持虚拟换装和姿态编辑。 AI 模特换装的应用广泛,在电商平台上,很多衣服的效果图已由 AI 生成,AI 模特无需像真人一样辛苦换装和摆姿势。
2025-02-21
换装
以下是关于 AI 换装的相关知识: 【SD】商业换装如此简单,Segment Anything 保姆级教学 如果在使用过程中发生错误,可能需要部署使用环境,傻瓜安装教学模式如下: 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。若安装过 roop 可跳过此步骤。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 此软件最大的作用是帮助快速高效生成蒙版,从而进行人物的换装或者图片中元素的替换。若想获取插件安装包,可添加公众号【白马与少年】,回复【SD】。 ComfyUI 换装服饰一致性 此工作流可用于电商服饰行业、换装、虚拟试穿等场景,在提升效果的同时简化了工作流,没有繁琐的依赖和环境,更多使用了原生的节点。 工作流的整体思路是: 首先,生成适合服装的模特。很多时候换装效果不好、有违和感是因为服装和人物不匹配,所以要先抽卡抽到满意的模特,可加入 Redux 模型,强度不用太高,让提示词生效。 第二步,开始进行高精度的换装。先进行预处理的工作,拼出来 mask,然后重绘 mask 区域。 高精度换装前的准备: 1. 将模特身上的衣服分割出来。 2. 拼接出来对应模特与衣服合并后图片的遮罩。 使用的是 Flux 的 fill 模型,提示词书写的格式为:这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装如此简单,Segment Anything 中 GroundingDINO 模型分割 有时需要更精确的蒙版,如人物的眼睛或身上的配饰等,单靠 SAM 模型很难得到想要的蒙版,此时需要使用 GroundingDINO。 启用 GroundingDINO,AI 会自动下载模型,若无法下载可去云盘直接下载,放到特定文件目录下。在检测提示词中输入“eye”,AI 可根据语义分割自动检测出眼睛部分,并设置好蒙版。还可通过预览箱体得到眼睛编号,选择调整单一眼睛。 例如,只想调整左边眼睛,勾选 1 即可。选择想要修改的蒙版,上传到重绘蒙版当中,添加提示词“闭眼”并生成。还可给人物换背景,加载生成的背景蒙版,大模型选择 revAnimated_v122,正向提示词:简单背景、花、国画、工笔。蒙版模式选择“重绘非蒙版内容”。若头发部分没抠好,可放入图生图中使用 tile 模型做整体细化,还能给人物衣服添加国风元素。最后可到 PS 使用创成式填充修复头发。
2025-01-14
ai换装,目前主流工具有哪些
目前主流的 AI 换装工具包括:InterAlia(https://interalia.vcflab.org/)。需要注意的是,虽然底层都是大模型,但 AI 工具各有侧重,不同公司也会进行各自的优化。关于每一种工具的详细入门、讲解和应用,WayToAIG 已经分好了类目。
2025-01-02
如何使用stable diffusion 生成模特换装的工作流
Stable Diffusion 是一种强大的生成模型,常用于图像生成和修改任务。利用 Stable Diffusion 实现模特换装可以通过以下步骤和工作流程进行: 工作流程 1. 准备环境 确保你有合适的硬件配置,特别是具有高性能 GPU 的计算机。 安装必要的软件和依赖项,如 Python、CUDA、PyTorch 等。 2. 获取模型 下载并安装 Stable Diffusion 模型。 可以从 Hugging Face 的模型库中找到合适的预训练模型,也可以使用自己的数据进行微调。 3. 数据准备 模特图像:准备高质量的模特图像,确保背景简单以便后续处理。 服装图像:收集或创建各种服装的图像,最好是带有透明背景的 PNG 格式。 4. 图像预处理 使用图像编辑工具(如 Photoshop 或 GIMP)将模特图像和服装图像裁剪成合适的大小和比例。 如果需要,可以使用 OpenCV 或 PIL 进行自动化预处理。 5. 定义输入格式 将模特图像和服装图像输入 Stable Diffusion 模型的方式需要提前定义。 典型输入包括模特的基本特征(如位置、姿态)和服装的特征(如颜色、纹理)。 6. 生成换装图像 使用 Stable Diffusion 模型,输入模特图像和服装图像,生成换装后的模特图像。 可以调整生成参数(如扩散步数、采样方法)以获得最佳结果。 7. 后处理 对生成的图像进行后处理,如调整亮度、对比度,或者进一步修正细节。 使用图像编辑工具或自动化脚本完成后处理步骤。 8. 评估和优化 评估生成图像的质量,根据需要进行微调或更改模型参数。 可以使用人工评估或引入评价指标(如 FID、IS 分数)进行量化评估。 示例代码 以下是一个简化的 Python 示例代码,展示如何使用 Stable Diffusion 模型进行图像生成: ```python import torch from transformers import StableDiffusionPipeline 加载模型 model_id = "CompVis/stablediffusionv14" pipe = StableDiffusionPipeline.from_pretrained 准备输入 prompt = "A model wearing a red dress standing on a white background" 生成图像 image = pipe.images 保存图像 image.save ``` 工具和资源 1. Hugging Face: 提供预训练的 Stable Diffusion 模型和相关文档。 链接: 2. OpenCV 和 PIL: 用于图像预处理和后处理。 安装:`pip install opencvpython pillow` 3. 图像编辑工具: 如 Photoshop 或 GIMP,用于手动处理图像。 提示 硬件要求:高性能的 GPU 可以显著加快图像生成速度。 数据质量:高质量的输入图像和精细的预处理可以提高生成图像的效果。 参数调整:根据生成结果不断调整模型参数以获得最佳效果。 模型微调:如果预训练模型不能完全满足需求,可以考虑使用自己的数据集进行微调。 通过这些步骤和工具,您可以使用 Stable Diffusion 模型生成模特换装的图像,创建高质量的视觉效果。
2024-05-26