Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

控制模特的姿势

Answer

以下是关于控制模特姿势的方法:

在使用相关 AI 工具时,如 Stable Diffusion 等,有以下几种控制模特姿势的方式:

  1. 使用蒙版和提示词:输入相关提示词,如“蓝色毛衣”,处理蒙版区域内容为“填充”,调整尺寸与图像一致,重绘幅度为 1。但可能会出现衔接问题,此时可降低重绘幅度或添加 openpose 来控制人物身体,获得正确姿势。
  2. 利用 ControlNet 功能:
    • 正常填写大模型和关键词生成照片。
    • 鼠标滑到最下面,点击“ControlNet”。
    • 点击空白处上传指定姿势的照片,并点击“启用”。
    • 在“预处理器”和“模型”里选择“openpose”,用于让计算机识别人物姿势。
    • 点击“预览预处理结果”,最后点击生成照片,即可得到指定姿势的照片。

在 ControlNet 参数配置方面:

  • tile 用于对整体画面的控制,可选择分块+固定颜色+锐化,以保证颜色统一降低后续闪烁,不需要全过程引导,仅在开始时固定画面。
  • lineart 用于提取人物线条,保证人物整体不跑偏,权重给到 0.6 以控制整体画面输出稳定。
  • openpose 用于控制人物的姿态、表情和动作,推荐使用 DWpose 处理器,其对面部和手部的识别效果较好。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】商业换装如此简单,Segment Anything保姆级教学

10、接下来就是我们的换衣步骤了。提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为1。8、因为蒙版区域比较大,所以AI在填写内容的过程中,有可能会出现这种和之前的手衔接不上的问题。9、我们可以通过降低重绘幅度,或者是添加一个openpose来控制人物的身体,得到正确的姿势。10、除了使用图生图的局部重绘以外,我们还可以使用controlnet的局部重绘功能,控制模式选择“更注重提示词”。至于具体用哪一个,大家自己试验,选效果好的就行。

教程:超详细的Stable Diffusion教程

现在我们已经能够生成美女的照片了可以定制出独一无二的脸,换上更好看的衣服但是我们怎么才能让照片的小姐姐摆出指定的姿势呢?通过关键词去描绘动作,可是出来的照片又不太准确通过图生图去生成,可是人脸又变了那我们就可以用到这个“ControlNet”功能,翻译成中文就是控制网络简单来说就是可以用它控制照片的线条,比如人物的动作、建筑物的线条等比如,我现在想让左边照片的小姐姐摆出右边小姐姐的姿势,得到最右边的一张照片首先,大模型和关键词我们还是正常的填写生成一张我们我们想要的小姐姐的照片接着鼠标滑到最下面,点击“ControlNet”①点击空白的地方,上传我们需要指定的姿势的照片②点击“启用”③在“预处理器”和“模型”里选择“openpose”,这就是用来让计算机识别人物姿势的下一步就点击这个“预览预处理结果”接着原来照片的右边就会出现人物姿势的线条,最后点击生成照片这样我们一张指定姿势的美女小姐姐就生成啦!

小田:视频转绘制作视频过程中不可或缺的一环

这个地方其实和之前赛博机车转绘差不多的思路,因为我们要的是人物不变竟然保持和原图差不多内容,可以存在细微的变化所以我推荐你使用着几个Controlnet大致讲一下为啥要使用这几个cn主要是tile对整体画面的控制,lineart用于提取人物的线条,保证人物整体不跑偏,openpose用于控制人物的姿态和对应的表情和动作。具体的预处理器我这边使用的如下1.tile:这几个预处理器怎么选择对应的中文我就不用说了吧,我一般选择分块+固定颜色+锐化。因为可以保证颜色尽量统一降低后续闪烁2.lineart:采用写实线稿提取如果你要转动漫和二次元推荐你使用第二个动漫线稿提取。但是需要搭配二次元的大模型要不效果不太好3.openpose:这里直接推荐使用DWpose处理器,他对面部和手部的识别远远高于剩下几个预处理器预处理器说完了我们来讲一下对应的参数tile不需要全过程进行引导只需要开始的时候固定一下画面。使用大了会导致画面变化幅度很小维持原图的样子。Lineart:这里权重给到0.6就可以了使用写实的线条控制,主要起的作用是控制整体画面的输出稳定openpose:这个不用说维持默认具体我的参数可以看一下所以不要那些说收费给你398什么参数的【说白了就是信息差】。参数其实是建立在插件的使用上,你插件使用知道了参数的问题你自己多试几次就可以了。剩下的部分就按照之前的Ebs流程走就可以了,这里就不再说了。

Others are asking
我想要根据一个模特去生成她多个角度的图片
以下是根据您的需求生成模特多个角度图片的方法: 1. 准备工作: 准备一张人物的多角度图片,该图共有 15 个不同视图,尺寸设置为 1328×800px,放大两倍后可保证每张小图为 512×512px。 加上网格图,通过 lineart 分割不同块面。 设置 controlnet,第一张图选择 openpose_face 得到人物 15 个面部角度,第二张图选择 lineart_standard得到清晰的表格分区。 为防止小图模式下人脸崩坏,可增加 ADetailer 的脸部修复插件。 2. 开始生图: 设置文生图提示词: 大模型:majicmixRealistic_v6.safetensors 正向提示词:,auburn hair,eyes open,cinematic lighting,Hyperrealism,depth of field,photography,ultra highres,photorealistic,8k,hyperrealism,studio lighting,photography 负向提示词:EasyNegative,canvasframe,canvas frame,eyes shut,wink,blurry,hands,closed eyes,,lowres,sig,signature,watermark,username,bad,immature,cartoon,anime,3d,painting,b&w 设置参数: 迭代步数:50 采样方法:DPM++2M Karras 尺寸:1328×800px 出图,可得到 15 个不同角度的人物图片。
2025-01-08
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
ai生成服装模特视频
以下是一些与生成服装模特视频相关的 AI 技术和应用: 1. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 2. 生成式人工智能在营销中的应用:Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 此外,还有一些其他相关的 AI 技术,如: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画,Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。相关链接:GitHub:https://github.com/novitalabs/AnimateAnyone ;API:https://novita.ai/playgroundanimateanyone ;https://x.com/imxiaohu/status/1796191458052944072 2. 音频生成方面,有 Udio130 音乐生成模型,能生成 2 分钟的音频,提升曲目连贯性和结构,新增高级控制功能。相关链接:详细:https://xiaohu.ai/p/8738 ;https://x.com/imxiaohu/status/1795999902830629249 3. 代码生成方面,有 Mistral AI 推出的 Codestral 代码生成模型,支持 80 多种编程语言,包括 Python、Java、C 等,能自动完成代码、编写测试,并能填补未完成的代码部分,拥有 32k 上下文窗口,在多项基准测试中表现出色。相关链接:详细:https://mistral.ai/news/codestral/ ;https://x.com/imxiaohu/status/1795987350713192937 4. 音乐演示方面,有 Suno 音乐演示,新视频展示从任何声音创作歌曲。相关链接:https://x.com/imxiaohu/status/1795976717905043467
2025-01-06
ai生成服装模特图的工具
以下是一些可以生成服装模特图的工具: 1. DALLE 2:已被用于广告,如亨氏、雀巢、Stitch Fix 等公司的相关应用。Stitch Fix 正在尝试使用它根据客户对颜色、面料和款式的偏好创建服装可视化。 2. 可以使用万能固定句式来生成服装模特图,如“「主题」+「风格」+「材质」+「元素」+「玄学佐料」”,并通过具体的示例和咒语关键词来实现,如“Chinese dress”。 3. TryOffDiff:能够逆向打造服装图片,将衣服从照片中“摘取”生成标准化服装图,保留图案、褶皱、徽标等精细细节,适用于商品目录制作及电商平台服装展示需求。详细介绍:
2025-01-06
目前最前沿的ai服装模特app
目前较为前沿的 AI 服装模特相关的应用有: Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 InterAlia 可以帮助搭配服装。 在小红书上,有通过 AI 制作服装如 AI 小绿裙实现变现的案例,新手可用 mewxai 或幻火来制作,熟练者可用 sd 或 mj 制作。 此外,还有用 AI 定制萌娃头像等相关应用。
2025-01-06
有没有根据布料照片和模特照片生成衣服上身效果的工具或 comfyUI 工作流
以下是一些与根据布料照片和模特照片生成衣服上身效果相关的工具和工作流: 1. 藏师傅的方法:将第二步的提示词和 Logo 图片放到 Comfyui 工作流就行。Lora 需要用到 InContext LoRA 中的 visualidentitydesign,可从以下地址下载:https://huggingface.co/alivilab/InContextLoRA/tree/main 。工作流下载:https://github.com/op7418/Comfyuiworkflow/blob/main/FLUX/Logo%20%E5%91%A8%E8%BE%B9%E7%94%9F%E6%88%90.json 。 2. 彭青云分享的内容:本地部署 Comfyui 有多种方式,如官方的本地部署包、秋叶整合包和二狗子老师制作的通往 AGI 之路黑猴子流专属包。处理好软件和模型后,打开一键启动,稍等片刻就会进入工作界面。通过正反提示词、文本链接图像,点击右侧队列即可生成图像。 3. ComfyUI BrushNet:原项目 https://tencentarc.github.io/BrushNet/ ,插件地址 https://github.com/kijai/ComfyUIBrushNetWrapper ,模型下载 https://huggingface.co/Kijai/BrushNetfp16/tree/main 。第一次运行会自动下载需要的模型,如果是用的 ComfyUIBrushNetWrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 到 ComfyUI/models/brushnet,也可手动下载放在这个文件夹里面。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。工作流方面,可配合 mj 出底图,在底图不变的基础上,添加文字或者图片内容。还可以使用 GDinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改。
2024-12-13
MJ人物姿势
以下是关于 MJ 人物姿势的相关信息: MewXAI 中的 MJ 绘画创意度和想象力极高,在摄影照片、海报、logo 设计、3D 模型、表情包制作等方面表现出色,并且通过姿态识别能够实现对人物动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势,实现对 AI 画图的完美控制。 Midjourney V6 更新了角色一致性命令“cref”。在 MJ 网页社区里随机选一张图片,点击箭头下方的图片 icon 按钮(图 1),在上方输入栏里选择三个按钮(图 2 红框里第一个就是角色参考,点击一下图标),加上描述词,调整设置(图 3),回车即可实现人物面部不变,场景变化(图 4)。同时,按住 Shift 键选择一个选项可将图像用于多个类别。需要注意的是,虽然 MJ V6 还处于 alpha 测试阶段,此功能及其他功能可能会突然更改,但 V6 官方 beta 版本即将推出。
2024-09-10
服装模特拍摄,不同姿势。用什么ai
以下是为您提供的一些可能适用于服装模特拍摄不同姿势的 AI 相关信息: Ready Player Me 服装设计创新:使用 Stable Diffusion 和 ControlNet 生成服装纹理,能根据文本描述自动创建样式,如“蒸汽朋克”风格,适用于 3D 模型,包含真实细节和质感,支持多种风格,快速试验设计理念,训练数据集包含约 1000 个 Ready Player Me 资产。 在 AI 原画设计中,如引导 Nijijourney 5 生成多样化二次元角色设计风格时,可以通过不同的科幻奇幻题材风格,如赛博朋克、蒸汽朋克等作为关键词生成角色设计。还可以尝试不同的服装设计品牌和风格,如山本耀司(Yamamoto Yohji)、川久保玲(Rei Kawakubo),为角色创作提供更广泛的可能性。 RADicalMotionAI 面部捕捉技术:能同时捕捉视频中的身体动作和面部表情,适用于单一视频并转化为动画数据,支持实时发送到 Blender、Unity、Unreal Engine,动画数据可导出为 FBX 格式。
2024-08-25
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
图的角色 用 cref 去控制一致性 风格可以用 sref 去控制
在 Midjourney 中,cref 和 sref 是用于引用图片的功能,它们有以下区别和使用方法: 1. 角色参考(cref): 作用:保持图像角色的一致性。 使用方法:在提示后添加“cref”,紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girlcref。可以使用“cw”调整参考图像对生成图像的影响程度,数值范围从 0 到 100。强度 100(“cw 100”)是默认值,会使用面部、头发和衣服,cw 为 0 的话仅保证脸部一致。基础格式为“cref 图片链接,cw 100”。 参考链接: 2. 风格参考(sref): 作用:生成类似风格的图片,保持画风的一致性。 使用方法:在提示后添加“sref”,紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girlsref。可以使用“sw”调整参考风格对生成图像的影响程度,数值范围从 0 到 1000。基础格式为“sref 图片链接,sw 100”。 参考链接: 如果想引用一张图,但只是把它作为新图的一部分,可以使用“sref”或“cref”,并通过调整“sw”或“cw”的值来控制引用图像的影响程度。例如:/imagine prompt beautiful girlsrefsw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格。
2025-01-13
我想找一个能够实现运动控制逻辑的编程助手
目前在 AI 领域中,有一些编程助手可以帮助您实现运动控制逻辑。例如,您可以考虑使用 Python 中的相关库,如 `numpy`、`matplotlib` 等,结合数学和物理知识来构建运动控制模型。另外,一些专门的机器人编程框架和工具,如 ROS(Robot Operating System)也能为您提供支持。但具体选择哪种工具,还需要根据您的具体需求和技术背景来决定。
2024-11-20
控制在智能制造中的应用
以下是关于控制在智能制造中的应用的相关信息: 在智能制造领域,控制技术有着广泛的应用: 1. 预测性维护:利用人工智能预测机器故障,帮助工厂避免停机,提高生产效率。 2. 质量控制:通过人工智能检测产品缺陷,提升产品质量。 3. 供应链管理:借助人工智能优化供应链,提高效率并降低成本。 4. 机器人自动化:运用人工智能控制工业机器人,进一步提高生产效率。 此外,ControlNet 是一种由斯坦福大学张吕敏发布的神经网络模型,它能与预训练的图像扩散模型(如 Stable Diffusion)结合,通过引入额外条件输入来控制 AI 绘画的生成过程。其工作原理是将 Stable Diffusion 模型的权重复制到 ControlNet 的可训练副本中,并使用外部条件向量训练副本,具有训练过程的鲁棒性、避免过度拟合、可在小规模设备训练以及架构兼容性和迁移能力强等优点,不仅用于 AI 绘画,还可用于图像编辑、风格迁移、图像超分辨率等多种计算机视觉任务。
2024-10-28
ai控制骨骼动画
以下是关于 AI 控制骨骼动画的相关信息: 在 Stable Diffusion 中,使用 ControlNet 插件进行姿态约束时,对于国风 3 模型,点击生成可能得到相应姿势,但 AI 识别可能不准确,会出现骨骼错位等问题,需要耐心刷图和调整参数。作者还收集了不同 pose 的骨架图,可在公众号【白马与少年】回复【SD】获取以作人物动作参考。 Tripo AI 的模型详情页提供丰富工具和选项,可对模型进行编辑和下载等操作。模型工具包括收藏、分享、动态旋转或暂停、删除等按钮,在模型区域按住鼠标并拖动可自由旋转模型。编辑工具中的 Auto Rigging 可自动绑定骨骼,后续可在 Blender 里做动画。风格化选项有原始、乐高、像素化、沃罗诺伊图等,Custom 设置可根据特定软件或用途进行定制,Retopologize 提供不同精度的拓扑网格选项,Format 提供多种模型文件格式,选择“Download”可下载模型,使用“Refine”可进一步精修。 晨然在其 AI 作品《Devices》的创作中,工作流是使用 Blender 制作白模动画,导出深度图、线框图帧序列,使用 ComfyUI 进行风格迥异的渲染。他认为 AI 视频与传统工作流制作视频各有优缺点,不是替代关系。AI 内容生成速度快、成本低但不可控、画面粗糙;传统工作流可控性强但慢、成本高。应让 AI 与传统工作流结合,在随机性中寻找可控性,平衡两者以创造新的艺术创作流程。
2024-10-10
过程控制系统是指DCS吗
过程控制系统并不完全等同于 DCS(分布式控制系统)。 过程控制系统是一种用于工业生产过程中对工艺参数进行自动控制的系统,旨在确保生产过程的稳定性、提高产品质量和生产效率。 DCS 是过程控制系统的一种常见类型,具有分布式控制、集中管理等特点。然而,除了 DCS 之外,过程控制系统还可能包括其他形式,例如 PLC(可编程逻辑控制器)控制系统等。 总之,DCS 是过程控制系统中的一种,但过程控制系统的范畴更广,包含多种不同的控制形式和技术。
2024-10-08