Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

控制模特的姿势

Answer

以下是关于控制模特姿势的方法:

在使用相关 AI 工具时,如 Stable Diffusion 等,有以下几种控制模特姿势的方式:

  1. 使用蒙版和提示词:输入相关提示词,如“蓝色毛衣”,处理蒙版区域内容为“填充”,调整尺寸与图像一致,重绘幅度为 1。但可能会出现衔接问题,此时可降低重绘幅度或添加 openpose 来控制人物身体,获得正确姿势。
  2. 利用 ControlNet 功能:
    • 正常填写大模型和关键词生成照片。
    • 鼠标滑到最下面,点击“ControlNet”。
    • 点击空白处上传指定姿势的照片,并点击“启用”。
    • 在“预处理器”和“模型”里选择“openpose”,用于让计算机识别人物姿势。
    • 点击“预览预处理结果”,最后点击生成照片,即可得到指定姿势的照片。

在 ControlNet 参数配置方面:

  • tile 用于对整体画面的控制,可选择分块+固定颜色+锐化,以保证颜色统一降低后续闪烁,不需要全过程引导,仅在开始时固定画面。
  • lineart 用于提取人物线条,保证人物整体不跑偏,权重给到 0.6 以控制整体画面输出稳定。
  • openpose 用于控制人物的姿态、表情和动作,推荐使用 DWpose 处理器,其对面部和手部的识别效果较好。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】商业换装如此简单,Segment Anything保姆级教学

10、接下来就是我们的换衣步骤了。提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为1。8、因为蒙版区域比较大,所以AI在填写内容的过程中,有可能会出现这种和之前的手衔接不上的问题。9、我们可以通过降低重绘幅度,或者是添加一个openpose来控制人物的身体,得到正确的姿势。10、除了使用图生图的局部重绘以外,我们还可以使用controlnet的局部重绘功能,控制模式选择“更注重提示词”。至于具体用哪一个,大家自己试验,选效果好的就行。

教程:超详细的Stable Diffusion教程

现在我们已经能够生成美女的照片了可以定制出独一无二的脸,换上更好看的衣服但是我们怎么才能让照片的小姐姐摆出指定的姿势呢?通过关键词去描绘动作,可是出来的照片又不太准确通过图生图去生成,可是人脸又变了那我们就可以用到这个“ControlNet”功能,翻译成中文就是控制网络简单来说就是可以用它控制照片的线条,比如人物的动作、建筑物的线条等比如,我现在想让左边照片的小姐姐摆出右边小姐姐的姿势,得到最右边的一张照片首先,大模型和关键词我们还是正常的填写生成一张我们我们想要的小姐姐的照片接着鼠标滑到最下面,点击“ControlNet”①点击空白的地方,上传我们需要指定的姿势的照片②点击“启用”③在“预处理器”和“模型”里选择“openpose”,这就是用来让计算机识别人物姿势的下一步就点击这个“预览预处理结果”接着原来照片的右边就会出现人物姿势的线条,最后点击生成照片这样我们一张指定姿势的美女小姐姐就生成啦!

小田:视频转绘制作视频过程中不可或缺的一环

这个地方其实和之前赛博机车转绘差不多的思路,因为我们要的是人物不变竟然保持和原图差不多内容,可以存在细微的变化所以我推荐你使用着几个Controlnet大致讲一下为啥要使用这几个cn主要是tile对整体画面的控制,lineart用于提取人物的线条,保证人物整体不跑偏,openpose用于控制人物的姿态和对应的表情和动作。具体的预处理器我这边使用的如下1.tile:这几个预处理器怎么选择对应的中文我就不用说了吧,我一般选择分块+固定颜色+锐化。因为可以保证颜色尽量统一降低后续闪烁2.lineart:采用写实线稿提取如果你要转动漫和二次元推荐你使用第二个动漫线稿提取。但是需要搭配二次元的大模型要不效果不太好3.openpose:这里直接推荐使用DWpose处理器,他对面部和手部的识别远远高于剩下几个预处理器预处理器说完了我们来讲一下对应的参数tile不需要全过程进行引导只需要开始的时候固定一下画面。使用大了会导致画面变化幅度很小维持原图的样子。Lineart:这里权重给到0.6就可以了使用写实的线条控制,主要起的作用是控制整体画面的输出稳定openpose:这个不用说维持默认具体我的参数可以看一下所以不要那些说收费给你398什么参数的【说白了就是信息差】。参数其实是建立在插件的使用上,你插件使用知道了参数的问题你自己多试几次就可以了。剩下的部分就按照之前的Ebs流程走就可以了,这里就不再说了。

Others are asking
我想学习通过衣服图片生成模特视频
以下是关于通过衣服图片生成模特视频的相关内容: 如果您要通过衣服图片生成模特视频,有以下两种方法可供参考: 方法一:使用 Stable Diffusion 1. 真人穿衣服拍照,并拿到穿衣服的真实质感照片。如果身材方面有难处,可以借助美图秀秀或 PS 进行处理。 2. 选好底模,一定要是 realistic 的真人照片风格底模,例如 majicmixRealistic_v7。 3. 根据不同平台换头,比如面向海外市场换白女头,面向中老妇女换妈妈头。 4. 在图生图下的局部重绘选项卡下涂抹自己替换的部分,并设置好 prompts 和 parameters,例如 breathtaking cinematic photo, masterpiece, best quality, , blonde hair, silver necklace, carrying a white bag, standing, full body, detailed face, big eyes, detailed hands 等。 方法二:使用即梦的智能参考功能 1. 打开即梦官网 https://jimeng.jianying.com/ 。 2. 选择图片生成。 3. 选择导入参考图(上传一张参考图,点击智能参考)。 模特图自由定制:智能参考可以让模特图的变装、换发型、换脸、换发色和调整人物姿势变得轻而易举。 产品图随心变化:可以改变产品材质,调整画面背景。 电商海报一键搞定:支持随意更改背景、元素,适应不同的营销主题。 希望以上内容对您有所帮助。
2025-02-04
请推荐一款,可以快速生成电商服装模特的ai工具
以下为您推荐几款可快速生成电商服装模特的 AI 工具: 1. Stable Diffusion:如果您要开淘宝网店,可借助它初步制作展示商品。比如卖绿色淑女裙,先真人穿衣服拍照,处理好照片,选好 realisitic 真人照片风格的底模,再根据不同平台换头,通过图生图下的局部重绘选项卡涂抹替换部分,并设置好 prompts&parameters。 2. ComfyUI:这个工作流适用于电商服饰行业的换装、虚拟试穿等场景。首先生成适合服装的模特,可抽卡抽到满意的模特,加入 Redux 模型,强度不用太高,让提示词生效。然后进行高精度的换装,先预处理拼出 mask,再重绘 mask 区域。 3. 达摩院:支持虚拟换装、姿态编辑,您可以直接在 https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR 进行测试。
2025-02-02
怎么用ai完成淘宝模特图片的批量修改,风格都是一致的
以下是使用 AI 完成淘宝模特图片批量修改且风格一致的方法: 1. 利用 Stable Diffusion 进行局部重绘: 真人穿衣服拍照,获取真实质感的照片。若身材方面有问题,可借助美图秀秀或 PS 处理。 选好真人照片风格的底模,如 majicmixRealistic_v7。 根据不同平台需求换头,如面向海外市场换白女头。 在图生图下的局部重绘选项卡下涂抹自己替换的部分,并设置好 prompts 和 parameters。 2. 大淘宝设计部的实践: 对于定制化真人模特实景素材的主题活动,通过 AI 可将策划、搭建、拍摄、设计融为一个闭环流程,短时间内完成页面所有素材的生产和输出。 在 UI 设计场景中,采用 AI 能力可快速定制多种视觉效果,通过 SD 中 controlnet 的有效控制,生成指定范围内的 ICON、界面皮肤等内容。 通过对 AI 大模型的训练和应用,算法从模特姿态、背景风格、装饰元素等多个维度进行效果升级,结合用户数据提供定制化的线上真人化模特体验。 一张商品图,结合用户的自定义输入,可生成多张场景效果,无需 3D 模型、显卡渲染和线下拍摄。 此外,字节发布的新模型 SeedEdit 也可用于图片编辑,每次编辑尽量使用单指令,多指令最好少于 3 种变化。为保证效果,局部编辑时下指令要精准,参考图要清晰、分辨率高。若编辑效果不明显或变化过多,可调整编辑强度。
2025-01-21
我想要根据一个模特去生成她多个角度的图片
以下是根据您的需求生成模特多个角度图片的方法: 1. 准备工作: 准备一张人物的多角度图片,该图共有 15 个不同视图,尺寸设置为 1328×800px,放大两倍后可保证每张小图为 512×512px。 加上网格图,通过 lineart 分割不同块面。 设置 controlnet,第一张图选择 openpose_face 得到人物 15 个面部角度,第二张图选择 lineart_standard得到清晰的表格分区。 为防止小图模式下人脸崩坏,可增加 ADetailer 的脸部修复插件。 2. 开始生图: 设置文生图提示词: 大模型:majicmixRealistic_v6.safetensors 正向提示词:,auburn hair,eyes open,cinematic lighting,Hyperrealism,depth of field,photography,ultra highres,photorealistic,8k,hyperrealism,studio lighting,photography 负向提示词:EasyNegative,canvasframe,canvas frame,eyes shut,wink,blurry,hands,closed eyes,,lowres,sig,signature,watermark,username,bad,immature,cartoon,anime,3d,painting,b&w 设置参数: 迭代步数:50 采样方法:DPM++2M Karras 尺寸:1328×800px 出图,可得到 15 个不同角度的人物图片。
2025-01-08
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
ai生成服装模特视频
以下是一些与生成服装模特视频相关的 AI 技术和应用: 1. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 2. 生成式人工智能在营销中的应用:Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 此外,还有一些其他相关的 AI 技术,如: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画,Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。相关链接:GitHub:https://github.com/novitalabs/AnimateAnyone ;API:https://novita.ai/playgroundanimateanyone ;https://x.com/imxiaohu/status/1796191458052944072 2. 音频生成方面,有 Udio130 音乐生成模型,能生成 2 分钟的音频,提升曲目连贯性和结构,新增高级控制功能。相关链接:详细:https://xiaohu.ai/p/8738 ;https://x.com/imxiaohu/status/1795999902830629249 3. 代码生成方面,有 Mistral AI 推出的 Codestral 代码生成模型,支持 80 多种编程语言,包括 Python、Java、C 等,能自动完成代码、编写测试,并能填补未完成的代码部分,拥有 32k 上下文窗口,在多项基准测试中表现出色。相关链接:详细:https://mistral.ai/news/codestral/ ;https://x.com/imxiaohu/status/1795987350713192937 4. 音乐演示方面,有 Suno 音乐演示,新视频展示从任何声音创作歌曲。相关链接:https://x.com/imxiaohu/status/1795976717905043467
2025-01-06
MJ人物姿势
以下是关于 MJ 人物姿势的相关信息: MewXAI 中的 MJ 绘画创意度和想象力极高,在摄影照片、海报、logo 设计、3D 模型、表情包制作等方面表现出色,并且通过姿态识别能够实现对人物动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势,实现对 AI 画图的完美控制。 Midjourney V6 更新了角色一致性命令“cref”。在 MJ 网页社区里随机选一张图片,点击箭头下方的图片 icon 按钮(图 1),在上方输入栏里选择三个按钮(图 2 红框里第一个就是角色参考,点击一下图标),加上描述词,调整设置(图 3),回车即可实现人物面部不变,场景变化(图 4)。同时,按住 Shift 键选择一个选项可将图像用于多个类别。需要注意的是,虽然 MJ V6 还处于 alpha 测试阶段,此功能及其他功能可能会突然更改,但 V6 官方 beta 版本即将推出。
2024-09-10
服装模特拍摄,不同姿势。用什么ai
以下是为您提供的一些可能适用于服装模特拍摄不同姿势的 AI 相关信息: Ready Player Me 服装设计创新:使用 Stable Diffusion 和 ControlNet 生成服装纹理,能根据文本描述自动创建样式,如“蒸汽朋克”风格,适用于 3D 模型,包含真实细节和质感,支持多种风格,快速试验设计理念,训练数据集包含约 1000 个 Ready Player Me 资产。 在 AI 原画设计中,如引导 Nijijourney 5 生成多样化二次元角色设计风格时,可以通过不同的科幻奇幻题材风格,如赛博朋克、蒸汽朋克等作为关键词生成角色设计。还可以尝试不同的服装设计品牌和风格,如山本耀司(Yamamoto Yohji)、川久保玲(Rei Kawakubo),为角色创作提供更广泛的可能性。 RADicalMotionAI 面部捕捉技术:能同时捕捉视频中的身体动作和面部表情,适用于单一视频并转化为动画数据,支持实时发送到 Blender、Unity、Unreal Engine,动画数据可导出为 FBX 格式。
2024-08-25
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
使用O1来控制智能硬件
O1 是一个完全开源的可以控制家里电脑的 AI 语音智能助手。它能够看到您的屏幕内容,学习使用您常用的应用,无论您身在何处,都能通过按下按钮、讲话让它帮您操作电脑完成任务。其 CAD 文件、电路设计、代码完全开源,有能力的开发者可以直接制作该设备。灵感来自 Andrej Karpathy 的 LLM 操作系统,10 月份他的 LLM 科普视频含金量仍在上升。O1 运行一个代码解释语言模型,并在计算机内核发生特定事件时调用它。项目地址:https://github.com/OpenInterpreter/01
2025-02-05
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
图的角色 用 cref 去控制一致性 风格可以用 sref 去控制
在 Midjourney 中,cref 和 sref 是用于引用图片的功能,它们有以下区别和使用方法: 1. 角色参考(cref): 作用:保持图像角色的一致性。 使用方法:在提示后添加“cref”,紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girlcref。可以使用“cw”调整参考图像对生成图像的影响程度,数值范围从 0 到 100。强度 100(“cw 100”)是默认值,会使用面部、头发和衣服,cw 为 0 的话仅保证脸部一致。基础格式为“cref 图片链接,cw 100”。 参考链接: 2. 风格参考(sref): 作用:生成类似风格的图片,保持画风的一致性。 使用方法:在提示后添加“sref”,紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girlsref。可以使用“sw”调整参考风格对生成图像的影响程度,数值范围从 0 到 1000。基础格式为“sref 图片链接,sw 100”。 参考链接: 如果想引用一张图,但只是把它作为新图的一部分,可以使用“sref”或“cref”,并通过调整“sw”或“cw”的值来控制引用图像的影响程度。例如:/imagine prompt beautiful girlsrefsw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格。
2025-01-13
我想找一个能够实现运动控制逻辑的编程助手
目前在 AI 领域中,有一些编程助手可以帮助您实现运动控制逻辑。例如,您可以考虑使用 Python 中的相关库,如 `numpy`、`matplotlib` 等,结合数学和物理知识来构建运动控制模型。另外,一些专门的机器人编程框架和工具,如 ROS(Robot Operating System)也能为您提供支持。但具体选择哪种工具,还需要根据您的具体需求和技术背景来决定。
2024-11-20
控制在智能制造中的应用
以下是关于控制在智能制造中的应用的相关信息: 在智能制造领域,控制技术有着广泛的应用: 1. 预测性维护:利用人工智能预测机器故障,帮助工厂避免停机,提高生产效率。 2. 质量控制:通过人工智能检测产品缺陷,提升产品质量。 3. 供应链管理:借助人工智能优化供应链,提高效率并降低成本。 4. 机器人自动化:运用人工智能控制工业机器人,进一步提高生产效率。 此外,ControlNet 是一种由斯坦福大学张吕敏发布的神经网络模型,它能与预训练的图像扩散模型(如 Stable Diffusion)结合,通过引入额外条件输入来控制 AI 绘画的生成过程。其工作原理是将 Stable Diffusion 模型的权重复制到 ControlNet 的可训练副本中,并使用外部条件向量训练副本,具有训练过程的鲁棒性、避免过度拟合、可在小规模设备训练以及架构兼容性和迁移能力强等优点,不仅用于 AI 绘画,还可用于图像编辑、风格迁移、图像超分辨率等多种计算机视觉任务。
2024-10-28