Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

mj如何保持人物一致性

Answer

在 MJ 中保持人物一致性可以按照以下步骤进行:

  1. 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。
  2. 确定前后图的构图风格:出第二张图时,将第二张图提示词描述后加入第一张图的构图风格(iw 参数)。
    • iw 取值范围为[0.5,2],不填写默认 iw = 1,iw 值越大越接近垫的图像,反之更接近提示词。为确保人物一致性,建议取 iw 2。
  3. 确定图片角色一致性:
    • 在得到构图相同后,利用 MJ 重绘功能,对画面进行局部重绘。在重绘提示词里输入 --cref --cw 来保证角色一致性。cref 所垫图还是用的是刚才一张图,因为第一张图有两个内容我们都要拿:构图、人物。
    • 若出现黑边,将黑边部分框住,重绘输入关键词“background”就能去除黑边,保证背景一致。

需要注意的是,由于 MJ 不可控因素,相较于保证人物位置,先保证构图会容易很多。因为 MJ 在重绘时,如果要将一个角色从镜头一个位置挪到另外一个指定位置,非常难处理。整个 MJ 出图基本也是靠降噪重绘,固定位置重绘局部内容会比改变整个画面结构容易很多。这就好比美术课画画,给一张参考图,一个是把背景风格都做好了,让在固定位置添加内容,另一个是将整个页面内容全部重绘,还要保证画面的主题内容要和参考图一样,相比之下后者的随机性会大非常多(抽卡次数也会很多)。

在生成人物图片时,先确定人物形象,如“a little girl wearing a yellow floral skirt+人物动作+风格词”,在 mj 中生成直到得到一张满意的人物图像。为了确保人物一致性,取 --iw 2 。然后可以使用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐,可将合成后的图作为垫图(--iw 2),mj 重新生图。

Content generated by AI large model, please carefully verify (powered by aily)

References

Jerry:MJ多张图保证构图、人物一致性实战教学

[title]Jerry:MJ多张图保证构图、人物一致性实战教学[heading1]三、不同画面构图、人物一致性保证由于MJ不可控因素,如果需要前后两张图画风、构图等都保持一致,这里总结了一个SOP,可以按照三个确定来处理。1.确定画面元素优先出一张图,保证风格、构图样式及人物角色2.确定前后图的构图风格出第二张图时,将第二张图提示词描述后加入第一张图的构图风格(iw参数)3.确定图片角色一致性在第二步得到构图风格没有问题的基础上,在保证人物一致性即可。WHY先保证构图再确认角色一致性?因为MJ在重绘时,如果要将一个角色从镜头一个位置挪到另外一个指定位置,非常难处理。整个MJ出图基本也是靠降噪重绘,那相较于把整个画面结构都变了,固定位置重绘局部内容会容易很多,如果整个画面结构变了先保证人物内容的话,会很依赖MJ抽卡(因为你不知道何时才能出到与你之前相同的构图样式)。这就好比美术课画画一样,给你一张参考图,一个是把背景风格都做好了,让你在固定位置添加内容,另外一个是让你将整个页面内容全部重绘,还要保证画面的主题内容要和参考图一样,相比之下后者的随机性会大非常多(抽卡次数也会很多)。

MJ应用篇 儿童绘本制作、人物一致性解

确定人物形象:a little girl wearing a yellow floral skirt+人物动作+风格词,在mj中生成直到得到一张满意的人物图像垫图URL+In the forest,a little girl wearing a yellow floral skirt is playing happily,super high details,HDsmooth,by Jon Burgerman,--s 400 --ar 3:4 --niji 5 --style expressive --iw 2--iw取值范围[0.5,2],不填写默认iw = 1,iw值越大越接近垫的图像,反之更接近提示词。为了确保人物一致性,取-- iw 2[heading1]合成人物和场景,垫图并重新生成[content]使用PS或者Canva将人物和场景合成到一张图,但是在色调上不太和谐:(如果这里画面和谐/ps技术足够,也可以不用图生图)将合成后的图作为垫图(--iw 2),mj重新生图如下。prompt:垫图url + Little girl wearing a yellow floral skirt,and her friend brown bear,taking shelter in the cave,rainstorm,super high details,HDsmooth,by Jon Burgerman,--s 400 --ar 3:4 --niji 5 --style expressive --iw 2[heading1]绘本展示

Jerry:MJ多张图保证构图、人物一致性实战教学

在得到构图相同后,基本就离成功不远啦。可以看到MJ没有办法记住上一张图的角色样子,所以面孔差别非常大,所以我们需要在生成的图里,对画面里的角色重绘,保证图片一致性。[heading3]3.3.1角色一致性[content]利用MJ重绘功能(上文讲过),对画面进行局部重绘,在重绘提示词里输入--cref --cw来保证角色一致性。cref所垫图还是用的是刚才一张图,因为第一张图有两个内容我们都要拿:构图、人物重绘关键词如下,需要注意的是cref的垫图可以将链接放在文末,和iw不同,它需同时配合cw参数来确定人物一致性:[heading3]3.3.2黑边处理[content]到这里基本上就大功告成了,但是发现每张图上会有黑边,那这个怎么处理呢?答案还是重绘。将黑边部分框住,重绘输入关键词:background就能去除黑边,保证背景一致了欢迎来尝试下~

Others are asking
MJ和runaway用什么软件代替比较好
以下是一些可以替代 MJ(Midjourney)和 Runway 的软件: Luma 发布的 DIT 视频生成模型 Dream Machine 图生视频表现惊艳,具有电影级效果。 出图工具方面,还有 SD(Stable Diffusion)和悠船。MJ 稳定性好、协作性强且有成熟经验参考,但并非所有人都拥有;SD 有独特能力但需本地部署且上手门槛高;悠船对中文支持好、交互友好简单易上手,但管控严格,有很多敏感词不能使用。 如果您想了解更多关于这些软件的详细信息或有其他特定需求,请进一步向我提问。
2025-03-24
如何使用MJ
以下是关于如何使用 MJ(Midjourney)的详细说明: 1. 图像网格: 使用 /imagine 命令可根据提示生成低分辨率图像选项网格。 每个图像网格下方的按钮可用于创建图像的变体、升级图像或重新运行最后一个 Midjourney Bot 操作。 U1U2U3U4 按钮将图像与图像网格分开,方便下载或使用其他工具,如“缩小”“平移”。使用旧版 Midjourney 模型版本时,U 按钮会放大图像。 重做(重新滚动)按钮可重新运行作业,重新运行原始提示生成新的图像网格。 变化按钮(V1V2V3V4)可创建所选网格图像的增量变化,生成与所选图像整体风格和构图相似的新图像网格。 2. 放大图像: 制作变体:创建放大图像的变体并生成包含四个选项的新网格。 网页:在 Midjourney.com 上打开图库中的图像。 最喜欢:标记您最好的图像,以便在 Midjourney 网站上轻松找到它们。 3. 模型个性化: MJ 发布了模型个性化 Personalization 或 'p' 的早期测试版本。 每次写提示时,很多信息是“隐含的”,MJ 算法通常用社区综合偏好填补空白,而模型个性化会学习您的喜好来填补。 模型个性化的要求:目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效,可在排名页面查看评分数量或在 Discord 上输入 /info。 使用方法:只需在提示后输入 'p',或使用提示栏中的设置按钮为所有提示启用个性化功能。启用时会在提示后添加一个“代码”,可分享让其他人使用应用于该图像的个性化效果,还可以使用 's 100' 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。 注意:个性化目前不是稳定功能,会随更多成对排名而变化,可能会推出算法更新,视为“不断变化的有趣功能”。 4. Midjourney V6 更新风格参考命令 2.0"sref": 2 月 1 日初次发布了首个“一致风格”测试算法,称为“风格参考”,工作方式类似于图像提示,可提供一个或多个描述想要的一致风格的图像的 URL。 使用方法:在提示后面输入 'sref' 以及一个指向图像的 URL,例如 'sref url A'。 高级设置:使用多个图像 URL 并设置风格的相对权重,例如 'sref urlA::2 urlB::3 urlC::5',通过 'sw 100' 设置风格化的总体强度(100 是默认值,0 表示关闭,1000 表示最大值),常规图像提示必须在 'sref' 之前。 注意:MJ 可能会在接下来的几周内更新此功能,若提示倾向于照片逼真而想要冲突的插图风格,可能仍需在提示中添加文本说明,风格参考对图像提示没有直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”的功能,与 'cref' 参数使用方式相同。
2025-03-13
去哪里使用mj
Midjourney 的使用方法如下: 模型个性化: 工作原理:模型个性化会学习您的喜好,以更符合您的口味生成图像。 要求:目前从成对排名中的投票和您喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。您可以在排名页面查看评分数量,或在 Discord 上输入/info。 使用方法:在提示后输入p,或使用提示栏中的设置按钮为所有提示启用个性化功能。启用时会在提示后添加一个“代码”,您可以分享此代码让他人使用应用于该图像的个性化效果。还可以使用s 100 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。 注意事项:个性化目前不是稳定功能,会随您进行更多成对排名而变化,且可能会在接下来几周内推出算法更新。 在 Discord 上的使用: 与 Midjourney Bot 互动:可以在 Discord 上进行,Midjourney 服务器具有不同的界面和频道。 直接消息:与直接消息中的 Midjourney 机器人进行一对一合作,获得更安静的体验。 Midjourney 官方服务器:提供协作和计费/技术支持渠道。 频道列表:包括support 频道获取计费和技术支持,newbies 频道创建图像。 会员名单:Midjourney Bot 使用命令生成图像,版主和指南可帮助解决计费和技术问题。 V6 更新风格参考命令 2.0"sref": 初次更新 1.0 说明:2 月 1 日,MJ 发布首个“一致风格”测试算法,称为“风格参考”,可提供一个或多个描述想要的一致风格的图像的 URL。 如何使用:在提示后面输入sref 及图像的 URL,例如sref url A。系统会将图像 URL 视为“风格参考”,并尝试生成与其风格或美学相匹配的内容,适用于 V6 和 Niji V6(不适用于 V5 等)。 高级设置:可使用多个图像 URL 并设置相对权重,例如sref urlA::2 urlB::3 urlC::5,通过sw 100 设置风格化的总体强度(100 是默认值,0 表示关闭,1000 表示最大值),常规图像提示必须在sref 之前。 注意事项:MJ 可能会在接下来几周内更新此功能,若提示倾向于照片逼真而想要冲突的插图风格,可能仍需在提示中添加文本说明,风格参考对图像提示没有直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”功能,与cref 参数使用方式相同。
2025-02-28
如何用mj有效地画三视图
要有效地用 Midjourney(MJ)画三视图,可以参考以下步骤: 1. 对于核心角色创建,如局长的三视图设计,先明确角色特点,使用 GPT4 生成相关描述。 2. 进行多次尝试和修改,根据团队成员的反馈不断调整。 3. 可以用 MJ 进行垫图生成,在保持原 IP 特点的基础上重新设计。 4. 如果 MJ 生成的效果不理想,可以结合其他工具,如用 Illustrator 手绘,再用 Stable Diffusion(SD)控图,后期利用 AI 工具生成拓展视频。 需要注意的是,MJ 虽然在美术效果和设计能力上有进步,但仍可能存在局限,需要不断尝试和改进。
2025-02-25
Mj
以下是关于 Midjourney(MJ)的相关信息: 1. 文字生成效果测试:MJ 在圣诞节前夕推出新版本 V6,聚焦于文字生成方面。使用英文文本输入,对英语提示词的识别效果变好,将需要生成的文本用双引号“text”包裹,输出的图片中便能出现所要求的文字。但带文字的图片生成仍受文本量、文字在画面中的占比、其他提示词数量和画面复杂程度等因素影响。为探究 V6 的文字生成能力开展了进一步实践测试。 2. 更新风格参考命令 2.0“sref”:2 月 1 日,MJ 发布首个“一致风格”测试算法,称为“风格参考”。工作方式类似于图像提示,在提示后面输入sref 及图像的 URL,可提供一个或多个 URL 并设置相对权重,还可通过sw 100 设置风格化总体强度。此功能适用于 V6 和 Niji V6,不适用于 V5 等。MJ 可能在接下来几周内更新此功能,风格参考对图像提示无直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”功能。 3. 角色一致性功能使用报告:MJ 推出角色一致性功能,以甜茶的图片为例进行测试。使用方式是在提示后输入`cref URL`附上人物图像的 URL,注意要在提示词后面,可使用`cw`修改参考强度,强度 100 是默认值,会使用面部、头发和衣服,强度 0 时只会关注面部。
2025-02-20
mj提示词
以下是关于 MJ 提示词的相关内容: 1. MidJourney 图片生成大师能够根据您的故事内容创作出全面的分镜提示词,包括分镜描述、人物描述、环境描述、氛围描述、灯光描述、色彩描述、构图描述、风格描述等。还会考虑您所使用的相机类型、摄影风格和镜头位置,您分享故事内容和具体需求即可获得专业服务。 2. 在提示词中,文本前置、后置等效果相近,过长的文本难以控制文本出现的位置,建议只要求 AI 生成部分主要文本内容,自行嵌字仍是当前最佳方法。加入引号“”包裹文本能达到 MJ 生成文字的效果,不必要特殊说明“生成一段文本......”等内容。MJ 能够自行判断文本应当存在的位置,会将文本安排在符合逻辑的位置上。后续有机会可进一步测试【局部重绘】能否控制文本在规定位置出现。总结来说,MJ 进行文本输出任务,提示词没有特别固定的语法结构,只需要认识其文本生成的能力范围和使用场景,即可高效应用 V6 模型生成有趣画面内容。 3. 让 Claude 出 MJ 提示词的提示词结构是:让大模型告诉你如何出 MJ 提示词效果会更好+让大模型出提示词+加上一些要求。先让大模型告诉你如何出 MJ 提示词效果会更好,因为大模型输出的过程也是思考的过程,所以对大模型循循善诱效果更好。对于有名的产品,如奔驰 E300L,每个出图的提示词都需包含“奔驰 E300L”。再加上一些要求,比如参数“ar 16:9”是要求 MJ 生成比例图片 16:9 的宽频图片,“q 2”是画面质量最高的参数。出 MJ 提示词还有更方便好用的办法,就是使用 chatgpt 里面的 gpts,如“Mid Journey V6 Prompt Creator”。可以理解为:chatgpt 是手机安卓系统,gpts 就是手机里的 app,不同的 gpts 能实现不同的功能,有的能绘画,有的能帮您总结文献,有的能生成更专业的 MJ 提示词。
2025-01-22
人物一致性
Midjourney 的角色一致性功能: 功能介绍:类似于“风格参考”功能,尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 实际效果:例如以甜茶或小公主的图片为案例,不同的强度参数下,发型、衣服等会有相应变化。 相关优势:能节省工期,提升生产管线的可控性。 其他应用:利用 MJ 重绘功能,在重绘提示词里输入`cref cw`保证角色一致性。对于生成图中的黑边,可框住黑边部分重绘输入关键词“background”去除,保证背景一致。 体验网址:MJ 的网页版体验较好,网址为 https://alpha.midjourney.com/
2025-03-29
星流ai人物一致性
以下是关于星流 AI 人物一致性的相关内容: 在实现角色一致性方面,有以下几种方法和示例: 1. 可以通过特定的 prompt 格式来实现,公式为:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。 2. Midjourney 推出了角色一致性功能,同步支持 MJ V6 和 Niji V6。跟之前的风格一致性sref 命名基本一致,为cref。cref 背后参数cw 的值可以从 0 设到 100,cw 100 会参考原图的脸部、头发和衣服,但相应的会非常不吃 Prompt;cw 0 时,就只会参考脸部,大概约等于一个换脸。 3. PixVerse 有“角色(Character)”新功能,能实现 AI 生成视频中的角色保持一致。用户只需单击“Character”功能,上传符合要求的图像,点击创建自定义角色,训练一个新角色,然后可使用自定义角色生成视频,可在 AI 生成视频中轻松切换场景,同时保持同一角色身份。该功能目前只支持真实人脸,暂不支持动物或其他风格照片。操作说明:在主页面点击选择“Character”,点击“Create Character”,在此界面通过点击或拖动的方式上传图片,命名您创建的 Character,最后点击“Create Cha”。提示:最好使用包含真实人脸的单人图片效果最佳,脸部大小需要超过 200×200px,面部无遮挡。Character 添加完毕后,等待 20 秒左右,在看到“Success”提示后,点击“Create”进。若未等到“Success”提示便进入创作界面,会找不到创建的 Character,此时需等待 10 30 秒,待 Character 创建完成即可。 相关网址: 1. 2. 3. Midjourney 网页版:https://alpha.midjourney.com/ 4. PixVerse:https://app.pixverse.ai/ (目前可以免费使用)
2025-03-18
人物一致性
Midjourney 的角色一致性功能: 此功能是官方推出的重要功能,可使生成的人物与参考图像相匹配。 使用方法:在提示词后输入 `cref URL` 并附上人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可使用 `cw` 来修改参考强度,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入 `cref cw` 。 若有黑边问题,可将黑边部分框住,重绘输入关键词 `background` 去除黑边保证背景一致。 体验 MJ 网页版效果较好,网址:https://alpha.midjourney.com/
2025-03-18
comfy ui 九宫格生图保持人物一致性的原理
Comfy UI 九宫格生图保持人物一致性的原理主要基于 PuLID 技术,具体如下: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,它结合了两个不同的模型分支(Lightning T2I 分支和标准扩散模型),引入了两种损失(对比对齐损失和精确 ID 损失)。 Lightning T2I 分支是一个快速、高效的文本到图像生成模型。 标准扩散模型是常见的、生成高质量图像的模型。 对比对齐损失帮助模型学习将输入的文本和生成的图像内容对齐,使生成的图像更符合文本描述。 精确 ID 损失确保生成的图像中的特定身份特征(比如人物的脸部特征)与目标 ID 一致。 此外,在保持人物一致性方面,还有一些操作步骤: 生成图像(提示词加入分割描述,让一张图生成多张同空间小图)。 通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类)。 上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 5 张)。 放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。 同时,Eva CLIP 也是相关的技术: Eva CLIP 是一种基于对比学习的视觉文本模型,将文本描述和图像内容映射到一个共享的嵌入空间。 对比学习架构:使用对比学习方法,将图像和文本嵌入到一个共享的空间,通过最大化匹配图像和文本对的相似度,同时最小化不匹配对的相似度,学习到图像和文本之间的关联。 强大的特征提取能力:编码器擅长提取图像中的细节特征,并将其转换为有意义的嵌入向量,用于下游任务。 多模态应用:能够处理图像和文本两种模态,广泛应用于多模态任务中,如生成、检索、标注等。 其应用场景包括图像生成、图像检索、图像标注等。Eva CLIP 编码器通常与深度神经网络结合使用,如卷积神经网络(CNN)用于图像特征提取,Transformer 网络用于处理文本描述。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: instant ID 脸部特征抓取得比 pulid 好,放在最后一步重绘,先 pulid,再 instantID https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e8 1d90 4373 94cf 0249d14c73c8 测试案例:
2025-03-17
comfy UI 如何保持人物一致性
要在 ComfyUI 中保持人物一致性,可以通过以下方式实现: 1. PuLID 技术: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,无需复杂调整。 它结合了 Lightning T2I 分支和标准扩散模型两个不同的模型分支,并引入了对比对齐损失和精确 ID 损失两种损失,以确保在保持原始模型效果的同时,高精度地自定义 ID。 Lightning T2I 分支是快速、高效的文本到图像生成模型,标准扩散模型是常见的生成高质量图像的模型。 PuLID 可以让您在生成图像时更精确地定制人物或物体的身份,将特定 ID(例如人脸)嵌入到预训练的文本到图像模型中,而不会破坏模型的原始能力。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: 百度网盘:https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e81d90437394cf0249d14c73c8 instant ID 脸部特征抓取得比 PuLID 好,可放在最后一步重绘,先 PuLID,再 instantID。 2. 节点设置: 节点插件 PuLID ComfyUI:https://github.com/cubiq/PuLID_ComfyUI model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。比如,ortho_v2 和 fidelity:8 等价于标准节点的 fidelity 方法,而 projection ortho 和 fidelity:16 等价于 style 方法。 此外,在 8 月 13 日的 ComfyUI 共学中也提到控制人物一致性有很多方法,课程后期会介绍。
2025-03-17
人物一致性
Midjourney 的角色一致性功能: 此功能类似于“风格参考”,但尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入`cref cw`。 若有黑边问题,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 体验 MJ 网页版效果更佳,网址:https://alpha.midjourney.com/
2025-03-13
我想做视频二创,比如把视频背景换掉,人物上的衣服换掉,请给我推荐一下相关AI工具
以下是为您推荐的一些用于视频二创,如更换视频背景、人物衣服的相关 AI 工具: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画。Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。 GitHub:https://github.com/novitalabs/AnimateAnyone API:https://novita.ai/playgroundanimateanyone https://x.com/imxiaohu/status/1796191458052944072 2. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。 https://x.com/imxiaohu/status/1796019244678906340 3. 在进行视频二创时,若需要更精确的蒙版,比如人物的眼睛或身上的配饰等,可以使用 segment anything 中的 GroundingDINO。启用 GroundingDINO 后,AI 会自动下载模型,也可在没有魔法的情况下到云盘直接下载,放到指定文件目录下“……sdwebuiakiv4.2\\extensions\\sdwebuisegmentanything\\models\\groundingdino”。在检测提示词中输入相关内容,AI 可根据语义分割自动检测并设置好蒙版。还能通过预览箱体得到部分编号进行单一调整。比如给人物换背景时,加载生成的背景蒙版,选择合适的大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”,若有需要还可进行后续细化和 PS 修复。
2025-04-01
如何让一张卡通人物动起来
要让一张卡通人物动起来,可以参考以下几种方法: 1. 使用 AnimateX :类似 Animate Anyone,输入角色图片和参考动作序列,即可实现角色动画,尤其适配拟人化的角色。 2. 借助 Pika : 账号注册:访问完成免费注册。 素材整理: 视频:准备一段视频,可手机实拍,≥5 秒,生成时会自动截取前 5 秒,横屏/竖屏均可(建议 1080p 以上)。 图片:准备一张主体清晰无遮挡的角色图片,生成的视频中将参考此图片的角色并融入视频。 文案思路:提前构思角色动态关键词(如“奔跑/挥手/发光”),也可让模型自由发挥。 3. 运用即梦进行图生视频:只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。 此外,在制作过程中,还可以像桂大羊的教程那样,通过描绘人物的提示词、上传角色参考图、扣除角色背景以便于进行角色加背景的融合生成时进行垫图操作等方式,提高人物和场景的融合度。
2025-03-30
关于图片生成人物衣服的提示词
以下是关于图片生成人物衣服的一些提示词相关内容: 在使用 Segment Anything 时,启用 GroundingDINO 可自动下载模型,将其放到特定文件目录下,在检测提示词中输入相关内容,如“eye”,可自动检测并设置蒙版。通过预览箱体获取编号,可选择调整单一部分。例如,只想调整左边眼睛,勾选 1 即可。还可给人物换背景,如大模型选择 revAnimated_v122,正向提示词为简单背景、花、国画、工笔,蒙版模式选择“重绘非蒙版内容”。将生成的图片放入图生图中,使用 tile 模型能给人物衣服添加国风元素。 设置模型和提示词时,例如大模型为 ghostmix_v20Bakedvae,正向提示词包含人物特征、服饰等描述,负向提示词包含 EasyNegative、badhandsv5neg 等。生成图片后可进行细节微调。 使用 cutoff 插件时,点击启用后按提示词顺序依次填入颜色提示词,中间用逗号分开,能准确显示颜色。如创建双人物构图,设置好人物形象和提示词,先在不开启插件时生成图片可能有颜色污染,开启插件并输入颜色信息后能保证颜色与提示词的关联性。
2025-03-28
我上传一个ai人物形象,有什么AI能驱动他当做数字人来口播,免费的那种
以下为您介绍一些可以免费驱动 AI 人物形象当做数字人进行口播的工具及使用方法: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加您的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 使用方法: 点击网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。 4. 剪映: 优势:作为字节跳动旗下的产品,在抖音平台上被广泛应用,海外版 CapCut 也有出色表现。其拥有六大 AI 功能,能在编辑器里完成脚本生成、语音克隆、数字人口播等环节。 下载地址:剪映 制作流程: 打开剪映,添加一个文本到文字轨道,并修改好需要朗读的文字。 点击朗读,并进行声音克隆,剪映的声音克隆现在只用念一句话就可以完成克隆。 克隆完成后,选择喜欢的数字人形象,并把自己的克隆音色换上去。 一键智能生成字幕,再自行调整文字样式并校准。 生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象。 当选择一个数字人形象时,软件会马上播放出该数字人的声音。点击右下角的“添加数字人”,就会将选择的数字人添加到当前视频中。 左下角会提示渲染何时完成。然后可以点击预览按钮,查看生成的数字人效果。 增加背景图片: 可以直接删除先前导入的文本内容。 为视频增加背景图片,点击左上角的“媒体”菜单,并点击“导入”按钮,来选择本地的一张图片上传。 点击图片右下角的加号,将图片添加到视频的轨道上(会覆盖数字人)。 点击轨道最右侧的竖线,向右拖拽,直到视频的最后,也就是和视频对齐。
2025-03-27
如何用AI生成饰品商业用的人物海报?
以下是用 AI 生成饰品商业用人物海报的步骤: 1. 商业教程:统一 2 个角色的插画海报 生成女性:获取男生那张的 seed,加在关键词后面,生成女生。挑选相似的。也可以先 U3 后继续通过变化的变化 2 个按钮挑选合适的。 局部重绘:局部重绘不满意的表情,比如希望女生开心点,添加“happy”。 PS 处理:把需要的角色扣在一起,PS 把颜色调整一致(如果有 PS AI 版可以修修手)。 小素材生成:其他过程稿。 2. 【SD】商业换装如此简单,Segment Anything 保姆级教学 启用 GroundingDINO 模型分割:当需要更精确的蒙版,如人物的眼睛或身上的配饰等,启用 GroundingDINO,AI 会自动下载模型,可通过魔法或云盘下载,放到指定文件目录下。在检测提示词中输入相关内容,如“eye”,可自动检测并设置蒙版,还能通过预览箱体得到编号选择调整单一部分。 更换背景:加载生成的背景蒙版,选择大模型和正向提示词,设置蒙版模式,生成图片。若头发部分没抠好,可放入图生图中使用 tile 模型做整体细化,再到 PS 用创成式填充修复头发。 3. Midjourney 商业实战案例 娇兰香水产品摄影图:输入关键词“Guerlain Perfume,plant flowers,top light.cean natural backaround with water,saturation color scheme.The productis bright,Motled shading,studo lighfing,contrast high precision,Fine gloss,Centered composition,Photography,HD4Krealism–q 2–v 5–s 750–ar 9:16”,多生成几组图片,挑选不错的在 PS 或其他后期软件中修改调整并进行文字排版。 美女模特摄影海报:输入关键词“On a sunny summer day,a beautiful and innocent18yearold Korean gir smiles brightly playing withwater in the stream–ar 9:16–v 5”,生成图片后制作海报。 江南清明节海报:输入关键词“jiangnan,hangzhou,summer scenery,Green trees,small houses,brook2,Ultrahigh definition picture,8K–ar 2:3–v 4”。
2025-03-26
请你作为AI设计师,为我推荐好用的AI风格化工具,可以进行批量处理图片,与此同时保持高度的风格统一
以下为您推荐一些好用的可批量处理图片并保持高度风格统一的 AI 风格化工具: 1. 星流一站式 AI 设计工具: 基础风格模型 Checkpoint:包含多个分类不同风格的大模型,适用于写实摄影、插画、动漫、3D 立体等,能生成丰富多彩的图片效果。其中星流通用大模型相比常见大模型具有更强的语义理解、更高的艺术审美和表现力。基础模型 F.1、基础模型 XL、基础模型 1.5 在效果和生成速度上有所不同,效果上基础模型 F.1>基础模型 XL>基础模型 1.5,生成速度上基础模型 1.5>基础模型 XL>基础模型 F.1。入门模式下只能使用星流通用大模型。 增强模型:作为基础模型的补充,用于生成特定风格、角色。您可以收藏模型、查看例图,还可以通过滑动鼠标到图像并点击风格,将当前风格当作增强模型使用。 2. Magnific AI:具有新功能——风格转换,可以将任意照片转换成各种风格的图像,同时保持人物对象的一致性。大 BOSS 的演示和教程下周开放访问。 3. Cartwheel:文本转 3D 动画工具,输入文字提示即可生成适用于多种用途的 3D 动画角色,支持指定动作,可以导出到任何 3D 程序中编辑。目前处于早期阶段,还在测试阶段,需排队。
2025-03-27
你觉得作为一个普通人,应该怎样更高效的使用AI,并且保持跟上AI快速迭代的节奏?
作为普通人,要更高效地使用 AI 并跟上其快速迭代的节奏,可以参考以下策略: 1. 提前布局职业生涯:审视自身所处行业和岗位,预估 5 10 年后被 AI 取代的程度。若风险高,即刻学习新技能并向更有前景的领域转型;若风险低,思考如何在 AI 辅助下将工作做到极致。 2. 投入 AI 浪潮:敢于使用和研究 AI,将其融入业务,哪怕从简单应用开始,实践中发现新机会点。 3. 强化不可替代的人类技能:如创意、沟通、领导、跨领域知识、独特专长等。 4. 建立个人品牌和网络:通过分享专业见解、持续学习输出内容,在业界建立口碑,积累人脉和声望。 5. 拥抱创业和多元收入:利用 AI 降低的创业门槛,发展副业或项目,探索多种可能性,经营多元身份提升抗风险能力。 6. 保持健康的身心:学会调适心态,持续锻炼身体,以良好的身心状态应对挑战。 此外,在 AI 时代,持续学习能力与适应力是最重要的个人能力之一。要培养自己成为终身学习者,保持好奇心,定期涉猎新领域的知识或课程,锻炼自学能力,勇于打破舒适区。同时,要在心理上拥抱变化,将其视为机遇而非威胁,培养心理韧性,以积极的心态应对不确定性。 在监管方面,英国采用了基于原则的框架,其监管体制具有创新、适度、可信、适应、清晰和协作等特点,旨在促进创新的同时平衡风险与机遇,加强在 AI 领域的全球领导地位。
2025-03-09
如何让文生图片保持形象一致
要让文生图片保持形象一致,可以参考以下方法: 1. 首先进入文生图,填写提示词,例如“,一头白发的女孩坐在绿植和鲜花的田野里,温暖的灯光,模糊的前景”,设置常规参数生成一张图。 2. 若想以该人物为主角生成一系列其他图,将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,先将保真度数值设置为 1。 3. 在没有明确指向性提示词的情况下,人物形象能保持一致,但表情、动作、服装可能产生随机变化。 4. 可以通过添加关键词来给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等,比如添加“红裙子”“黑色校服、哭泣”“抱手、生气”“在花丛中奔跑、开心”“红色棒球帽,时尚卫衣,在商场逛街”。 5. 像制作典籍类作品时,可对主要人物先出一版形象照,后续所有画面用“cref”做人物一致性的操作。 通过以上一系列操作和测试,可以发现这些功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况做实时的调整,若后期再配合 lora,潜力非常大。
2025-03-02
图生图, 如何保持幻想生物形象一致性
要在图生图中保持幻想生物形象的一致性,可以参考以下方法: 1. 对于 Midjourney ,可以采用特定的名人或有特殊属性的人物形象,先确定好影片风格,比如皮克斯动画风格,然后确定好人物形象,如角色的发型、穿着等细节。 2. 利用 Midjourney 的新功能 Cref ,先跑一张主角的定妆照,在需要出现主角人物的地方扔进去 Cref ,以保持发型、人脸、衣服等的一致性。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,尤其是亚洲老人的一致性效果相对较差,且 Cref 在画面的审美和构图上有一定的破坏性,所以原则上能不用就不用,比如只有背影时,简单描述即可。 3. 生成动物形象,动物相对更容易保持一致性。
2025-02-14