直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何用midijurney生生人物一致性

回答

在 Midjourney 中实现人物一致性,主要通过以下方式:

  1. Midjourney V6 更新了角色一致性命令“--cref ”。您可以根据需要重复此过程,但要注意不要过多操作,以免丧失保真度。添加角色参考图像,并选择一个“--cw(cref 权重)”以达到效果。Midjourney 能够从参考图像中识别的角色属性将与提示混合,从而创建出角色的最终表现。您可以通过使用“--cw N”参数(cref 权重)来大致控制转移,其中 N 的值可以从 1 到 100,默认值为 100。“--cw”参数不会改变角色参考图像的强度/影响力,其作用如下:
    • “--cw 100”的值(默认值)将捕捉整个角色。
    • “--cw 99 到--cw 1”之间的值将开始捕捉较少的整个角色,仅集中于转移面部。
    • “--cw 0”的值将仅捕捉面部,大致类似于面部替换。且无法关闭面部的转移。
  2. 在群像人物一致性保持及空间深度控制方面,以双人画面人物一致性的保持为例,分为 5 步:
    • Step 1:将初始图(A)以及人物图(B)作为风格(sref)及人物(cref)的参考内容,提示词中需要注意:
      • 描述好空间关系(下方画线部分),视角问题可以略过(风格参考会自带角度)。
      • 成功输出图(C),可能会遇到女同事 Lisa 无法保持跟初始图(A)一致的问题。其中:sref 为风格参考,cref 为人物参考,cw 范围为 0 - 100,默认 100 但建议写上去确保万无一失。
    • Step 2:找到已生成的 Lisa 纯人物的图,提取图片链接(url)做准备工作。
    • Step 3:基于 Step 1 生成的构图清晰但人物失控的成图(C)基础上,进行重绘 Vary Region,步骤为:
      • 框选需要被替换的人物。
      • 然后将 Step 2 准备好的链接,贴入框内界面 cref 后面,注意先把原始的 cref(即红色部分)删掉。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Midjourney V6 更新角色一致性命令 "--cref "

根据需要重复此过程,但要小心不要过多地这样做,因为会丧失保真度。4.添加您的角色参考图像,并选择一个--cw(cref权重)以达到效果Midjourney能够从参考图像中识别的角色属性将与提示混合,从而创建出您角色的最终表现。您可以通过使用--cw N参数(cref权重)来大致控制转移,其中N的值可以从1到100。默认值为100。注意:--cw参数不会改变角色参考图像的强度/影响力,--cw参数的作用:· --cw 100的值(默认值)将捕捉整个角色。· --cw 99到--cw 1之间的值将开始捕捉较少的整个角色,仅集中于转移面部。· --cw 0的值将仅捕捉面部,大致类似于面部替换。·您无法关闭面部的转移。

Midjourney V6 更新角色一致性命令 "--cref "

根据需要重复此过程,但要小心不要过多地这样做,因为会丧失保真度。4.添加您的角色参考图像,并选择一个--cw(cref权重)以达到效果Midjourney能够从参考图像中识别的角色属性将与提示混合,从而创建出您角色的最终表现。您可以通过使用--cw N参数(cref权重)来大致控制转移,其中N的值可以从1到100。默认值为100。注意:--cw参数不会改变角色参考图像的强度/影响力,--cw参数的作用:· --cw 100的值(默认值)将捕捉整个角色。· --cw 99到--cw 1之间的值将开始捕捉较少的整个角色,仅集中于转移面部。· --cw 0的值将仅捕捉面部,大致类似于面部替换。·您无法关闭面部的转移。

Midjourney群像人物一致性保持及空间深度控制

Step 1:将初始图(A)以及人物图(B)作为风格(sref)及人物(cref)的参考内容,提示词中需要注意⚠️:a.描述好空间关系(下方画线部分),其中视角问题可以略过(风格参考会自带角度);b.成功输出图(C),这时会遇到问题:女同事Lisa无法保持跟初始图(A)一致;(在这里无需纠结,Step 1的重点在于确认整个画面的构图,人物可以通过后续重绘解决)**其中:sref为风格参考,cref为人物参考,cw范围为0-100,默认100但是建议写上去确保万无一失A.初始图(单人画面生成结果)B.男同事Jeff画像C.构思中应产生的构图效果(即男生作为主角,女生作为配角,一前一后,画面具有层次感)Step 2:找到已生成的Lisa纯人物的图,提取图片链接(url)做准备工作。Step 3:基于Step 1生成的构图清晰但人物失控的成图(C)基础上,进行重绘Vary Region,步骤:a.框选需要被替换的人物,b.然后将Step 2准备好的链接,贴入框内界面cref后面,注意⚠️:先把原始的cref(即红色部分)删掉哦!

其他人在问
图片的前后一致性,如何实现
要实现图片的前后一致性,可以参考以下步骤: 1. 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。 2. 确定前后图的构图风格:出第二张图时,描述其内容并在提示词中加入第一张图的构图风格(使用 iw 参数)。需注意,输入 ar、iw 等参数时,要与前面的提示词用空格隔开,否则会报错。例如:“a dog 空格 ar 16:9 空格 iw 1”。将生成的多张图中选择一张图作为垫图,通过右键图片获取其地址。按照格式将提示词、垫图关键词写入。通过微调提示词,得出满意图。 3. 确定图片角色一致性:在得到构图相同后,利用 MJ 重绘功能对画面里的角色重绘。在重绘提示词里输入 cref cw 来保证角色一致性,cref 所垫图还是用之前的图,因为它包含构图和人物两个内容。如果出现黑边,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 由于 MJ 存在不可控因素,如果要保证前后两张图画风、构图等都保持一致,可以按照上述三个确定来处理。需要注意的是,MJ 在重绘时,相较于改变整个画面结构,固定位置重绘局部内容会容易很多。先保证构图再确认角色一致性,就好比美术课画画,把背景风格做好了在固定位置添加内容,比将整个页面内容全部重绘且保证画面主题内容与参考图一样要容易,后者随机性更大。
2024-10-10
stable diffusion 绘本一致性
Stable Diffusion 绘本一致性相关知识如下: 工作原理: Stable Diffusion 生成随机噪声,并逐步更改噪声以努力获得与提示一致的图像。其基本结构包括 encoder + diffusion + decoder 的流程。Checkpoint 记录某个训练周期整个 diffusion 及可能的 encoder decoder 的参数,VAE 是 encoder decoder 的参数,在 SDXL 等大型模型中需配对以避免花屏现象。LoRA 模型训练时先冻结 SD 模型权重,然后在 UNet 结构中注入 LoRA 模块并与 CrossAttention 模块结合,只对部分参数微调。 相关论文: AnyDoor: MixofShow: LyCORIS: 影响生成结果的因素: 影响生成的图与他人不同的因素包括随机数种子(Seed)。随机数种子控制最底层形状,决定照片基础轮廓,如人物外形轮廓、姿势和站位等。当随机数为“1”时,SD 会随机生成种子。可在点击生成的照片下面的一大串英文中查看 seed 值。只有所有参数包括随机数种子都与他人相同时,才能生成相似的照片。
2024-09-30
ipadapter的作用是什么,能实现人物的一致性吗?比如参考人物的脸部特征
IP Adapter 即图像提示词适配器,其作用包括: 能够“复刻图像”,用户输入图像可直接生成内容或风格相似的图像。 注重图像风格和语义的复刻,兼容性强,可与结构控制插件一起使用,既控制结构,也控制图像的语义和风格。 是解决角色和风格一致性的优雅方法,能够非常精准地提取风格参考图中的角色和风格特征。 在处理人物一致性方面,IP Adapter 有一定的应用,例如在相关的图生图操作中会用到。关于其使用,之前有文章介绍。同时,Midjourney 也有类似的人物一致性相关功能。
2024-08-25
lora训练的数据集没有闭眼,如何保证人物一致性前提让角色闭眼
在训练 Lora 模型以保证人物一致性的前提下让角色闭眼,以下是一些可能的方法和参考信息: 得益于对 AI 大模型微调 finetuning 技术的研究,摸索出的训练特定画风 Lora 和特定角色 Lora 的方法,对角色一致性的锁定有决定性帮助。比如完善哪吒短褂、小短裤、额前火焰印记、流苏耳饰等细微之处的统一,最终针对不同主要角色分别训练角色 Lora,保障多人同框镜头的一致性。 实现角色一致性最好的方法是使用 Lora。训练 Lora 时,至少要有 15 到 20 张图片的训练集。对于固定形象,面部五官最重要,其次是体型、服装、配饰等。收集训练集时,收集形象的头部图片很重要。对于现实人物可通过照片训练,虚构角色则要能稳定输出多张不同角度的图片以达到训练集要求。 在预处理生成 tags 打标文件后,对文件中的标签进行优化。保留全部标签适用于训练画风或省事快速训练人物模型,优点是省时省力、过拟合出现情况低,缺点是风格变化大、训练时间长。删除部分特征标签适用于训练特定角色,将特征与 Lora 做绑定,优点是调用方便、更精准还原特征,缺点是容易过拟合、泛化性降低。需要删掉如人物特征 long hair、blue eyes 这类标签,不需要删掉如人物动作 stand、run,人物表情 smile、open mouth,背景 simple background、white background,画幅位置 full body、upper body、close up 这类标签。过拟合会导致画面细节丢失、模糊、发灰、边缘不齐、无法做出指定动作、在一些大模型上表现不佳等情况。
2024-08-12
生成橘猫图片怎么保持一致性
要生成橘猫图片并保持一致性,可以参考以下方法: 1. 采用 InstantStyle 技术,通过内容与风格分离以及只往特定的风格块注入特征这两个关键方法,来实现生成图片风格的一致性。 2. 在 runway 分镜选图中,对于橘猫的描绘要注意保持角色一致性,比如胖瘦统一、衣服统一、造型统一等。 3. 利用 DALL·E 和 Custom Instrctions 的组合,将解决 DallE 生成图一致性问题的 prompt 进行优化并添加到 Custom Instrctions 中。添加之后,正常打开 DallE 会话,生成的图片会有唯一 ID。有了唯一 ID,可以进行微调图形细节和多图融合时,可以指定两张不同图片的 ID 让它们进行融合,例如“please blend image 00X and 00Y”。 希望以上信息对您有所帮助,让您能够更有效地生成具有一致性的橘猫图片。
2024-07-15
关于seed值 和风格一致性cref sref的文章
关于 seed 值和风格一致性 cref sref 的文章 在 Midjourney 中,cref 和 sref 都是用于引用图片的功能,但它们的作用和使用方式有所不同。 1. 角色参考(cref): cref 的功能是保持图像角色的一致性。根据你提供的现有角色图像的 URL,生成与之相似的角色。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girl cref\。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref): sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girl sref\。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果你想引用一张图,但只是把它作为新图的一部分,你可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。 例如,如果你想引用一张图的风格,但只希望它占新图的一部分,你可以这样写提示:/imagine prompt beautiful girl sref\sw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格¹。 希望这些信息对您有所帮助!
2024-05-08
怎么用AI绘制一个我指定的动漫人物原型的各类图片,例如日漫《好想告诉你》中的黒沼爽子
要使用 AI 绘制指定的动漫人物原型,如日漫《好想告诉你》中的黑沼爽子,您可以按照以下步骤进行: 1. 选择合适的 AI 绘画工具:目前有许多在线的 AI 绘画平台和软件可供选择,例如 DALL·E2、StableDiffusion 等。 2. 明确描述特征:在输入描述时,尽可能详细地描述黑沼爽子的外貌特征,包括发型(如黑色的长直发)、眼睛(如大而明亮的眼睛)、服装(如校服的款式和颜色)、表情(如羞涩的微笑)等。 3. 参考相关图片:如果可能,找到黑沼爽子的官方图片或其他粉丝绘制的作品,作为参考提供给 AI 绘画工具,以帮助其更好地理解您的需求。 4. 不断调整和优化:根据生成的初步结果,对描述进行调整和优化,例如修改某些特征的描述、增加更多细节等,以获得更符合您期望的图片。 需要注意的是,AI 绘画的结果可能会受到多种因素的影响,不一定能完全符合您的预期,但通过不断尝试和优化,您有机会获得较为满意的作品。
2024-10-17
生成人物图像哪个AI最好
以下为一些生成人物图像较好的 AI 工具及相关信息: PhotoMaker:可以根据文字描述生成人物照片,能混合不同人物特征创造新形象,还能改变照片中人物的性别、年龄。网址:https://photomaker.github.io 。 在人物构图的视角选择方面,有以下几种常见视角: 正视角:拍摄对象正对着相机的姿态,使人像呈现出正面的视角。咒语关键词:Front view 。生成思路:正视角的年轻女孩。生成咒语:young girl,front view,ar 16:9 。 后视角:从被摄对象的背后拍摄的视角,以被摄对象的背部为主要构图元素。咒语关键词:Back view angle & Back angle 。生成思路:后视角的年轻女孩。生成咒语:young girl,back view angle,ar 16:9 。 侧视角:观察或拍摄物体或场景时从侧面的角度观察,可用于展示物体的形状和轮廓,或创造深度和距离的感觉。咒语关键词:Side view & Shoulder level view 。生成思路:侧视角的年轻女孩。生成咒语:young girl,Side view,ar 16:9 。 仰视角:观察或拍摄物体或场景时从底部的角度观察,通常会让物体看起来更为庞大和高大,具有一定的视觉冲击力和震撼效果。咒语关键词:Bottom view & Low angle view 。生成思路:仰视角的年轻女孩。生成咒语:young girl,low angle view,ar 16:9 。 俯视角。 此外,还有 Sam Altman 与 Bill Gates 关于 GPT 的未来讨论,以及 Portkey AI 网关这一连接多种 AI 模型的工具。
2024-10-12
如何在midjourney中只进行照片背景修改,而不修改人物姿态和表情
在 Midjourney 中只修改照片背景而不修改人物姿态和表情,您可以参考以下方法: 1. 得益于cref,midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果您只想关注人脸,请调低到 0。您不需要对角色原图使用/describe 来贴近目标生成角色的形象,因为cref 会帮您完成这件事情。 2. 风格复制和服装的替换,则应当用提示词(prompt)和sref,默认值 100,越高越接近参考图像的风格。 3. 如果遇到“形似而神不似”的问题,即 MJ 直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有一些细微的差距,您可以按照以下步骤操作: 使用/settings 确保您处于模式并且 Remix 设置为打开。 选择带有您想要更改的面部的图像。使用将其从网格中分离出来,然后选择。 由于您已经开启了 Remix,您将能够编辑提示。 从提示中删除cref 和cw。一旦删除了它们,修改提示以对面部进行更改。例如,您可以慷慨地选择面部的下半部分,并添加“清洁剃须”来除去胡须。您可以尝试使用小的负权重,例如 tattoos::0.5 来移除纹身。 注意:当您对更改满意时,请确保不要再次添加cref 到提示中!一旦添加回来,“面部交换”将再次发生,那些不需要的属性将重新出现。 4. 有时,Midjourney 在正确将角色放置在背景中时会遇到一些困难。如果结果不连贯(例如,您看到头部朝后或图像被奇怪地裁剪),请尝试将 stylize增加到 800 1000。您也可以尝试将cw 同时降低到低于 100 的值,视情况而定。
2024-10-10
生图后,人物的模样及服装等统一,用哪一款
在保持人物模样及服装等统一方面,如果使用 Midjourney ,有以下相关信息: 1. Midjourney 有新功能 Cref ,可以先跑一张主角的定妆照,在需要出现主角人物的地方,扔进去 Cref 以保持发型、人脸、衣服。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,比对欧美的人脸的一致性效果差,年轻人的效果相对较好,亚洲老人的效果惨不忍睹。而且 Cref 的效果在画面的审美和构图上有一定的破坏性,所以原则上能不用 Cref 就不用,比如只有背影的时候,写个短发男人黑卫衣就可以。 2. 对于人物一致性,还有两个取巧的方式,一个是生成动物,动物会比较容易保持一致性,另一个方式是特定的名人或有特殊属性的人物。 3. 在使用 Cref 时,您可以在提示词后添加 cref URL 并附上人物图像的 URL ,还可以使用 cw 来修改参考强度,强度 100(cw 100)为默认值,会使用人物的脸、头发和衣服,强度 0(cw 0)时则只关注脸(适合改变服装或发型等)。Cref 不仅适用于 Niji 和普通的 Midjourney 模型,还可以与 sref 结合使用。在网页版 alpha 中,您可以通过拖拽或粘贴图像到想象栏,选择相应图标来设置图像为图像提示、风格参考或人物参考,Shift + 选择一个选项可以将一张图像用于多个类别。
2024-10-10
推荐让图片中的人物动起来的软件
以下为能让图片中的人物动起来的软件及相关方法: 1. 方法一:利用 MJ 画图先画出想要的底图,然后使用 InsightFaceSwap 插件处理脸部,因该插件对多人脸部同时处理效果不佳,需先对图片进行分割裁剪,分别处理后再缝合,最后利用可灵或其他软件让图片动起来。 2. 方法二:在网上寻找能直接融合两张照片的软件或项目,直接对图片进行融合,若没有则进行纯 P 图处理,然后利用图生视频的项目完成。 此外,还有一些关于图片处理的相关知识: 在 Stable Diffusion 中,通过添加关键词、调整重绘幅度等操作可以实现局部重绘和背景修改。例如,利用 PS 制作精确蒙版,在重绘时选择重绘非蒙版区域,调整提示词等。 利用醒图或美图秀秀等 App 可以调整脸部,如在醒图中关注人像>面部重塑>面部>比例,调整上庭、中庭、下庭。 对于 MJ 画图,若直出的皮肤缺乏质感,可使用醒图的人像>手动美颜>皮肤肌理功能。若想快速调整光源,可试试 Luminar。
2024-10-09
使用人物Lora生成的图片中有多个人物时,怎么让人物的形象各不相同?
在 Stable Diffusion 中,若使用人物 Lora 生成的图片中有多个人物并想让人物形象各不相同,可参考以下方法: 1. 在提示词中输入数量词(如 2girls 或 3boys 等),再加上各自的描述提示词。若刷图成功率不高,可配合 openpose 控制,做一个多人骨架,以生成多人物构图。 2. 需使用不同的 Lora 来区分人物,但单纯靠提示词可能行不通。 3. 分区控制思路: Multidiffusion 的做法:启用 Tiled Diifusion,打开分区提示词控制,创建文生图画布。启用不同区域,分别填写背景、不同人物的描述词和 Lora。增加 controlnet 的 openpose 控制来稳定人物,但可能存在分区生成的人物连续性低、lora 控制不强等问题。 Latent Couple 的做法(文中未提及,需进一步探索)。 此外,关于 Lora 模型: 1. Lora 可以固定照片的特征,如人物特征、动作特征和照片风格。 2. 点击“生成”下面的第三个按钮,找到 Lora 选项,可添加下载保存到电脑的 Lora 模型,Lora 可叠加使用,但新手不建议使用太多,且 Lora 之间用英文逗号隔开,每个 Lora 后面的数字用于调整权重,一般只会降低权重。选择 Lora 应根据最初想要生成的照片类型决定。
2024-09-27