Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

midjourney 一致性

Answer

Midjourney 推出了角色一致性功能,以下是相关要点:

  1. 该功能在 MJ 一鸽再鸽后终于放出,同步支持 MJ V6 和 Niji V6。
  2. 风格一致性、角色一致性、场景一致性是进入生产管线的重要可控性功能,实现难度由低到高。
  3. --cref 背后参数 --cw 的值可从 0 设到 100,--cw 100 是默认参数,会参考原图的脸部、头发和衣服,但会非常不吃 Prompt;--cw 0 时,就只会参考脸部,约等于一个换脸。
  4. 使用方法:在提示词后输入 --cref URL 并附上一个人物图像的 URL,注意一定要在提示词后面,第一次没注意加在前面会报错。可以使用 --cw 来修改参考强度,强度 100 是默认值,会使用面部、头发和衣服;强度 0 时,只会关注面部,适合改变服装、发型等。
  5. --cref 命令适用于单一主题、单一角色的图像。如果计划在场景中添加多个角色,需要使用平移按钮来添加,基于 cref 的多个角色放置到单个画布上的最佳方法是使用平移功能将新的画布与现有画布拼接在一起,每个新画布的部分都将有自己的 cref。使用时需先使用 /settings 将 Remix 打开,然后选择 [High Variation Mode/高变化模式],选择将包含第二个字符的图像,然后使用 U 将其从网格中分离出来,寻找蓝色小箭头添加新角色。
  6. 您可以仅描述环境、周围环境、背景或情境,Midjourney 将努力将角色融入场景中。如果出现不连贯的结果,可尝试使用更高值的样式化(--s),例如 --s 800。
  7. 体验 MJ 网页版的网址:https://alpha.midjourney.com/
Content generated by AI large model, please carefully verify (powered by aily)

References

半个AI圈期待的Midjourney角色一致性首发评测 - 再入迷梦

在MJ一鸽再鸽,鸽了N次之后,今天早上6点,他们终于决定把他们万众期待的功能放出来了。角色一致性。同步支持MJ V6和Niji V6。跟之前的风格一致性--sref命名基本一致,--cref。坦率的讲,风格一致性、角色一致性、场景一致性,是我觉得三个能真正进入生产管线的极度重要的可控性功能。其实现难度由低到高。毕竟,你真要用MJ去带故事带场景的东西,这些一致性肯定是要的,要不然疯狂跳戏,那观感肯定奇差无比,这个妹子一会白头发一会红头发,一会圆脸一会方脸,你都怀疑你在看个什么异世界故事。之前有朋友也在群里疯狂吐槽过:风格一致性MJ有sref命令去做很好的解决了,而角色一致性,今早也终于放出来了,讲道理,他可以节省一半的工期了hhhhh。--cref背后参数--cw的值可以从0设到100,--cw 100是默认参数,此时会参考原图的脸部、头发和衣服,但是相应的,会非常的不吃Prompt。--cw 0的时候,就只会参考脸部,大概就约等于一个换脸。最近《沙丘2》挺火,上个小公主给大家当一下case。原图是这样的:使用--cref之后。还是能明显看出区别的。--cw 100的时候,人物的头饰、衣服都是大差不差的;--cw 0的时候,发型和衣服就全变了。至于用法,我比较习惯使用MJ的网页版,体验真不是好的一点半点,网址在此:https://alpha.midjourney.com/

Midjourney角色一致性功能使用报告

MJ终于出角色一致性了,虽然之前大家就用图片参考和插件换脸的方式尝试过很多路径,但是这次官方终于下场了,这篇文章我会用甜茶的图片为案例看看MJ这个超级重要的功能完成度有多高。(用甜茶的原因是刚看完沙丘,并且大家熟悉的明星用来测试如果特征匹配不够好,就会很明显的看出来)。"人物参考"功能。这类似于"风格参考"功能,只是它不是匹配参考风格,而是尝试使人物与"人物参考"图像相匹配。[heading1]如何使用[content]在你的提示后输入`--cref URL`并附上一个人物图像的URL⚠️这里强调一下,一定要是提示词后面,我第一次没注意加在前面了,就报错了。你可以使用`--cw`来修改参考'强度'从100到0强度100(`--cw 100`)是默认值,它会使用面部、头发和衣服老实说我觉得2和3是相对比较像甜茶的,但是也不是那么完美。衣服和发型确实跟参考图保持一致。在强度0(`--cw 0`)时,它只会关注面部(适合改变服装/发型等)发型有些许的变化,虽然都是卷发,然后衣服变了。

Midjourney V6 更新角色一致性命令 "--cref "

您可以仅描述环境、周围环境、背景或情境。Midjourney将努力将角色融入场景中。如果您选择这种方式,可能会看到一些不连贯的结果。如果是这样,请尝试使用更高值的样式化(--s),例如--s 800。·场景唯一提示的示例:注意到这个提示甚至没有提及角色,对Midjourney能够放置角色充满信心。在一个空荒地下,乌云密布的暴风雨天空下。--cref https://my.image.host/jo-is-standing.jpg注意:--cref命令适用于单一主题、单一角色的图像。如果您计划在场景中添加多个角色,您需要使用平移按钮来添加它们。3.如果我正在使用cref,如何在一个画布上放置多个角色基于cref的多个角色放置到单个画布上的最佳方法是使用平移功能将新的画布与现有画布拼接在一起。每个新画布的部分都将有自己的cref。1.使用/settings将Remix打开,然后选择[High Variation Mode/高变化模式]2.选择将包含第二个字符的图像,然后使用U将其从网格中分离出来。3.寻找蓝色小箭头。⬆️⬇️⬅️➡️每个都会在现有图像中添加一条新图像。选择新角色的前进方向并输入提示及其--cref。这将缝合一条新的画布,比如上面的角色注意:设置画布以描绘两个人的开场提示。

Others are asking
"如何使用Midjourney"
以下是关于如何使用 Midjourney 的详细介绍: 1. “人物参考”功能: 在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;在强度 0(`cw 0`)时,只会关注面部,适合改变服装、发型等。 2. 喂图: 意义:从第一张起,可反复上传优化图片,来达到自己想要的图片。 过程:上传单张或者一组(4 到 5 张)到 Midjourney 输入框里,有两种方法: 点击输入框前方的加号上传。 鼠标选择图片或一组拖到软件里,回车,点击上传后的图片,在左下角“在浏览器打开链接“打开后复制浏览器上的链接,返回主界面,在输入框里“/imagine:粘贴刚才复制的链接+所描述的关键词。 常见问题:小白新手找不到输入框频道。解决方法是找到 Midjourney 白色图标,点击进去,找带数字结尾的频道,或者在自己社区里添加 Midjourney 机器人。 3. Midjourney V6 更新角色一致性命令“cref”: 官方说明:在提示后键入`cref URL`,其中 URL 是一个角色图像的网址。可以使用`cw`来修改参考的“强度”。 用途:这个功能在使用由 Midjourney 图像制作的角色时效果最佳,不适用于真实的人物/照片。 高级功能:可以使用多个 URL 来混合信息/来自多个图像的角色。 在网页 alpha(测试最初版)上的操作:拖动或粘贴图像到想象栏,有三个图标。选择这些图标设置它是一个图像提示,一个风格参考,还是一个角色参考。按住 Shift 键选择一个选项以将图像用于多个类别。 需注意,虽然 MJ V6 还处于 alpha 测试阶段,但这个和其他功能可能会突然更改,V6 官方 beta 版本即将推出。
2025-03-24
midjourney图怎么 放大
在 Midjourney 中,放大图像的方法如下: 放大(Upscale)将图像尺寸加倍: 精细放大(Subtle):放大图像同时尽量保持原样。 创意放大(Creative):在放大的同时会调整或改变图像中的某些细节。 操作时,您可以点击相应的按钮进行放大。例如,在生成的图像中,点击上面的 U 1 4 即可放大一张图。 另外,使用当前默认模型版本的中途图像的默认尺寸为 1024 x 1024 像素。您可以使用 upscale 工具将文件大小增加到 2048 x 2048 或 4096 x 4096 像素。在网络浏览器中打开 Midjourney 图像,或从 Midjourney.com 下载它们以获得最大文件大小。 需要注意的是,如果没看到放大相关的按钮,可能有以下原因: 1. 该图像已经在 Discord 中生成最满意的一张,不可再放大。 2. 在 More options 文字里没打上相应的对勾。
2025-03-21
Stable Diffusion、MidJourney、DALL·E 这些生成式AI工具有什么区别
Stable Diffusion、Midjourney 和 DALL·E 这三个生成式 AI 工具主要有以下区别: 1. 开源性:Stable Diffusion 是开源的,用户可以在任何高端计算机上运行。 2. 学习曲线:Midjourney 的学习曲线较低,只需键入特定的提示就能得到较好的结果。 3. 图像质量:Midjourney 被认为是 2023 年中期图像质量最好的系统。 4. 应用场景:Stable Diffusion 特别适合将 AI 与来自其他源的图像结合;Adobe Firefly 内置在各种 Adobe 产品中,但在质量方面落后于 DALL·E 和 Midjourney。 5. 训练数据:这些工具都是使用大量的内容数据集进行训练的,例如 Stable Diffusion 是在从网络上抓取的超过 50 亿的图像/标题对上进行训练的。 6. 所属公司:DALL·E 来自 OpenAI。 在使用方面: 1. Stable Diffusion 开始使用需要付出努力,因为要学会正确制作提示,但一旦掌握,能产生很好的结果。 2. DALL·E 已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠,但图像质量比 Midjourney 差。 3. Midjourney 需要 Discord,使用时需键入特定格式的提示。
2025-03-20
midjourney的平替
以下是关于 Midjourney 的相关信息: Midjourney V6 更新角色一致性命令“cref”:您可以仅描述环境、背景等,Midjourney 会努力将角色融入场景中,但可能会有不连贯的结果,此时可尝试更高值的样式化(如s 800)。场景唯一提示示例:在一个空荒地下,乌云密布的暴风雨天空下。cref https://my.image.host/joisstanding.jpg 。注意该命令适用于单一主题、单一角色的图像,若要添加多个角色,需使用平移按钮。将多个角色放置到单个画布上的最佳方法是使用平移功能将新画布与现有画布拼接,每个新画布部分都有自己的 cref。具体操作:1.使用/settings 将 Remix 打开,然后选择;2.选择包含第二个字符的图像,用 U 将其从网格中分离出来;3.寻找蓝色小箭头(⬆️⬇️⬅️➡️),每个都会在现有图像中添加新图像,选择新角色前进方向并输入提示及其cref,缝合新画布,比如描绘两个人的开场提示。 训练 Midjourney 的 prompt:style<4a,4b or 4c>可在 Midjourney 模型版本 4 之间切换。stylize<number>或s<number>参数影响 Midjourney 默认美学风格应用于 Jobs 的强度。还有uplight 和upbeta 等参数。默认值(模型版本 5)包括纵横比、混沌、质量、种子、停止、样式化等,各有相应的默认值和范围。纵横比大于 2:1 为实验性的,可能产生不可预测的结果。不同模型版本和参数具有兼容性。
2025-03-18
midjourney注册不了,有替代的软件吗
以下是一些可以替代 Midjourney 的软件: 1. 扣子+ByteArtist: 网址:https://www.coze.cn/home 优点:不需要?,无收费,可以直接生成。 注册:手机号、抖音号或飞书号。 操作步骤:需要在 coze 的 bot 里面添加绘图插件,时间约 5 分钟。这里需要一点小小的加插件操作,不难,截图一步一步即可做到,而且全程没有科学?️,不需要付费。 2. 悠船: 网址:www.youchuanai.com 新用户注册:在悠船桌面端,输入离谱村专用激活码(296976)即可完成注册。 特点:从成本和小白理解力的角度来说适合先尝试,最近有新注册的免费福利。
2025-03-18
如何登陆midjourney?
以下是登录 Midjourney 的方法: 1. 登录 Midjourney 官网: Midjourney 官网现已向生成 100 张以上图片的用户开放了使用权限。登录 MJ 官网,您将进入到特定页面。左侧为各种页面入口,顶部是生成入口(prompt 框)和搜索框。在社区作品、创作(Create)以及组织(Organize)页面中,您可以随时使用 prompt 框和搜索框,方便查找参考和进行创作,无需频繁切换页面。 您可以通过点击 prompt 框最右侧的图标来设置常用参数的默认值,包括画面比例和个性化模型开关。 在官网上使用图片参考变得简单直观。只需要点击 prompt 框最左侧的图片按钮,或直接拖入图片即可,并且官网会记录所有使用过的图片,方便调用或删除。当鼠标悬停在图片上时,会看到 3 个小图标,从左到右分别是角色参考、风格参考、整图参考,点击相应的图标即可,如需多种参考逻辑可按住 shift 键点选多个图标即可。 创作页面的最大亮点是 prompt 的复用。您可以直接点击画面描述或复制描述词到 prompt 框中,也可以直接点击下方横列菜单里的按钮,将包括参考图在内的完整 prompt 替换当前的 prompt。点击图片则会进入单图调整模式,在 discord 中常用的操作指令都被集中在了右下角的按键中,并且上线了全新的 Editor 编辑器功能。 2. 通过 Discord 登录: 通过 Web 浏览器、移动应用程序或桌面应用程序通过 Discord 访问 Midjourney Bot。在加入 Midjourney Discord 服务器之前,请确保您拥有经过验证的 Discord 帐户。请按照以下指南创建或验证您的 Discord 帐户: 要开始使用 Midjourney 生成图像,您需要订阅计划。 访问。 使用您经过验证的 Discord 帐户登录。 选择适合您需求的订阅计划。请转至了解有关定价和各层可用功能的信息。 要开始与中途机器人交互,请加入中途服务器: 打开 Discord 并找到左侧边栏上的服务器列表。 按+服务器列表底部的按钮。 在弹出窗口中,单击 Join a Server 按钮。 粘贴或输入以下 URL:。
2025-03-18
人物一致性
Midjourney 的角色一致性功能: 功能介绍:类似于“风格参考”功能,尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 实际效果:例如以甜茶或小公主的图片为案例,不同的强度参数下,发型、衣服等会有相应变化。 相关优势:能节省工期,提升生产管线的可控性。 其他应用:利用 MJ 重绘功能,在重绘提示词里输入`cref cw`保证角色一致性。对于生成图中的黑边,可框住黑边部分重绘输入关键词“background”去除,保证背景一致。 体验网址:MJ 的网页版体验较好,网址为 https://alpha.midjourney.com/
2025-03-29
星流ai人物一致性
以下是关于星流 AI 人物一致性的相关内容: 在实现角色一致性方面,有以下几种方法和示例: 1. 可以通过特定的 prompt 格式来实现,公式为:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。 2. Midjourney 推出了角色一致性功能,同步支持 MJ V6 和 Niji V6。跟之前的风格一致性sref 命名基本一致,为cref。cref 背后参数cw 的值可以从 0 设到 100,cw 100 会参考原图的脸部、头发和衣服,但相应的会非常不吃 Prompt;cw 0 时,就只会参考脸部,大概约等于一个换脸。 3. PixVerse 有“角色(Character)”新功能,能实现 AI 生成视频中的角色保持一致。用户只需单击“Character”功能,上传符合要求的图像,点击创建自定义角色,训练一个新角色,然后可使用自定义角色生成视频,可在 AI 生成视频中轻松切换场景,同时保持同一角色身份。该功能目前只支持真实人脸,暂不支持动物或其他风格照片。操作说明:在主页面点击选择“Character”,点击“Create Character”,在此界面通过点击或拖动的方式上传图片,命名您创建的 Character,最后点击“Create Cha”。提示:最好使用包含真实人脸的单人图片效果最佳,脸部大小需要超过 200×200px,面部无遮挡。Character 添加完毕后,等待 20 秒左右,在看到“Success”提示后,点击“Create”进。若未等到“Success”提示便进入创作界面,会找不到创建的 Character,此时需等待 10 30 秒,待 Character 创建完成即可。 相关网址: 1. 2. 3. Midjourney 网页版:https://alpha.midjourney.com/ 4. PixVerse:https://app.pixverse.ai/ (目前可以免费使用)
2025-03-18
人物一致性
Midjourney 的角色一致性功能: 此功能是官方推出的重要功能,可使生成的人物与参考图像相匹配。 使用方法:在提示词后输入 `cref URL` 并附上人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可使用 `cw` 来修改参考强度,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入 `cref cw` 。 若有黑边问题,可将黑边部分框住,重绘输入关键词 `background` 去除黑边保证背景一致。 体验 MJ 网页版效果较好,网址:https://alpha.midjourney.com/
2025-03-18
comfy ui 九宫格生图保持人物一致性的原理
Comfy UI 九宫格生图保持人物一致性的原理主要基于 PuLID 技术,具体如下: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,它结合了两个不同的模型分支(Lightning T2I 分支和标准扩散模型),引入了两种损失(对比对齐损失和精确 ID 损失)。 Lightning T2I 分支是一个快速、高效的文本到图像生成模型。 标准扩散模型是常见的、生成高质量图像的模型。 对比对齐损失帮助模型学习将输入的文本和生成的图像内容对齐,使生成的图像更符合文本描述。 精确 ID 损失确保生成的图像中的特定身份特征(比如人物的脸部特征)与目标 ID 一致。 此外,在保持人物一致性方面,还有一些操作步骤: 生成图像(提示词加入分割描述,让一张图生成多张同空间小图)。 通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类)。 上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 5 张)。 放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。 同时,Eva CLIP 也是相关的技术: Eva CLIP 是一种基于对比学习的视觉文本模型,将文本描述和图像内容映射到一个共享的嵌入空间。 对比学习架构:使用对比学习方法,将图像和文本嵌入到一个共享的空间,通过最大化匹配图像和文本对的相似度,同时最小化不匹配对的相似度,学习到图像和文本之间的关联。 强大的特征提取能力:编码器擅长提取图像中的细节特征,并将其转换为有意义的嵌入向量,用于下游任务。 多模态应用:能够处理图像和文本两种模态,广泛应用于多模态任务中,如生成、检索、标注等。 其应用场景包括图像生成、图像检索、图像标注等。Eva CLIP 编码器通常与深度神经网络结合使用,如卷积神经网络(CNN)用于图像特征提取,Transformer 网络用于处理文本描述。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: instant ID 脸部特征抓取得比 pulid 好,放在最后一步重绘,先 pulid,再 instantID https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e8 1d90 4373 94cf 0249d14c73c8 测试案例:
2025-03-17
comfy UI 如何保持人物一致性
要在 ComfyUI 中保持人物一致性,可以通过以下方式实现: 1. PuLID 技术: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,无需复杂调整。 它结合了 Lightning T2I 分支和标准扩散模型两个不同的模型分支,并引入了对比对齐损失和精确 ID 损失两种损失,以确保在保持原始模型效果的同时,高精度地自定义 ID。 Lightning T2I 分支是快速、高效的文本到图像生成模型,标准扩散模型是常见的生成高质量图像的模型。 PuLID 可以让您在生成图像时更精确地定制人物或物体的身份,将特定 ID(例如人脸)嵌入到预训练的文本到图像模型中,而不会破坏模型的原始能力。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: 百度网盘:https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e81d90437394cf0249d14c73c8 instant ID 脸部特征抓取得比 PuLID 好,可放在最后一步重绘,先 PuLID,再 instantID。 2. 节点设置: 节点插件 PuLID ComfyUI:https://github.com/cubiq/PuLID_ComfyUI model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。比如,ortho_v2 和 fidelity:8 等价于标准节点的 fidelity 方法,而 projection ortho 和 fidelity:16 等价于 style 方法。 此外,在 8 月 13 日的 ComfyUI 共学中也提到控制人物一致性有很多方法,课程后期会介绍。
2025-03-17
人物一致性
Midjourney 的角色一致性功能: 此功能类似于“风格参考”,但尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入`cref cw`。 若有黑边问题,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 体验 MJ 网页版效果更佳,网址:https://alpha.midjourney.com/
2025-03-13