Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图的角色 用 cref 去控制一致性 风格可以用 sref 去控制

Answer

在 Midjourney 中,cref 和 sref 是用于引用图片的功能,它们有以下区别和使用方法:

  1. 角色参考(cref):
    • 作用:保持图像角色的一致性。
    • 使用方法:在提示后添加“--cref”,紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girl--cref[url]。可以使用“--cw”调整参考图像对生成图像的影响程度,数值范围从 0 到 100。强度 100(“--cw 100”)是默认值,会使用面部、头发和衣服,cw 为 0 的话仅保证脸部一致。基础格式为“--cref 图片链接,--cw 100”。
    • 参考链接:Midjourney 角色一致性功能使用报告Midjourney cref 人物一致性
  2. 风格参考(sref):
    • 作用:生成类似风格的图片,保持画风的一致性。
    • 使用方法:在提示后添加“--sref”,紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girl--sref[url]。可以使用“--sw”调整参考风格对生成图像的影响程度,数值范围从 0 到 1000。基础格式为“--sref 图片链接,--sw 100”。
    • 参考链接:五花肉:Midjourney V6 风格参考命令“--sref”更新样式参考算法“--sv 1234”

如果想引用一张图,但只是把它作为新图的一部分,可以使用“--sref”或“--cref”,并通过调整“--sw”或“--cw”的值来控制引用图像的影响程度。例如:/imagine prompt beautiful girl--sref[url]--sw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格。

Content generated by AI large model, please carefully verify (powered by aily)

References

问:请问midjourney cref和sref的区别

在Midjourney中,cref和sref都是用于引用图片的功能,但它们的作用和使用方式有所不同:1.角色参考(cref):cref的功能是保持图像角色的一致性。根据你提供的现有角色图像的URL,生成与之相似的角色。使用方法是在提示后添加--cref,并紧接着指向人物参考图像的URL。例如:/imagine prompt beautiful girl--cref[url]。您可以使用--cw来调整参考图像对生成的图像的影响程度,数值范围从0到100。2.风格参考(sref):sref的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加--sref,并紧接着指向风格参考图像的URL。例如:/imagine prompt beautiful girl--sref[url]。您可以使用--sw来调整参考风格对生成的图像的影响程度,数值范围从0到1000。如果你想引用一张图,但只是把它作为新图的一部分,你可以使用--sref或--cref,并通过调整--sw或--cw的值来控制引用图像的影响程度。例如,如果你想引用一张图的风格,但只希望它占新图的一部分,你可以这样写提示:/imagine prompt beautiful girl--sref[url]--sw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格¹。希望这些信息对您有所帮助!内容由AI大模型生成,请仔细甄别

五花肉:Midjourney V6 风格参考命令"--sref "更新样式参考算法"--sv 1234"

通过对比可以看到,真实人物在有或者没有--sw参数下人物的面部发生了巨大的变化,因为本身--sref是调节风格的,角色一致需要用到--cref参数,这里不过多赘述,从风格上--sv 4和原图的发色都比较一致,人物姿势都一致。服装有变化。也就是说在真实人物方面,和原图一致下,需要用到--cref参数。--sv 3发色都发生了变化,--sv 1和--s v 2风格上都有不同的方向。继续测试对比。测试例子:An animated website hero vector illustration featuring a relaxed and happy real estate professional at their open house,totally relaxed since they know their work is being automated for them and at ease in a comfy sofa chair with their laptop comfortably placed with their leg crossed over the other.The animation should be engaging and straightforward,delivering a clear message for a landing page's hero section.Darker colors should be used more and any brighter colors should be a lighter calming green or a compatible color.They should be surrounded in a circle by vectors of components relating to the successful sale of a home they were tasked with selling.--sref https://s.mj.run/hwdPSui3nkU--sv 2--ar 16:9--stylize 50--niji 6

Jerry:MJ多张图保证构图、人物一致性实战教学

cref/cw:作用:主要作用是保证人像一致性。使用方法:使用cw需要用cref指令,cw参数范围为:0-100。强度100(`--cw 100`)是默认值,它会使用面部、头发和衣服,cw为0的话仅保证脸部一致。基础格式:--cref图片链接,--cw 100。参考链接:[Midjourney角色一致性功能使用报告](https://waytoagi.feishu.cn/wiki/ZLRlwvkhKi9ZnqkLsFlcUOUgnpb)、[Midjourney cref人物一致性](https://waytoagi.feishu.cn/wiki/GoXpweu2rinYs5kTXXRczGGhnoc)sref/sw:作用:主要作用是保证画面风格和参考图一致(例如:背景基调、画风等)。使用方法:使用sw需要用sref指令,sw参数范围为:0-1000基础格式:--sref图片链接,--sw 100。参考链接:[五花肉:Midjourney V6风格参考命令"--sref"更新样式参考算法"--sv 1234"](https://waytoagi.feishu.cn/wiki/P61uwdfpLihlzTkIvSCcppDUnMb)

Others are asking
scref 使用指南
以下是关于 sref 的使用指南: 风格一致: 指南:垫图链接(可选择)+关键词+“sref” +图片链接+风格化参数+“v 6.0” 指令:url +关键词+“sref” + url +“sw” +“v 6.0” sw 风格化参数:用于控制整体的风格强度,默认为 100,数值范围为 参考多张图像风格:url 间使用空格隔开,权重代表不同参考风格的权重,如 sref url A::2 url B::3 url C::5 适用模型:V6 和 Niji V6 常见问题: 您可以在使用 Vary Region 期间使用 sref 来增强美学匹配/混合。 以下是如何在使用 Vary Region 时使用sref 图像来帮助加强风格的方法: 确保 remix 已打开。放大 点击。 保留提示中确定画布总体构图的部分。尽量保留尽可能多的部分,但不要耗尽内存。如果您的细节没有显示出来,那可能是内存问题。编辑提示以删除一些不必要的细节,以腾出空间添加新的细节。 将您的细节添加到提示中。 记得用一些详细的描述(至少 5 7 个词)描述它。 现在,您可以通过将基本图像用作 sref 来加强您的添加部分的风格(视觉美学)。右键单击放大后的图像中心,从下拉菜单中选择复制链接。将该链接添加为您的sref。 详细步骤: sref 参数允许我们使用通过 URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571 请参阅以下的 1 2 3 步骤教程,以帮助您开始使用风格参考图像。 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644 49b4 4831 95b1 486d05452313.png
2024-08-18
--scref 教程
以下是关于“sref”的教程: “sref”参数允许我们使用通过 URL 提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571 请参阅 123 步骤教程开始使用风格参考图像。 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d164449b4483195b1486d05452313.png 莱森的教程: Midjourney cref 海马体写真教程,10 分钟不到出写真。 得益于cref,midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。 风格复制和服装的替换,应当用提示词(prompt)和sref,默认值 100,越高越接近参考图像的风格。 例如,要复制海马体图像风格,先用/describe 指令反推海马体的提示词,再配合sref。 详细步骤: 将“sref”和 URL 添加到提示的末尾。 在这一步中,以风格参考图像的视觉风格创建新图像。使用“风格参考”图像(sref)时,Midjourney 将努力只捕捉参考图像的美学特质,而不是其语义内容。新提示本身没有美学内容有助于“sref”的执行。 示例:提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.sref https://s.mj.run/9DFZsjKwkyE v 6.0 翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。sref https://s.mj.run/9DFZsjKwkyE v 6.0 然后得到:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548cc114cdcabacbab5091ba111.png
2024-08-18
关于seed值 和风格一致性cref sref的文章
关于 seed 值和风格一致性 cref sref 的文章 在 Midjourney 中,cref 和 sref 都是用于引用图片的功能,但它们的作用和使用方式有所不同。 1. 角色参考(cref): cref 的功能是保持图像角色的一致性。根据你提供的现有角色图像的 URL,生成与之相似的角色。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girl cref\。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref): sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girl sref\。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果你想引用一张图,但只是把它作为新图的一部分,你可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。 例如,如果你想引用一张图的风格,但只希望它占新图的一部分,你可以这样写提示:/imagine prompt beautiful girl sref\sw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格¹。 希望这些信息对您有所帮助!
2024-05-08
请问midjourney cref和sref的区别,如果我想引用一张图,但只是把它作为新图的一部分如何写prompt
在Midjourney中,`cref`和`sref`都是用于引用图片的功能,但它们的作用和使用方式有所不同: 1. 角色参考(cref):`cref`的功能是保持图像角色的一致性。根据你提供的现有角色图像的URL, 生成与之相似的角色。使用方法是在提示后添加 `cref`,并紧接着指向人物参考图像的 URL。例如:`/imagine prompt beautiful girl cref `。您可以使用 `cw` 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref):`sref`的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 `sref`,并紧接着指向风格参考图像的 URL。例如:`/imagine prompt beautiful girl sref `。您可以使用 `sw` 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果你想引用一张图,但只是把它作为新图的一部分,你可以使用 `sref` 或 `cref`,并通过调整 `sw` 或 `cw` 的值来控制引用图像的影响程度。 例如,如果你想引用一张图的风格,但只希望它占新图的一部分,你可以这样写提示:`/imagine prompt beautiful girl sref sw 500`。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格¹。 希望这些信息对您有所帮助!如果您有其他问题,欢迎随时向我提问。
2024-04-21
如何获取Midjourney的Sref
在 Midjourney 中,获取 sref(风格参考)的方法如下: 1. 作用:sref 的功能是生成类似风格的图片,保持画风的一致性。 2. 使用方法:在提示后添加“sref”,并紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girl sref。您可以使用“sw”来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 例如,如果想引用一张图的风格,但只希望它占新图的一部分,可以这样写提示:/imagine prompt beautiful girl srefsw 500。 3. Midjourney V6 更新风格参考命令 2.0 “sref ”的详细步骤: 将“sref”和 URL添加到您的提示的末尾。例如:提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.sref https://s.mj.run/9DFZsjKwkyE v 6.0 4. 常见问题:在使用 Vary Region 期间可以使用 sref 来增强美学匹配/混合。具体方法为: 确保 remix 已打开。放大 点击。 保留提示中确定画布总体构图的部分。尽量保留尽可能多的部分,但不要耗尽内存。如果您的细节没有显示出来,那可能是内存问题。编辑提示以删除一些不必要的细节,以腾出空间添加新的细节。 将您的细节添加到提示中。记得用一些详细的描述(至少 5 7 个词)描述它。 现在,您可以通过将基本图像用作 sref 来加强您的添加部分的风格(视觉美学)。右键单击放大后的图像中心,从下拉菜单中选择复制链接。将该链接添加为您的“sref”。
2024-08-25
控制模特的姿势
以下是关于控制模特姿势的方法: 在使用相关 AI 工具时,如 Stable Diffusion 等,有以下几种控制模特姿势的方式: 1. 使用蒙版和提示词:输入相关提示词,如“蓝色毛衣”,处理蒙版区域内容为“填充”,调整尺寸与图像一致,重绘幅度为 1。但可能会出现衔接问题,此时可降低重绘幅度或添加 openpose 来控制人物身体,获得正确姿势。 2. 利用 ControlNet 功能: 正常填写大模型和关键词生成照片。 鼠标滑到最下面,点击“ControlNet”。 点击空白处上传指定姿势的照片,并点击“启用”。 在“预处理器”和“模型”里选择“openpose”,用于让计算机识别人物姿势。 点击“预览预处理结果”,最后点击生成照片,即可得到指定姿势的照片。 在 ControlNet 参数配置方面: tile 用于对整体画面的控制,可选择分块+固定颜色+锐化,以保证颜色统一降低后续闪烁,不需要全过程引导,仅在开始时固定画面。 lineart 用于提取人物线条,保证人物整体不跑偏,权重给到 0.6 以控制整体画面输出稳定。 openpose 用于控制人物的姿态、表情和动作,推荐使用 DWpose 处理器,其对面部和手部的识别效果较好。
2025-01-17
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
我想找一个能够实现运动控制逻辑的编程助手
目前在 AI 领域中,有一些编程助手可以帮助您实现运动控制逻辑。例如,您可以考虑使用 Python 中的相关库,如 `numpy`、`matplotlib` 等,结合数学和物理知识来构建运动控制模型。另外,一些专门的机器人编程框架和工具,如 ROS(Robot Operating System)也能为您提供支持。但具体选择哪种工具,还需要根据您的具体需求和技术背景来决定。
2024-11-20
控制在智能制造中的应用
以下是关于控制在智能制造中的应用的相关信息: 在智能制造领域,控制技术有着广泛的应用: 1. 预测性维护:利用人工智能预测机器故障,帮助工厂避免停机,提高生产效率。 2. 质量控制:通过人工智能检测产品缺陷,提升产品质量。 3. 供应链管理:借助人工智能优化供应链,提高效率并降低成本。 4. 机器人自动化:运用人工智能控制工业机器人,进一步提高生产效率。 此外,ControlNet 是一种由斯坦福大学张吕敏发布的神经网络模型,它能与预训练的图像扩散模型(如 Stable Diffusion)结合,通过引入额外条件输入来控制 AI 绘画的生成过程。其工作原理是将 Stable Diffusion 模型的权重复制到 ControlNet 的可训练副本中,并使用外部条件向量训练副本,具有训练过程的鲁棒性、避免过度拟合、可在小规模设备训练以及架构兼容性和迁移能力强等优点,不仅用于 AI 绘画,还可用于图像编辑、风格迁移、图像超分辨率等多种计算机视觉任务。
2024-10-28
ai控制骨骼动画
以下是关于 AI 控制骨骼动画的相关信息: 在 Stable Diffusion 中,使用 ControlNet 插件进行姿态约束时,对于国风 3 模型,点击生成可能得到相应姿势,但 AI 识别可能不准确,会出现骨骼错位等问题,需要耐心刷图和调整参数。作者还收集了不同 pose 的骨架图,可在公众号【白马与少年】回复【SD】获取以作人物动作参考。 Tripo AI 的模型详情页提供丰富工具和选项,可对模型进行编辑和下载等操作。模型工具包括收藏、分享、动态旋转或暂停、删除等按钮,在模型区域按住鼠标并拖动可自由旋转模型。编辑工具中的 Auto Rigging 可自动绑定骨骼,后续可在 Blender 里做动画。风格化选项有原始、乐高、像素化、沃罗诺伊图等,Custom 设置可根据特定软件或用途进行定制,Retopologize 提供不同精度的拓扑网格选项,Format 提供多种模型文件格式,选择“Download”可下载模型,使用“Refine”可进一步精修。 晨然在其 AI 作品《Devices》的创作中,工作流是使用 Blender 制作白模动画,导出深度图、线框图帧序列,使用 ComfyUI 进行风格迥异的渲染。他认为 AI 视频与传统工作流制作视频各有优缺点,不是替代关系。AI 内容生成速度快、成本低但不可控、画面粗糙;传统工作流可控性强但慢、成本高。应让 AI 与传统工作流结合,在随机性中寻找可控性,平衡两者以创造新的艺术创作流程。
2024-10-10
过程控制系统是指DCS吗
过程控制系统并不完全等同于 DCS(分布式控制系统)。 过程控制系统是一种用于工业生产过程中对工艺参数进行自动控制的系统,旨在确保生产过程的稳定性、提高产品质量和生产效率。 DCS 是过程控制系统的一种常见类型,具有分布式控制、集中管理等特点。然而,除了 DCS 之外,过程控制系统还可能包括其他形式,例如 PLC(可编程逻辑控制器)控制系统等。 总之,DCS 是过程控制系统中的一种,但过程控制系统的范畴更广,包含多种不同的控制形式和技术。
2024-10-08
flux lora调参数,我训练出来的人物模型和数据集的人物图片不像,出现这种情况的原因都有哪些,应该调整哪些参数,我需要我的flux模型训练出来的模型是一致性还原性,和泛化性比较不错的,按照这个方向给我指导
以下是关于 flux lora 调参数以获得一致性、还原性和泛化性较好的人物模型的指导: 打标环节: 选择基础大模型,如“麦橘写实”,并为 lora 命名。 将照片导入,选择合适分辨率,可勾选“脸部加强训练”,然后进行预处理。手动裁剪图片比自动裁剪更可靠。 预处理后会出现脸部和整体文件夹,且每张照片自动打好 tag 标签。 可为整体添加统一标签,也可单独修改每张图片的标签。标签有助于 AI 理解图片,描述越详细,人物变化可能越多,泛化性可能越好。仔细检查每张图片的标签,其质量会影响人物 lora 的泛化性。 参数调整环节: 大部分参数是固定的,主要的几个按照人物参数配置一遍。后期根据生成结果再调整。 炼丹环节: 例如 18 张脸部图片,20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1。训练总步数和时长会有所不同,loss 值可作为参考,但最终效果仍需通过测试判断。 此外,在 Lora 串联方面,多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层 1 和 2 的效果不同,加 Lora 时某些 Lora 可能更适合 2。Lora 可用于生成底模无法画出的内容。在运行中点击取消可打断正在渲染跑的图。图像放大可通过 up scale image using model 节点,选择放大模型,用 resize 节点调整尺寸,再用编码器和采样器处理。放大模型直接放大的图像效果不佳,需再次采样增加细节。添加飞桨缺失节点可通过拖入工作流查看标红节点,从管理器安装或从 GitHub 获取节点包放入文件管理系统。采样器和调度器参数设置建议参考模型作者推荐,并结合自己调试。Web UI 中 Lora 库有刷新按钮,将 Lora 丢到文件夹后多点几次刷新即可。
2025-01-04
LLM输出的结果一致性如何保证
要保证 LLM 输出结果的一致性,可以采取以下几种策略: 1. Prompt 工程: 明确的待处理内容指引:在构建 Prompt 时,清晰地定义需要处理的文本,并使用标记框起来,让模型准确识别待处理内容范围,从中提取信息。 提供明确字段定义:具体化每个字段的名称、用途及要求,为 LLM 提供明确的提取方向和标准。 异常处理:设置异常处理原则,如规定缺失数据使用默认值填充,特殊数据类型符合标准格式,确保模型输出的完整性和一致性。 要求结构化输出:指示 LLM 以结构化格式(如 JSON)输出数据,便于后续处理和系统集成。 2. 自我一致性增强可靠性:促使 LLM 对同一问题产生多个答案,通过一致性审查衡量其可信度。一致性评估可从内容重叠、语义相似性评估及高级指标(如 BERT 分数或 ngram 重叠)等多方面进行,增强 LLM 在事实核查工具中的可靠性。 3. 衡量和评估不确定性:如牛津大学通过生成一个问题的多个答案,并使用另一个模型根据相似含义分组来衡量 LLM 不确定性。 4. 利用外部工具验证:如 Google DeepMind 推出的 SAFE,通过将 LLM 响应分解为单个事实、使用搜索引擎验证事实以及对语义相似的陈述进行聚类来评估 LLM 响应的真实性。 5. 借助其他 LLM 发现错误:如 OpenAI 推出的 CriticGPT,使用基于大量有缺陷输入数据集训练的 GPT 式 LLM 来发现其他 LLM 生成代码中的错误。 6. 利用 LLM 生成的评论增强 RLHF 的奖励模型:如 Cohere 使用一系列 LLM 为每个偏好数据对生成逐点评论,评估提示完成对的有效性。
2025-01-02
可灵ai如何保持人物一致性
要保持可灵 AI 中人物的一致性,可以参考以下方法: 1. 人物设定: 明确主角、配角等人物的性格特点、外貌特征等,如主角是一位 40 岁的中年男探险家,性格特点是面对挑战从不轻言放弃,外貌特征是健壮、棕色头发、常穿探险服。 2. MJcref 控制人物一致性: 先根据人物设定,在 MJ 里筛选适合的人物形象,选中后右键复制图片链接。 在尾缀加入【cref 图片链接】控制人物一致性,【cw 数值】控制权重。 对于镜头较多的角色,建议炼个人物模型出来控制,不然 MJ 容易不稳定。 3. 控制多人物场景统一: 先控制一个角色再进行重绘。 选一张合适的图片后,点击 Vary进行局部重绘,并把尾缀机器人的 cref 链接改成主角的 cref 链接。 4. 通过 prompt 格式实现“角色一致性”: 公式:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。 发型/衣物:构造尽可能多的角色非面部视觉元素,产生观众对角色的“一致性观感”。 年龄:约束角色年龄特征。 环境:约束能够产生相同观感的环境空间,尤其是光环境,增加观众对于形象认识的“一致性”认知。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。
2024-12-21
我想做简洁卡通风格的ai动画,根据故事文案生成的那种,需要保持人物一致性,用哪个工具比较好?
以下是一些适合生成简洁卡通风格、根据故事文案生成动画并保持人物一致性的工具: 1. U 传:在 U 传中,通过点击相应按钮参考角色、风格或图生图,可保持人物一致性。新注册有免费生成额度。 2. 季梦:可辅助写视频提示词,能根据上传的图片生成合理的运镜及提示词,还可写分镜脚本。若为 1.2 版本,选慢速或适中的标准模式,效果更好,且生成的视频无水印。每天给 60 积分。 3. 可玲:可辅助写视频提示词,能根据上传的图片生成合理的运镜及提示词,还可写分镜脚本。每天给 60 积分,可用于日常使用,创作片子可能需买会员,生成的视频有无水印选项。 此外,在使用 Midjourney 生图时,若要保持人物和场景一致性,有两个取巧的方式:一个是像上个视频一样生成动物,动物会比较容易保持一致性;另一个方式是特定的名人或者有特殊属性的人物。在确定影片风格时,比如可以选择皮克斯动画风格。同时,在提示词中利用 cref 命令也有助于保持人物的一致性。
2024-12-18
sd角色一致性
在 Stable Diffusion(SD)中实现角色一致性多角度头像绘制的方法如下: 1. 准备工作: 准备一张人物的多角度图片,共有 15 个不同视图,尺寸设置为 1328×800px,放大两倍后保证每张小图为 512×512px。 加上网格图,通过 lineart 分割不同块面。 设置 controlnet,第一张图选择 openpose_face 得到人物的 15 个面部角度,第二张图选择 lineart_standard得到清晰的表格分区。 增加 ADetailer 的脸部修复插件防止小图模式下人脸崩坏。 2. 开始生图: 大模型:majicmixRealistic_v6.safetensors 正向提示词:,auburn hair,eyes open,cinematic lighting,Hyperrealism,depth of field,photography,ultra highres,photorealistic,8k,hyperrealism,studio lighting,photography 负向提示词:EasyNegative,canvasframe,canvas frame,eyes shut,wink,blurry,hands,closed eyes,,lowres,sig,signature,watermark,username,bad,immature,cartoon,anime,3d,painting,b&w 参数设置:迭代步数 50,采样方法 DPM++ 2M Karras,尺寸 1328×800px。 3. 细节放大: 发送到图生图,重绘幅度设置为 0.55,使用 controlnet 的 teil 模型增加细节,控制模式选择“更倾向 controlnet”。 使用 Ultimate SD upscale 脚本放大为 2 倍,采用 4xUltraSharp 放大算法。 4. 尝试不同风格: 例如使用 AnythingV5 大模型绘制浅绿色侧马尾女孩形象,使用 revAnimated 大模型绘制粉色头发的长发公主形象。 需要注意的是,由于 AI 绘画的随机性存在,15 个角度的画面不可能完美,controlnet 的控制能让我们更大程度接近想要的效果,想要好的结果需要多刷图。如需 stable diffusion 相关资料,可关注公众号【白马与少年】发送【sd】获取链接。
2024-11-25
请问现在好用的AI图片生产工具有哪些,对人物一致性要求高
以下是一些好用的 AI 图片生产工具,且对人物一致性要求较高: 1. Artguru AI Art Generator:是一个在线平台,能够生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:这是一款 AI 工具,可将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 在使用 AI 生图时,若要保证人物和场景的一致性,有两个取巧的方式:一是像生成动物,动物会比较容易保持一致性;二是特定的名人或有特殊属性的人物。 另外,目前市面上的 AI 工具分为线上和线下本地部署两种。线上的优势是出图速度快,不依赖本地显卡配置,无需下载大型模型,还能参考其他创作者的作品,但出图分辨率有限。线下部署的优势是可以添加插件,出图质量高,但对电脑配置要求高,使用时可能导致电脑宕机。可以充分发挥线上和线下平台的优势,线上用于找参考、测试模型,线下作为主要出图工具。
2024-11-23