Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

midjourney中如何结合A图片的人物和B图片的动作和内容

Answer

在 Midjourney 中结合 A 图片的人物和 B 图片的动作和内容,可以使用新上线的“Character Reference”(--cref)功能。以下是一些关键方法和示例:

  1. 锚定细节:您可以掌控姿势、表情、情感、服装、道具、场景、动作等细节。例如:“Jo is a young woman with blue curly hair, pink sunglasses, and a colorful scarf around her neck. She waits in line at the bank. --cref https://my.image.host/jo-is-standing.jpg”。
  2. 让 --cref 处理大部分工作:提示无需加强标志性细节,只是“操纵”或“定位”角色。例如:“有人正在银行排队等候。 --cref https://my.image.host/jo-is-standing.jpg”。
  3. 只提供场景:如果您的 cref 图像已包含想要的姿势和其他细节,您可以仅描述环境、周围环境、背景或情境,Midjourney 将努力将角色融入场景中。但可能会出现不连贯的结果,此时可尝试使用更高值的样式化,如“--s 800”。

需要注意的是,此功能在使用 Midjourney 生成的图像人物时效果最佳,不太适用于真实人物或照片。同时,在 Midjourney V6 的 Web Alpha 版本中,您可以通过拖放或粘贴图像到想象栏,并选择相应图标来设置图像为图像提示、风格参考或角色参考。

Content generated by AI large model, please carefully verify (powered by aily)

References

Midjourney 人物一致性已上线

DavidH:Hey @everyone @here we're testing a new"Character Reference"feature today This is similar to the"Style Reference"feature,except instead of matching a reference style it tries to make the character match a"Character Reference"image.How it worksType --cref URL after your prompt with a URL to an image of a characterYou can use --cw to modify reference 'strength' from 100 to 0strength 100(--cw 100)is default and uses the face,hair,and clothesAt strength 0(--cw 0)it'll just focus on face(good for changing outfits / hair etc)What it's meant forThis feature works best when using characters made from Midjourney images.It's not designed for real people / photos(and will likely distort them as regular image prompts do)Cref works similarly to regular image prompts except it 'focuses' on the character traitsThe precision of this technique is limited,it won't copy exact dimples / freckles / or tshirt logos.Cref works for both Niji and normal MJ models and also can be combined with --srefAdvanced FeaturesYou can use more than one URL to blend the information /characters from multiple images like this --cref URL1 URL2(this is similar to multiple image or style prompts)How does it work on the web alpha?Drag or paste an image into the imagine bar,it now has three icons.selecting these sets whether it is an image prompt,a style reference,or a character reference.Shift+select an option to use an image for multiple categoriesRemember,while MJ V6 is in alpha this and other features may change suddenly,but V6 official beta is coming soon.We'd love everyone's thoughts in ⁠ideas-and-features We hope you enjoy this early release and hope it helps you play with building stories and worlds

Midjourney V6 更新角色一致性命令 "--cref "

处理使用--cref进行提示有三种关键方法。您可以锚定细节(姿势、表情、情感、服装、道具、场景、动作),这样您就能掌控它们;您可以轻轻一触,让--cref处理大部分工作;或者您可以只提供场景给角色,让--cref完全处理所有工作。在这三种情况下,提示将与Midjourney能够从您提供的cref图像中识别的任何角色属性混合在一起。您的提示可以用于锚定角色的重要细节,也可以让cref图像自行贡献所有内容。·锚定重要角色细节的提示示例:注意提示如何强调出现在参考图像中的标志性角色属性。它还“操纵”或“定位”角色。例子:Jo is a young woman with blue curly hair,pink sunglasses,and a colorful scarf around her neck.She waits in line at the bank.--cref https://my.image.host/jo-is-standing.jpg翻译:乔(Jo)是一位年轻女子,头发蓝色卷曲,戴着粉红色太阳镜,脖子上系着一条五颜六色的围巾。她正在银行排队等候。--cref https://my.image.host/jo-is-standing.jpg·不需要重复标志性细节的无干扰提示示例:注意到这个提示没有尝试加强参考图像中的任何标志性细节,它只是“操纵”或“定位”角色。有人正在银行排队等候。--cref https://my.image.host/jo-is-standing.jpg·如果您的cref图像已经包含您想要的姿势和其他细节,则还有第三种方式可用:您可以仅描述环境、周围环境、背景或情境。Midjourney将努力将角色融入场景中。如果您选择这种方式,可能会看到一些不连贯的结果。如果是这样,请尝试使用更高值的样式化(--s),例如--s 800。

Midjourney V6 更新角色一致性命令 "--cref "

处理使用--cref进行提示有三种关键方法。您可以锚定细节(姿势、表情、情感、服装、道具、场景、动作),这样您就能掌控它们;您可以轻轻一触,让--cref处理大部分工作;或者您可以只提供场景给角色,让--cref完全处理所有工作。在这三种情况下,提示将与Midjourney能够从您提供的cref图像中识别的任何角色属性混合在一起。您的提示可以用于锚定角色的重要细节,也可以让cref图像自行贡献所有内容。·锚定重要角色细节的提示示例:注意提示如何强调出现在参考图像中的标志性角色属性。它还“操纵”或“定位”角色。例子:Jo is a young woman with blue curly hair,pink sunglasses,and a colorful scarf around her neck.She waits in line at the bank.--cref https://my.image.host/jo-is-standing.jpg翻译:乔(Jo)是一位年轻女子,头发蓝色卷曲,戴着粉红色太阳镜,脖子上系着一条五颜六色的围巾。她正在银行排队等候。--cref https://my.image.host/jo-is-standing.jpg·不需要重复标志性细节的无干扰提示示例:注意到这个提示没有尝试加强参考图像中的任何标志性细节,它只是“操纵”或“定位”角色。有人正在银行排队等候。--cref https://my.image.host/jo-is-standing.jpg·如果您的cref图像已经包含您想要的姿势和其他细节,则还有第三种方式可用:您可以仅描述环境、周围环境、背景或情境。Midjourney将努力将角色融入场景中。如果您选择这种方式,可能会看到一些不连贯的结果。如果是这样,请尝试使用更高值的样式化(--s),例如--s 800。

Others are asking
图片生图片
以下是关于图片生图片的相关知识: Tusiart 简易上手教程 概念与功能说明: 1. 图生图:上传图片后,SD 会根据您的图片、选择的模型、输入的 prompt 等信息进行重绘。重绘幅度越大,输出的图与输入的图差别越大。 2. 尺寸:图片生成的尺寸大小。尺寸过小,AI 生成内容有限;尺寸过大,AI 可能放飞自我。若要高清图,可设置中等尺寸并用高分辨率修复。 3. 采样算法:即让 AI 用何种算法生图。 4. 采样次数:AI 调整图片内容的次数。次数越多,调整越精密,理论上出图效果越好,但耗时越长。不过并非次数越多越好,效果提升并非线性,过多后效果增长曲线会放平并开始震荡。 5. 提示词相关性:指图像与 prompt 的匹配程度。数字增大将使图像更接近提示,但过高会导致图像质量下降。 6. 随机种子 seed:生成的每张图都有随机种子。固定种子后,可进行“控制变量”操作,如修改提示词等。首次生成图时无种子,无需操作。 7. Clip Skip:可用于生成图片后控制、调整构图变化,一般设为 2,早期无需过多关注。 8. ENSD:eta 噪声种子增量,默认设为 0 即可。 简明操作流程: 在会用文生图之后,上传图片即可尝试图生图。注意重绘幅度,最小可选 0.01 的重绘,输出的图片差别较明显。局部重绘等高阶功能不在本简明操作流程中,后续进阶内容的教程再展开。 Liblibai 简易上手教程 简明操作流程: 在会用文生图之后,上传图片即可尝试图生图。注意重绘幅度,最小可选 0.01 的重绘,输出的图片差别较明显。局部重绘等高阶功能不在本简明操作流程中,后续进阶内容的教程再展开。
2025-02-18
图片提示词反推工具
以下是关于图片提示词反推工具的相关信息: LayerStyle 副本:根据图片反推提示词,可设置替换词。使用 Google Gemini API 作为后端服务,需在申请 API key,并填到插件根目录下的 api_key.ini 文件中(默认名字为 api_key.ini.example,初次使用需将后缀改为.ini,用文本编辑软件打开,在 google_api_key=后面填入 API key 并保存)。节点选项包括:api(目前只有"geminiprovision"一个选项)、token_limit(生成提示词的最大 token 限制)、exclude_word(需要排除的关键词)、replace_with_word(替换 exclude_word 的关键词)。 PromptEmbellish:输入简单的提示词,输出经过润色的提示词,支持输入图片作为参考。使用 Google Gemini API 作为后端服务,同样需申请并填写 API key。节点选项包括:image(可选项,输入图像作为提示词参考)、api(目前只有"googlegemini"一个选项)、token_limit(生成提示词的最大 token 限制)、discribe(在这里输入简单的描述,支持中文)。 【SD】真人转二次元:图生图功能除文本提词框外还有图片框输入口,可通过图片给与 AI 创作灵感。有两个反推提示词的按钮:CLIP 可通过图片反推出完整含义的句子;DeepBooru 可反推出关键词组。但生成的提示词可能有瑕疵,需手动补充信息。调整宽度和高度使红框匹配图片,同时注意提示词相关性和重绘幅度这两个参数。 第二十一期港风胶片: 活动介绍:墨悠大佬的胶片 lora 模型搭配 flux1 dev 大模型,文艺复兴,唯美胶片复古。lora 模型链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 教程: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 lo。上一期活动链接: 胶片 lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page
2025-02-18
图片提示词提取工具
以下是一些图片提示词提取工具: MidLibrary:Midjourney 最全面的流派、艺术技巧和艺术家风格库,网址: MidJourney Prompt Tool:类型多样的 prompt 书写工具,点击按钮就能生成提示词修饰部分,网址: OPS 可视化提示词:这个网站有 Mid Journey 的图片风格、镜头等写好的词典库,方便快速可视化生成自己的绘画提示词,网址: AIart 魔法生成器:中文版的艺术作品 Prompt 生成器,网址: IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器,网址: Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion,ChatGPT&Midjourney,网址: OpenArt:AI 人工智能图像生成器,网址: img2prompt:根据图片提取 Prompt,网址: MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用,网址: PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板,网址: AiTuts Prompt:精心策划的高质量 Midjourney 提示数据库,提供了广泛的不同风格供选择,网址: 关于悠船工具的基础使用教程: 进入官网,可以选择桌面端下载和浏览器使用。为方便选择浏览器使用,第一次使用需注册,选择企业用户注册,输入对应名称和手机号即可注册成功(目前不需要填写企业信息)。注册完成后进入具体操作页面。 基础操作:点击开始想象按钮,将生成的提示词粘贴在下面,回车等待几十秒生成 4 张图片,可选择喜欢的图片进行对应操作。 创作调整: 风格化:数字越大,越艺术,但并非越大越好,取决于创作,人像不用调整过高。 怪异化:数字越大越奇怪,可不碰。 多样化:数字越大,结果越意想不到,越低越接近提示词。建议新手一开始不用怪异和多样化,可做实验测试。 模式:默认标准,朴实 raw 会让图片质感更好,个人喜爱。 版本:默认最高 V6,建议最高,二次元可选 NIJI。 生成图片的速度:默认快速,越快对支付套餐要求越高。 “城市狂想”直接上手操作的教程中关于图片提示词生成: 提供了猫叔写的一段提示词的 prompt 并生成了三条,还为大家直接生成了 1 组共 12 段提示词,可直接使用。注意提示词在悠船和 MJ 中可直接用,在其他平台工具请复制后删除包含“”以后的部分。拿到提示词后可进入喜欢的 AI 绘画工具界面,例如悠船,点击开始想象按钮粘贴提示词。
2025-02-18
图片转视频的国产AI推荐
以下是为您推荐的国产图片转视频的 AI 工具: 1. 可灵:由快手团队开发,生成的图像和视频质量高。在视频生成方面,其视频生成质量卓越,画面清晰、连贯且内容丰富,生成速度快,对于国内用户可访问性强。但价格相对较高,重度用户年费可能达几千元,轻度用户有免费点数和较便宜的包月选项。 2. 通义万相:作为国产 AI 工具,在中文理解和处理方面表现出色,可选择多种艺术和图像风格,操作界面简洁直观,用户友好度高,且目前免费,每天签到获取灵感值即可。但为符合国内监管要求,某些类型图像无法生成,处理非中文语言或国际化内容可能不够出色,处理多元文化内容时可能存在偏差。 更多相关网站可以查看: 内容由 AI 大模型生成,请仔细甄别。
2025-02-18
图片转视频的AI推荐
以下是为您推荐的图片转视频的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的相关网站可以查看:https://www.waytoagi.com/category/38 。 另外,在视频转绘制作视频过程中,Topaz Video AI 是一个不错的插件,用于消除视频抖动和运动模糊。其使用方法如下: 解压对应文件,推荐使用绿色版,右键管理员运行 VideoAIportable.exe 文件,导入处理好的视频。主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。右边部分是主要对视频处理的方式,预设部分主要是放大视频、提升画质、提升帧率等。稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动需要开启,次数一般选择 2 保持默认不变。 在制作新年表情包时,生成新年场景可以输入关键词“新年、中国新年、喜庆热闹、恭喜发财”之类的词汇得到合适的新年背景。然后使用可灵 AI 1.6 图生视频工具让场景动起来,抽卡性价比不错,简单效果一般抽两三次即可。
2025-02-18
有什么可以通过文字生成流程图或其他图片的AI网址
以下是一些可以通过文字生成流程图或其他图片的 AI 网址: DALL·E:由 OpenAI 推出,可根据输入的文本描述生成逼真的图片。 StableDiffusion:开源的文生图工具,能生成高质量图片,支持多种模型和算法。 MidJourney:因高质量的图像生成效果和用户友好的界面设计而受欢迎,在创意设计人群中流行。 您可以在 WaytoAGI 网站(https://www.waytoagi.com/category/104 )查看更多文生图工具。 此外,还有一些文字生成视频的 AI 产品,如: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多的文生视频网站可查看:https://www.waytoagi.com/category/38 。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-18
midjourney
以下是关于 Midjourney 的相关信息: 隐私政策: 适用于 Midjourney,Inc.、Midjourney.com 网站和 Midjourney 图像生成平台的服务。 个人数据指与个人相关、可用于识别个人身份的任何信息。 适用性包括通过服务、训练机器学习算法过程、网站及第三方来源收集的数据,但不适用于某些特定人员的个人数据。 可能会不时更新政策,用户应定期查看,不接受更改应停止互动。 定义了“您”或“您的”等术语。 收集的数据类型包括个人数据。 图像提示: 可通过/imagine 输入,将图片文件拖入或右键粘贴链接添加图像 URL 到提示中。 使用 Midjourney Bot 在私信中上传图像可防止被其他服务器用户看到,除非用户有隐身模式,否则图像提示在网站上可见。 给出了多个例子,如阿波罗雕像、复古花图等,以及不同模型版本的相关内容。 提示将图像裁剪为与最终图像相同的宽高比以获得最佳效果。 社区准则: Midjourney 是默认开放的社区。 要友善尊重彼此和员工,禁止不尊重、攻击性或辱骂性的内容,禁止成人和血腥内容。 未经许可不得公开转发他人创作,分享时要小心。 违反规则可能导致服务被禁止,规则适用于所有相关内容。
2025-02-18
给我5个midjourney确保场景一致性的Sample提示词
以下是 5 个 Midjourney 确保场景一致性的 Sample 提示词: 1. Scifi movie scene. In the silverwhite space environment, from the overtheshoulder lens on the right side of the man with short hair and navy blue jumpsuit, a transparent virtual screen appeared on the wall in front of him. Behind there is the silhouette of another female employee with long blue hair, operating another screen. Rendered in a C4D style inspired by Unreal Engine, with high resolution and rich detail. sref url cref url ar 16:9 style raw sw 30 cw 100 2. In a magical forest, a fairy with colorful wings is sitting on a huge mushroom. The sunlight filters through the leaves, creating dappled patterns on the ground. cref https://my.image.host/fairy.jpg s 800 3. On a sandy beach at sunset, a couple is walking hand in hand, leaving footprints in the sand. The ocean waves crash gently in the background. cref https://my.image.host/couple.jpg ar 9:16 4. In a medieval castle courtyard, a knight in shining armor is training with a sword. The flags are fluttering in the wind. cref https://my.image.host/knight.jpg s 700 5. At a busy city street corner, a street musician is playing a guitar, surrounded by a crowd of people. The buildings are towering in the background. cref https://my.image.host/musician.jpg ar 4:3
2025-02-14
MidJourney
以下是关于 Midjourney 的相关信息: 隐私政策: 适用于 Midjourney,Inc.、Midjourney.com 网站和 Midjourney 图像生成平台的服务。 个人数据指与个人相关、可用于识别个人身份的任何信息。 适用性包括通过服务、训练算法、网站及第三方来源收集的数据,但不适用于 Midjourney 员工等的个人数据。 可能会更新政策,用户应定期查看,不接受更改应停止互动。 定义了“您”和“使用数据”等概念。 收集的数据类型包括个人数据。 图像提示: 可将图像 URL 添加到提示中,通过/imagine 输入,可拖入或粘贴图片链接。 使用 Midjourney Bot 私信上传图像可防止被其他用户看到,除非用户有隐身模式,否则图像提示在网站上可见。 给出了起始图像、中途模型版本 4 和 5 等的例子,以及纵横比提示。 社区准则: Midjourney 是默认开放的社区。 要友善尊重彼此和员工,禁止不尊重、攻击性或辱骂性内容,禁止成人和血腥内容。 未经许可不得公开转发他人创作,分享时要小心。 违反规则可能导致服务被禁止,规则适用于所有内容。
2025-02-13
Midjourney怎么用
以下是关于 Midjourney 的使用方法: 使用 Vary Region 编辑器选择并重新生成放大图像的特定部分: 1. 生成图像:使用命令 /imagine 创建图像。 2. 升级图像:使用 U 按钮放大所选图像。 3. 选择不同区域:点击🖌️Vary按钮,打开编辑界面。 选择编辑器左下角的手绘或矩形选择工具。 选择要重新生成的图像区域。注意选择的大小会影响结果,更大的选择会为 Midjourney 机器人提供更多空间生成新的创意细节,较小的选择则导致更小、更微妙的变化。无法编辑现有选择,但可以使用右上角的撤消按钮撤消多个步骤。 4. 提交您的工作:单击 Submit→按钮将请求发送到 Midjourney Bot。 5. 查看结果:Midjourney 机器人将处理作业并在选择的区域内生成新的变化图像网格。 喂图: 意义:从第一张起,可反复上传优化图片,来达到自己想要的图片。 喂图过程: 1. 上传单张或者一组(4 到 5 张,目前没有限制多少张,但一般 4 张刚刚好,太多会给 AI 带来困扰)到 Midjourney 输入框里,上传有两种方法: 点击输入框前方的加号上传。 鼠标选择图片或一组拖到软件里,回车,点击上传后的图片,在左下角“在浏览器打开链接“打开后复制浏览器上的链接,返回主界面,在输入框里“/imagine:粘贴刚才复制的链接+您所描述的关键词。 常见问题: 1. 小白新手找不到输入框频道。 答:找到 Midjourney 白色图标,点击进去,找带数字结尾的频道,或者在自己社区里添加 Midjourney 机器人。 Seed 种子: Midjourney 机器人使用种子号来创建视觉噪声场(例如电视静电),作为生成初始图像网格的起点。seed 接受 0–4294967295 的整数。seed 值仅影响初始图像网格。使用不同模型版本的相同 seed 值,生成的图像效果不同。 种子参数: 如果未指定种子,Midjourney 将使用随机生成的种子编号,每次使用提示时都会生成多种选项。 查找工作的种子号: 1. 通过对作业使用✉️信封表情符号进行反应。 2. 使用 Show 命令恢复旧作业,复制作业 ID 并使用/show<Job ID>命令来恢复作业,然后使用✉️信封表情符号对新生成的作业做出反应。 更改种子数量:添加seed<value>到提示的末尾。
2025-02-12
midjourney
以下是关于 Midjourney 的相关信息: 隐私政策: 适用于 Midjourney,Inc.、Midjourney.com 网站和 Midjourney 图像生成平台的服务。 个人数据指与个人相关、可用于识别个人身份的信息。 适用性包括通过服务、训练机器学习算法、网站及第三方来源收集的数据,但不适用于 Midjourney 员工等的个人数据。 可能会更新政策,用户应定期查看,不接受更改应停止互动。 定义了“您”和“使用数据”等概念。 收集的数据类型包括个人数据。 图像提示: 可将图像 URL 添加到提示中,通过/imagine 输入,可拖入或粘贴图片链接。 使用 Midjourney Bot 在私信中上传图像可防止被其他用户看到,除非用户有隐身模式,否则图像提示在网站上可见。 给出了起始图像、中途模型版本 4 和 5 等的例子,以及纵横比提示。 社区准则: Midjourney 是默认开放的社区。 要友善尊重彼此和员工,禁止不尊重、攻击性或辱骂性内容,禁止成人和血腥内容。 未经许可不得公开转发他人创作,分享时要小心。 违反规则可能导致服务被禁止,规则适用于所有内容。
2025-02-08
如何访问midjourney社区
要访问 Midjourney 社区,您可以按照以下步骤进行: 1. 拥有一个 Discord 账号:如果没有,可参考进行验证。 2. 订阅 Midjourney 计划:访问了解有关定价和各层可用功能的信息。 3. 加入 Midjourney 服务器: 打开 Discord 并找到左侧边栏上的服务器列表。 按服务器列表底部的“+”按钮。 在弹出窗口中,单击“Join a Server”按钮。 粘贴或输入以下 URL:。 4. 转到任何“General”或“Newbie”频道:加入 Midjourney 服务器后,您会在侧边栏中看到列出的几个频道。 此外,您的 Midjourney 订阅使您可以访问 Niji 社区。要为 Niji 模型版本创建风格调谐器或代码,请加入并以与 Midjourney Bot 交互的方式与 Niji 机器人交互。
2025-01-14
生成漫画动作参考图
以下是一些生成漫画动作参考图的方法: 1. 喂参考图:先上传喜欢的参考图,复制其链接。在关键词处填写“图片链接+这张图的关键词”,例如“链接图片.png,a Super cute sports girl,wearing a basketball vest,blueshortsbig watery eyes,clean bright basketball court background,super cute boy IP by pop mart,Bright color,mockup blind box toydisney stylefine luster,3D render,octane render,best quality,8k brightfront lightingFace Shot,fine luster,ultra detail,ar 9:16”。还可以通过修改关键词改变服装颜色等细节。 2. 使用 panels 命令:此命令可生成连续的动作和表情设计,将模型设置改为 niji mode 画动漫角色效果更好。例如“a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with different poses 8K”,也可以使用“continuous running”生成更稳定的连续动作,甚至做成 gif 动画。 3. 利用 character sheet 命令:创建一个角色的多角度以及特写细节,例如“a Super cute sports anime girl,style by Miyazaki Hayao,character sheet,full body,8k”。 4. 使用 emoji、expression sheet:emoji 代表表情包,expression sheet 代表各种表情组合,可用此核心关键词设计出表情包。例如“图片链接.png a Super cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k”。 另外,使用 ControlNet 插件也能生成漫画动作参考图。首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高,对图片的参考越强。可以通过添加关键词的方式给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等。这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。
2025-02-11
我想知道目前最新、效果最好、代码和模型开源的动作捕捉算法,也叫做人体姿态估计,是哪篇文章
目前最新、效果较好且代码和模型开源的人体姿态估计(动作捕捉算法)相关的研究有以下两篇: 1. 【SD】最强手部识别,controlnet 新预处理器 dw openpose 作者:白马少年|公众号:【白马与少年】 发布时间:20230813 20:00 原文网址:https://mp.weixin.qq.com/s/_RiKxWy9MXt4DUJIKH5w 介绍:在 controlnet 中,手部识别一直使用的是 openpose 预处理器,但复杂手势有时无法识别。新的 dw openpose 预处理器能完美解决手部识别问题,将其放入特定目录即可使用。但需说明的是,目前这个 DW Pose 只是更精确的 openpose 预处理器,未对 ControlNet 的 openpose 模型做改动。 2. YOLONAS Pose:一个开源的实时人体姿态估计模型 应用场景:基于骨骼标记为基础,适用于智慧体育等场景,可对训练过程的姿态、数据、状态等进行统计和管理。 技术类型:视频、AI 学习模型 简介:主要功能是识别图片和视频中人的姿势,能快速处理图像并实时返回姿态数据,适应不同场景和设备。 主要特点: 实时性能:旨在提供实时的姿态估计,适用于需要即时反馈的应用。 高精度:利用神经网络架构搜索(NAS)提高姿态估计的准确性。 优化的网络结构:NAS 自动测试不同网络结构,找到最优模型。
2024-12-31
视频导出动作的AI
以下是关于视频导出动作的 AI 相关信息: AI 视频导出方面:普通社交媒体分享选 1080P,需放大选 720P,码率越高越好,可自定义最高 5 万。 Move AI 推出的 Move API 能从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据,相关链接为 https://move.ai/api 。
2024-11-05
动作姿态生成的网站
以下为一些关于动作姿态生成的网站相关信息: 在 Stable Diffusion 中,ControlNet 是一个强大的控制插件。对于姿态约束,您可以通过以下方式操作: 1. 国风 3 模型点击生成姿势,但 AI 识别可能不准确,需耐心刷图和调整参数。 2. 若要细化图片,可使用扩展图片的方法,将图发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再用 ControlNet 中的 tile 模型细化,最后使用 SD 放大插件。 3. 当找不到满足需求的动作图片时,可以自定义动作骨架。在【扩展】【加载扩展列表】中搜索【posex】安装插件(若安装不了,可将分享的插件文件夹拷贝至...\\sdwebuiakiv4\\extensions 目录,确保软件为最新版本后重启)。重启后来到首页,点击“将图片发送至 ControlNet”,可通过鼠标操作调整视角。如调一个玛丽琳梦露的经典动作,右边可调整出图尺寸,启用 ControlNet 时,若骨架图来自 posex 链接,无需添加图片和预处理器,直接加载 openpose 模型即可。 另外,公众号【白马与少年】有不同 pose 的骨架图可供参考,回复【SD】获取。该公众号还分享 Stable Diffusion、Blender 等学习心得,有 139 篇原创内容持续更新。
2024-11-01
动作姿态生成
以下是关于动作姿态生成的相关内容: 在使用 Stable Diffusion 进行动作姿态生成时,可采用以下方法: 1. 利用 ControlNet 中的姿态约束功能,如国风 3 模型,点击生成姿态,但可能存在骨骼错位等问题,需要耐心刷图和调整参数。同时,还收集了不同 pose 的骨架图,可通过添加公众号【白马与少年】回复【SD】获取参考。 2. 对于人物绘制,先确定人物动作,可在草图基础上用 Clip Studio Pro 中的 3D 人物模型进行姿态调整,或使用其他 3D Pose 类软件生成人物姿态,然后使用 ControlNet 的 Openpose 功能生成人物姿态。为控制人物色彩,可采用合适图片放入 img2img 中调整 Denoising strength,或使用 ControlNet Color 等插件,过程中需进行 img2img 反复迭代,并适时加入背景元素,人物大致确定后用 photoshop 融合,再继续生成和调整。 3. 对于特殊物品如天狗面具,若 Stable Diffusion 没有合适模型和 Lora,可自行训练专用 Lora,使用时用 inpainting sketch 重绘或在 Photoshop 处理后进入 img2img 重绘,注意重绘区域要小。 4. 对图片进行细化时,可使用扩展图片方法,将图发送到图生图,用 ControlNet 中 tile 模型细化,再使用 SD 放大插件。若找不到满足需求的动作图片,可在【扩展】【加载扩展列表】中搜索【posex】插件,安装或拷贝至指定目录,重启软件后在首页点击“将图片发送至 ControlNet”进行操作,可通过鼠标操作调整视角,调动作时启用 ControlNet,若骨架图来自 posex 链接,无需添加图片和预处理器,直接加载 openpose 模型。
2024-11-01
会自动作美女跳舞视频的AI
以下是为您提供的关于能自动制作美女跳舞视频的 AI 相关信息: XLabsAI 发布了 6 个不同的 Lora,分别是: 1. mjv6_lora Midjourney 风格,示例为:A fullprofile portrait of a Chinese dancer poised on a moonlit stone bridge, surrounded by the delicate blooms of a cherry orchard. Her silk garments ripple with her movement, her eyes are focused and intense, with skin details on her face. She's part of a scene inspired by classical poetry, her fluid motions a dance of elegance. The luminance is delicate and dreamlike, bestowing a soft ambience. 2. realism_lora 写实风格,示例为:In a conference room setting, a beauty women dressed in business attire are attending a meeting,random expressions, postures, and physical characteristics. A RAW ultrarealistic photo, UHD, 8k. 3. anime_lora 动漫风格,示例为:1girl. 4. disney_lora 迪斯尼风格,示例为:1cat, cartoon, disney. 5. scenery_lora 风景风格,示例为:A breathtaking view of the Himalayas mountain range, showcasing its majestic and serene beauty. The mountains are covered in snow, with their peaks reaching towards the sky, creating a stunning contrast with the blue horizon. The range is vast and imposing, with numerous towering peaks, including Mount Everest, the highest point on Earth. The scene captures the grandeur and tranquility of the Himalayas, with sunlight casting a soft glow on the snowcovered slopes. The foreground shows the rugged terrain and lush greenery of the lower elevations, adding to the diverse and spectacular landscape. 6. art_lora 艺术风格,示例为:Cat, European street, exploration, cozy, mysterious, colorful buildings, sunlight through leaves, cobblestone path, high definition, watercolor painting, warm tones, bright lighting effects, paper texture. Lora 下载地址:https://hfmirror.com/Kijai/fluxlorascomfyui/tree/main/xlabs
2024-09-21
音频驱动视频人物口型
以下是关于音频驱动视频人物口型的相关信息: PixVerse V3 : 本次更新内容丰富,包括已有能力升级,提供更精准的提示词理解能力和更惊艳的视频动态效果。 支持多种视频比例,如 16:9、9:16、3:4、4:3、1:1。 Style风格化功能重新回归升级,支持动漫、现实、粘土和 3D 四种风格选择,同时支持文生视频和图生视频的风格化。 全新上线了 Lipsync 功能,在生成的视频基础上,允许用户输入文案或上传音频文件,PixVerse 会自动根据文案或音频文件内容,对视频中的人物口型进行适配。 还有 Effect 功能,提供 8 个创意效果,包括变身僵尸、巫师帽、怪兽入侵等万圣节主题模板,一键实现创意构思。并且 Extend 功能支持将生成的视频再延长 5 8 秒,且支持控制延长部分的内容。 字节跳动开源的 LatentSync : 是精准唇形同步工具,能够自动根据音频调整角色嘴型,实现精准口型同步,无需复杂中间步骤。 提出“时间对齐”技术,解决画面跳动或不一致问题,效果显著。 具有开箱即用的特点,预训练模型加持,操作简单,支持高度定制化训练。 GitHub 链接:https://github.com/bytedance/LatentSync 论文链接:https://arxiv.org/pdf/2412.09262
2025-02-16
基于参考图片人物形象生成指定迪士尼风格的图片
以下是关于基于参考图片人物形象生成指定迪士尼风格图片的相关内容: 在 Midjourney 中,生成指定迪士尼风格的图片可以通过以下方式: 1. 角色参考(cref):cref 的功能是保持图像角色的一致性。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref):sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果想引用一张图,但只是把它作为新图的一部分,可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。 生成一张 Disney 风格的头像的具体步骤如下: 1. 选一张比较满意的图片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,然后点击上传文件,选取图片,然后在聊天框发送(记得点击回车或发送按钮)。 2. 图片会上传到服务器并生成一张唯一的链接,点击图片,然后点击在浏览器中打开,然后可以看到浏览器上方有一个链接,复制下来。 3. 使用这个链接加 prompt 提示词来发送给 Midjourney,Midjourney 会根据需求生成特定的图片,这就是 Midjourney 的以图绘图。 此外,在生成 3D 效果图时,如生成可爱的拟人小鹿角色,可以在即梦图片生成界面中导入参考图,参考选项为参考轮廓边缘,生图模型选择 图片 2.0,输入包含角色、细节描述、场景、风格材质等的提示词,生成图片。
2025-02-12
文生图人物一致性
以下是关于文生图人物一致性的相关内容: 在使用 ControlNet 进行文生图时,首先进入文生图界面填写提示词生成一张图。然后将图片拖入 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。在没有明确指向性提示词的情况下,人物形象能保持一致,但表情、动作、服装会有随机不同程度的变化。可以通过添加关键词来给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等,例如添加“红裙子”“黑色校服、哭泣”“抱手、生气”“在花丛中奔跑、开心”“红色棒球帽,时尚卫衣,在商场逛街”。通过一系列测试,这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。 另外,在 PIKA1.0 新模型中,人的一致性已经逆天,再加上其强大的语义理解和大幅度的动作,在文生图方面表现出色。
2025-02-11
多人物场景,人物一致性如何保证
在多人物场景中保证人物一致性可以参考以下方法: 1. 在使用 Midjourney 出图时,多角色情况下,放弃参考角色(cref 提示),只用参考风格(sref 提示)。这样的好处是不会出现奇怪的组合,坏处是出图较随机。 2. 多用局部重绘,虽然具有随机性,但多试几次能得到一致性较好的图。 3. 出图时先只出一个主要角色和场景。当出现多角色场景时,把其他角色抠图粘贴过来。比如老虎向兔子认错的场景,若兔子和老虎不一致,可先出稳定的老虎,再粘贴兔子以保证一致性。 4. 按照“三个确定”的 SOP 处理: 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。 确定前后图的构图风格:出第二张图时,将第二张图提示词描述后加入第一张图的构图风格(iw 参数)。 确定图片角色一致性:在保证构图风格没问题的基础上,保证人物一致性。先保证构图再确认角色一致性,因为 MJ 在重绘时,将角色在镜头中的位置挪动处理较难,固定位置重绘局部内容相对容易,若先保证人物内容,会很依赖 MJ 抽卡,随机性大。
2025-02-10
请推荐一下你知道的人物头像转卡通图的平台,要求效果好,和原图相似度高,最好是免费的
以下为一些人物头像转卡通图效果好、与原图相似度高且可能免费的平台及相关操作技巧: 1. Stable Diffusion: 可以使用【X/Y/Z plot】脚本来做参数对比,将 X 轴设置为提示词相关性(取值范围 1 30,每次增加 5),Y 轴设置为重绘幅度(取值范围 0 1,每次增加 0.2)。 提示词相关性在 6 11 中间为最佳,重绘幅度 0.4 时和原图比较接近。 可使用绘图功能,如增加红色眼镜、去掉衣服图案等,局部重绘可只改变涂抹部分。 2. 复杂提示词: 如 Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 。 可根据需求调整提示词,如将 Disney 换成 Pixar,boy 换成 girl 等。 3. 通用人物模版: 用真人照片+照片描述+方法 1 的关键词来处理。 需要注意的是,不同平台的效果可能因图片和操作而有所差异,您可以自行尝试。
2025-02-06
我想把黑白老照片修复成彩色,然后给人物换衣服。请问哪个AI网站或者软件可以免费使用
以下为您介绍可免费使用的将黑白老照片修复成彩色并给人物换衣服的方法: 使用 Stable Diffusion 可以实现此需求。在新上线的 controlnet 模型中,新增的 Recolor 模型能将黑白图片重新上色。操作时选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰,可参考文章——。 之后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-02-04