Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Midjurnery绘画如何控制风格

Answer

要控制 Midjourney 绘画的风格,可以通过以下参数和功能实现:

  1. 模型版本切换:使用 --style <4a,4b or 4c> 可在 Midjourney 模型版本 4 的不同版本间切换。
  2. 风格强度调整:--stylize <number>, or --s <number> 参数影响 Midjourney 默认美学风格应用于任务的强度。
  3. 人物一致性:通过 --cref URL 在提示词后添加人物参考图像的 URL,并使用 --cw 修改参考强度(从 0 到 100),强度为 100(--cw 100)时使用人物的脸、头发和衣服,强度为 0(--cw 0)时仅关注脸部(适用于改变服装/发型等)。还可以使用多个 URL 来融合多个图像中的信息/人物,如 --cref URL1 URL2

此外,还有一些其他基本参数会对生成结果产生影响:

  1. 宽高比:--aspect,or --ar 可改变生成图像的宽高比。
  2. 混沌值:--chaos <number 0–100> 改变结果的多样性,值越高越不寻常和意外。
  3. 负向提示:--no 用于尝试从图像中去除某些元素。
  4. 质量:--quality <.25,.5,1,or 2>, or --q <.25,.5,1,or 2> 决定渲染质量和花费时间。
  5. 种子:--seed <integer between 0–4294967295> 用于指定生成初始图像网格的随机种子数。
  6. 停止:--stop <integer between 10–100> 可在生成过程中途停止作业。

需要注意的是,模型版本 5 的默认值和范围如下:宽高比默认 1:1,混沌值默认 0,质量默认 1,种子随机,停止默认 100,风格化默认 100。宽高比大于 2:1 处于实验阶段,可能产生不可预测的结果。

Content generated by AI large model, please carefully verify (powered by aily)

References

🎯训练Midjourney的prompt(可举一反三)

[title]🎯训练Midjourney的prompt(可举一反三)先不用多做回复,请问答是否收到即可?4——————————————————————————————————————Basic ParametersAspect Ratios--aspect,or --ar Change the aspect ratio of a generation.Chaos--chaos <number 0–100> Change how varied the results will be.Higher values produce more unusual and unexpected generations.No--no Negative prompting,--no plants would try to remove plants from the image.Quality--quality <.25,.5,1,or 2>,or --q <.25,.5,1,or 2> How much rendering quality time you want to spend.The default value is 1.Higher values cost more and lower values cost less.Seed--seed <integer between 0–4294967295> The Midjourney bot uses a seed number to create a field of visual noise,like television static,as a starting point to generate the initial image grids.Seed numbers are generated randomly for each image but can be specified with the --seed or --sameseed parameter.Using the same seed number and prompt will produce similar ending images.Stop--stop <integer between 10–100> Use the --stop parameter to finish a Job partway through the process.Stopping a Job at an earlier percentage can create blurrier,less detailed results.Style--style <4a,4b or 4c> Switch between versions of the Midjourney Model Version 4Stylize--stylize <number>,or --s <number> parameter influences how strongly Midjourney's default aesthetic style is applied to Jobs.Uplight

训练Midjourney的prompt

[title]训练Midjourney的prompt--style <4a,4b or 4c> Switch between versions of the Midjourney Model Version 4Stylize--stylize <number>,or --s <number> parameter influences how strongly Midjourney's default aesthetic style is applied to Jobs.Uplight--uplight Use an alternative"light"upscaler when selecting the U buttons.The results are closer to the original grid image.The upscaled image is less detailed and smoother.Upbeta--upbeta Use an alternative beta upscaler when selecting the U buttons.The results are closer to the original grid image.The upscaled image has significantly fewer added details.Default Values(Model Version 5)Aspect Ratio Chaos Quality Seed Stop StylizeDefault Value1:1 0 1 Random 100 100Rangeany 0–100.25.5,or 1 whole numbers 0–4294967295 10–100 0–1000Aspect ratios greater than 2:1 are experimental and may produce unpredicatble results.CompatibilityModel Version & Parameter Compatability

Midjourney 人物一致性已上线

[title]Midjourney人物一致性已上线DavidH:Hey @everyone @here we're testing a new"Character Reference"feature today This is similar to the"Style Reference"feature,except instead of matching a reference style it tries to make the character match a"Character Reference"image.How it worksType --cref URL after your prompt with a URL to an image of a characterYou can use --cw to modify reference 'strength' from 100 to 0strength 100(--cw 100)is default and uses the face,hair,and clothesAt strength 0(--cw 0)it'll just focus on face(good for changing outfits / hair etc)What it's meant forThis feature works best when using characters made from Midjourney images.It's not designed for real people / photos(and will likely distort them as regular image prompts do)Cref works similarly to regular image prompts except it 'focuses' on the character traitsThe precision of this technique is limited,it won't copy exact dimples / freckles / or tshirt logos.Cref works for both Niji and normal MJ models and also can be combined with --srefAdvanced FeaturesYou can use more than one URL to blend the information /characters from multiple images like this --cref URL1 URL2(this is similar to multiple image or style prompts)How does it work on the web alpha?Drag or paste an image into the imagine bar,it now has three icons.selecting these sets whether it is an image prompt,a style reference,or a character reference.Shift+select an option to use an image for multiple categoriesRemember,while MJ V6 is in alpha this and other features may change suddenly,but V6 official beta is coming soon.We'd love everyone's thoughts in ⁠ideas-and-features We hope you enjoy this early release and hope it helps you play with building stories and worlds

Others are asking
AI 绘画提示词
以下是一些 AI 绘画常用的提示词: 画面构图方面: 人物拍摄:Chest Shot、headshot 爆头。 视角:Wideangle view 广角镜头、CloseUp的横截面图、cinematic shot 电影镜头。 相机相关:canon 5d,1fujifilm xt100,Sony alpha 相机型号焦段光圈。 其他:scenery shot 风景照、bokeh 背景虚化、foreground 前景、background 背景、Detail Shot。 画面氛围和情绪方面:moody 暗黑的、happy 鲜艳的,浅色的、dark 黑暗的、epic detail 超细节的、Brutal 残酷的,破碎的、dramatic contrast 强烈对比的、hopeful 充满希望的、anxious 焦虑的、depressed 沮丧、elated 高兴地、upset 难过的、fearful 令人恐惧的、hateful 令人憎恨的、happy 高兴、excited 兴奋、angry 生气、afraid 害怕。
2025-02-18
AI绘画课程
以下为您推荐的 AI 绘画课程: 【野菩萨】课程: 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 ChatGPT 体系课程:有 ChatGPT 基础、核心 文风、格式、思维模型等内容。 ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 应对 SORA 的视听语言课程:涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 免费课程机会:参与 video battle,获胜者可获得课程奖励,包括冠军 4980 课程一份、亚军 3980 课程一份、季军 1980 课程一份,入围奖励 598 野神殿门票一张。 扫码添加菩萨老师助理,了解更多课程信息。 【Stable Diffusion 零基础入门宝典】课程: 作者从事平面设计行业,基于对 Stable Diffusion 的学习和研究,开发了这套课程。 课程初衷是为刚入门或想了解 SD 的小伙伴做全面梳理,因为新人面对众多内容往往不知所措。 课程特色暂未提及。 SD 新手视频教程: 章节教学视频: 第一节课:AI 绘画原理与基础界面 第二节课:20 分钟搞懂 Prompt 与参数设置,你的 AI 绘画“咒语”学明白了吗? 第三节课:打破次元壁!用 AI“重绘”照片和 CG 第四节课:AI 绘画模型,“画风”自由切换 第五节课:提高 AI 绘画分辨率的方式 第六节课:LoRa|Hypernetwork 概念简析 第七节课:定向修手修脸,手把手教你玩转局部重绘! 第八节课:提示词补全翻译反推,“终极”放大脚本与细节优化插件 第九节课:LoRA 从原理到实践 第十节课:零基础掌握 ControlNet!
2025-02-17
你的知识库架构是怎样的,普通人如何迅速找到目标靶向,比如我想学ai绘画
以下是关于您想学习 AI 绘画的相关内容: 1. 知识库提到明天银海老师将详细讲解 AI agent,同时表示知识库内容丰富,您可挑选感兴趣的部分学习,比如较轻松的 AI 绘画等。 2. 强调 AI 绘画是视觉基础,还介绍了针对 AI 绘画学社做的关键词词库精选活动。 3. 讲述了 AI 绘画中的 stable diffusion 扩散模型的运作方式,是通过加噪和去噪,随机生成种子来形成最终图像,还提到生成式 AI 做高清放大可增加细节的原理。 您可以根据以上信息,逐步深入了解 AI 绘画的相关知识。
2025-02-15
Ai绘画,两个月入门
以下是为您提供的 AI 绘画两个月入门的相关内容: 首先,了解一下 AI 绘画的逻辑。就像您学习画画临摹梵高的作品一样,AI 绘画也是通过学习大量的美术风格作品来生成类似风格的作品。例如 Stable Diffusion ,您花四十年学习的梵高风格相当于它的大模型——Checkpoint 。人们将成千上万种美术风格作品训练成模型放入 AI 中,您想画出满意的作品,首先要选对合适的大模型。大模型可以在 C 站(https://civitai.com/)下载,但需要科学上网。 有位叫二师兄的人在二月接触到 AI 绘画,三月啃完 SD 的所有教程并开始炼丹,四月探讨 AI 变现途径,五月因工作变动但仍坚持学习,加入 Prompt battle 社群学习 Midjourney 。 另外,有人分享自己的经历,22 年 12 月学习 AI 绘画,直到最近因公司业务需求重新捡起,短时间内出过上千张图支持多个业务团队。如果想让人主动学习 AI ,有效的方式是让其看到 AI 能高效完成手头工作。生成式 AI 目前还在早期阶段,为其找高价值应用场景或许能持续一二十年,行业龙头可能是最大受益者之一。
2025-02-12
如何学习ai绘画
以下是关于学习 AI 绘画的一些指导: 首先,了解 Stable Diffusion 的工作原理。这就好比学习画画,比如学梵高的风格,要先看他的画并临摹。对于 AI 绘画来说,成千上万的美术风格作品被练成一个模型放在 AI 里,比如 Stable Diffusion 的大模型——Checkpoint,您可以在 C 站(https://civitai.com/,需科学上网)下载不同风格的大模型,如真实系、二次元、游戏 CG 风等。选对合适的大模型是画出符合心意作品的关键。 其次,要学会与 AI 对话,提示词(Prompt)非常重要。提示不是自然语言的简单应用,而是一种特殊的语言应用,它是实现人机交互的形式之一。 另外,还可以参考他人的学习经历,比如二师兄在 2024 年的学习过程。他从二月开始接触 AI 绘画,三月啃完 SD 的教程并开始炼丹,四月尝试 AI 变现途径,五月在没有硬件支持的情况下加入 Prompt battle 社群学习 Midjourney。 总之,学习 AI 绘画需要了解原理、选对模型、掌握提示词技巧,并不断实践和探索。
2025-02-12
ai绘画学习
以下是关于 AI 绘画学习的相关内容: 二师兄的 AI 启蒙之路(2024 年) 2024 年 1 月:购买 4070TiSuper 显卡和 4K160 显示器,为游戏做准备。 2024 年 2 月:在七彩虹售后群获得 AI 绘画的 SD 秋叶安装包和教学视频,开始学习。 2024 年 3 月:啃完 SD 的所有教程,开始炼丹,包括人脸、画风、风景、景观、建筑等,但因图片数据集质量一般且多为公司项目案例图片,lora 仅供自嗨。 2024 年 4 月:与小伙伴探讨 AI 变现途径,尝试用 GPT 和 SD 制作图文故事绘本、小说推文项目,过程中练了一些绘本风格的丹。 2024 年 5 月:因工作变动,电脑运回家,开始无硬件支持的 AI 学习之路,加入 Prompt battle 社群,学习 Midjourney,打磨文生图提示词学习。 AIGC 法律风险研究报告 以 AI 绘画为例,其运行机制有三层:基础逻辑层能完成风格迁移;数据库层需要大量“喂图”进行深度学习;创造性输出层能产出符合文字描述且有美学逻辑的图像。 在第一个阶段中,AI 绘画服务提供者爬取大量数据以供后一阶段使用。美国版权法将获取使用网络数据的行为纳入合理使用范畴,我国虽未明确规定“转换性使用”概念,但司法实践中有参考适用案例。但针对 AI 爬取网络数据的行为,不符合我国《著作权法》中合理使用规定,且举证困难,若认定为侵权行为不利于人工智能行业发展。 如果让我推荐一门 AI 课 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 ChatGPT 体系课程:有 ChatGPT 基础、核心 文风、格式、思维模型等内容。 ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 应对 SORA 的视听语言课程:涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 免费课程机会:可以参与 video battle,获胜者可获得课程奖励,包括冠军 4980 课程一份、亚军 3980 课程一份、季军 1980 课程一份,入围可获得 598 野神殿门票一张。扫码添加菩萨老师助理可了解更多课程信息。
2025-02-11
找一个能够生成音乐的AI。我给一个曲名(比如《生日快乐歌》),他就能给我生成不同风格的音乐供我下载。
以下为您推荐能够根据给定曲名生成不同风格音乐并供下载的 AI 工具: 1. Suno AI: 地址:https://www.suno.ai/ 简介:被誉为音乐界的 ChatGPT,能够根据简单提示创造出从歌词到人声和配器的完整音乐作品。 账号要求:需要拥有 Discord、谷歌或微软中的至少一个账号,并确保网络环境稳定。 订阅信息: 免费用户每天 50 积分,每首歌消耗 5 积分,每天可创作 10 首歌曲,每次点击生成两首歌曲。 Pro 用户每月 2500 点数(大约 500 首歌),按月每月 10 美元,按年每月 8 美元,每年 96 美元。 Premier 用户每月 10000 点数(大约 2000 首歌),按月每月 30 美元,按年每月 24 美元,每年 288 美元。 操作模式: 默认模式:包括关闭个性化、歌曲描述、乐器开关、模型选择 v3 等设置。 个性化模式:开启个性化定制,可填写歌词、曲风、标题等。 生成歌词:可使用大模型如 Kimi、GPT、文心一言等生成。 开始生成:填写好所需内容后点击 Create,等待 2 3 分钟即可。 下载:生成后可下载。 2. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。地址:https://www.udio.com/ 3. YuE:支持从歌词生成 5 分钟高质量音乐(含人声与伴奏),多语言支持(中、英、日、韩),覆盖多种音乐风格与专业声乐技术。详细介绍:https://www.xiaohu.ai/c/xiaohuai/yue5
2025-02-18
生成浮世绘风格的提示词
以下是一些生成浮世绘风格的提示词: Ukiyoe:浮世绘的准确翻译。 Flat illustration:保持画面扁平风,避免视觉冲击过度。 Doraemon from Manga Doraemon:漫画《哆啦 A 梦》里的哆啦 A 梦;该句式还原热门动漫形象效果好,把 from 前后继续对应修改即可。 Surfing:冲浪。会自动关联到《神奈川冲浪里》风格。 Block print:木版画。提升纹理质感。 1700s:年代关键词,提升质感。浮世绘源自 17 世纪,实测 1700s 效果较好。 niji 6:该系列创作使用 niji 6 比 V6 出图效果好。 style raw:更贴近描述词本身。“限制 AI 自由发挥”
2025-02-17
基于参考图片人物形象生成指定迪士尼风格的图片
以下是关于基于参考图片人物形象生成指定迪士尼风格图片的相关内容: 在 Midjourney 中,生成指定迪士尼风格的图片可以通过以下方式: 1. 角色参考(cref):cref 的功能是保持图像角色的一致性。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref):sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果想引用一张图,但只是把它作为新图的一部分,可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。 生成一张 Disney 风格的头像的具体步骤如下: 1. 选一张比较满意的图片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,然后点击上传文件,选取图片,然后在聊天框发送(记得点击回车或发送按钮)。 2. 图片会上传到服务器并生成一张唯一的链接,点击图片,然后点击在浏览器中打开,然后可以看到浏览器上方有一个链接,复制下来。 3. 使用这个链接加 prompt 提示词来发送给 Midjourney,Midjourney 会根据需求生成特定的图片,这就是 Midjourney 的以图绘图。 此外,在生成 3D 效果图时,如生成可爱的拟人小鹿角色,可以在即梦图片生成界面中导入参考图,参考选项为参考轮廓边缘,生图模型选择 图片 2.0,输入包含角色、细节描述、场景、风格材质等的提示词,生成图片。
2025-02-12
我们是做小红书笔记的,目前有没有哪个软件可以把我们上千篇以往人工写的笔记,投喂给它,训练出一个能按照以往风格来写笔记的呢?比如扣子或者钉钉,可以吗
目前市面上常见的软件中,豆包暂时未获取到扣子或钉钉有此功能的相关信息。不过,像一些专门的自然语言处理和机器学习平台,如 OpenAI 的 GPT 系列、百度的文心一言等,在一定的技术支持和合规操作下,有可能实现您的需求。但需要注意的是,将大量以往的笔记用于训练模型可能涉及到数据隐私和版权等问题,需要谨慎处理。
2025-02-07
我们是做小红书笔记的,目前有没有哪个软件可以把我们上千篇以往人工写的笔记,投喂给它,训练出一个能按照以往风格来写笔记的呢
目前市面上还没有专门针对小红书笔记且能完全满足您需求的成熟软件。一般来说,使用现有的自然语言处理模型进行这样的训练存在诸多限制和法律风险。小红书对于内容的原创性和合规性有严格要求,使用以往的笔记进行训练可能违反平台规定。但您可以通过学习和借鉴以往笔记的写作风格、结构和主题,人工创作出新的优质笔记。
2025-02-07
我需要你给我生成一些提示词,我会给你我想的想法。《》以内的是想法。《我想写一篇影视解说的文案,写作的视角以我,第一人称的视角来写。想要风格偏幽默风趣一点,就像跟朋友在讲述一样,可以模仿鲁迅先生的手法。而且还想把影片的剧情内容写出来,从开篇到电影的结尾,如果有需要保留原片的地方,请把原片的画面场景以及时间段描述出来。要求这篇文案要附上我自己的内心独白,以此引人深思!请你深度思考后,在做答复!要求字数不少于5000字。》请问我该如何写提示词?请你整理好提示词后发给我
以下是为您生成的一些提示词,希望对您有所帮助: 影视解说文案提示词 1. 以第一人称幽默风趣的口吻,像与朋友讲述般,描绘影片从开篇到结尾的精彩剧情,融入自己的内心独白,模仿鲁迅先生的手法,展现独特的视角和深刻的思考。 2. 用轻松幽默的语言,以我的视角详述影片情节,穿插搞笑的评论和内心想法,借鉴鲁迅先生的讽刺技巧,使解说引人入胜。 3. 以亲切自然的叙述方式,如同与好友聊天,讲述影片故事,从开头至结束,结合鲁迅先生的文风,加入个人的情感起伏和独特见解。 DALL·E 相关提示词 1. 绘画:提及颜料种类、画布纹理和笔触形状/纹理(列表)。 2. 数字:注明使用的软件、阴影技术和多媒体方法(列表)。 3. 基于详细提示使用 DALL·E 3 生成图像,让创意鲜活起来,为提示的每个元素做出大胆有趣的选择。 4. 遵循提示指南,提出四个全新的简单概念,而非完整提示,从上次给出的建议中获取灵感。 请注意,默认方面比率为正方形(1:1),默认风格为摄影,包括相机设置、摄影类型和设备。同时,避免违反服务条款的词汇或概念,不侵犯版权,不使用暗示性或露骨的图像,强调符合 G 级评级的元素。
2025-02-06
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
使用O1来控制智能硬件
O1 是一个完全开源的可以控制家里电脑的 AI 语音智能助手。它能够看到您的屏幕内容,学习使用您常用的应用,无论您身在何处,都能通过按下按钮、讲话让它帮您操作电脑完成任务。其 CAD 文件、电路设计、代码完全开源,有能力的开发者可以直接制作该设备。灵感来自 Andrej Karpathy 的 LLM 操作系统,10 月份他的 LLM 科普视频含金量仍在上升。O1 运行一个代码解释语言模型,并在计算机内核发生特定事件时调用它。项目地址:https://github.com/OpenInterpreter/01
2025-02-05
控制模特的姿势
以下是关于控制模特姿势的方法: 在使用相关 AI 工具时,如 Stable Diffusion 等,有以下几种控制模特姿势的方式: 1. 使用蒙版和提示词:输入相关提示词,如“蓝色毛衣”,处理蒙版区域内容为“填充”,调整尺寸与图像一致,重绘幅度为 1。但可能会出现衔接问题,此时可降低重绘幅度或添加 openpose 来控制人物身体,获得正确姿势。 2. 利用 ControlNet 功能: 正常填写大模型和关键词生成照片。 鼠标滑到最下面,点击“ControlNet”。 点击空白处上传指定姿势的照片,并点击“启用”。 在“预处理器”和“模型”里选择“openpose”,用于让计算机识别人物姿势。 点击“预览预处理结果”,最后点击生成照片,即可得到指定姿势的照片。 在 ControlNet 参数配置方面: tile 用于对整体画面的控制,可选择分块+固定颜色+锐化,以保证颜色统一降低后续闪烁,不需要全过程引导,仅在开始时固定画面。 lineart 用于提取人物线条,保证人物整体不跑偏,权重给到 0.6 以控制整体画面输出稳定。 openpose 用于控制人物的姿态、表情和动作,推荐使用 DWpose 处理器,其对面部和手部的识别效果较好。
2025-01-17
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
图的角色 用 cref 去控制一致性 风格可以用 sref 去控制
在 Midjourney 中,cref 和 sref 是用于引用图片的功能,它们有以下区别和使用方法: 1. 角色参考(cref): 作用:保持图像角色的一致性。 使用方法:在提示后添加“cref”,紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girlcref。可以使用“cw”调整参考图像对生成图像的影响程度,数值范围从 0 到 100。强度 100(“cw 100”)是默认值,会使用面部、头发和衣服,cw 为 0 的话仅保证脸部一致。基础格式为“cref 图片链接,cw 100”。 参考链接: 2. 风格参考(sref): 作用:生成类似风格的图片,保持画风的一致性。 使用方法:在提示后添加“sref”,紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girlsref。可以使用“sw”调整参考风格对生成图像的影响程度,数值范围从 0 到 1000。基础格式为“sref 图片链接,sw 100”。 参考链接: 如果想引用一张图,但只是把它作为新图的一部分,可以使用“sref”或“cref”,并通过调整“sw”或“cw”的值来控制引用图像的影响程度。例如:/imagine prompt beautiful girlsrefsw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格。
2025-01-13
我想找一个能够实现运动控制逻辑的编程助手
目前在 AI 领域中,有一些编程助手可以帮助您实现运动控制逻辑。例如,您可以考虑使用 Python 中的相关库,如 `numpy`、`matplotlib` 等,结合数学和物理知识来构建运动控制模型。另外,一些专门的机器人编程框架和工具,如 ROS(Robot Operating System)也能为您提供支持。但具体选择哪种工具,还需要根据您的具体需求和技术背景来决定。
2024-11-20