Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

MJ中如何精准控制颜色

Answer

以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息:

  1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。
  2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。
  3. 在 MJ 的公式方面:
    • 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。
    • 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。
    • 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。
    • 特定公式:
      • 连续场景变化公式:
        • 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyber-punk city)+场景风格描写+官方命令。
        • 木偶公式:人物图片+场景+人物+动作+风格+官方命令。
        • 等距粘土公式:
          • 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。
          • 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。
        • 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。
    • 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
Content generated by AI large model, please carefully verify (powered by aily)

References

如何用 SD 训练一套贴纸 LoRA 模型

A drawing for a rabbit stickers,in the style of hallyu,screenshot,mori kei,duckcore plush doll art exaggerated poses,cry/happy/sad/...--ar 3:4--niji 5--style cute--s 180兔子贴纸绘制的图画,采用韩流风格,截图,森喜朗,鸭核毛绒玩偶夸张的姿势会得到不同风格的贴图,我们可以先看看自己喜欢哪一种我一开始找的画面风格不是特别统一,但初次训练的时候不那么严格也是可以的出图过程可以有意识地总结这一类贴图都有什么特征:都是可爱的兔子有不同的衣服和头饰都有一双大大的卡通眼睛,会有不同的面部表情注意事项:关键词中限制了颜色,因此MJ生成的图片会一种情绪对应一种颜色,所以我们同一种情绪最好多生成几张不同色系的,可以减少后续训练中模型把情绪和颜色做挂钩(如果你需要这样的话,也可以反其道而行之)数据集中正面情绪与负面情绪最好比例差不多,如果都是正面积极的,在出一些负面情时(sad,cry)的时候,可能会出现奇怪的问题(如我们训练的是兔子形象,但ai认知的sad可能是人的形象,可能会出现人物特征)如果我们训练256*256大小的表情包,那么这样的素材就已经够用了如果要训练更高像素的图片,则需要进一步使用MJ垫图和高清扩展功能[heading2]高清化[content]左(256)→右(1024)输入左图,加入内容描述,加入风格描述,挑选合适的选出新30张图片(卡通二次元类型的lora训练集30张差不多,真人60-100张)

教程:线稿上色Midjourney+Stable Diffusion

关键词正关键词主要前面添加了增加照片质感常用的+mj生成线稿的关键词调整(去掉mj里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数负关键词看自己的效果添加。添加一切你不想要的东西,我前面调用了词嵌入(bad_prompt_version2-neg,badhandv4,easynegative)需要去c站下载,这些主要是为了控制人手部错误的,在最后一步放大的时候。。却起到了反作用,强行给小猫咪小动物5个手指(建议不加,或者建议生成的时候加,放大的时候去掉)正关键词((white background)),(8k,raw photo,best quality,masterpiece),(photon mapping,radiosity,physically-based rendering,automatic white balance),CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style,负关键词:back and white,green,blue,purple,真实系大模型:revAnimated v1.2.2版本尺寸最好和你的草稿图保持一致(前面的步骤没有截图。这里重新做了一张)如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸最重要的ControlNet设置上传自己的草图到ControlNet,点击启用。记得点💥的图标让预处理器生效

MJ手册·快速入门

人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。[heading3]02 3D公式:[content]主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词[heading3]03插画公式:[content]主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令[heading3]04.特定公式[content]连续场景变化公式:1)角色/场景公式:上传图片(喂图:文章下方有解释)+人物描写(注意:融入其他场景需要关键词white background,结合场景后换成walking in a futuristic cyber-punk city)+场景风格描写+官方命令。2)木偶公式:人物图片+场景+人物+动作+风格+官方命令。3)等距粘土公式:1.等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体2.安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人4)3D图标公式(未测试,可用):喂图(1~3张相似的风格)+描述的icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令[heading3]05.通用公式:[content]角色/物体描述+背景描述+灯光风格+官方命令

Others are asking
MJ和runaway用什么软件代替比较好
以下是一些可以替代 MJ(Midjourney)和 Runway 的软件: Luma 发布的 DIT 视频生成模型 Dream Machine 图生视频表现惊艳,具有电影级效果。 出图工具方面,还有 SD(Stable Diffusion)和悠船。MJ 稳定性好、协作性强且有成熟经验参考,但并非所有人都拥有;SD 有独特能力但需本地部署且上手门槛高;悠船对中文支持好、交互友好简单易上手,但管控严格,有很多敏感词不能使用。 如果您想了解更多关于这些软件的详细信息或有其他特定需求,请进一步向我提问。
2025-03-24
如何使用MJ
以下是关于如何使用 MJ(Midjourney)的详细说明: 1. 图像网格: 使用 /imagine 命令可根据提示生成低分辨率图像选项网格。 每个图像网格下方的按钮可用于创建图像的变体、升级图像或重新运行最后一个 Midjourney Bot 操作。 U1U2U3U4 按钮将图像与图像网格分开,方便下载或使用其他工具,如“缩小”“平移”。使用旧版 Midjourney 模型版本时,U 按钮会放大图像。 重做(重新滚动)按钮可重新运行作业,重新运行原始提示生成新的图像网格。 变化按钮(V1V2V3V4)可创建所选网格图像的增量变化,生成与所选图像整体风格和构图相似的新图像网格。 2. 放大图像: 制作变体:创建放大图像的变体并生成包含四个选项的新网格。 网页:在 Midjourney.com 上打开图库中的图像。 最喜欢:标记您最好的图像,以便在 Midjourney 网站上轻松找到它们。 3. 模型个性化: MJ 发布了模型个性化 Personalization 或 'p' 的早期测试版本。 每次写提示时,很多信息是“隐含的”,MJ 算法通常用社区综合偏好填补空白,而模型个性化会学习您的喜好来填补。 模型个性化的要求:目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效,可在排名页面查看评分数量或在 Discord 上输入 /info。 使用方法:只需在提示后输入 'p',或使用提示栏中的设置按钮为所有提示启用个性化功能。启用时会在提示后添加一个“代码”,可分享让其他人使用应用于该图像的个性化效果,还可以使用 's 100' 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。 注意:个性化目前不是稳定功能,会随更多成对排名而变化,可能会推出算法更新,视为“不断变化的有趣功能”。 4. Midjourney V6 更新风格参考命令 2.0"sref": 2 月 1 日初次发布了首个“一致风格”测试算法,称为“风格参考”,工作方式类似于图像提示,可提供一个或多个描述想要的一致风格的图像的 URL。 使用方法:在提示后面输入 'sref' 以及一个指向图像的 URL,例如 'sref url A'。 高级设置:使用多个图像 URL 并设置风格的相对权重,例如 'sref urlA::2 urlB::3 urlC::5',通过 'sw 100' 设置风格化的总体强度(100 是默认值,0 表示关闭,1000 表示最大值),常规图像提示必须在 'sref' 之前。 注意:MJ 可能会在接下来的几周内更新此功能,若提示倾向于照片逼真而想要冲突的插图风格,可能仍需在提示中添加文本说明,风格参考对图像提示没有直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”的功能,与 'cref' 参数使用方式相同。
2025-03-13
去哪里使用mj
Midjourney 的使用方法如下: 模型个性化: 工作原理:模型个性化会学习您的喜好,以更符合您的口味生成图像。 要求:目前从成对排名中的投票和您喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。您可以在排名页面查看评分数量,或在 Discord 上输入/info。 使用方法:在提示后输入p,或使用提示栏中的设置按钮为所有提示启用个性化功能。启用时会在提示后添加一个“代码”,您可以分享此代码让他人使用应用于该图像的个性化效果。还可以使用s 100 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。 注意事项:个性化目前不是稳定功能,会随您进行更多成对排名而变化,且可能会在接下来几周内推出算法更新。 在 Discord 上的使用: 与 Midjourney Bot 互动:可以在 Discord 上进行,Midjourney 服务器具有不同的界面和频道。 直接消息:与直接消息中的 Midjourney 机器人进行一对一合作,获得更安静的体验。 Midjourney 官方服务器:提供协作和计费/技术支持渠道。 频道列表:包括support 频道获取计费和技术支持,newbies 频道创建图像。 会员名单:Midjourney Bot 使用命令生成图像,版主和指南可帮助解决计费和技术问题。 V6 更新风格参考命令 2.0"sref": 初次更新 1.0 说明:2 月 1 日,MJ 发布首个“一致风格”测试算法,称为“风格参考”,可提供一个或多个描述想要的一致风格的图像的 URL。 如何使用:在提示后面输入sref 及图像的 URL,例如sref url A。系统会将图像 URL 视为“风格参考”,并尝试生成与其风格或美学相匹配的内容,适用于 V6 和 Niji V6(不适用于 V5 等)。 高级设置:可使用多个图像 URL 并设置相对权重,例如sref urlA::2 urlB::3 urlC::5,通过sw 100 设置风格化的总体强度(100 是默认值,0 表示关闭,1000 表示最大值),常规图像提示必须在sref 之前。 注意事项:MJ 可能会在接下来几周内更新此功能,若提示倾向于照片逼真而想要冲突的插图风格,可能仍需在提示中添加文本说明,风格参考对图像提示没有直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”功能,与cref 参数使用方式相同。
2025-02-28
如何用mj有效地画三视图
要有效地用 Midjourney(MJ)画三视图,可以参考以下步骤: 1. 对于核心角色创建,如局长的三视图设计,先明确角色特点,使用 GPT4 生成相关描述。 2. 进行多次尝试和修改,根据团队成员的反馈不断调整。 3. 可以用 MJ 进行垫图生成,在保持原 IP 特点的基础上重新设计。 4. 如果 MJ 生成的效果不理想,可以结合其他工具,如用 Illustrator 手绘,再用 Stable Diffusion(SD)控图,后期利用 AI 工具生成拓展视频。 需要注意的是,MJ 虽然在美术效果和设计能力上有进步,但仍可能存在局限,需要不断尝试和改进。
2025-02-25
Mj
以下是关于 Midjourney(MJ)的相关信息: 1. 文字生成效果测试:MJ 在圣诞节前夕推出新版本 V6,聚焦于文字生成方面。使用英文文本输入,对英语提示词的识别效果变好,将需要生成的文本用双引号“text”包裹,输出的图片中便能出现所要求的文字。但带文字的图片生成仍受文本量、文字在画面中的占比、其他提示词数量和画面复杂程度等因素影响。为探究 V6 的文字生成能力开展了进一步实践测试。 2. 更新风格参考命令 2.0“sref”:2 月 1 日,MJ 发布首个“一致风格”测试算法,称为“风格参考”。工作方式类似于图像提示,在提示后面输入sref 及图像的 URL,可提供一个或多个 URL 并设置相对权重,还可通过sw 100 设置风格化总体强度。此功能适用于 V6 和 Niji V6,不适用于 V5 等。MJ 可能在接下来几周内更新此功能,风格参考对图像提示无直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”功能。 3. 角色一致性功能使用报告:MJ 推出角色一致性功能,以甜茶的图片为例进行测试。使用方式是在提示后输入`cref URL`附上人物图像的 URL,注意要在提示词后面,可使用`cw`修改参考强度,强度 100 是默认值,会使用面部、头发和衣服,强度 0 时只会关注面部。
2025-02-20
mj提示词
以下是关于 MJ 提示词的相关内容: 1. MidJourney 图片生成大师能够根据您的故事内容创作出全面的分镜提示词,包括分镜描述、人物描述、环境描述、氛围描述、灯光描述、色彩描述、构图描述、风格描述等。还会考虑您所使用的相机类型、摄影风格和镜头位置,您分享故事内容和具体需求即可获得专业服务。 2. 在提示词中,文本前置、后置等效果相近,过长的文本难以控制文本出现的位置,建议只要求 AI 生成部分主要文本内容,自行嵌字仍是当前最佳方法。加入引号“”包裹文本能达到 MJ 生成文字的效果,不必要特殊说明“生成一段文本......”等内容。MJ 能够自行判断文本应当存在的位置,会将文本安排在符合逻辑的位置上。后续有机会可进一步测试【局部重绘】能否控制文本在规定位置出现。总结来说,MJ 进行文本输出任务,提示词没有特别固定的语法结构,只需要认识其文本生成的能力范围和使用场景,即可高效应用 V6 模型生成有趣画面内容。 3. 让 Claude 出 MJ 提示词的提示词结构是:让大模型告诉你如何出 MJ 提示词效果会更好+让大模型出提示词+加上一些要求。先让大模型告诉你如何出 MJ 提示词效果会更好,因为大模型输出的过程也是思考的过程,所以对大模型循循善诱效果更好。对于有名的产品,如奔驰 E300L,每个出图的提示词都需包含“奔驰 E300L”。再加上一些要求,比如参数“ar 16:9”是要求 MJ 生成比例图片 16:9 的宽频图片,“q 2”是画面质量最高的参数。出 MJ 提示词还有更方便好用的办法,就是使用 chatgpt 里面的 gpts,如“Mid Journey V6 Prompt Creator”。可以理解为:chatgpt 是手机安卓系统,gpts 就是手机里的 app,不同的 gpts 能实现不同的功能,有的能绘画,有的能帮您总结文献,有的能生成更专业的 MJ 提示词。
2025-01-22
如何搭建精准回答的本地知识库
搭建精准回答的本地知识库可以参考以下步骤: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入知识库页面,并单击创建知识库。 4. 在弹出的页面配置知识库名称、描述,并单击确认。需注意一个团队内的知识库名称不可重复,必须是唯一的。 5. 在单元页面,单击新增单元。 6. 在弹出的页面选择要上传的数据格式(默认是文本格式),然后选择一种文本内容上传方式完成内容上传。 如果想要对知识库进行更加灵活的掌控,可以使用额外的软件AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在AnythingLLM中有一个Workspace的概念,可以创建自己独有的Workspace跟其他的项目数据进行隔离。具体操作如下: 1. 首先创建一个工作空间。 2. 上传文档并且在工作空间中进行文本嵌入。 3. 选择对话模式,AnythingLLM提供了两种对话模式: Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案。 Query模式:大模型仅仅会依靠文档中的数据给出答案。 4. 测试对话。
2025-03-11
如何去训练ai,让ai可以更精准的回答问题分析趋势
要训练 AI 使其更精准地回答问题和分析趋势,可以从以下几个方面入手: 检索原理: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时验证信息的来源、时效性和相关性。 2. 消除冗余:识别并去除多个文档或数据源中的重复信息,避免在生成回答时出现重复或矛盾的内容。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建结构化的知识框架,使信息在语义上更连贯。 4. 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括对信息进行排序、归类和整合,形成统一的叙述或解答框架。 5. 语义融合:在必要时合并意义相近但表达不同的信息片段,减少语义重复并增强信息表达力。 6. 预备生成阶段:将整合好的上下文信息编码成适合生成器处理的格式,如转化为适合输入到生成模型的向量形式。 大模型生成回答: 最终全新的上下文被传递给大语言模型,大语言模型根据提供的信息回答问题。因为这个上下文包括了检索到的信息,所以相当于同时拿到了问题和参考答案,通过大语言模型的全文理解,生成准确和连贯的答案。 批判性思维与复杂问题解决: 批判性思维指分析、评估、推理并做出明智判断的能力,在 AI 时代尤为关键。培养批判性思维需要养成质疑习惯,通过辩论、逻辑训练、阅读反面意见等方式锻炼,注重逻辑推理和定量分析能力的培养。复杂问题解决与批判性思维密切相关,指在不确定情境下分析问题、设计解决方案的能力,往往需要综合运用多种思维技能,通过参与实际复杂项目、案例研究来提高经验,可利用 AI 作为资料提供者或头脑风暴助手,但关键在于人类自己的分析和决策过程。 纯强化学习: DeepSeek R1 引入纯强化学习,不依赖大量人类标注数据,而是让 AI 通过自我探索和试错来学习。在“冷启动”阶段,通过少量人工精选的思维链数据进行初步引导,建立符合人类阅读习惯的推理表达范式,随后主要依靠强化学习,在奖励系统的反馈下(包括准确率奖励和格式奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。纯强化学习有可能解锁新的人工智能水平,DeepSeek R1 更注重学习推理的底层策略,培养通用推理能力,实现跨领域的知识迁移运用和推理解答。
2025-03-07
怎么在AI文生图中精准的输出想要的文字
要在 AI 文生图中精准输出想要的文字,可以参考以下方法: Recraft 模型: 提供提示词加上文本位置,因为模型获得的输入数据越多,越容易产生精确输出。遵循指令比仅理解提示词更容易。 Tusiart 模型: 定主题:明确生成图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 ControlNet:可控制图片中特定的图像,如人物姿态、生成特定文字等,属于高阶技能。 局部重绘:下篇再学。 设置 VAE:选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,同样用单词和短语组合,用英文半角逗号隔开,不用管语法。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据个人喜好和需求选择。 Liblibai 模型: 定主题:明确生成图片的主题、风格和表达的信息。 选择 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 设置 VAE:选择 840000 即可。 CLIP 跳过层:设成 2 。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,同样用单词和短语组合,用英文半角逗号隔开,不用管语法。 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 时,迭代步数在 30 40 之间。 尺寸:根据个人喜好和需求选择。 生成批次:默认 1 批。
2025-03-06
如果用AI精准且快速总结视频网站的视频。
要使用 AI 精准且快速总结视频网站的视频,可参考以下步骤: 1. 对于有字幕的视频,如 B 站视频,先确认视频栏下方是否有字幕按钮,若有则说明视频作者已上传字幕或后台适配了 AI 字幕。 2. 安装油猴脚本“Bilibili CC 字幕工具”,安装后刷新浏览器,点击字幕会出现“下载”按钮。 3. 点击下载按钮,选择多种字幕格式,如带时间或不带时间的。 4. 将下载的字文字内容全选复制发送给 GPTs 进行总结。 5. 总结完视频内容后,还可继续向 AI 提问更多细节内容或与其探讨视频内容。 此外,通义千问的 Qwen2.5VL 模型在视频理解方面也有出色表现,如支持最长 1 小时视频理解,具备秒级的事件定位能力,能够对视频的不同时间段进行要点总结等。
2025-03-06
图片的提示词的精准度
以下是关于图片提示词精准度的相关内容: 画面精度提示词: high detail(高细节) hyper quality(高品质) high resolution(高分辨率) FHD, 1080P, 2K, 4K, 8K 8k smooth(8K 流畅) 渲染效果提示词: Unreal Engine(虚幻引擎) octane render(渲染器) Maxon Cinema 4D 渲染器 architectural visualisation(建筑渲染) Corona Render(室内渲染) Quixel Megascans Render(真实感) VRay(V 射线) Behance C4D 3D blender surreal photography(超现实摄影) realistic 3D(真实 3D) zbrush 在描述图片提示词时,通常的逻辑包括:人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,能更精确地控制绘图。 对于新手而言,有以下辅助书写提示词的方法和网站: 下次作图时,先选择模板,点击倒数第二个按钮快速输入标准提示词。 功能型辅助网站,如:http://www.atoolbox.net/,通过选项卡方式快速填写关键词信息。 https://ai.dawnmark.cn/,每种参数有缩略图参考,方便直观选择提示词。 去 C 站(https://civitai.com/)抄作业,每一张图都有详细参数,可点击复制数据按钮,粘贴到正向提示词栏,Stable Diffusion 会自动匹配参数,但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会不同。也可以只取其中较好的描述词,如人物描写、背景描述、小元素或画面质感等。 提示词所做的工作是缩小模型出图的解空间,即缩小生成内容时在模型数据里的检索范围,而非直接指定作画结果。提示词的效果受模型影响,不同模型对自然语言、单词标签等语言风格的反应不同。 提示词中可以填写以下内容: 自然语言:可以使用描述物体的句子作为提示词,大多数情况下英文有效,也可用中文,避免复杂语法。 单词标签:使用逗号隔开的单词作为提示词,一般使用普通常见单词,单词风格要和图像整体风格搭配,避免拼写错误,可参考 Emoji、颜文字:Emoji 表情符号准确且在语义准确度上表现良好,对构图有影响。关于 emoji 确切含义,可参考。对于使用 Danbooru 数据的模型,西式颜文字可在一定程度上控制出图的表情。
2025-02-26
我想了解现在有什么文生图的模型或者工具,可以精准的按照prompt给的位置大小把文字写在最终出来的图像上的,这个字不会是幻觉,是实打实的字,或者有没有通过训练lora来达到这个效果的
以下是一些关于文生图的模型和工具的信息: Tusiart: 定主题:确定生成图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:可选用麦橘、墨幽等系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 ControlNet:可控制图片中特定的图像。 设置 VAE:选择 840000 。 Prompt 提示词:用英文写需求,单词和短语用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语用英文半角逗号隔开。 采样算法:一般选 DPM++2M Karras ,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据需求和喜好选择。 吐司网站: 文生图的操作方式:在首页的对话生图对话框输入文字描述即可生成图片,不满意可通过对话修改。 模型及生成效果:Flex 模型对语义理解强,不同模型生成图片的积分消耗不同,生成效果受多种因素影响。 图生图及参数设置:可基于图片做延展,能调整尺寸、生成数量等参数,高清修复消耗算力多,建议先出小图。 特定风格的生成:国外模型对中式水墨风等特定风格的适配可能不足,可通过训练 Lora 模型改善。 Liblibai: 定主题:确定生成图片的主题、风格和表达的信息。 选择 Checkpoint:可选用麦橘、墨幽等系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 设置 VAE:选择 840000 。 CLIP 跳过层:设成 2 。 Prompt 提示词:用英文写需求,单词和短语用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语用英文半角逗号隔开。 采样方法:一般选 DPM++2M Karras ,也可参考模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 时,迭代步数在 30 40 之间。 尺寸:根据需求和喜好选择。 生成批次:默认 1 批。
2025-02-25
可以为我找到在线更换图片颜色服务的AI网站吗
以下是一些可以在线更换图片颜色服务的 AI 网站相关信息: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 在最近新上线的 controlnet 模型中,Recolor 新模型可将黑白图片重新上色。 对于人物照片还原,可选择 realisian 的写实大模型,通过提示词描述颜色和对应内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 您可以通过以下网址获取更详细内容:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-03-25
我希望通过ai做好我企业内部的智能巡检。巡检内容主要是针对企业的门店的招牌门头是否合规给出意见。主要合规性检查包括:Logo是否符合公司的设计标准;门头的颜色搭配、尺寸是否符合标准(还要提醒褪色),请问大体应该是各什么思路?
很抱歉,飞书知识库中没有与您关于通过 AI 做好企业内部门店招牌门头智能巡检思路的直接相关内容。但一般来说,您可以考虑以下思路: 1. 数据采集:使用图像采集设备获取门店招牌门头的图像数据。 2. 图像识别技术:运用 AI 的图像识别能力,对采集到的图像进行分析,识别 Logo、颜色、尺寸等元素。 3. 建立标准模型:根据公司设计的标准,建立合规性的模型,以便与采集到的图像进行对比。 4. 智能判断:通过算法判断门头的各项元素是否符合标准,包括 Logo 是否与标准一致,颜色搭配、尺寸是否在规定范围内,以及是否存在褪色等问题。 5. 生成报告和提醒:根据判断结果生成详细的报告,并及时提醒相关人员进行整改。
2025-02-25
我希望你向我推荐一个AI培养我画画的兴趣爱好。我目前23岁,无任何画画基础,目前用IPA中的procrate APP绘画比较方便,我喜欢颜色鲜艳的简笔画,但是我对procrate APP并不熟悉,希望有一个AI能充当我的花花启蒙老师,带领我使用procrate APP学习简笔画
很抱歉,以上提供的内容中没有直接针对您需求的有效推荐。不过,您可以考虑以下途径: 1. 【野菩萨的 AIGC 资深课】:由工信部下属单位【人民邮电出版社】开设,是市面上为数不多的值得推荐的 AI 课程之一,也是全网技术更新最快的课程!课程内容涵盖 AI 绘画等多个体系的知识。 2. 您还可以在网络上搜索关于 Procreate APP 以及简笔画的教学视频和教程,有很多免费或付费的资源可供选择。 希望这些建议对您有所帮助。
2025-02-10
有没有能够改LOGO颜色的AI?
以下是一些能够修改 LOGO 颜色的方法和相关的 AI 工具: 方法: 可以使用 Stable Diffusion 来修改 LOGO 颜色。但在使用过程中可能会出现颜色提示词相互污染、背景颜色不统一等问题。为解决这些问题,可以启用 cutoff 插件来进行控制。具体操作可参考文章——。 AI 工具: 1. Looka:是一个在线 Logo 设计平台,使用 AI 理解用户的品牌信息和设计偏好,生成多个 Logo 设计方案供选择和定制。 2. Tailor Brands:AI 驱动的品牌创建工具,提供 Logo 设计服务,通过用户回答问题生成 Logo 选项。 3. Designhill:其 Logo 制作器使用 AI 技术创建个性化 Logo 设计,用户可选择元素和风格。 4. LogoMakr:提供简单易用的 Logo 设计工具,用户可拖放设计,利用 AI 建议的元素和颜色方案。 5. Canva:广受欢迎的在线设计工具,提供 Logo 设计模板和元素,有 AI 辅助设计建议。 6. LogoAI by Tailor Brands:Tailor Brands 推出的 AI Logo 设计工具,根据用户输入快速生成方案。 7. 标小智:中文 AI Logo 设计工具,利用人工智能技术帮助用户创建个性化 Logo。 您还可以访问网站的 AI 生成 Logo 工具版块,获取更多好用的工具:
2025-02-05
如何让AI生成我想要的颜色
要让 AI 生成您想要的颜色,可以参考以下几种方法: 1. 在“Mood to color”任务中,您向 AI 提供心情的描述,让其生成对应的 CSS 代码颜色。输出为 json 格式,键为“css_code”。若描述不清晰或信息不足,可能无法确定颜色代码。 2. 使用 Khroma 网站,通过选择一组颜色来训练神经网络驱动的算法,在浏览器中生成您喜欢的颜色并屏蔽不喜欢的颜色。它能从互联网上热门的调色板中学习,生成出色的组合,您可以以字体、渐变、调色板或自定义图像的形式查看。 3. 在 Stable Diffusion 中,为线稿上色的步骤如下: 点开“ControlNet”的状态栏。 在空白处上传线稿图,并点击“启用”和“反转输出颜色”。 在模型里选择“canny”的模型。 设置前面的内容,如选择合适的大模型(若想生成二次元图,选择相应模型),输入关键词(先写照片质量关键词,再指定颜色,还可通过输入更多关键词控制照片细节,负面关键词可复制前面的)。 希望这些信息对您有所帮助。
2025-01-17
可以一键改头发颜色的免费AI网站
以下是一些可以尝试的网站和应用程序: 美图秀秀: 美图秀秀是一款流行的图片编辑应用程序,可用于更改头发颜色。它提供免费和付费版本。免费版本允许您尝试一些基本的发色,而付费版本则提供更多选项和功能。 FaceApp: FaceApp是一款流行的照片编辑应用程序,可用于更改头发颜色。它提供免费和付费版本。免费版本允许您尝试一些基本的发色,而付费版本则提供更多选项和功能。 YouCam Makeup: YouCam Makeup是一款流行的美妆应用程序,可用于更改头发颜色。它提供免费和付费版本。免费版本允许您尝试一些基本的发色,而付费版本则提供更多选项和功能。 Hair Color Changer: Hair Color Changer是一款适用于iOS和Android的免费应用程序,可用于更改头发颜色。它提供有限的免费功能,但您可以通过应用内购买解锁更多功能。 Hair Color Studio: Hair Color Studio是一款适用于iOS和Android的免费应用程序,可用于更改头发颜色。它提供有限的免费功能,但您可以通过应用内购买解锁更多功能。 请注意,这些网站和应用程序的结果可能并不完全真实,尤其是对于深色头发或复杂的发型。如果您正在考虑改变头发颜色,最好咨询专业的发型师。 以下是一些在使用AI网站或应用程序更改头发颜色时需要考虑的事项: 照明: 照明条件会影响头发颜色的效果。在明亮的照明条件下拍摄照片以获得最佳效果。 头发颜色: 您的头发颜色会影响AI网站或应用程序的结果。如果您有深色头发,可能很难获得准确的效果。 发型: 您的发型会影响AI网站或应用程序的结果。如果您有复杂的发型,可能很难获得准确的效果。 期望值: 请记住,AI网站或应用程序的结果可能并不完全真实。如果您正在考虑改变头发颜色,最好咨询专业的发型师。 希望以上信息对您有所帮助。如果您还有其他问题,请随时提出。
2024-05-20
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
基于PLC的智能仓储控制系统设计
很抱歉,目前知识库中没有关于“基于 PLC 的智能仓储控制系统设计”的相关内容。但一般来说,设计这样一个系统需要考虑以下几个方面: 1. 需求分析:明确仓储系统的功能要求、存储容量、货物类型和操作流程等。 2. PLC 选型:根据系统规模和控制要求选择合适的 PLC 型号。 3. 传感器和执行器配置:选择合适的传感器来检测货物位置、状态等信息,以及确定执行器如电机、气缸等的类型和数量。 4. 控制程序编写:使用相应的编程软件编写 PLC 控制程序,实现货物的入库、出库、存储位置管理等功能。 5. 人机界面设计:提供直观、易于操作的人机界面,方便操作人员监控和控制系统。 6. 系统调试与优化:对设计好的系统进行调试,优化控制参数,确保系统稳定可靠运行。 希望以上这些通用的思路能对您有所帮助,如果您需要更详细准确的信息,建议查阅相关的专业书籍和技术资料。
2025-03-12
如何控制图生图的形象和动作呢
要控制图生图的形象和动作,可以参考以下方法: 1. 使用 ControlNet 插件: 姿态约束类预处理器:包含了所有人物信息的预处理器,可将图片发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再次发送到图生图使用 ControlNet 中 tile 模型细化,最后使用 SD 放大插件。 自定义动作骨架:在【扩展】【加载扩展列表】中搜索【posex】安装插件,或将插件文件夹拷贝至指定目录,确保软件是最新版本并重启。重启后点击“将图片发送至 ControlNet”,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了可点击重置镜头和动作。 2. 参考风格 reference:首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。可以通过添加关键词的方式来改变人物的服装、表情、动作等。 3. 利用 ControlNet 控制姿势:大模型和关键词正常填写生成想要的小姐姐照片,接着鼠标滑到最下面点击“ControlNet”,上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片。
2025-02-28
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
使用O1来控制智能硬件
O1 是一个完全开源的可以控制家里电脑的 AI 语音智能助手。它能够看到您的屏幕内容,学习使用您常用的应用,无论您身在何处,都能通过按下按钮、讲话让它帮您操作电脑完成任务。其 CAD 文件、电路设计、代码完全开源,有能力的开发者可以直接制作该设备。灵感来自 Andrej Karpathy 的 LLM 操作系统,10 月份他的 LLM 科普视频含金量仍在上升。O1 运行一个代码解释语言模型,并在计算机内核发生特定事件时调用它。项目地址:https://github.com/OpenInterpreter/01
2025-02-05
控制模特的姿势
以下是关于控制模特姿势的方法: 在使用相关 AI 工具时,如 Stable Diffusion 等,有以下几种控制模特姿势的方式: 1. 使用蒙版和提示词:输入相关提示词,如“蓝色毛衣”,处理蒙版区域内容为“填充”,调整尺寸与图像一致,重绘幅度为 1。但可能会出现衔接问题,此时可降低重绘幅度或添加 openpose 来控制人物身体,获得正确姿势。 2. 利用 ControlNet 功能: 正常填写大模型和关键词生成照片。 鼠标滑到最下面,点击“ControlNet”。 点击空白处上传指定姿势的照片,并点击“启用”。 在“预处理器”和“模型”里选择“openpose”,用于让计算机识别人物姿势。 点击“预览预处理结果”,最后点击生成照片,即可得到指定姿势的照片。 在 ControlNet 参数配置方面: tile 用于对整体画面的控制,可选择分块+固定颜色+锐化,以保证颜色统一降低后续闪烁,不需要全过程引导,仅在开始时固定画面。 lineart 用于提取人物线条,保证人物整体不跑偏,权重给到 0.6 以控制整体画面输出稳定。 openpose 用于控制人物的姿态、表情和动作,推荐使用 DWpose 处理器,其对面部和手部的识别效果较好。
2025-01-17