Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

controlnet教程

Answer

以下是关于 ControlNet 的教程:

ControlNet 是 Stable Diffusion 中的一个功能,能够让用户更精确地控制出图结果。比如可以控制人物的动作、建筑物的线条等。

在使用时,大模型和关键词正常填写生成所需照片。然后鼠标滑到最下面点击“ControlNet”:

  1. 点击空白处上传指定姿势的照片。
  2. 点击“启用”。
  3. 在“预处理器”和“模型”里选择“openpose”,这用于让计算机识别人物姿势。

接着点击“预览预处理结果”,原照片右边会出现人物姿势的线条,最后点击生成照片即可得到指定姿势的图片。

另外,如果是用秋叶大佬的整合包,会自带 ControlNet 插件。若没有,可去扩展中搜索安装。

其使用逻辑是通过预处理器将图片提取特征并转换为 AI 可识别的形式,再通过模型进行图像生成。例如绘制女孩打篮球模仿库里动作的图片,输入相关关键词,选择大模型,在 ControlNet 中导入库里照片,选择合适的预处理器和模型,调试参数后生成。

在 ControlNet 中还可以尝试不同的预处理器,如 softedge_pidinet、depth、canny、tile 等,可能会得到不错的效果。同时要注意电脑配置,避免出现显存不足等问题。

Content generated by AI large model, please carefully verify (powered by aily)

References

教程:超详细的Stable Diffusion教程

现在我们已经能够生成美女的照片了可以定制出独一无二的脸,换上更好看的衣服但是我们怎么才能让照片的小姐姐摆出指定的姿势呢?通过关键词去描绘动作,可是出来的照片又不太准确通过图生图去生成,可是人脸又变了那我们就可以用到这个“ControlNet”功能,翻译成中文就是控制网络简单来说就是可以用它控制照片的线条,比如人物的动作、建筑物的线条等比如,我现在想让左边照片的小姐姐摆出右边小姐姐的姿势,得到最右边的一张照片首先,大模型和关键词我们还是正常的填写生成一张我们我们想要的小姐姐的照片接着鼠标滑到最下面,点击“ControlNet”①点击空白的地方,上传我们需要指定的姿势的照片②点击“启用”③在“预处理器”和“模型”里选择“openpose”,这就是用来让计算机识别人物姿势的下一步就点击这个“预览预处理结果”接着原来照片的右边就会出现人物姿势的线条,最后点击生成照片这样我们一张指定姿势的美女小姐姐就生成啦!

【SD】最强控制插件ControlNet(1)附模型下载

[title]【SD】最强控制插件ControlNet(1)附模型下载作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-10 20:00原文网址:https://mp.weixin.qq.com/s/6ZKnYF0x6pHo-fWMQ66kiQStable Diffusion一直在致力于更精确地控制出图结果,而在这众多的功能中,最突出的要属ControlNet了。无论是文生图还是图生图,我们更多的是对内容的一个描述,但是如果我们想要更细化一些,比如构图、轮廓、形象姿态、色彩风格等等,单靠文生图或者图生图就不够用了,我们需要一个更强大的控制模块,这时ControlNet也就应运而生。它带来的最大的改变,就是让输出结果能更好的被我们控制了。关于ControlNet插件的安装,如果是用的秋叶大佬的整合包,就会自带这个插件。如果没有,可以去扩展中搜索ControlNet进行安装。安装完成之后,就可以看到ControlNet的使用界面了。ControlNet的使用逻辑是通过预处理器将我们的图片提取特征,并转换为AI可识别的形式,再通过模型将预处理器的结果进行图像生成。说得再直白一点,预处理器就是我们和ControlNet之间的一款翻译软件。比如,我想绘制一张女孩打篮球的图片,并且想让她模仿库里的这个动作。接下来,输入关键词:(最好的质量,杰作),女孩,打篮球,篮球场,认真,球衣,看着观众,受伤,绷带。大模型选择Toonyou的二次元卡通风格,在ControlNet中导入库里的照片,预处理器选择openpose,点击预处理器右侧的爆炸标志,就可以看到提炼出来的骨骼结构。接下来,使用同样名为openpose的模型,调试参数,点击生成。可以看到,这张AI绘图就采用我们提供给它的动作参考画了出来,效果相当不错。

教程:01_立春

[title]教程:01_立春[heading3]1、关键词(稳定)总批次数我这里是跑了4张,有2张都不错。电脑配置不太好的可以先跑一张看看,要不等太久了,多抽几张,选一张喜欢的。在ControlNet上传前面做的白底黑字图512x768,勾选(启用、完美像素、允许预览)预处理器选择softedge_pidinet,权重0.85。当然你也可以试试depth,canny,tile等也可以得到不错的效果。记得点击💥图标才会起作用哦。选择你想要的图片,按♻️键锁定种子,选择放大算法R-ESRGAN 4x+,放大2倍,重绘幅度0.35,(如果配置不够,这里可能会爆显存出不来,需要是图生图放大)如果想要变化更大可以给到0.35-0.5。黑白字体设计(字体设计来源于:ཉི叶承欢

Others are asking
controlnet
ControlNet 是一种在 AI 绘画领域具有重要作用的神经网络模型,由斯坦福大学张吕敏发布。它与预训练的图像扩散模型(如 Stable Diffusion)结合使用,通过引入额外的条件输入来实现对 AI 绘画生成过程的精细控制。 其最大的特点和优势在于: 1. 无论是文生图还是图生图,当需要更细化地控制构图、轮廓、形象姿态、色彩风格等方面时,ControlNet 发挥了强大的作用,让输出结果能更好地被控制。 2. 工作逻辑是通过预处理器将图片提取特征,并转换为 AI 可识别的形式,再通过模型将预处理器的结果进行图像生成。预处理器就如同人和 ControlNet 之间的翻译软件。 3. 其应用广泛,不仅限于 AI 绘画,还可用于图像编辑、风格迁移、图像超分辨率等多种计算机视觉任务,展现了在 AIGC 领域的广泛应用潜力。 关于 ControlNet 插件的安装,如果使用秋叶大佬的整合包,会自带这个插件。如果没有,可以去扩展中搜索 ControlNet 进行安装。安装完成后,即可看到其使用界面。 例如,想绘制一张女孩打篮球并模仿库里动作的图片,输入相关关键词,大模型选择 Toonyou 的二次元卡通风格,在 ControlNet 中导入库里的照片,预处理器选择 openpose,点击预处理器右侧的爆炸标志,可看到提炼出来的骨骼结构。使用同样名为 openpose 的模型,调试参数,点击生成。 在让照片中的小姐姐摆出指定姿势的操作中,首先正常填写大模型和关键词生成照片,接着鼠标滑到最下面点击“ControlNet”,然后上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片即可。
2025-03-25
stable difussion controlnet
Stable Diffusion 相关信息: Stable Diffusion 3.5 已发布,我们对安全高度重视并采取措施防止不良行为者滥用。10 月 29 日将公开发布 Stable Diffusion 3.5 Medium,ControlNets 也将推出,为各种专业用例提供先进的控制功能。 ControlNet 允许通过线稿、动作识别、深度信息等对生成的图像进行控制。使用前需确保 ControlNet 设置下的路径与本地 Stable Diffusion 的路径同步。基本流程包括点击 Enable 启用该项 ControlNet,选择合适的 Preprocessor、调整 Weight 和 Guidance strength 等,还有一些特殊设置如 Invert Input Color、RGB to BGR、Low VRAM、Guess Mode 等。 用 Stable Diffusion 装饰二维码的方法:首先使用 img2img 生成类似于 QR 码的图像,在采样步骤中打开 ControlNet 以将 QR 码压印到图像上,在采样步骤接近尾声时关闭 ControlNet 以提高图像的一致性。具体步骤包括选择检查点模型、输入提示和否定提示、上传二维码到 img2img 画布、设置图像到图像的相关参数、将二维码上传到 ControlNet 的图像画布并设置 ControlNet 的相关参数,最后按生成并用手机查看二维码。
2025-02-25
用一句话解释什么是controlnet
ControlNet 是一种由斯坦福大学张吕敏发布的神经网络模型,常与预训练的图像扩散模型(如 Stable Diffusion)结合,通过引入如涂鸦、边缘图等多种类型的额外条件输入来控制 AI 绘画生成过程,其工作原理是在 Stable Diffusion 模型中添加辅助模块,实现对生成图像的精细控制,还具有训练鲁棒性、兼容性与迁移能力,不仅用于 AI 绘画,还可用于图像编辑等多种计算机视觉任务。使用时需注意相关设置和安装,如确保路径同步、选择合适的预处理器和模型等。
2024-12-23
什么是Controlnet
ControlNet 是一种由斯坦福大学张吕敏发布的神经网络模型,常与预训练的图像扩散模型如 Stable Diffusion 结合使用,用于控制 AI 绘画的生成过程。 其工作原理是将 Stable Diffusion 模型的权重复制到 ControlNet 的可训练副本中,并利用外部条件向量训练副本。条件输入类型多样,如涂鸦、边缘图、姿势关键点、深度图、分割图、法线图等,以此指导生成图像的内容。 ControlNet 具有以下特点和优势: 1. 设计思想提供了训练过程中的鲁棒性,避免过度拟合,允许在小规模甚至个人设备上训练。 2. 架构具有强大的兼容性与迁移能力,可用于其他扩散模型,增强图像生成的多样性和可控性。 其应用不仅限于 AI 绘画,还可用于图像编辑、风格迁移、图像超分辨率等多种计算机视觉任务,展现出在 AIGC 领域的广泛应用潜力。 在使用方面,如在 Stable Diffusion 中,无论是文生图还是图生图,ControlNet 能实现更细化的控制,如构图、轮廓、形象姿态、色彩风格等。使用逻辑是通过预处理器将图片提取特征并转换为 AI 可识别的形式,再通过模型进行图像生成。预处理器如同“翻译软件”。例如绘制女孩模仿库里打篮球的图片,输入关键词和选择相应预处理器、模型等操作后即可生成。 在 Stable Diffusion 中使用 ControlNet 时,要注意一些设置,如确保 ControlNet 设置下的路径与本地 Stable Diffusion 的路径同步。基本流程包括点击 Enable 启用,选择预处理器,调整权重、控制生成步骤、反色模式等,还需根据情况选择合适的模型。
2024-11-24
什么是controlnet? controlnet有什么重要作用
ControlNet 是一种由斯坦福大学张吕敏发布的神经网络模型,常与预训练的图像扩散模型(如 Stable Diffusion)结合使用。 其重要作用包括: 1. 实现对 AI 绘画生成过程的精细控制,通过引入如涂鸦、边缘图、姿势关键点、深度图、分割图、法线图等多种类型的额外条件输入来指导生成图像的内容。 2. 工作原理是将 Stable Diffusion 模型的权重复制到 ControlNet 的可训练副本中,并使用外部条件向量训练副本,在不破坏原模型能力的前提下,通过小批量数据集训练实现对特定条件的学习。 3. 设计思想提供了训练过程的鲁棒性,避免过度拟合,允许在小规模甚至个人设备上训练,架构具有强大的兼容性与迁移能力,可用于其他扩散模型,增强图像生成的多样性和可控性。 4. 应用不限于 AI 绘画,还可用于图像编辑、风格迁移、图像超分辨率等多种计算机视觉任务,展现了在 AIGC 领域的广泛应用潜力。 在 Stable Diffusion 中,ControlNet 带来的最大改变是让输出结果能更好地被控制。其使用逻辑是通过预处理器将图片提取特征并转换为 AI 可识别的形式,再通过模型进行图像生成。在使用时,如启用 ControlNet 需点击 Enable,Preprocessor 指预处理器,Weight 可调整其在合成中的影响权重,Guidance strength 控制图像生成的前百分之多少步由 ControlNet 主导生成,Invert Input Color 可启动反色模式,RGB to BGR 可反转输入色彩通道信息,Low VRAM 为低显存优化,Guess Mode 为无提示词模式。同时,Model 中选择的解析模型应与输入图像或预处理器对应。
2024-09-13
controlnet一直加载怎么办
ControlNet 一直加载可能由以下原因导致及对应的解决方法: 1. 模型版本问题:确保 checkpoint、ContalNet 等所有需要加载模型的版本均基于 SD1.5,否则可能会报“超出索引”的错误。 2. 节点未安装完全:载入工作流后若出现爆红部分,可能是节点没下好、没下全。此时可以先全部更新,让所缺节点“显露出来”,然后安装好缺失的节点。 3. 参数设置问题:假如右下角的区域报红,那么就得根据报错信息相应调整一下左上角蓝色区域的 h、w 参数。 此外,ControlNet 还有一些新的功能和应用,例如: 1. 1.1 版本新出的 lineart 线稿提取功能,可先通过 invert 预处理将白底黑线处理成黑底白线,然后切换到 lineart 预处理器和模型进行生成。 2. mlsd 直线线条检测功能,一般用在建筑或者室内设计上,预处理器可提炼出室内的结构线。 ComfyUI 中的 ControlNet 高级控件: 在时间步和批处理潜变量之间调度 ControlNet 强度的节点,以及应用自定义权重和注意力掩码。这里的 ControlNet 节点完全支持滑动上下文采样。输入包括 positive(提示词(正面))、negative(提示词(负面))、control_net(加载了控制网络)、image(用于指导控制网络的图像)、mask_optional(应用于控制网络的注意力掩码)、timestep_kf(时间步关键帧)、latent_kf_override(潜在关键帧的覆盖)。
2024-08-29
cursor教程
以下是关于 Cursor 教程的相关内容: 中文教程网站:,适合想深入了解和学习 Cursor 使用方法的用户。 4 款插件 2 个 API 配置教程:从穷👻套餐 2.0 开始,作者对 Cursor 的配置集中在接入更多模型,如 Qwen2.5Coder、Llama3.3、deepseek v3、gemini2.0flash 等,以节省 API 费用,但未完全挖掘出 Cursor 的潜力。Pro 版本有次数限制,因此作者收集 3 个插件、2 大 API 和 N 个新的提示语用法,为 Cursor 装配上 Tab 代码补全、AI Agent、全系大模型接入、开发进度管理、状态回滚等功能。 0 编程基础入门极简使用指南: 下载 Cursor:https://www.cursor.com/ 注册账号,可用邮箱如 google/github/163/qq 邮箱,直接接受二维码登录。 安装中文包插件。 参考 做一个贪吃蛇游戏的需求设置:在设置中 Rule for AI 配置,按 ctrl/cmd+i 输入需求,如“帮我做一个贪吃蛇游戏,在网页中玩”,并清晰表达需求,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等规则。
2025-04-08
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
coze的学习教程
以下是关于 Coze 的学习教程: 共学活动前两天的教程和录播: 《》 《》 《》 《》 用 Coze 学习 RAG: 视频演示: Query 改写效果对比 Bot:用于对比 Query 改写和未改写的区别,地址为 https://www.coze.cn/store/bot/7400553639514800182?panel=1&bid=6dkplh1r43g15 ,视频演示: RAG 全流程学习 Bot:结合对 RAG 全流程的了解,使用 Coze 的工作流,主要是结合大模型,模拟了 RAG 的离线存储和在线检索全流程,视频演示: Agent 相关比赛中的 Coze 相关教程: 概览与介绍:https://waytoagi.feishu.cn/wiki/YGgzwDfWLiqsDWk2ENpcSGuqnxg 基础教程: 《大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库》https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb 《大聪明:保姆级教程:Coze 打工你躺平》https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb 《安仔:Coze 全方位入门剖析免费打造自己的 AI Agent》https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb 《基础教程:Coze“图像流”抢先体验》https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf 《YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏》https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档:https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ
2025-04-01
RAG实战教程推荐
以下为您推荐一些 RAG 实战教程: 1. 【AI+知识库】商业化问答场景,让 AI 回复更准确,一篇专为所有“小白”讲透 RAG 的实例教程(上篇): 介绍了常见的错误场景,如回答不准确、报价错误、胡编乱造等,强调了优化 AI 准确回答的重要性,并引出 RAG 概念。 讲解了基础概念,包括优化幻觉问题和提高准确性需要了解从“问题输入”到“得到回复”的过程,并针对每个环节逐个调优。 阐述了检索原理,包括问题解析阶段通过嵌入模型将问题文本转化为向量,知识库检索阶段比较向量选择相关信息片段,信息整合阶段构建融合全面的信息文本,大模型生成回答阶段将整合后的信息转化为向量输入大语言模型生成回答。还通过实例进行了详细说明,如知识库检索部分的向量化、优化问题、向量检索、抽取内容块等,以及大模型对话部分。 2. 开发:LangChain 应用开发指南 不用向量也可以 RAG: 以餐饮生活助手为例展示了基于结构化数据来 RAG 的实战方法,包括给出用户提问和回复的示例,以及餐饮生活助手 RAG 的代码实战。 介绍了实现餐饮生活助手 RAG 的 Langchain 代码实战需要完成的步骤,如定义餐饮数据源,将餐饮数据集转化为 Langchain 可识别和操作的数据源并注册到 Langchain 中;定义 LLM 的代理,通过 Langchain 的代理根据用户问题提取信息、形成查询语句、检索数据源、生成答案并输出给用户。
2025-04-01
liblib ai 教程
以下是关于 Liblibai 的简易上手教程: 一、概念与功能说明 1. 迭代步数:AI 调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,但生图耗时越长。并非越多越好,效果提升非线性,过多后效果增长曲线放平并开始震荡。 2. 尺寸:图片生成的尺寸大小。太小 AI 生成内容有限,太大 AI 易放飞自我。如需高清图,可设中等尺寸并用高分辨率修复(以后再学)。 3. 生成批次:用本次设置重复生成的批次数。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大图像更接近提示,但过高会使图像质量下降。 6. 随机数种子:生成的每张图都有随机数种子,固定种子后可对图片进行“控制变量”操作,如修改提示词、修改 clip 跳过层等。首次生成图时无种子,不用管。 7. ADetailer:面部修复插件,可治愈脸部崩坏,高阶技能,后续学习。 8. ControlNet:控制图片中特定图像,用于控制人物姿态、生成特定文字、艺术化二维码等,高阶技能,稍后学习。 9. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 二、简明操作流程 1. 文生图 定主题:明确生成图片的主题、风格和表达信息。 选择 Checkpoint:根据主题找贴近内容的 checkpoint,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora,控制图片效果及质量。 设置 VAE:无脑选 840000 那一串。 CLIP 跳过层:设成 2。 Prompt 提示词:用英文写需求,单词、短语组合,用英文半角逗号隔开,不管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,用英文半角逗号隔开。 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 后,一般在 30 40 之间,多了意义不大且慢,少了出图效果差。 尺寸:根据喜好和需求选择。 生成批次:默认 1 批。 三、prompt 简易技巧 能简单控制图。 虽然视频教程很多,但看图文说明更方便。Liblibai 网站(https://www.liblib.ai/)可点击进入免费在线生图。若看完不明白,可评论区交流或添加微信:designurlife1st 沟通。
2025-03-31
liblib ai 使用教程
以下是 Liblibai 的使用教程: 简明操作流程: 1. 定主题:明确您想要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的 Checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora,以控制图片效果和质量。 4. 设置 VAE:选择 840000 那一串。 5. 设置 CLIP 跳过层:设为 2。 6. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 时,一般在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 11. 生成批次:默认 1 批。 概念与功能说明: 1. 迭代步数:AI 调整图片内容的次数,并非越多越好,需根据采样器特征选择。 2. 尺寸:图片生成的大小,太小或太大都有影响。 3. 生成批次:用本次设置重复生成的批次数。 4. 提示词引导系数:指图像与 prompt 的匹配程度,过高会影响图像质量。 5. 随机数种子:固定后可对图片进行“控制变量”操作。 6. ADetailer:面部修复插件,高阶技能。 7. ControlNet:控制图片中特定图像,高阶技能。 8. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 其他概念: 1. 首页 模型广场:有其他用户发布的模型,收藏和运行数多的模型在首页前排,可查看模型详情并加入模型库。 2. Checkpoint:生图必需的基础模型,必选。 3. lora:低阶自适应模型,可选可不选,用于控制细节。 4. VAE:类似于滤镜,调整生图饱和度,选择 840000 即可。 5. CLIP 跳过层:一般设为 2,早期不用过多关注。 6. Prompt 提示词:想要 AI 生成的内容。 7. 负向提示词 Negative Prompt:想要 AI 避免产生的内容。 8. 采样方法:让 AI 用的生图算法。
2025-03-31