直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

controlnet一直加载怎么办

回答

ControlNet 一直加载可能由以下原因导致及对应的解决方法:

  1. 模型版本问题:确保 checkpoint、ContalNet 等所有需要加载模型的版本均基于 SD1.5,否则可能会报“超出索引”的错误。
  2. 节点未安装完全:载入工作流后若出现爆红部分,可能是节点没下好、没下全。此时可以先全部更新,让所缺节点“显露出来”,然后安装好缺失的节点。
  3. 参数设置问题:假如右下角的区域报红,那么就得根据报错信息相应调整一下左上角蓝色区域的 h、w 参数。

此外,ControlNet 还有一些新的功能和应用,例如:

  1. 1.1 版本新出的 lineart 线稿提取功能,可先通过 invert 预处理将白底黑线处理成黑底白线,然后切换到 lineart 预处理器和模型进行生成。
  2. mlsd 直线线条检测功能,一般用在建筑或者室内设计上,预处理器可提炼出室内的结构线。

ComfyUI 中的 ControlNet 高级控件: 在时间步和批处理潜变量之间调度 ControlNet 强度的节点,以及应用自定义权重和注意力掩码。这里的 ControlNet 节点完全支持滑动上下文采样。输入包括 positive(提示词(正面))、negative(提示词(负面))、control_net(加载了控制网络)、image(用于指导控制网络的图像)、mask_optional(应用于控制网络的注意力掩码)、timestep_kf(时间步关键帧)、latent_kf_override(潜在关键帧的覆盖)。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】最强控制插件ControlNet(1)附模型下载

lineart线稿提取:这个是ControlNet1.1版本新出的预处理和模型,可能是ControlNet目前最强的线稿上色功能了。我从花瓣上找了一张线稿图来试验一下,这幅线稿来自画师“原画人”的创作。我们可以先通过invert预处理将白底黑线处理成黑底白线,因为ControlNet中都是黑色作为背景。然后,将处理好的图拖到左边重新载入,切换到lineart预处理器和模型进行生成。文生图关键词填写——(Best quality,masterpiece),((girl)),solo,Blue hair,white clothes,white background。点击生成,得到上色稿。我接着用canny模型也绘制了一遍,可以对比一下这两款模型上色的差别,大家自己感受一下。mlsd直线线条检测:这个线条检测和之前的几个有一些不同,它一般用在建筑或者室内设计上。可以看到,这个预处理器提炼出了这个室内的结构线。我们输入关键词:木制、简约、无印良品。点击生成4张图,得到了与原图结构一致的设计图。好了,今天我们介绍了ControlNet中关于线条约束类的预处理器和模型。这些模型文件我也整理好了,如果想要这些模型的话,可以添加我的公众号【白马与少年】,回复【SD】即可。最后附上一张图,可以帮助大家理解ControlNet模型的命名规则,以便能够正确地使用模型。-END-白马与少年

ComfyUI AnimateDiff

postitive:提示词(正面)。negative:提示词(负面)。🟩control_net:加载了控制网络;如果是支持的类型,此节点将自动转换为高级版本。🟩image:用于指导控制网络的图像-如果加载的控制网络需要,它们必须预处理图像。如果提供了一张图像,将用于所有潜在因素。如果提供了更多图像,将分别为每个潜在因素使用每个图像。如果没有足够的图像来满足潜在因素的数量,将重复从开头开始的图像以匹配基本的控制网络功能。🟨mask_optional:应用于控制网络的注意力掩码;基本上,决定了图像的哪个部分应用于控制网络(以及相对强度,如果掩码不是二进制)。如果提供多个掩码,则与图像输入相同,每个掩码可以应用于不同的潜在因素。🟨timestep_kf:时间步关键帧,用于在采样步骤中引导控制网络效果。🟨latent_kf_override:潜在关键帧的覆盖,如果不需要来自时间步关键帧的其他特征,则很有用。注意:此潜在关键帧将应用于所有时间步,而不管是否有其他潜在关键帧附加到连接的时间步关键帧上。

2-基于SD1.5的flatten转绘工作流 副本

首先,checkpoint、ContalNet等所有需要加载模型的版本均基于SD1.5,否则会报错误“超出索引”载入工作流后发现:Controlnet深度图中两个爆红部分逻辑上是些什么内容呢?高级采样前后的部分、primitive元节点前部分、VAE解码前部分逻辑上是什么内容呢?那么,就是我们的节点没下好、没下全了。思路与解决方法:一个是新的深度图depthanything v2,中间红的就是flatten的东西,因此就是节点没装好。所以先全部更新(这时候所缺节点就“显露出来了”)然后节点装了就好了假如右下角的区域报红,那么就得根据报错信息相应调整一下左上角蓝色区域的h、w参数了成功运行中的图:也可以下载Comfyui-easy-use节点,右键点击“”管理组“”来管理遮罩的区域流输出:

其他人在问
controlnet教程
以下是关于 ControlNet 的教程: ControlNet 是 Stable Diffusion 中的一个功能,能够让用户更精确地控制出图结果。比如可以控制人物的动作、建筑物的线条等。 在使用时,大模型和关键词正常填写生成所需照片。然后鼠标滑到最下面点击“ControlNet”: 1. 点击空白处上传指定姿势的照片。 2. 点击“启用”。 3. 在“预处理器”和“模型”里选择“openpose”,这用于让计算机识别人物姿势。 接着点击“预览预处理结果”,原照片右边会出现人物姿势的线条,最后点击生成照片即可得到指定姿势的图片。 另外,如果是用秋叶大佬的整合包,会自带 ControlNet 插件。若没有,可去扩展中搜索安装。 其使用逻辑是通过预处理器将图片提取特征并转换为 AI 可识别的形式,再通过模型进行图像生成。例如绘制女孩打篮球模仿库里动作的图片,输入相关关键词,选择大模型,在 ControlNet 中导入库里照片,选择合适的预处理器和模型,调试参数后生成。 在 ControlNet 中还可以尝试不同的预处理器,如 softedge_pidinet、depth、canny、tile 等,可能会得到不错的效果。同时要注意电脑配置,避免出现显存不足等问题。
2024-10-18
什么是controlnet? controlnet有什么重要作用
ControlNet 是一种由斯坦福大学张吕敏发布的神经网络模型,常与预训练的图像扩散模型(如 Stable Diffusion)结合使用。 其重要作用包括: 1. 实现对 AI 绘画生成过程的精细控制,通过引入如涂鸦、边缘图、姿势关键点、深度图、分割图、法线图等多种类型的额外条件输入来指导生成图像的内容。 2. 工作原理是将 Stable Diffusion 模型的权重复制到 ControlNet 的可训练副本中,并使用外部条件向量训练副本,在不破坏原模型能力的前提下,通过小批量数据集训练实现对特定条件的学习。 3. 设计思想提供了训练过程的鲁棒性,避免过度拟合,允许在小规模甚至个人设备上训练,架构具有强大的兼容性与迁移能力,可用于其他扩散模型,增强图像生成的多样性和可控性。 4. 应用不限于 AI 绘画,还可用于图像编辑、风格迁移、图像超分辨率等多种计算机视觉任务,展现了在 AIGC 领域的广泛应用潜力。 在 Stable Diffusion 中,ControlNet 带来的最大改变是让输出结果能更好地被控制。其使用逻辑是通过预处理器将图片提取特征并转换为 AI 可识别的形式,再通过模型进行图像生成。在使用时,如启用 ControlNet 需点击 Enable,Preprocessor 指预处理器,Weight 可调整其在合成中的影响权重,Guidance strength 控制图像生成的前百分之多少步由 ControlNet 主导生成,Invert Input Color 可启动反色模式,RGB to BGR 可反转输入色彩通道信息,Low VRAM 为低显存优化,Guess Mode 为无提示词模式。同时,Model 中选择的解析模型应与输入图像或预处理器对应。
2024-09-13
ControlNet是什么?
ControlNet是一种神经网络模型,由斯坦福大学张吕敏发布,它与预训练的图像扩散模型(例如Stable Diffusion)结合使用,通过引入额外的条件输入来控制AI绘画的生成过程。ControlNet模型通过在Stable Diffusion模型中添加辅助模块,实现对生成图像的精细控制。这些条件输入可以是多种类型的图像,例如涂鸦、边缘图、姿势关键点、深度图、分割图、法线图等,它们作为条件输入来指导生成图像的内容。 ControlNet的工作原理涉及将Stable Diffusion模型的权重复制到ControlNet的可训练副本中,并使用外部条件向量来训练这个副本。这样做的好处是,可以在不破坏Stable Diffusion模型原本能力的前提下,通过小批量数据集对ControlNet进行训练,从而实现对特定条件的学习。 ControlNet的设计思想提供了训练过程中的鲁棒性,避免了模型过度拟合,并允许在小规模甚至个人设备上进行训练。此外,ControlNet的架构具有强大的兼容性与迁移能力,可以用于其他扩散模型中,增强了图像生成的多样性和可控性。 ControlNet的应用不仅限于AI绘画,它还可以用于图像编辑、风格迁移、图像超分辨率等多种计算机视觉任务,展现了在AI生成内容(AIGC)领域的广泛应用潜力。
2024-04-28
SD大模型无法加载
SD 大模型无法加载可能有以下原因及解决方法: 1. LORA 方面: LORA 可以提炼图片特征,文件通常有几十上百兆,承载信息量远大于 Embedding。下载的 LORA 放在根目录的【……\\models\\Lora】文件夹下,使用时点击红色小书,找到 LORA 选项卡加载。 使用 LORA 时要注意看作者使用的大模型,一般需配套使用,还可能需要加入特定触发词,如盲盒 LORA 需加入“full body, chibi”等提示词。 2. Hypernetworks 方面: Hypernetworks 主要针对画风训练,文件下载后放在根目录的【…\\models\\hypernetworks】,使用时点击红色小书,找到 Hypernetworks 选项卡加载。 3. 模型下载与安装方面: 常用的模型下载网站有:。 下载模型后需放置在指定目录,大模型(Ckpt)放入【models\\Stablediffusion】,VAE 模型放入【models\\Stablediffusion】或【models\\VAE】目录(有的大模型自带 VAE 则无需再加),Lora/LoHA/LoCon 模型放入【extensions\\sdwebuiadditionalnetworks\\models\\lora】或【models/Lora】目录,Embedding 模型放入【embeddings】目录。模型类型可通过检测。 不会科学上网时,可在启动器界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】,在左上角模型列表中选择(看不到就点旁边蓝色按钮刷新)。 旁边的 VAE 相当于给模型增加提高饱和度的滤镜和局部细节微调,可在启动器里下载,放在根目录的【……\\models\\VAE】。 Embedding 功能相当于提示词打包,下载 Embedding 可在 C 站通过右上角筛选 Textual Inversion 找到,放在根目录下的【embeddings】文件夹里。 由于无法确定您大模型无法加载的具体原因,您可以根据上述内容逐一排查。
2024-11-12
知道源代码就可以加载AI吗?
一般来说,仅仅知道源代码并不一定能够直接加载 AI 。以 GPT4 的代码解释器为例,它是一种特定的模式,允许用户将文件上传到 AI,让 AI 编写和运行代码,并下载 AI 提供的结果。它可以用于执行程序、运行数据分析、创建各种文件、网页甚至游戏。但使用代码解释器进行分析存在未经培训的人使用的风险,许多测试专家对此印象深刻,甚至有论文表明它可能需要改变培训数据科学家的方式。如果您想了解更多关于如何使用它的详细信息,可以访问相关帖子。
2024-10-01
什么是加载别人训练的qwen模型?
加载别人训练的 qwen 模型通常涉及以下步骤: 1. 对于直接调用千问的某一个大模型,如“qwenmax”模型,在 COW 中需要更改 key 和 model。在 /root/chatgptonwechat/文件夹下,打开 config.json 文件进行更改,并添加"dashscope_api_key"。获取 key 可参考视频教程或图文教程。同时,需要“实名认证”后,这些 key 才可以正常使用,若对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,可能是未实名认证,可点击去,或查看自己是否已认证。 2. 部署大语言模型时,如下载 qwen2:0.5b 模型,对于不同的电脑系统操作有所不同。如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。之后复制相关命令行并粘贴回车,等待自动下载完成。 3. 对于 Ollama 大模型部分,为避免没下载大模型带来的报错,需要先下载 ollama,网站:网站中复制代码,然后像特定操作一样打开 ComfyUi 根目录下的 custom_nodes\\ComfyUiOllamaYN 的文件路径,在上方的路径下输入 cmd,进入到下方的命令行,右键粘贴刚才的代码,等待下载即可。
2024-10-01
怎么加载开源模型?
加载开源模型的步骤如下: 1. 下载相关模型节省时间: Base Model DreamShaper XL Turbo: https://civitai.com/models/112902/dreamshaperxl LoRA:Envy Anime Watercolor XL 03:https://civitai.com/models/382684/envyanimewatercolorxl03 Alphonse Mucha Style:https://civitai.com/models/63072/alphonsemuchastyle 2. 打开以下链接放在后台: Ollama: https://ollama.com/ https://github.com/stavsap/comfyuiollama IPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plus InstantID: https://github.com/cubiq/ComfyUI_InstantID PuLID:https://github.com/cubiq/PuLID_ComfyUI 3. 安装缺失节点: 下载过程中若发现 layer style 下不了,可重启重新下载,尝试修复。若仍不行,从官网重新下载到./custom_nodes 的文件夹下。 4. 从官网下载两个文件,点击左上角部分将加载器展开并选择官网下载好的两个模型。 5. 对于 GDino 加载器部分,在链接:处下载相关文件,然后检查文件是否齐全。对于 groundingdino 和 sams 配置是否齐全可以使用“抠头发.json”来检验。 6. Ollama 大模型部分: 首先,下载 ollama,网站: 其次,在网站中,复制代码。然后,打开 ComfyUi 根目录下的 custom_nodes\\ComfyUiOllamaYN 的文件路径,在上方的路径下输入 cmd,进入到命令行,右键粘贴刚才的代码,等待下载。
2024-10-01
医疗大模型微调,loss值一直降低不了,在1附近收敛了
在进行医疗大模型的微调时,如果loss值一直降低不了,可能存在多种原因。以下是一些可能的原因和相应的解决方案: 1. 数据质量问题: 确保训练数据是高质量、准确标注的。 检查数据集是否平衡,避免类别不平衡问题。 2. 模型过拟合: 如果模型在训练集上表现良好,但在验证集上loss不降低,可能是过拟合。 尝试使用正则化方法,如L1、L2正则化,或增加Dropout层。 3. 学习率设置不当: 学习率过高或过低都可能导致loss不降低。 使用学习率衰减策略,或尝试使用学习率预热。 4. 优化器选择: 不同的优化器可能对模型的收敛效果有影响。 尝试更换优化器,如Adam、RMSprop等。 5. 模型结构问题: 模型可能过于复杂或过于简单,不适合当前任务。 尝试调整模型结构,增加或减少层数和神经元数量。 6. 批次大小(Batch Size): 批次大小对模型训练也有影响。 尝试调整批次大小,查看是否有助于loss的降低。 7. 损失函数不适合: 确保使用的损失函数适合当前的医疗任务。 例如,对于不平衡的数据集,可以尝试使用加权的损失函数。 8. 数据预处理和增强: 确保数据预处理步骤正确,如归一化、标准化等。 使用数据增强技术,如旋转、缩放、裁剪等,以提高模型的泛化能力。 9. 早停法(Early Stopping): 如果模型在训练过程中出现loss不再显著下降,可以使用早停法来终止训练。 10. 超参数调整: 使用超参数优化技术,如网格搜索、随机搜索或贝叶斯优化。 11. 模型微调策略: 如果是在预训练模型的基础上进行微调,确保解冻了需要微调的层。 12. 评估方法: 确保评估方法正确,有时候loss值不能全面反映模型性能,可以结合其他指标如准确率、召回率等。 13. 计算资源: 确保计算资源充足,有时候资源不足可能导致模型训练不充分。 14. 软件和硬件问题: 检查是否有软件bug或硬件故障影响训练过程。 最后,建议详细记录实验过程和结果,以便分析问题所在并进行相应的调整。如果问题依然无法解决,可以考虑寻求领域专家的帮助或在专业社区中寻求建议。
2024-08-01