直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

在comyui中,使用flux1-dev模型需要多少显存

回答

在 ComfyUI 中使用 flux1-dev 模型所需的显存情况如下:

  • 相关模型的下载地址:https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main 。
  • 对于 GPU 性能不足、显存不够的情况,底模可以使用 fp8 的量化版模型,下载地址为:https://huggingface.co/Kijai/flux-fp8/tree/main 。
  • 低显存方案(8G 以下):flux1-dev-bnb-nf4.safetensors ,放入 ComfyUI\models\checkpoints 文件夹内,下载链接为 https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors 。

此外,还提供了以下相关资源链接:

  • BitsandBytes Guidelines and Flux :https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/981
  • ComfyUI_bitsandbytes_NF4 节点:https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

工具教程:Flux

https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main我随后也准备一下百度网盘和夸克网盘。更新:(下面准备了夸克和百度的网盘链接,方便部分同学下载)flux相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608bflux相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW-03ei0g?pwd=ub9h提取码:ub9h如果GPU性能不足、显存不够,底模可以使用fp8的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/flux-fp8/tree/main最后我们再下载dev的工作流:[dev的官方原版workflow.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/KhTAbaxbconU6PxBfJkcAkt8nJc?allow_redirect=1)上面我把工作流复制上了,用上面这个就行。或者下面官方原版的图片链接,图片导入comfyUI就是工作流。https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png我们打开ComfyUI,把工作流或图片拖拽到ComfyUI里:

工具教程:Flux

https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main我随后也准备一下百度网盘和夸克网盘。更新:(下面准备了夸克和百度的网盘链接,方便部分同学下载)flux相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608bflux相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW-03ei0g?pwd=ub9h提取码:ub9h如果GPU性能不足、显存不够,底模可以使用fp8的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/flux-fp8/tree/main最后我们再下载dev的工作流:[dev的官方原版workflow.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/KhTAbaxbconU6PxBfJkcAkt8nJc?allow_redirect=1)上面我把工作流复制上了,用上面这个就行。或者下面官方原版的图片链接,图片导入comfyUI就是工作流。https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png我们打开ComfyUI,把工作流或图片拖拽到ComfyUI里:

第十五期 生图新王FLUX.1

flux1-dev-bnb-nf4.safetensors放入ComfyUI\models\checkpoints文件夹内https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensorsComfyUI_c_NF4节点https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4注:如果报错,请更新BitsandBytes库下载放入解压后ComfyUI\custom_node文件夹内重启ComfyUI,如果之前没更新,更新后再重启。[heading3]在ComfyUI里的使用[heading3]相关资源链接[content]BitsandBytes Guidelines and Fluxhttps://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/981ComfyUI_bitsandbytes_NF4节点https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4flux1-dev-bnb-nf4.safetensorshttps://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors

其他人在问
在comyui中,使用flux1-dev模型24g显存够吗
在 ComfyUI 中使用 Flux1dev 模型,24G 显存是可以的,但建议内存尽量高于 32G 以避免意外情况的发生。如果您的显卡是 24G 或更高,右键 24G 那个 train_flux_24GLora 的文件。修改脚本路径和参数时,要注意底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径的正确填写。ae.safetensors 和 flux1dev.safetensors 的下载地址为:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b ,百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。最后下载 dev 的工作流: ,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI 把工作流或图片拖拽到其中即可。
2024-11-12
OpenDevin是什么?
OpenDevin 是一个开源项目,旨在复制并增强一款名为 Devin 的自主 AI 软件工程师。Devin 能够执行复杂的工程任务,并与用户在软件开发项目上积极合作。OpenDevin 的目标是探索和拓展 Devin 的能力,找出其优势和改进空间,以指导开源代码模型的进展。该项目目前仍在进行中,但已经可以运行 alpha 版本来查看端到端系统的运行情况。 安装 OpenDevin 需要满足一定的系统要求,例如使用 Linux、Mac OS 或 Windows 上的 WSL,以及安装 Docker、Python、NodeJS 和 Poetry 等依赖项。安装完成后,您可以配置语言模型,并运行应用程序。 OpenDevin 的主要特点包括: 用户界面(UI):开发用户友好的界面,包括聊天界面、演示命令的 shell 和 Web 浏览器。 架构:构建一个稳定的代理框架,具有强大的后端,可以读取、写入和运行简单的命令。 代理能力:增强代理的能力,以生成 bash 脚本、运行测试和执行其他软件工程任务。 评估:建立一个与 Devin 评估标准一致的最小评估流水线。 OpenDevin 目前仍在开发中,并且可能需要解决一些技术问题,如请求速率限制等。不过,它为软件开发提供了新的可能性,尤其是在利用大型语言模型(LLMs)方面。 更多关于 OpenDevin 的详细信息,可以参考其官方文档和 GitHub 页面。
2024-04-17