Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfui怎么使用

Answer

以下是关于 ComfyUI 的使用方法:

  1. 模型放置:
    • t5xxl_fp16.safetensors:放在 ComfyUI/models/clip/目录下。
    • clip_l.safetensors:放在 ComfyUI/models/clip/目录下。
    • ae.safetensors:放在 ComfyUI/models/vae/目录下。
    • flux1-dev.safetensors:放在 ComfyUI/models/unet/目录下。
    • 理解方式:flux1-dev.safetensors 是底模,ae.safetensors 是 VAE,clip_l.safetensors 和 t5xxl_fp16.safetensors 是关于文字语言编码。
  2. 图像形态学处理:
    • 支持的处理方式:erode 腐蚀(去除小噪点/分离相邻对象)、dilate 膨胀(填补小洞/连接临近对象)、open 开(先腐蚀后膨胀)、close 闭(先膨胀后腐蚀)、gradient 梯度(膨胀与腐蚀之差)、top_hat 顶帽(原图与开之差)、bottom_hat 底帽(原图与闭之差)。
    • 使用方法:
      • 更新 ComfyUI。
      • 右键 image/postprocessing/ImageMorphology。
      • 接上图像输入和输出即可。
  3. Canny ControlNet:
    • 使用方法:以 SC 文生图为基础,在 C 阶段加上常规的 CN 节点,CN 模型直接下载到/models/checkpoints 里。
    • 模型下载地址:https://huggingface.co/stabilityai/stable-cascade/tree/main/controlnet 。
    • 工作流分享地址:https://github.com/ZHO-ZHO-ZHO/ComfyUI-Workflows-ZHO 。
  4. 电脑硬件要求:
    • 系统:Windows7 以上。
    • 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。
    • 硬盘留有足够的空间,最低 100G 起步(包括模型)。
    • 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。
Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:Flux

因为上次祐萌刚刚讲过了comfyUI的使用,我们就讲一下在comfyUI中如何使用Flux(在ForgeUI中同样可以使用,国内还可以去哩布哩布、阿里云等众多平台使用,有很多平台可以薅羊毛,这里介绍本地部署comfyUI)把这4个模型,放到对应的目录下就可以了。t5xxl_fp16.safetensors:放在ComfyUI/models/clip/目录下clip_l.safetensors:放在ComfyUI/models/clip/目录下ae.safetensors:放在ComfyUI/models/vae/目录下flux1-dev.safetensors:放在ComfyUI/models/unet/目录下[heading3]怎么记和理解呢?[content]flux1-dev.safetensors是底模,ae.safetensors是VAE,clip_l.safetensors和t5xxl_fp16.safetensors是关于文字语言编码,这么理解就行。

爆肝博主 ZHO

【Zho】最新版ComfyUI支持了一系列图像形态学处理:erode腐蚀(去除小噪点/分离相邻对象)dilate膨胀(填补小洞/连接临近对象)open开(先腐蚀后膨胀)close闭(先膨胀后腐蚀)gradient梯度(膨胀与腐蚀之差)top_hat顶帽(原图与开之差)bottom_hat底帽(原图与闭之差)使用方法:1)更新ComfyUI2)右键image/postprocessing/ImageMorphology3)接上图像输入和输出即可[heading2]3月6日Canny ControlNet[content]【Zho】终于来了!!!ComfyUI已经支持Stable Cascade的Canny ControlNet了!使用方法:以SC文生图为基础,在C阶段加上常规的CN节点就好了,CN模型还是直接下载到/models/checkpoints里SC Canny CN模型:https://huggingface.co/stabilityai/stable-cascade/tree/main/controlnet我的工作流会统一分享在:https://github.com/ZHO-ZHO-ZHO/ComfyUI-Workflows-ZHO

1、环境安装、ComfyUI本体安装 副本

本文主要介绍StableDiffusion的另一种UIComfyUI的实际操作方法,以及如何在ComfyUI中使用SDXL模型,希望通过本文能够降低大家对StableDiffusion ComfyUI的学习成本,更快速的体验到AIGC图像生成的魅力。[heading1]一、电脑硬件要求[content]1.系统:Windows7以上(就不要为难XP老师傅了)。2.显卡要求:NVDIA独立显卡且显存至少4G起步。3.硬盘留有足够的空间,最低100G起步(包括模型)。注:mac系统,AMD显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。

Others are asking
comfui 出现SUPIR_Upscale怎么办
当 ComfyUi 出现 SUPIR_Upscale 时,以下是相关信息: 通过使用神经网络对潜在空间进行放大,无需使用 VAE 进行解码和编码。此方法比传统的 VAE 解码和编码快很多,并且质量损失很小。插件项目地址:https://github.com/Ttl/ComfyUi_NNLatentUpscale?tab=readmeovfile 。潜在表示是神经网络处理图像时生成的压缩版本,包含图像主要特征信息,处理潜在表示更快且资源消耗更少。 具体流程包括:生成潜在表示(生成低分辨率图像)、放大潜在表示、生成高分辨率图像(将放大的潜在图像反馈到稳定扩散 UNet 中进行低噪声扩散处理从而修复成高分辨率图像)。此节点用于一种工作流程,初始图像以较低分辨率生成,潜在图像被放大,然后将放大的潜在图像反馈到稳定扩散 unet 中进行低噪声扩散处理(高分辨率修复)。 UNet 是一种特别的神经网络结构,常用于图像处理,尤其是图像分割。其工作方式包括编码部分(逐步缩小图像提取重要特征)、解码部分(逐步放大图像把提取的特征重新组合成高分辨率的图像)、跳跃连接(在缩小和放大过程中保留细节信息使最终生成的图像更清晰),这种结构能在放大图像时保持细节和准确性。 ComfyUI 老照片修复 Flux Controlnet Upscale 中,关于 flux unet 的 weight_dtype: Flux 模型主要用于图像处理,特别是上采样。这类任务通常需要较高精度来保留图像细节。 fp8 格式包括 fp8_e4m3fn(4 位指数,3 位尾数,通常提供更好的精度)和 fp8_e5m2(5 位指数,2 位尾数,提供更大的数值范围但精度较低)。 图像处理通常更依赖于精确的小数值表示,现代 GPU 通常对 fp8_e4m3fn 格式有更好的优化支持。在没有特殊需求的情况下,图像处理模型通常倾向于选择提供更高精度的格式,对于 Flux 模型,特别是在进行图像上采样任务时,fp8_e4m3fn 可能是更好的选择,因为更高的精度有利于保留图像细节和纹理,图像处理通常不需要特别大的数值范围,fp8_e4m3fn 的精度优势更为重要,这种格式在现代 GPU 上可能有更好的性能表现。
2025-01-21
comfui SUPIR_Upscale怎么办
ComfyUi 的 SUPIR_Upscale 是一种通过神经网络对潜在空间进行放大的技术。以下是相关详细信息: 原理:通过使用神经网络对潜在空间进行放大,无需使用 VAE 进行解码和编码。此方法比传统的 VAE 解码和编码快很多,并且质量损失很小。 流程: 生成潜在表示:图像被模型压缩成潜在表示,生成一个低分辨率的图像。 放大潜在表示:利用神经网络对潜在表示进行放大。 生成高分辨率图像:将放大的潜在图像反馈到稳定扩散 UNet 中,进行低噪声扩散处理,从而修复成高分辨率图像。 相关节点:此节点旨在用于一种工作流程中,其中初始图像以较低分辨率生成,潜在图像被放大,然后将放大的潜在图像反馈到稳定扩散 unet 中进行低噪声扩散处理(高分辨率修复)。 UNet 结构:UNet 是一种特别的神经网络结构,通常用于图像处理,尤其是图像分割。其工作方式包括编码部分逐步缩小图像提取重要特征,解码部分逐步放大图像并重新组合特征,以及通过跳跃连接在缩小和放大过程中保留细节信息,使最终生成的图像更清晰。 ComfyUI 老照片修复 Flux Controlnet Upscale 方面: 以前有高清放大的工作流,被用于淘宝老照片修复。现在新模型结合工作流,只需十几个基础节点就能实现更好效果。 参数调节:一般先确认放大倍数,再根据图片调整 controlNet 强度。 ControlnetUpscaler 放大模型:Flux.1dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。 T5 Clip:若图片质量细节不够,选择 fp16 的版本。 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。 关于 flux unet 的 weight_dtype: Flux 模型主要用于图像处理,特别是上采样(upscaling),这类任务通常需要较高的精度来保留图像细节。 fp8 格式包括 fp8_e4m3fn(4 位指数,3 位尾数,通常提供更好的精度)和 fp8_e5m2(5 位指数,2 位尾数,提供更大的数值范围但精度较低)。 图像处理通常更依赖于精确的小数值表示,而不是极大或极小数值的表示能力,现代 GPU 通常对 fp8_e4m3fn 格式有更好的优化支持。 在没有特殊需求的情况下,对于 Flux 模型进行图像上采样任务时,fp8_e4m3fn 可能是更好的选择,因为其更高的精度有利于保留图像细节和纹理,且图像处理通常不需要特别大的数值范围,这种格式在现代 GPU 上可能有更好的性能表现。 插件项目地址:https://github.com/Ttl/ComfyUi_NNLatentUpscale?tab=readmeovfile 潜在表示(latent representation)是神经网络处理图像时生成的压缩版本,它包含了图像的主要特征信息。相比于直接处理高分辨率图像,处理潜在表示更快且资源消耗更少。
2025-01-21
cursor中使用的prompt哪里有?
在 Cursor 中,prompt 可以通过以下方式设置: 1. 在 `.cursorrules` 文件中加入 prompt。让 Cursor 在被用户更正行为后思考错误并记录经验教训,若有必要,可直接用自然语言提示它记录。 2. `.cursorrules` 文件放在打开文件夹的根目录上,其特殊之处在于可以改变 Cursor 对于后台 LLM 的 prompt,文件中的所有内容都会作为 prompt 的一部分发给后端的 AI,如 GPT 或 Claude。 3. 关于 Devin 的 prompt,有,其中会教您什么样的 prompt 在与 Devin 沟通时最有效。将相关原则应用到 Cursor 中,也能使其变得更聪明,能够自主验证任务完成情况并进行迭代。
2025-03-16
trae 使用教程
以下是 Trae 的保姆级使用教程: 1. 什么是 Trae: Trae 是字节跳动推出的智能编程助手,提供基于 Agent 的 AI 自动编程能力,使用自然语言对话就能实现代码编写。 2. Trae 的功能: 传统 IDE 功能,如代码编写、项目管理、插件管理、源代码管理等。 智能问答,可在编写代码时随时与 AI 助手对话,获得代码解释、注释和错误修复等帮助。 实时代码建议,能理解当前代码并在编辑器中实时提供建议,提升编程效率。 代码片段生成,通过自然语言描述需求生成相应代码片段,甚至能编写项目级或跨文件代码。 从 0 到 1 开发项目,告诉 AI 助手想开发的程序,其将提供相关代码或自动创建所需文件。 3. 下载 Trae: 官网下载地址:https://www.trae.ai/download ,支持 Mac 系统、Windows 系统,未来支持 Linux 系统。 4. 使用方法: 安装:下载完成后按界面提示一步步安装。 登录:安装完成后点击右侧登录按钮,程序会自动打开网页提示登录,无账号需先注册。登录完可能会出现“App Unavailable”,此时需要开启科学上网。网页登录成功后可关闭科学上网,再点击中间大按钮。 进入客户端后,查看对话框右下角,有三种大模型可选:Claude3.5Sonnet、Claude3.7Sonnet、GPT4o 。 Trae 提供两种模式:Chat 模式,根据描述进行代码生成、解释、分析问题或解决问题;Builder 模式,帮助从 0 开发完整项目,对代码文件的任何更改都会自动保存。 5. 使用案例: 生成一个贪吃蛇游戏:打开 Builder 模式,输入“使用 web 技术栈生成一个贪吃蛇游戏”,排队完成后 Trae 开始思考和代码编写,期间需手动接入进行文件审查并点击“全部接受”。代码生成完成后,Trae 自动运行命令启动页面,点击运行,在 Webview 中可看到游戏效果,试玩基本无 Bug。Trae 还进行了工作总结,说明了游戏的特性、主要功能和游戏界面。 生成一个任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”,可直接看效果。 根据 UI 设计图自动生成项目代码:从站酷上找一张设计图,输入提示“使用 html 技术实现如图大屏页面”,虽页面不完美但可让 Trae 调整。 从实际体验来看,Trae 表现可圈可点,具有高效代码生成能力、多技术栈支持和动态调整潜力。
2025-03-16
我还不知道如何使用AI,给些建议
以下是关于如何使用 AI 的一些建议: 1. 写东西: 可以让 AI 草拟任何东西的初稿,如博客文章、论文、宣传材料、演讲、讲座等。 提高提示质量,通过与系统互动,让写作更出色。 将文本粘贴到 AI 中,要求它改进内容、提供针对特定受众的建议、创建不同风格的草稿、使内容更生动或添加例子,以激发自己做得更好。 把 AI 当作实习生,让它帮忙写邮件、创建销售模板、提供商业计划的下一步等,完成没时间做的任务。 利用 AI 解锁自己,当在任务中遇到困难挑战而分心时,它能提供动力。 2. 给 AI 提供信息: 尽可能地给它背景信息。 尽可能地让它自己去反思。 3. 中学生学习 AI: 从编程语言入手学习,如 Python、JavaScript 等,学习编程语法、数据结构、算法等基础知识。 尝试使用 AI 工具和平台,如 ChatGPT、Midjourney 等,探索面向中学生的教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 学习 AI 基础知识,包括基本概念、发展历程、主要技术(机器学习、深度学习等)以及在各领域的应用案例。 参与 AI 相关的实践项目,如参加学校或社区组织的编程竞赛、创意设计大赛等,尝试用 AI 技术解决实际问题。 关注 AI 发展的前沿动态,关注权威媒体和学者,思考 AI 技术对未来社会的影响。 总之,无论是一般使用者还是中学生,都可以通过多种方式来学习和使用 AI,不断探索和实践,以更好地发挥其作用。
2025-03-16
想在comfyui搭建一个音频节奏生成ai抽象粒子视觉效果的工作流,应该使用哪些模型节点?如何搭建?
在 ComfyUI 搭建音频节奏生成 AI 抽象粒子视觉效果的工作流,您可以参考以下内容: 1. 大模型节点: 您可以根据自己的风格选择不同的大模型,推荐使用: AWPainting,链接:https://civitai.com/models/84476/awpainting primemixanything,链接:https://civitai.com/models/75089/primemixanything xxmix9realistic v40,链接:https://civitai.com/models/47274/xxmix9realistic 2. 关键词节点: 可以使用工作流内的关键词,也可以输入自己的正负面关键词。 3. Lora 节点: 可根据自己风格搭配进行选择,如需多个 Lora 可进行串联。 4. ControlNet 节点: 选用 qrcode_monster V2 版本,相比于 V1 版本 V2 版本识别性更强。下载需要魔法,没有魔法的同学文末领取模型。下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 5. 采样器节点: 所有生图的老演员了,Step 要选择高步数,35 50 即可。采样器默认的 euler a /dpmpp 2m sde 基础节点介绍: 1. Checkpoint 基础模型(大模型/底模型)节点: 属于预调模型,决定了 AI 图片的主要风格。输出连接:Model 连接 KSampler 采样器的 Model;Clip 连接终止层数的 Clip;Vae 连接 VaeDecode 的 Vae。 2. Clip 终止层数(clip skip)节点: ComfyUI 的是负数的,webUI 的是正数。输出入点:Clip 连接 Checkpoint 基础模型的 Clip。输出节点:Clip 连接 Prompt 节点的 Clip。正向提示词和负面提示词各一个。 3. Prompt 节点: 输出入点:Clip 连接 Clip 终止层数节点的 Clip。输出节点:正向提示词和负面提示词各连接一个。 4. KSampler 采样器: 输出入点:Model 连接 Checkpoint 基础模型;Positive 连接正向提示词;negative 连接负面提示词;latent_imageL 连接 Empty Latent Image 潜空间图像的 Latent。输出节点:Latent 连接一个 VAE 的 Samples。 5. Empty Latent Image 潜空间图像: 设置出图尺寸,例如 10241024。输出入点:Latent 连接 KSampler 采样器的 Latent。 此外,还有一些根据插件整理的工作流,您可以先随便选择一个“文生图”中的“基础+自定 VAE”。选好之后,点击“替换节点树”。界面中就会出现已经连接好的工作流节点(如果没看到,就按一下 home 键),包括大模型、clip、vae、正反提示词、尺寸,采样器等所有在 webUI 中熟悉的参数,而且全都是中文面板。打开模型节点,可以看到 webUI 中的模型全部都在。这次先不更改参数,点击“运行节点树”,直接生成。此时会提醒您是否启用 ComfyUI,点击确定即可。等待一会,就能在最后一个节点预览图中看到生成的图片。点击这里就可以打开后台,看到出图时间。
2025-03-15
我是一个刚接触本站的AI小白,本站的AI提示词应该怎样使用
以下是关于本站 AI 提示词使用的详细介绍: 1. 提示词的定义和作用: 提示词用于描绘您想要的画面。 星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发),支持中英文输入。 启用提示词优化后,能帮您扩展提示词,更生动地描述画面内容。 2. 如何写好提示词: 预设词组:小白用户可以点击提示词上方官方预设词组进行生图。 提示词内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框。负面提示词可以帮助 AI 理解我们不想生成的内容,比如:不好的质量、低像素、模糊、水印。 利用“加权重”功能:可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先。还可以对已有的提示词权重进行编辑。 辅助功能:包括翻译功能(一键将提示词翻译成英文)、删除所有提示词(清空提示词框)、会员加速(加速图像生图速度,提升效率)。 3. 提示词相关资源: 提示词模板的相关网站,如 Majinai: 。 希望以上内容对您有所帮助,祝您使用愉快!
2025-03-15
Trae怎么使用Col
Trae 是字节跳动推出的智能编程助手,具有以下特点和使用方法: 特点: 提供基于 Agent 的 AI 自动编程能力,通过自然语言对话实现代码编写。 除传统 IDE 功能外,还具备智能问答、实时代码建议、代码片段生成、从 0 到 1 开发项目等功能。 下载: 官网下载地址:https://www.trae.ai/download ,支持 Mac 系统、Windows 系统,未来支持 Linux 系统。 国内版可在官网 trae.com.cn 下载,有 Windows 版、macOS Intel 芯片版、macOS M 系列芯片版。 使用方法: 安装:下载完成后按照界面提示一步步安装。 登录: 安装完成后点击右侧登录按钮。 程序会自动打开网页提示登录,无账号需先注册。 登录完若出现“App Unavailable”,需开启科学上网,网页登录成功后可关闭科学上网,再点击中间大按钮。 初始设置: 启动 Trae 后选择主题(暗色、亮色、深蓝)和显示语言(简体中文、English)。 可从 VS Code 或 Cursor 中导入配置。 安装“trae”命令行,便于在终端中快速操作。 提供 Google 账号、Github 账号、邮箱三种登录方式,无账号可新注册。 使用界面: 左侧类似 VS Code 界面,上手容易。 右侧为 AI 区域,分为 Chat 问答模式和 Builder 项目模式。
2025-03-15