以下是关于本地安装 ComfyUI 电脑的硬件配置推荐:
[ComfyUI](https://link.zhihu.com/?target=https%3A//github.com/comfyanonymous/ComfyUI)是一个基于节点式的Stable Diffusion AI绘画工具。和Stable Diffusion WebUI相比,ComfyUI通过将Stable Diffusion模型生成推理的pipeline拆分成独立的节点,实现了更加精准的工作流定制和清晰的可复现性。目前ComfyUI能够非常成熟的使用Stable Diffusion模型,下面是Rocky使用ComfyUI来加载Stable Diffusion模型并生成图片的完整Pipeline:使用ComfyUI来加载Stable Diffusion模型大家可以看到上图是文生图的工作流,另外大家只需关注Rocky的公众号WeThinkIn,并回复“ ComfyUI ”,就能获取文生图,图生图,图像Inpainting,ControlNet以及图像超分在内的所有Stable Diffusion经典工作流json文件,大家只需在ComfyUI界面右侧点击Load按钮选择对应的json文件,即可加载对应的工作流,开始愉快的AI绘画之旅。话说回来,下面Rocky将带着大家一步一步使用ComfyUI搭建Stable Diffusion推理流程,从而实现上图所示的生成过程。首先,我们需要安装ComfyUI框架,这一步非常简单,在命令行输入如下代码即可:安装好后,我们可以看到本地的ComfyUI文件夹。ComfyUI框架安装到本地后,我们需要安装其依赖库,我们只需以下操作:
所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。
建议使用不少于16 GB内存,并有60GB以上的硬盘空间。需要用到CUDA架构,推荐使用N卡。(目前已经有了对A卡的相关支持,但运算的速度依旧明显慢于N卡,参见:[Install and Run on AMD GPUs · AUTOMATIC1111/stable-diffusion-webui Wiki · GitHub](https://link.zhihu.com/?target=https%3A//github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs)过度使用,显卡会有损坏的风险。进行512x图片生成时主流显卡速度对比: