直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

本地安装 comfyui 电脑的硬件配置推荐

回答

以下是关于本地安装 ComfyUI 电脑的硬件配置推荐:

  • 生成文字大模型:
    • 最低配置:8G RAM + 4G VRAM
    • 建议配置:16G RAM + 8G VRAM
    • 理想配置:32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)
  • 生成图片大模型(比如跑 SD):
    • 最低配置:16G RAM + 4G VRAM
    • 建议配置:32G RAM + 12G VRAM
  • 生成音频大模型:
    • 最低配置:8G VRAM
    • 建议配置:24G VRAM 此外,对于 ComfyUI 安装,建议使用不少于 16GB 内存,并有 60GB 以上的硬盘空间。需要用到 CUDA 架构,推荐使用 N 卡。过度使用显卡会有损坏的风险。进行 512x 图片生成时主流显卡速度也存在差异。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

[ComfyUI](https://link.zhihu.com/?target=https%3A//github.com/comfyanonymous/ComfyUI)是一个基于节点式的Stable Diffusion AI绘画工具。和Stable Diffusion WebUI相比,ComfyUI通过将Stable Diffusion模型生成推理的pipeline拆分成独立的节点,实现了更加精准的工作流定制和清晰的可复现性。目前ComfyUI能够非常成熟的使用Stable Diffusion模型,下面是Rocky使用ComfyUI来加载Stable Diffusion模型并生成图片的完整Pipeline:使用ComfyUI来加载Stable Diffusion模型大家可以看到上图是文生图的工作流,另外大家只需关注Rocky的公众号WeThinkIn,并回复“ ComfyUI ”,就能获取文生图,图生图,图像Inpainting,ControlNet以及图像超分在内的所有Stable Diffusion经典工作流json文件,大家只需在ComfyUI界面右侧点击Load按钮选择对应的json文件,即可加载对应的工作流,开始愉快的AI绘画之旅。话说回来,下面Rocky将带着大家一步一步使用ComfyUI搭建Stable Diffusion推理流程,从而实现上图所示的生成过程。首先,我们需要安装ComfyUI框架,这一步非常简单,在命令行输入如下代码即可:安装好后,我们可以看到本地的ComfyUI文件夹。ComfyUI框架安装到本地后,我们需要安装其依赖库,我们只需以下操作:

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。

SD新手:入门图文教程

建议使用不少于16 GB内存,并有60GB以上的硬盘空间。需要用到CUDA架构,推荐使用N卡。(目前已经有了对A卡的相关支持,但运算的速度依旧明显慢于N卡,参见:[Install and Run on AMD GPUs · AUTOMATIC1111/stable-diffusion-webui Wiki · GitHub](https://link.zhihu.com/?target=https%3A//github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs)过度使用,显卡会有损坏的风险。进行512x图片生成时主流显卡速度对比:

其他人在问
comfyui flux相关的教程
以下是关于 ComfyUI Flux 的教程: 安装及使用: 模型放置: t5xxl_fp16.safetensors:放在 ComfyUI/models/clip/目录下。 clip_l.safetensors:放在 ComfyUI/models/clip/目录下。 ae.safetensors:放在 ComfyUI/models/vae/目录下。 flux1dev.safetensors:放在 ComfyUI/models/unet/目录下。 下载地址: 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 工作流下载:上面提供的工作流复制即可,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将工作流或图片拖拽到 ComfyUI 里。 ComfyUI 共学相关: 插画提效成果显著,原本需要 200 人美术团队一年多完成的 1 万多张动画插画,最终不到 10 人用半年完成。 课程从零基础开始,从认识 config、UI 及行业概念讲起,逐步深入到环境部署、底层技术概念、提示词等内容。 介绍 config 牛角尖大王系列,包括 control net、IP Adapter、图像放大、mask 等部分,阐述了它们的作用和玩法。 具备搭建复杂工作流能力,学习相关知识后初步具备搭建复杂工作流能力,会拆解分析网上热门工作流。 解决 config UI 报错问题,报错问题可分为网络、模型、工作流搭建、环境等方面,安装新插件时可参考项目地址的 requirement 文档。 规划实战案例思路,目前想到了三个实战案例的思路。 关于 config UI 生态及相关技术的分享,郭佑萌介绍课程提纲,包括课程可能的扩充、回顾总结及重点讲解 Flux 模型,实际课程不严格按大纲走,会根据大家接受程度和安排进行共学。
2024-09-16
在COMFYUI中使用FLUX大模型时,怎么才能让多次生成的人物一致
在 ComfyUI 中使用 FLUX 大模型让多次生成的人物一致的方法如下: 控制人物在多场景、多个姿势下的一致性有很多方法,课程后期会介绍。 对于多张图输出的显示问题,一次产出多张图在预览窗口目前不能并排显示。 Lora 的刷新:将 Lora 丢到文件夹后,多点几次刷新即可,Web UI 中 Lora 库有刷新按钮。 另外,在 Midjourney 中,人物一致性已上线,其操作如下: DavidH 介绍:Hey @everyone @here we're testing a new "Character Reference" feature today This is similar to the "Style Reference" feature, except instead of matching a reference style it tries to make the character match a "Character Reference" image. 具体操作:Type cref URL after your prompt with a URL to an image of a character. You can use cw to modify reference 'strength' from 100 to 0. strength 100 . 适用范围:This feature works best when using characters made from Midjourney images. It's not designed for real people / photos . 网页端操作:How does it work on the web alpha? Drag or paste an image into the imagine bar, it now has three icons. Selecting these sets whether it is an image prompt, a style reference, or a character reference. Shift + select an option to use an image for multiple categories. 在 ComfyUI 中处理模型连接和提示词相关问题,如让两个模型同时起作用的操作: 加入一个新节点,右键点击 【新建节点】 【实用工具】 【Primitive 元节点】。 在文本节点上单击右键,选择【转换文本为输入】,此时文本节点上就多了一个文本的连接点。 将元节点与文本节点相连接,元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。 再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。
2024-09-13
Way to AGI里所有COMFYUI工作流
以下是关于 ComfyUI 工作流的相关内容: 打开节点树的列表,可以看到文生图、图生图以及 ControlNet 等常见工作流。选择文生图,会有更细化的预设工作流选项,ControlNet 中也有工作流预设,还有根据插件整理的丰富工作流。例如可选择“文生图”中的“基础+自定 VAE”,选好后点击“替换节点树”,界面会出现已连接好的工作流节点,包括大模型、clip、vae、正反提示词、尺寸、采样器等熟悉的参数,且是中文面板。不了解操作的可参考上一篇【ComfyUI】本地部署 ComfyUI 上手指南。 国内的 ComfyUI 工作流网站有: eSheep 电子羊 AIGC 社区 https://www.esheep.com/app ,主页点击工作流/应用分区,即可浏览、下载或在线运行各类工作流。 AIGODLIKE https://www.aigodlike.com/ ,下拉选取“ComfyUI 奥术”,即可查看其他用户上传的 ComfyUI 生成图片,保存或复制参数皆可读取到图片中的工作流。 在完成准备工作后运行 ComfyUI,默认版本不支持模型版本和 node 管理,需安装 ComfyUI Manager 插件。工作流下载好后,可使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,最后在 ComfyUI 目录下的 output 文件夹查看生成好的视频。若生成视频时出现显存溢出问题,请另行处理。
2024-09-13
学习comfyui有哪些技术或者文章可以学习和参考?
以下是一些学习 ComfyUI 的技术、文章和资源: 飞书学习群中的相关内容: 陈旭常用节点讲解和简单的节点制作 长风归庭基础教程+工作流创建 ヘヘ阿甘采样器原理与优化 王蓉🍀 🎈 Wang Easy 基础搭建和转绘 唯有葵花向日晴基础教程,工作流开发,实际应用场景 热辣 HuolarrAI 系统课私聊图生视频 咖菲猫咪基础教程/工作流搭建思路/各版本模型使用的优缺点 傅小瑶 Lucky 如何制作多人转绘视频 云尚工作流节点搭建思路 FǎFá 热门节点功能,搭建 森林小羊基本报错解决方式及基础工作流逻辑分析 苏小蕊基础教程 Sophy 基础课程 蜂老六装一百个最新常用插件后如何快速解决冲突问题 阿苏工作流框架设计 aflyrt comfyui 节点设计与开发 老宋&SD 深度解释虚拟环境部署和缺失模型的安装 Liguo 模型训练 啊乐福基础课程 塵优秀案例 风信基础课程➕平面设计应用场景 北南基础课程 视频工作流框架设计 8 月 13 日 ComfyUI 共学的相关内容:算力和资源获取方面,飞翔提供了 50 个小时的算力时间,可在飞书群填问卷获取,分享模型较少可提建议,相关文档在飞书和公众号中。AI 绘图相关技术与工具的介绍及交流公众号文章包含 AGI 相关信息:通往 AGI 之路的公众号最新文章中有相关信息,内置工作流和启动器方便,Mac 系统因无 CUDA 生态不太好用。推荐提示词辅助插件:如 SDXL 的 S1XL style,可对提示词进行风格化扩充,还有能翻译提示词的插件,如沙拉查词、沉浸式翻译等。解释 CLIP 和 CFG 的区别:CLIP 用于解析提示词,将其转化为模型可理解的向量,CFG 是提示词对画面影响的强度,即提示词引导系数。搭建带 Lora 的图生图工作流:介绍了加载模型、设置 clip 跳过层、处理图像、连接采样器和解码器等步骤,并展示效果。关于 Lora 串联和图像放大模型的讨论 Lora 串联:多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层调整:CLIP 层1 和2 的效果不同,加 Lora 时某些 Lora 可能更适合2。 相关网站: ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。可在找到相关信息。 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可在找到相关教程。 Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可在找到视频教程。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-12
Flux 的lora模型训练教程,我想用用diffuser代码训练,而不是webui或comfyui
以下是关于 Flux 的 lora 模型训练的相关信息: Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:https://github.com/city96/ComfyUIGGUF 在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件搜不到。 注意使用精度优化的低配模型时,工作流和原版不同。把官方的 fp8 工作流中底模的节点换成 NF4 或者 GUFF 即可。 相关生态发展迅速,有 Lora、Controlnet、IPadpter 相关生态建设,字节最近发布的 Flux Hyper lora 可用于 8 步快速生图。下节将先讲讲 Flux 的 lora 训练。
2024-09-05
Error occurred when executing IPAdapterAdvanced: insightface model is required for FaceID models File "D:\AI\comfyui_20240421\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "D:\AI\co
以下是针对您所遇到的报错问题的一些解决建议: 1. 对于 ipadater 部分报错说 model 不存在的情况,将文中画圈部分修改调整到不报错。Pulid 部分,除了下载好对应的节点以及参考官方网站最下面的安装对应要求外,还要注意上图中的第二要点,对应安装一些内容,具体要求可查看云盘中命名为“pulid 插件模型位置.png”的文件及对应的云盘链接:PulID 全套模型,链接:https://pan.baidu.com/s/1ami4FA4w9mjuAsPK49kMAw?pwd=y6hb,提取码:y6hb。否则将会遇到报错:Error occurred when executing PulidEvaClipLoader。 2. 对于 Ollama 大模型部分,为了应对没下载大模型带来的报错,需要下载大模型。首先,下载 ollama,网站: 。 3. 如果缺少 ipadapter 的模型,可去这个网址下载:https://github.com/cubiq/ComfyUI_IPAdapter_plus 。如果遇到“Error occurred when executing IPAdapterUnifiedLoader:ClipVision model not found.......”类似的报错,可在这个网址里找到多个关于 IPAdapter 报错的解决办法:https://github.com/cubiq/ComfyUI_IPAdapter_plus/issues/313 。 另外,换脸工作流的核心组件是 Apply InstantID Advanced 节点,这个节点的作用就是将源人脸替换到目标图像中。其中,instantID 模型擅长提取图片的高层次特征,包括面部的纹理信息、几何结构、风格特征等,在图中例子是 IPAdpater,用于识别和保留目标图像 image_kps 的风格并迁移到生成图像中。instantID Face Analysis 节点用于提取人脸五官的特征向量,作用是使生成图像时,人脸的眼睛、鼻子、嘴巴等样子仍然符合源人脸 image 的特征。controlnet 模型的作用是识别目标图像 image_kps 的低层次特征,包括骨架、姿势、边缘、结构。controlnet 模型和 instantID 模型起到不同的控制作用,结合使用可以达到将源人脸的五官替换目标图像中五官的效果。
2024-09-03
AI硬件
以下是关于 AI 硬件的相关信息: AI Native 产品:有基础模型可学习用户在特定应用中的意图和行为,模仿并执行操作,如使用图片编辑软件去除水印。 AI Pin:由 Humane 公司开发的可穿戴设备,通过激光投影技术在用户手掌上显示信息,由高通 Snapdragon 芯片驱动,运行 OpenAI 的 GPT4 语言模型,集成了麦克风、摄像头和传感器,能进行语音通话、上网和回答问题,注重隐私保护,配备“信任灯”功能,但价格高昂且面临市场竞争。 诗相机:所需硬件包括 2 个不同颜色的按钮、2 根快速连接线,还需要杂项设备如剪线钳、剥线钳和跨接电缆。 大模型与现有终端融合形态探讨:软件产品经理和硬件产品经理属于不同领域,硬件需要前期大量投入,如工业化设计、3D 冲压模型、招聘硬件团队进行 SDK 调用等,在高并发或长时间使用时构建复杂。AI 硬件是复杂的系统性工程,涉及从设计 PCB 线路板等电子设计流程到供应链中上下游工厂的配合等开发流程。
2024-08-22
我现在想让ai给出计算机硬件配置,然后从京东商城上检索,得到价格,然后给出一个配置单。我想问问大家这个怎么解决?
目前要实现您描述的这个需求具有一定的复杂性。首先,让 AI 直接给出准确的计算机硬件配置并从京东商城上检索价格存在一些技术挑战。因为这需要 AI 具备对计算机硬件的深入了解、与京东商城数据接口的对接以及价格实时更新的处理能力。 从技术实现的角度来看,可能需要以下步骤: 1. 训练一个专门针对计算机硬件配置的 AI 模型,使其能够根据用户的需求和预算生成合理的硬件配置清单。 2. 开发与京东商城的接口程序,以获取实时的商品价格信息。 3. 将生成的配置清单与获取的价格信息进行整合,生成最终的配置单。 但需要注意的是,京东商城的数据接口可能不对外开放,获取价格信息可能存在法律和合规方面的限制。同时,这样的系统开发需要较高的技术水平和资源投入。
2024-08-20
AI语音翻译硬件
根据搜索结果,以下是一些推荐的语音翻译硬件设备: 1. 科大讯飞翻译机 4.0: 科大讯飞作为AI翻译产品的开创者,拥有23年的技术积累。 支持83种语言在线即时翻译,包括中文、英语、日语、韩语、俄语、法语等。 具备手动和自动两种翻译模式,适用于不同场景。 设备搭载8核高速处理器和4麦克风阵列,集成讯飞降噪算法,翻译速度快且准确。 支持面对面翻译和拍照翻译功能,满足多样化的翻译需求。 设备外观设计简约大气,便于携带。 2. Telelingo 实时电话翻译 : Telelingo使用先进的AI技术实时翻译对话,提供无缝的实时翻译体验。 支持80多种语言的翻译,包括常见语言和独特方言。 采用完全按需付费模式,无隐藏费用,用户只需支付所使用的分钟数。 3. POCKETALK 实时翻译器 : POCKETALK是一款价格合理的实时翻译器,带有小型触摸屏,方便用户浏览和操作。 该设备也支持多种语言的即时翻译,适合出国旅游或国际交流使用。 这些设备通过集成先进的语音识别和机器翻译技术,可以帮助用户在不同语言环境下实现有效沟通。在选择时,用户应考虑支持的语种数量、翻译准确性、设备便携性、价格以及是否支持离线翻译等因素。
2024-06-11
为审计人员利用大模型本地化部署进行数据分析的电脑如何配置
对于审计人员利用大模型本地化部署进行数据分析的电脑配置,以下是相关建议: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置运行速度可能非常慢。另外,对于 SDXL 的大模型,分为两个部分: 第一部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。
2024-09-12
最为审计人员利用大模型本地化部署在电脑上进行数据分析,电脑如何配置
对于审计人员利用大模型本地化部署在电脑上进行数据分析,电脑配置需要考虑以下方面: 模型选择与下载: SDXL 大模型分为 base+refiner 两个必须下载的部分,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化生成的模型,还有一个配套的 VAE 模型用于调节图片效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 除了上述模型,还可在 Civitai(C 站)https://civitai.com/ 寻找更多模型。使用 C 站时需科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora,看到感兴趣的模型点击下载保存到电脑本地。 模型存放路径与使用: 将下载的模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。启动 webUI 后可在模型中看到 SDXL 模型。 硬件配置需求: ChatGLM6B 模型:模型文件下载至本地需要 15 GB 存储空间。量化等级不同,对 GPU 显存要求不同,如 FP16(无量化)最低 GPU 显存(推理)需 13 GB,高效参数微调需 14 GB;INT8 推理需 8 GB,高效参数微调需 9 GB;INT4 推理需 6 GB,高效参数微调需 7 GB。 MOSS 模型:模型文件下载至本地需要 70 GB 存储空间。FP16(无量化)最低 GPU 显存(推理)需 68 GB。 Embedding 模型:默认选用的约占用显存 3GB,也可修改为在 CPU 中运行。
2024-09-12
使用开源大模型本地化部署使用电脑配置,推荐几款笔记本电脑
以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息: 运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。 由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。 在笔记本电脑选择方面,建议选择具备以下配置的机型: 1. 内存:16GB 及以上的 RAM。 2. 显卡:具有 8GB 及以上 VRAM 的独立显卡。 但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。
2024-09-12
目前有什么主流AI台式电脑推荐?
截止 2024 年 5 月,主流的 AI 台式电脑主要是一些专门为人工智能和深度学习设计的高性能设备。这类电脑通常配备了强大的 GPU(如 NVIDIA RTX 系列)、大容量内存和高速固态硬盘,以满足 AI 模型训练和推理的计算需求。一些知名品牌的 AI 台式电脑包括: 1. 戴尔(Dell)Precision 系列。 2. 惠普(HP)Z 系列。 3. 联想(Lenovo)ThinkStation 系列。 这些台式电脑一般采用英特尔酷睿或 AMD Ryzen 的高端 CPU,配备 NVIDIA RTX 30/40 系列或 AMD Radeon Pro 专业级 GPU。同时也提供了大容量内存(32GB 以上)和高速 NVMe SSD 存储选配。除了硬件配置,这些 AI 台式电脑还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具,为用户提供了开箱即用的 AI 开发环境。 当然,这类高端 AI 台式电脑价格也相对较高。用户可以根据自身的 AI 应用需求和预算情况,选择合适的型号。同时也要关注电脑的散热、稳定性等实际使用体验。需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-02
使用AI的电脑,需要什么样的配置?
使用 AI 的电脑配置需求如下: 对于主流的 AI 笔记本电脑,通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘。一些知名品牌包括微软(Microsoft)第 11 代 Surface Pro、微星(MSI)Creator/Workstation 系列、技嘉(GIGABYTE)Aero/Aorus 系列、戴尔(Dell)Precision 移动工作站、惠普(HP)ZBook 移动工作站、联想(Lenovo)ThinkPad P 系列。这些笔记本一般采用英特尔酷睿或 AMD Ryzen 的高端移动 CPU,配备 NVIDIA RTX 30/40 系列或 AMD Radeon Pro 专业级 GPU,同时也提供了大容量内存和高速 NVMe SSD 存储选配。除了硬件配置,这些 AI 笔记本还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具,为用户提供了开箱即用的 AI 开发环境。当然,这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身的 AI 应用需求和预算情况选择合适的型号,同时也要关注笔记本的散热、续航等实际使用体验。 如果是像能写诗的“拍立得”诗相机这样的特定 AI 应用,计算机方面可以选择带接头的 Raspberry Pi Zero 2 W。Raspberry Pi 是简化的计算机,重量轻、价格便宜、处理能力有限且比典型的消费电子设备更脆弱,对使用的特定电源非常敏感。选择 Pi Zero 2 是因为它在处理能力(Pi Zero 太慢)和紧凑尺寸(市场上大多数其他 Pi 都更大)上有平衡。本教程中的接线图适用于所有 Raspberry Pi,但软件和相机兼容性可能存在差异,特别是对于较旧的设备。Pi 3b+ 测试工作正常,但 Pi 4 可能需要太多电量才能使其成为可行的便携式解决方案。 若要安装灵码 AI 编程助手,在配置 AI 插件之前,需要先安装 python 的运行环境,具体可参考 。
2024-09-02
MAC笔记本电脑,有哪个网址可以下载SD的安装包?或者说MAC电脑可以使用SD吗
对于 MAC 电脑安装 Stable Diffusion(SD),推荐云端部署,相关链接为:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd 。 如果您选择本地部署,以下是一些相关步骤供您参考: 1. 进入安装页面,等待安装好。 2. 勾选如下项目,要确保包含 Python 和 C++包。 3. 更改到您想要安装的位置,然后点击右下角的安装就行。 4. 安装时间比较长,要耐心等待。 5. 安装好之后,打开 SD 文件目录下的这个文件夹。 6. 在地址栏输入“cmd”,然后回车。 7. 在打开的 dos 界面里面,将这行代码“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。 8. 如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新到云盘里,后台回复【SD】就可以下载。 9. 安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。 另外,对于电脑配置能支持 SD 运行的朋友,也可以使用 B 站秋叶分享的整合包进行本地部署,具体步骤如下: 1. 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru 下载《1.整合包安装》,存放到电脑本地。 2. 打开保存到电脑里的文件夹。 3. 打开文件夹《1.秋叶整合包主包》——鼠标右击文件——点击“解压文件”。 4. 选择解压到 D 盘或者 E 盘,小心 C 盘被占满!点击确定。 5. 解压完成后,来到第二个文件夹,双击里面的文件点击安装。 6. 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器——点击“发送到”——桌面快捷方式。这样下次进入就可以直接在桌面双击进入,不用每次都到文件夹里面找啦! 7. 双击启动器,等待更新,接着点击左边第二个“高级选项”。 8. 在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 9. 回到第一个一键启动,点击右下角的一键启动。
2024-08-29
我是小白。请给我学习指南,我应该先学什么,后学什么,需要安装哪些AI工具或者收藏哪些网站。我需要简介明了的新手指南,要具体,有可操作性,同时要完整,希望涵盖我学习的全过程。
以下是为您提供的 AI 学习新手指南: 一、学习顺序 1. 首先,您需要拥有一个大模型账号,并熟悉与它们对话的方式。推荐使用性能强大的 ChatGPT4,国产平替有: 2. 接着,阅读 OpenAI 的官方文档: 3. 对于阅读吃力的情况,推荐以下 3 个英文阅读的工具/方法: 浏览器插件“沉浸式翻译” 二、学习方法 1. 掌握提示词的技巧,提示词上手容易且很有用。 2. 进行实践和尝试:理论学习之后,通过实践巩固知识,尝试使用各种产品做出您的作品。 3. 体验 AI 产品:与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 4. 持续学习和跟进:AI 领域发展迅速,新成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他爱好者和专业人士交流。 学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。
2024-09-02
找一款与PS一样的功能可以处理图片,不用安装软件,直接可以在网址使用的免费工具
以下为您推荐两款可以在网址使用且免费的类似于 PS 功能的图片处理工具: 1. Photopea: 这是一款与 SD 梦幻联动的 PS 插件。安装方式可以在扩展面板中点击“从网址安装”,然后输入地址 https://github.com/yankooliveira/sdwebuiphotopeaembed.git ,或者将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下。安装完成后,重启 webUI,在顶端可看到“photopea”的标签栏,点击后会出现完整的 PS 界面(右侧有广告)。快捷键和桌面版 PS 一样,没有使用门槛,功能齐全。 2. 微软 Designer:这是一款免费的工具,可进行图片处理。 此外,如果您想去除图片中的水印,除了 PS,以下工具也可供选择:Firefly、canva、Google photo 都有局部重绘功能,还有 https://clipdrop.co/cleanup 。
2024-09-01
CHATGPT安卓安装包
以下是在安卓系统上安装 ChatGPT 的方法: 1. 到谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI,注意别下错了。 2. 此步骤可能会遇到“google play 未在您所在的地区提供此应用”的问题。经过测试,可按以下路径解决:在 google play 点按右上角的个人资料图标,依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料。如果账号没有地区,可以“添加信用卡或借记卡”,国内的双币信用卡就行,填写信息时地区记得选美,最后的结果可参考相关红款标识信息。 3. 如果回到 google play 首页还搜不到 chatgpt,可以卸载重装 google play,操作过程保持梯子的 IP 一直是美,多试几次即可。 4. 建议把谷歌邮箱也安装上,平时接收验证码比较方便。如果只想体验 ChatGPT 3.5 版本,不升级 GPT4,可跳转到第 4 步第 6 小步进行登录使用,如果想直接订阅 GPT4 Plus 版本,请接着往下看。
2024-08-17
如何 安装 comfyui
以下是安装 ComfyUI 的步骤: 1. 安装 ComfyI2I 模组: 项目地址:https://github.com/ManglerFTW/ComfyI2I 三种安装方式: 进入项目,复制项目地址,然后打开 ComfyUI 的 Manager,点击 install via git url,将项目地址粘贴上去,点确定,自动安装。 直接下载项目的 zip 文件,解压放到 ComfyUI 根目录下的 custom_nodes 文件夹。 在 custom_nodes 文件夹中打开 CMD 或 powershell 命令行,输入 git clone https://github.com/ManglerFTW/ComfyI2I.git。 安装好后,别忘了重启一下 ComfyUI。 2. 安装 ComfyUI 本身: 安装 python 和 Git(网上有相关教程)。 克隆 ComfyUI 仓库。 创建 python 虚拟环境,在 ComfyUI 路径下会出现 venv 文件夹,运行.\\venv\\Scripts\\activate 切换到虚拟环境,然后安装 Pytorch 和依赖包。 下载模型权重和工作流,将 sd_xl_base_1.0.safetensors 和 svd_xt.safetensors 放置于 models/checkpoints 下,sdxl_vae.safetensors 需放置于 models/vae 下。 3. 在 Blender 中安装 ComfyUI: 安装下载网盘里的两个文件,先安装稳定版 Blender(解压即用,已有 Blender 可跳过),也可在 steam 平台下载(软件会自动更新)。 打开软件,安装无限圣杯的插件:进入“偏好设置”——插件——选择“安装”,找到“无限圣杯节点工具”里面的压缩包,不用解压,直接选择压缩包进行安装,安装好之后,打上勾。 接着看插件下方的 ComfyUI 路径这一栏,将它更改为电脑中的 ComfyUI 的地址。 选择一个适合自己的显存模式:8G 以上选高显存;6G 选中显存;4G 选低显存。 安装完成,重启即可。
2024-08-14
如何安装chatGPT并使用
以下是在安卓系统上安装 ChatGPT 的步骤: 1. 到谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI,注意别下错了。 2. 这一步可能会遇到“google play 未在您所在的地区提供此应用”的问题。经过测试,可按以下路径解决:在 google play 点按右上角的个人资料图标,依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料。如果账号没有地区,可以“添加信用卡或借记卡”,国内的双币信用卡就行,填写信息时地区记得选美。 3. 如果回到 google play 首页还搜不到 ChatGPT,可以卸载重装 google play,操作过程保持梯子的 IP 一直是美,多试几次可能就成功了。 建议把谷歌邮箱也安装上,平时接收验证码那些比较方便。 到这里,如果您只想体验 ChatGPT 3.5 版本,不升级 GPT4,可跳转到第 4 步第 6 小步进行登录使用,如果想直接订阅 GPT4 Plus 版本,请接着往下看。
2024-08-10