直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

你的知识库是怎么部署的

回答

部署个人知识库需要考虑硬件配置和相关技术原理。

硬件方面:

  • 生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)。
  • 生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。
  • 生成音频大模型,最低配置为 8G VRAM,建议配置为 24G VRAM。

技术原理方面:

  • 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。
  • RAG 应用包括文档加载、文本分割、存储、检索和输出这 5 个过程。
    • 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。
    • 文本分割:把 Documents 切分为指定大小的块。
    • 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。
    • 检索:通过某种检索算法找到与输入问题相似的嵌入片。
    • 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。

此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入(投喂)定制化的知识。GPT-3.5 一次交互(输入和输出)只支持最高 4096 个 Token。为了处理大量领域知识,OpenAI 提供了 embedding API 解决方案。embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。这是这篇文章的第二次修改,我专门加的这段。原因就是因为好多小伙伴看了文章之后兴致冲冲的去实验,结果发现电脑根本带不动。但是这并不妨碍我们去手把手实操一遍,因为实操可以加深我们对大模型构建的知识库底层原理的了解。如果你想要私滑的体验知识库,可以参考我的另一篇文章:[胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)好了,废话不多说,下面教程还是值得亲自上手搞一遍的,相信走完一遍流程后,你会对知识库有更深的理解。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A =[1,2]和向量B =[4,6]之间的欧几里得距离为sqrt((4-1)^2 +(6-2)^2)= 5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

其他人在问
搭建个人知识库,请推荐的免费人工智能软件
以下为您推荐一些可用于搭建个人知识库的免费人工智能软件: 1. AnythingLLM:包含所有 Open WebUI 的能力,额外支持选择文本嵌入模型和向量数据库。安装地址:https://useanything.com/download 。安装完成后需进行配置,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在 AnythingLLM 中可创建独有的 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式会综合给出答案,Query 模式仅依靠文档数据给出答案),配置完成后可进行测试对话。 2. Coze 或 FastGPT 等工具可搭建知识库,但当下其 RAG 能力仅对问答场景友好,复杂企业级知识库场景可能需要专业团队,收费几万到几十万不等。若想使用专门搭建个人知识库的软件,可参考文章 ,忽略本地部署大模型环节,直接看其中推荐的软件。 此外,还有一些相关工具和方法: 用通义听悟整理录音笔记:https://tingwu.aliyun.com 用 React 实现选中即解释 定义提示语提取有用信息:https://memo.ac/zh/ 开源免费屏幕录制工具 OBS,下载地址:https://obsproject.com/ Mac 用 Downie,Windows 推荐 IDM 淘宝数码荔枝店购买 用 losslessCut 快速切块:https://github.com/mifi/losslesscut 希望这些信息对您有所帮助。
2024-11-11
飞书和notion,在搭建个人知识库方面,各自的优点和缺点是什么
飞书在搭建个人知识库方面的优点: 可以方便地分类和整理知识,例如个人搭建某一领域知识库或企业搭建产品资料知识库。 有相关的分享和直播,能帮助用户轻松打造知识管理体系。 缺点: 随着知识库中信息增多,如果分类不合理,很难找到所需文章。 问题答案可能在文章某一段落,每次都需重新阅读文章才能找到答案。 Notion 在搭建个人知识库方面的优点: 是功能强大的知识管理和项目管理工具,可将各种信息 all in one place。 数据库可定制性高,接近关系型数据库,适合有相关需求的用户。 数据库的每一条记录都是一个页面,页面包含可自定义的属性和丰富内容。 支持的块类型非常丰富。 缺点:暂未提及。 此外,Notion 在创建知识库并上传文本内容方面,有特定的操作步骤,如在文本格式页签下选择 Notion 并进行授权,还可选择自动分段与清洗或自定义分段等方式。
2024-11-11
合适搭建个人知识库的人工智能软件有哪一些
以下是一些适合搭建个人知识库的人工智能软件: 1. AnythingLLM:包含所有 Open WebUI 的能力,额外支持选择文本嵌入模型和向量数据库。安装地址为 https://useanything.com/download 。安装完成后需进行配置,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在使用时,可创建独有的 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式会综合训练数据和上传文档给出答案,Query 模式仅依靠文档数据给出答案),配置完成后可进行测试对话。 2. Coze:如果您想使用专门搭建个人知识库的软件,可参考文章 ,忽略本地部署大模型环节,直接看其中推荐的软件。但使用该软件可能需要对接一些额外的 API 。
2024-11-11
创建知识库
创建知识库的方法如下: 智能体方面: 本次创建知识库使用手动清洗数据,上节课程是自动清洗数据,自动清洗数据会出现目前数据不准的情况,本节视频就尝试使用手动清洗数据,提高数据的准确性。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。知识库的飞书在线文档,其中每个问题和答案以分割,暂时不要问为什么。选择飞书文档、自定义的自定义,输入,然后就将飞书的文档内容以区分开来,这里可以点击编辑修改和删除。点击添加 Bot,添加好可以在调试区测试效果。 本地文档:本地 word 文件,注意如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面。画小二这个课程 80 节课程,分为了 11 个章节,训练数据不能一股脑全部放进去训练。正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容格式依次类推细化下去。每个章节都按照这种固定的方式进行人工标注和处理,然后选择创建知识库自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能够搜到,没有通过发布的获取不到 API。 一般情况: 可以将文本内容上传至知识库中,作为回复用户问题的内容源或通过向量搜索进行内容召回。例如将产品使用文档上传至知识库中,创建一个专属的产品咨询顾问 Bot 来精准回答用户关于产品使用的相关问题。 参考以下操作:登录,在左侧导航栏的工作区区域,选择进入指定团队,在页面顶部进入知识库页面,并单击创建知识库,在弹出的页面配置知识库名称、描述,并单击确认。一个团队内的知识库名称不可重复,必须是唯一的。在单元页面,单击新增单元,在弹出的页面选择要上传的数据格式,默认是文本格式,然后选择一种文本内容上传方式完成内容上传。 Coze 方面: 来到个人空间,找到知识库导航栏,点击创建知识库。知识库是共享资源,也就是多个 Bot 可以引用同一个知识库。 选择知识库的格式,填写一些信息。目前(2024.06.08)Coze 支持三种格式:文档、表格(CSV、Excel 等)、图片(其实就是上传一张图片,然后填写个图片文字说明)。这里格式并不重要,重要的是要看懂上个章节讲的:影响 RAG 输出质量的因素。可以选择本地文档(问答对可以选择表格),选择自定义的文档切割,数据处理完成后,一个问答对被切割成一个文档片。 关于使用知识库,大家可以看这篇教程:。
2024-11-10
知识库设计
以下是关于知识库设计的相关内容: 在基于大模型+知识库的 Code Review 实践中: 为什么需要知识库:大模型基座只包含互联网上的公开数据,对公司内部的框架知识和使用文档不了解。例如公司内的框架 Lynx,需要让大模型从内部文档中知道“什么是 Lynx?”“怎么写 Lynx?”,这里的“强化模式”会使用向量数据库,并将匹配的知识库片段和问题生成 Prompt,发送到 LLM 执行。 怎样找到相关度高的知识:通过三个过程,即 Text Embeddings(文本向量化)、Vector Stores(向量存储)、Similarity Search(相似性搜索)。 在「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人中: 确定功能范围: 编写【prompt】提示词,设定 Bot 的身份和目标。 创建【知识库】,整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。创建知识库路径为个人空间知识库创建知识库,知识库文档类型支持本地文档、在线数据、飞书文档、Notion 等,本次使用【本地文档】。按照操作指引上传文档、分段设置、确认数据处理。小技巧是在内容中加上特殊分割符“”以便于自动切分数据,分段标识符号选择“自定义”,内容填“”。如果内容有误可编辑或删除。 创建【工作流】,告诉 AI 机器人处理信息的流程。创建工作流路径为个人空间工作流创建工作流。工作流设计好后先试运行,无误后发布。如果任务和逻辑复杂,可结合“节点”工具,如调用【大模型】总结分析知识库内容、调用【数据库】存储用户输入信息、调用【代码】处理复杂逻辑等。个人建议工作流不必复杂,能实现目的即可,所以在设计 Bot 前“确定目的”和“确定功能范围”很重要。
2024-11-10
利用AI自动查阅飞书知识库信息
以下是关于利用 AI 自动查阅飞书知识库信息的相关内容: 关于我: 我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。「飞书智能伙伴创建平台」(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用。云雀是字节跳动研发的语言模型,能通过自然语言交互高效完成任务。 使用方法: 1. 您可以在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(最新二维码请在获取),然后点击加入,直接@机器人即可。 2. 也可以在 WaytoAGI.com 的网站首页,直接输入问题,即可得到回答。 在飞书群中的使用: 在飞书 5000 人大群里,内置了智能机器人「waytoAGI 知识库智能问答」,它基于飞书 aily 搭建。您只需在飞书群里发起话题时,它会根据 waytoAGI 知识库的内容进行总结和回答。 飞书群智能机器人的功能: 1. 自动问答:自动回答用户关于 AGI 知识库内涉及的问题,可对多文档进行总结、提炼。 2. 知识搜索:在内置的「waytoAGI」知识库中搜索特定信息和数据,快速返回相关内容。 3. 文档引用:提供与用户查询相关的文档部分或引用,帮助用户获取更深入的理解。 4. 互动教学:通过互动式的问答,帮助群成员学习和理解 AI 相关的复杂概念。 5. 最新动态更新:分享有关 AGI 领域的最新研究成果、新闻和趋势。 6. 社区互动:促进群内讨论,提问和回答,增强社区的互动性和参与度。 7. 资源共享:提供访问和下载 AI 相关研究论文、书籍、课程和其他资源的链接。 8. 多语言支持:支持多语言问答,满足不同背景用户的需求。 搭建问答机器人: 2024 年 2 月 22 日的会议首先介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区的情况。接着讨论了利用 AI 技术帮助用户检索知识库内容,引入 RAG 技术,通过机器人来帮助用户快速检索。然后介绍了基于飞书的知识库智能问答技术的应用场景和实现方法,可快速给大模型补充新鲜知识,提供大量新内容。之后讨论了如何使用飞书的智能伙伴功能来搭建 FAQ 机器人,以及智能助理的原理和使用方法。最后介绍了企业级 agent 方面的实践。
2024-11-09
本地部署的AI工具
以下是关于本地部署的 AI 工具的相关信息: 目前市面上的 AI 工具分为线上和线下本地部署两种: 线上的优势:出图速度快,不依赖本地显卡配置,无需下载大型模型,能查看其他创作者的作品,但出图分辨率受限,一般最高支持 1024×1024 左右,制作横板、高清图片会受影响。 线下部署的优势:可以添加插件,不卡算力,出图质量高。但使用时电脑基本处于宕机状态,配置不高可能会出现爆显存导致出图失败的情况。 具体的部署步骤(以 windows10 系统为例,mac 系统步骤类似,命令有所不同): 1. 安装环境: 点击电脑“系统”,输入“cmd”,回车打开命令窗口。 在命令窗口中,粘贴代码确认是否有 python 和 pip。 若没有,需安装:先安装 python,安装包可通过下载,按照步骤安装,关闭窗口再次运行命令确认。 2. 部署项目: 下载 COW 机器人项目并解压缩。 回到 chatgptonwechat/文件路径下,空白处右键,打开 Powershell 复制粘贴“python app.py”,弹出二维码扫码登录。 注意事项: 1. 程序在本地运行,关闭窗口进程结束,若要持续使用需保持窗口打开和运行。 2. 若突然不管用,可点击窗口并按空格。 3. 配置时,在 config.json 中的 OpneAi_Api 填“http://localhost:3000/api/v1/chat/completions”。 对于游戏截图升级到 KV 品质的应用,可充分发挥线上和线下平台的优势:线上找参考、测试模型,线下作为主要出图工具。先在线上绘图网站的绘图广场发现想要的画风,点击创作获取模型 lora 和 tag,截取游戏人物底图将线上算力集中在人物身上,多批次尝试不同画风得出合适模型+lora 组合,最后在 C 站()下载对应模型到本地加载部署后正式生图。
2024-11-10
Mac部署stable diffusion
在 Mac 上部署 Stable Diffusion 存在一定限制,功能可能不全且出错率偏高,严重影响使用体验。个人建议升级设备或者采用云服务器玩耍。 如果您仍想在 Mac 上部署,可以参考以下步骤: 1. 电脑硬件要求: 系统:无明确针对 Mac 的特定系统要求。 显卡:未明确针对 Mac 的显卡要求。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 2. 环境安装: 未提供 Mac 系统下的具体环境安装步骤。 由于 Mac 系统的特殊性,更推荐您采用云端部署的方式,相关教程可参考:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd
2024-11-06
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
如何做大模型的云端部署与微调
做大模型的云端部署与微调,主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 例如,对于 SDXL 的大模型,本地部署时要注意模型分为 base+refiner 以及配套的 VAE 模型,需将其放入对应文件夹,并在秋叶启动器中将 webUI 的版本升级到 1.5 以上。而对于 Llama3 的部署和微调,实操分两部分,包括本地部署并通过 webdemo 对话,以及使用特定数据集进行微调,具体流程为购买服务器、安装代码环境、下载通用模型和数据集、挑选微调框架、编写微调程序和验证结果。 总的来说,部署和微调大模型需要综合考虑多方面因素,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-10-26
docker部署qwen
以下是关于 Docker 部署相关问题的综合回答: 容器编排模板: 容器编排模板是一种配置文件,用于在 Docker 中部署和管理多个容器,可一键部署复杂环境,无需手动配置细节,如配置 COW 组件与微信和极简未来平台交互。 使用 Docker 部署 COW 组件的原因: Docker 提供隔离运行环境,确保应用在任何环境稳定运行,简化安装和配置过程,保证环境一致,便于管理和维护。 配置多个前缀触发机器人回复的原因: 配置如“bot”、“@bot”等多个前缀,能确保机器人只在特定情况回复,避免群聊或私聊中频繁干扰,提高响应准确性和用户体验。 扫码登录失败的解决办法: 1. 重启 Docker 容器:在宝塔面板中找到对应容器,点击“重启”。 2. 检查网络连接:确保服务器和微信客户端能正常访问互联网。 3. 重新扫描二维码:等待容器重启后,重新扫描日志中生成的二维码。 费用相关: 使用 AI 微信聊天机器人的费用实际上不高,极简未来平台按使用量收费,对一般用户费用相对低廉,充值少量费用通常可用很长时间,且平台提供每天签到免费领积分福利,进一步降低使用成本。使用极简未来平台创建 AI 机器人的具体费用未明确给出。
2024-10-20
我想在云服务器部署使用 dify 和 comfyui ,云服务器机器配置需要什么要求呢
在云服务器部署使用 Diffy 和 ComfyUI ,云服务器机器配置要求如下: 1. 系统:Windows 7 以上。 2. 显卡要求:NVIDIA 独立显卡且显存至少 4G 起步。但 SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 硬盘:留有足够的空间,最低 100G 起步(包括模型)。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD(固态硬盘)上。 4. 内存:最低 32GB,越高越好,最低配会经常爆显存。 需要注意的是,ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。如果您的电脑能顺畅清晰地玩 3A 游戏,那玩 WebUI 和 ComfyUI 通常也没问题。配置上不封顶,根据自己的需求和预算来选择即可。
2024-10-19