Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

你的知识库是怎么部署的

Answer

部署个人知识库需要考虑硬件配置和相关技术原理。

硬件方面:

  • 生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)。
  • 生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。
  • 生成音频大模型,最低配置为 8G VRAM,建议配置为 24G VRAM。

技术原理方面:

  • 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。
  • RAG 应用包括文档加载、文本分割、存储、检索和输出这 5 个过程。
    • 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。
    • 文本分割:把 Documents 切分为指定大小的块。
    • 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。
    • 检索:通过某种检索算法找到与输入问题相似的嵌入片。
    • 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。

此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入(投喂)定制化的知识。GPT-3.5 一次交互(输入和输出)只支持最高 4096 个 Token。为了处理大量领域知识,OpenAI 提供了 embedding API 解决方案。embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。这是这篇文章的第二次修改,我专门加的这段。原因就是因为好多小伙伴看了文章之后兴致冲冲的去实验,结果发现电脑根本带不动。但是这并不妨碍我们去手把手实操一遍,因为实操可以加深我们对大模型构建的知识库底层原理的了解。如果你想要私滑的体验知识库,可以参考我的另一篇文章:[胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)好了,废话不多说,下面教程还是值得亲自上手搞一遍的,相信走完一遍流程后,你会对知识库有更深的理解。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A =[1,2]和向量B =[4,6]之间的欧几里得距离为sqrt((4-1)^2 +(6-2)^2)= 5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

Others are asking
想制作个人的知识库国内有什么好的AI工具么
以下是一些国内可用于制作个人知识库的 AI 工具: 1. Kimi 智能助手:是 ChatGPT 的国产平替,上手体验好,适合新手入门学习和体验 AI。不用科学上网、不用付费、支持实时联网,是国内最早支持 20 万字无损上下文的 AI,对长文理解表现出色,能一次搜索几十个数据来源,无广告,能定向指定搜索源(如小红书、学术搜索)。PC 端可通过下载。 2. 飞书:汇集了各类 AI 优质知识库、AI 工具使用实践,助力人人成为效率高手。可通过下载。 此外,学习使用国内大语言模型工具可以从提示词开始。一些国产大模型如智谱和文心可以实现文生图的功能。
2024-12-24
想建立个人知识库使用什么AI工具更好一些
以下是为您推荐的用于建立个人知识库的 AI 工具: 1. AnythingLLM:包含所有 Open WebUI 的能力,额外支持选择文本嵌入模型、选择向量数据库。安装地址:https://useanything.com/download 。安装完成后需进行配置,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在使用时,可创建独有的 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式会综合训练数据和上传文档给出答案,Query 模式仅依靠文档数据给出答案),配置完成后即可进行对话测试。 2. LlamaIndex:是更高一层 LangChain 的抽象,简化了 LangChain 对文本分割、查询的接口,提供了更丰富的 Data Connector。只针对 GPT Model 做 Index,参考 https://gptindex.readthedocs.io/en/latest/ 。 3. ExoBrain 的集成软件 Maimo.ai:作为外脑的主要记忆空间,能捕获多种数字内容并随时随地访问,可挂接和导入外部记忆,能快速理解捕获内容、灵活创作笔记、生成创作建议,可与外脑知识库对话并自动做外部检索完善答案。今年十一月将开放第一个体验版,关注获取最新信息。
2024-12-24
如何构建自己的知识库和数据集
构建自己的知识库和数据集可以参考以下几种方法: 使用 Dify 构建知识库的具体步骤: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式。对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式:Dify 提供了三种索引方式供选择,包括高质量模式、经济模式和 Q&A 分段模式。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 创建并使用知识库(上传表格数据): 1. API 方式: 获取在线 API 的 JSON 数据,将 JSON 数据上传至知识库。 在表格格式页签下,选择 API,然后单击下一步。 单击新增 API。 输入网址 URL 并选择数据的更新频率,然后单击下一步。 输入单元名称或使用自动添加的名称,然后单击下一步。 配置数据表信息后,单击下一步。 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 查看表结构和数据,确认无误后单击下一步。 完成上传后,单击确定。 2. 自定义方式: 在表格格式页面下,选择自定义,然后单击下一步。 输入单元名称。 在表结构区域添加字段,单击增加字段添加多个字段。 设置列名,并选择指定列字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 单击确定。 单击创建分段,然后在弹出的页面输入字段值,然后单击保存。 从零开始,用 GPT 打造个人知识库: 要搭建基于 GPT API 的定制化知识库,涉及到给 GPT 输入(投喂)定制化的知识。但 GPT3.5(当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字。这点容量对于绝大多数领域知识根本不够。为了使用 GPT 的语言能力来处理大量的领域知识,OpenAI 提供了 embedding API 解决方案。embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。向量之间的距离是一种度量两个向量相似性的方法,最常见的是欧几里得距离。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上给了创建 embeddings 的示例,上面的命令访问 embeddings API 接口,将 input 语句,转化成下面这一串浮点数字。
2024-12-23
在WAY TO AGI 知识库有没有适合老师备课用的AI?请推荐
以下是为老师备课推荐的一些 AI 相关内容: B 站 up 主 Nally 的课程,免费且每节 15 分钟,内容很棒。 14、15 号左右白马老师和麦菊老师将带大家用 AI 做生图、毛毡字、光影字、机甲字等。 16 号晚上中老师将带大家动手操作炼丹,炼丹可能需要准备一些图,后续会让中老师提前发布内容方便大家准备。 工程生产有很多可控性,AI 视频相关内容丰富,文档会列出工具优劣及操作。很多工具每天有免费积分,共学课程基本不用花钱。每周有 AI 视频挑战赛。 有 AI 音乐的流派和 prompt 电子书,格林同学做了翻译。 此外,还有以下相关信息: 高效 PB 及相关案例:高效 PB 投入力度大,有厉害的伙伴,案例在社区,有多种 battle 方式,会有菩萨老师专门介绍。 11 月 2 号左右将开展博物馆奇妙日主题活动,在各地博物馆进行新创意。 关于 AI 知识库及学习路径的介绍,包括时代杂志评选的领军人物、AI 相关名词解释、知识库的信息来源、社区共创项目、学习路径、经典必读文章、初学者入门推荐、历史脉络类资料等。
2024-12-20
我想用coze搭建一个智能体,关于自然语言课程的期末复习指南,要将我的教材导入扣子作为知识库,智能体支持用户提问,搜索知识点,结合知识库和互联网搜索的内容给出问答,需要使用多智能体或工作流,使用卡片功能进行显示,请给出我搭建这个智能体的步骤
以下是使用 Coze 搭建一个关于自然语言课程期末复习指南智能体的步骤: 1. 访问 Coze 官网(https://www.coze.cn),注册并登录。 2. 点击页面左上角的⊕,通过【标准创建】填入智能体的基本信息。 3. 了解 Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定智能体的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置: 插件:扩展智能体的专业能力,如计算器、日历等工具。 工作流:设置固定的处理流程和业务逻辑。 图像流:处理和生成图像的相关功能。 触发器:设置自动化响应条件。 知识库管理: 文本:存储文字类知识材料。 表格:结构化数据的存储和调用。 照片:图像素材库。 记忆系统: 变量:存储对话过程中的临时信息。 数据库:管理持久化的结构化数据。 长期记忆:保存重要的历史对话信息。 文件盒子:管理各类文档资料。 交互优化(底部区域): 开场白:设置初次对话的问候语。 用户问题建议:配置智能推荐的后续问题。 快捷指令:设置常用功能的快速访问。 背景图片:自定义对话界面的视觉效果。 预览与调试(右侧区域):实时测试智能体的各项功能,调试响应效果,优化交互体验。 4. 设定智能体的人设与回复逻辑后,为智能体配置对应的技能,以保证其可以按照预期完成目标任务。例如,以获取 AI 新闻的智能体为例,需要为它添加一个搜索新闻的接口来获取相关新闻。具体操作如下: 在智能体编排页面的技能区域,单击插件功能对应的+图标。 在添加插件页面,选择相关功能,然后单击新增。 修改人设与回复逻辑,指示智能体使用相应插件来搜索所需内容。 (可选)为智能体添加开场白,让用户更好地了解智能体的功能。开场白功能目前支持豆包、微信公众号(服务号)。 5. 配置好智能体后,在预览与调试区域中测试智能体是否符合预期。可单击清除图标清除对话记录。 6. 完成测试后,将智能体发布到社交渠道中使用。具体操作如下: 在智能体的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道。 单击发布。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome
2024-12-20
怎么构建个人本地知识库
构建个人本地知识库可以按照以下步骤进行: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,RAG 可解决依靠不在训练集中的数据的问题。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载,如 PDF 等非结构化数据、SQL 等结构化数据和代码等。 文本分割将文档切分为指定大小的块。 存储涉及将文档块嵌入转换为向量形式并存储到向量数据库。 检索通过算法找到与输入问题相似的嵌入片。 输出是将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器将用户提供的文本加载到内存以便后续处理。 2. 准备软件: 需要一个额外的软件 AnythingLLM,它包含所有 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 3. 安装和配置: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 4. 构建本地知识库: 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 首先创建一个工作空间。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,AnythingLLM 提供 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 完成配置后进行测试对话。 本文的思路来源于视频号博主黄益贺,作者按照其视频进行了实操并附加了一些关于 RAG 的额外知识。
2024-12-19
dify部署
以下是关于 Dify 部署的相关内容: 通过云服务器部署 Dify: 可参考 https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose ,这些命令在宝塔面板的终端安装,dockercompose 文件在/root/dify/docker 目录下,可学习其中文件的意思。 检查运行情况,若 nginx 容器无法运行,可能是 80 端口被占用,可将终端输出的代码粘贴给 AI 检查处理。 在浏览器地址栏输入公网 IP(去掉宝塔面板地址栏后的:8888),邮箱密码随便填,建立知识库并设置,选择模型,如智谱 ai,获取钥匙并复制保存,创建应用进行测试和发布。 云服务器 Docker 部署 Dify: 腾讯云一键部署存在问题,可重装服务器系统,安装宝塔面板(可视化服务器管理),自定义登陆凭证,放行防火墙端口,获取宝塔面板账号密码。 登陆成功后安装 Docker,在左侧菜单栏的文件中打开终端,根据 Dify 官方部署文档敲入命令进行安装。 安装完成后使用方法与其他方案相同,更新时按照官方文档在 BT 页面的文件中打开终端执行相关命令,并同步环境变量配置。
2024-12-23
怎么部署dify到ecs
部署 Dify 到 ECS 有以下几种方法: 方法一:通过云服务器、Dify 和智能微秘书免费搭建微信机器人 参考链接:https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose 这些命令在宝塔面板的终端安装。dockercompose 文件在 /root/dify/docker 目录下,可修改和学习其中文件的含义。 检查运行情况,使用 docker compose ps 命令,如果 nginx 容器无法运行,可能是 80 端口被占用,可将终端输出的代码粘贴给 AI 来解决。 在浏览器地址栏输入公网 IP(可在腾讯云服务器或宝塔面板地址栏查看,去掉后面的:8888),随便填邮箱密码建立知识库,选择模型(如智谱 AI,获取钥匙并复制保存),创建应用进行测试和发布。 方法二:腾讯云一键部署 打开腾讯云官网,在左上角【最新活动】进入,新老用户均可享受优惠。 Dify 社区版官方要求 2 核 4G,可根据需求选择境内或境外服务器。境内服务器 159 一年。 选好后创建服务器,选择【使用应用模板创建】【AI】,初始化完成后,在控制台服务器中复制公网 IP 到浏览器(加上 /apps),进入 Dify 安装页面,设置管理员账号密码,正常情况下即可进入 Dify 网站配置模型服务。 方法三:云服务器 Docker 部署 左侧菜单栏文件打开终端,根据 Dify 官方的部署文档操作。 敲入 git 命令(把 Dify 的代码复制到服务器),显示 100%即复制完成。 依次敲下面三个命令,出现相应结果即为成功。 使用方法与方案一相同。 更新时根据官方文档,在 BT 页面的文件中打开终端,按顺序执行命令。同时注意同步环境变量配置,如果.env.example 文件有更新,务必同步修改本地的.env 文件,检查并确保配置项与实际运行环境相匹配。
2024-12-18
如何部署本地的智能数据库
以下是关于如何部署本地智能数据库的详细步骤: 1. 引言: 作者是致力于使用 AI 工具将自己打造为超级个体的程序员,目前沉浸于 AI Agent 研究。 本文将分享如何部署本地大模型以及搭建个人知识库,让您了解相关流程和技术。 2. 本地知识库进阶: 若要更灵活掌控知识库,可使用额外软件 AnythingLLM,它包含所有 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 AnythingLLM 中有 Workspace 的概念,可创建独有 Workspace 与其他项目数据隔离。 构建本地知识库的步骤: 首先创建一个工作空间。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 完成配置后即可进行测试对话。 3. 写在最后: 作者推崇“看十遍不如实操一遍,实操十遍不如分享一遍”。 若对 AI Agent 技术感兴趣,可联系作者或加入其免费知识星球(备注 AGI 知识库)。
2024-12-02
本地部署的AI工具
以下是关于本地部署的 AI 工具的相关信息: 目前市面上的 AI 工具分为线上和线下本地部署两种: 线上的优势:出图速度快,不依赖本地显卡配置,无需下载大型模型,能查看其他创作者的作品,但出图分辨率受限,一般最高支持 1024×1024 左右,制作横板、高清图片会受影响。 线下部署的优势:可以添加插件,不卡算力,出图质量高。但使用时电脑基本处于宕机状态,配置不高可能会出现爆显存导致出图失败的情况。 具体的部署步骤(以 windows10 系统为例,mac 系统步骤类似,命令有所不同): 1. 安装环境: 点击电脑“系统”,输入“cmd”,回车打开命令窗口。 在命令窗口中,粘贴代码确认是否有 python 和 pip。 若没有,需安装:先安装 python,安装包可通过下载,按照步骤安装,关闭窗口再次运行命令确认。 2. 部署项目: 下载 COW 机器人项目并解压缩。 回到 chatgptonwechat/文件路径下,空白处右键,打开 Powershell 复制粘贴“python app.py”,弹出二维码扫码登录。 注意事项: 1. 程序在本地运行,关闭窗口进程结束,若要持续使用需保持窗口打开和运行。 2. 若突然不管用,可点击窗口并按空格。 3. 配置时,在 config.json 中的 OpneAi_Api 填“http://localhost:3000/api/v1/chat/completions”。 对于游戏截图升级到 KV 品质的应用,可充分发挥线上和线下平台的优势:线上找参考、测试模型,线下作为主要出图工具。先在线上绘图网站的绘图广场发现想要的画风,点击创作获取模型 lora 和 tag,截取游戏人物底图将线上算力集中在人物身上,多批次尝试不同画风得出合适模型+lora 组合,最后在 C 站()下载对应模型到本地加载部署后正式生图。
2024-11-10
Mac部署stable diffusion
在 Mac 上部署 Stable Diffusion 存在一定限制,功能可能不全且出错率偏高,严重影响使用体验。个人建议升级设备或者采用云服务器玩耍。 如果您仍想在 Mac 上部署,可以参考以下步骤: 1. 电脑硬件要求: 系统:无明确针对 Mac 的特定系统要求。 显卡:未明确针对 Mac 的显卡要求。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 2. 环境安装: 未提供 Mac 系统下的具体环境安装步骤。 由于 Mac 系统的特殊性,更推荐您采用云端部署的方式,相关教程可参考:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd
2024-11-06
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04