直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

你的知识库是怎么部署的

回答

部署个人知识库需要考虑硬件配置和相关技术原理。

硬件方面:

  • 生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)。
  • 生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。
  • 生成音频大模型,最低配置为 8G VRAM,建议配置为 24G VRAM。

技术原理方面:

  • 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。
  • RAG 应用包括文档加载、文本分割、存储、检索和输出这 5 个过程。
    • 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。
    • 文本分割:把 Documents 切分为指定大小的块。
    • 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。
    • 检索:通过某种检索算法找到与输入问题相似的嵌入片。
    • 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。

此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入(投喂)定制化的知识。GPT-3.5 一次交互(输入和输出)只支持最高 4096 个 Token。为了处理大量领域知识,OpenAI 提供了 embedding API 解决方案。embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。这是这篇文章的第二次修改,我专门加的这段。原因就是因为好多小伙伴看了文章之后兴致冲冲的去实验,结果发现电脑根本带不动。但是这并不妨碍我们去手把手实操一遍,因为实操可以加深我们对大模型构建的知识库底层原理的了解。如果你想要私滑的体验知识库,可以参考我的另一篇文章:[胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)好了,废话不多说,下面教程还是值得亲自上手搞一遍的,相信走完一遍流程后,你会对知识库有更深的理解。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A =[1,2]和向量B =[4,6]之间的欧几里得距离为sqrt((4-1)^2 +(6-2)^2)= 5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

其他人在问
AI知识库是是什么?有哪些知名的AI知识库
AI 知识库是一系列 AI 相关的信息和知识的集合。以下为您介绍一些知名的 AI 知识库: 通往 AGI 之路:这是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库。在这里,用户既是知识的消费者,也是知识的创作者。它不仅提供各种 AI 资源,还具有一系列开箱即用的工具,如文生图、文生视频、文生语音等的详尽教程,并且会追踪 AI 领域最新进展并时刻更新。其网址为:https://waytoagi.com/ ,您可即刻体验:https://waytoagi.com/ 。 Coze 知识库:例如在飞书软件搭建的。
2024-11-23
AI知识库工具
以下是为您提供的关于 AI 知识库工具的相关信息: WayToAGI(通往 AGI 之路): 这是由一群热爱 AI 的专家和爱好者共同建设的开源 AI 知识库。 大家贡献并整合各种 AI 资源,让人们能轻松学习 AI 知识,应用各类 AI 工具和实战案例。 提供一系列开箱即用的工具,如文生图、文生视频、文生语音等的详尽教程。 追踪 AI 领域最新进展并时刻更新,无论您是初学者还是行业专家,都能在此发掘有价值的内容。 网址:https://waytoagi.com/ 体验链接:https://waytoagi.com/ 知识库在 AI 模型中的作用: 知识库就像 AI 的“活字典”,是一个非常贴切的比喻。 能解决 AI 知识“过期”的问题,AI 可随时从更新的知识库中检索相关信息,给出更准确的回答。 例如可建立包含最新新闻、科技发展、法律法规等内容的知识库,让 AI 回答最新事件的问题。 像热门的 AI 搜索,就是将整个互联网的实时数据作为知识库,通过搜索引擎获取最新信息。 产品经理 AI 工具集: 用户研究、反馈分析:Kraftful(kraftful.com) 脑图:Whimsical(whimsical.com/aimindmaps)、Xmind(https://xmind.ai) 画原型:Uizard(https://uizard.io/autodesigner/) 项目管理:Taskade(taskade.com) 写邮件:Hypertype(https://www.hypertype.co/) 会议信息:AskFred(http://fireflies.ai/apps) 团队知识库:Sense(https://www.senseapp.ai/) 需求文档:WriteMyPRD(writemyprd.com) 敏捷开发助理:Standuply(standuply.com) 数据决策:Ellie AI(https://www.ellie.ai/) 企业自动化:Moveworks(moveworks.com)
2024-11-22
知识库软件有什么推荐的吗
以下是为您推荐的一些知识库软件: 稿定 AI:国内设计工具稿定推出的 AI 创意工具合集,包括设计宣传图、绘图、素材、商品图、文案、AI 圈等功能,能切中国内内容营销的痛点,体验良好。 OpenCat:由开发,推出了付费订阅计划,每月 18 元可无限使用 GPT3.5 及一些软件的高级功能,如 iCloud 同步、AI 键盘等。 Tana:非常强大的知识管理软件,推出了 AI 相关功能,不仅能扩写文本,还能与您的所有数据交互并访问网上信息。 Read Speak:由开发的利用 ChatGPT 联系口语的 APP,支持与虚拟角色对话边学边练,具有实时发音评价、实时语法纠错等功能。 STUDIO AI:AI 驱动的无代码网页构建工具,能学习用户反馈并将设计转化为实际网站,内含 WebDesignAI,具有自动补全样式和内容的功能,支持语音控制编辑器完成日常设计任务。 Clarity:AI 驱动的分层阅读工具,提供分层的深度阅读功能,用户可从摘要开始掌握复杂主题,通过点击相应内容了解更多细节。 如果您想搭建个人知识库,还可以参考文章,忽略本地部署大模型环节,直接看其中推荐的软件。但使用时可能需要对接一些额外的 API,建议先了解 RAG 的原理再使用。
2024-11-22
有什么知识库的应用推荐?
以下是为您推荐的知识库应用: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库。其中提到大模型存在不准确和数据限制的问题,知识库可解决这些问题,典型应用如客服系统,公司可将用户问题及答案记录在文档中以知识库形式投喂给大模型,使大模型更准确回复用户。 01通往 AGI 之路知识库使用指南。涵盖智能纪要、总结等内容,包括关于 AI 知识库使用及 AIPO 活动的介绍、AIPO 线下活动及 AI 相关探讨、way to AGI 社区活动与知识库介绍、AI 相关名词解释、知识库的信息来源、社区共创项目、学习路径、经典必读文章、初学者入门推荐、历史脉络类资料等。 张梦飞:【知识库】FastGPT + OneAPI + COW 带有知识库的机器人完整教程。包括创建知识库应用的步骤,如地址输入、模型选择、创建和上传文件等,以及安装并接入 cow 的操作流程。
2024-11-22
本群怎么实现的调用知识库
要实现本群对知识库的调用,可以通过以下两种方式: 1. 在 Bot 内使用知识库: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。配置项说明如下: 最大召回数量:Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多。 最小匹配度:Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回。 调用方式:知识库的调用方式。自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:您需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据。 (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 2. 在工作流内使用 Knowledge 节点: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。
2024-11-21
AI知识库有什么
AI 知识库主要包括以下内容: 通往 AGI 之路:这是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库。在这里,用户既是知识的消费者,也是知识的创作者。它不仅是一个知识库,还是连接学习者、实践者和创新者的社区,让大家在这里碰撞思想,相互鼓舞,一同成长。 特点: 由一群热爱 AI 的专家和爱好者共同建设。 大家贡献并整合各种 AI 资源,使大家可以轻松学习各种 AI 知识,应用各类 AI 工具和实战案例等。 提供一系列开箱即用的工具,如文生图、文生视频、文生语音等详尽的教程。 追踪 AI 领域最新的进展,时刻更新,让用户每次访问都能有新的收获。 链接: https://waytoagi.com/ 即刻体验:https://waytoagi.com/ 此外,还有关于 Coze 的知识库相关内容,如大圣撰写的文章,帮助非编程人士理解 AI 时代的知识库,包括其概念、实现原理、能力边界,以及在通往 AGI 之路大群中通过对话获取知识库中资料的原理,还有如何更好地使用 Coze 等 AI Agent 平台中的知识库组件来打造更加强大的智能体。
2024-11-21
本地部署的AI工具
以下是关于本地部署的 AI 工具的相关信息: 目前市面上的 AI 工具分为线上和线下本地部署两种: 线上的优势:出图速度快,不依赖本地显卡配置,无需下载大型模型,能查看其他创作者的作品,但出图分辨率受限,一般最高支持 1024×1024 左右,制作横板、高清图片会受影响。 线下部署的优势:可以添加插件,不卡算力,出图质量高。但使用时电脑基本处于宕机状态,配置不高可能会出现爆显存导致出图失败的情况。 具体的部署步骤(以 windows10 系统为例,mac 系统步骤类似,命令有所不同): 1. 安装环境: 点击电脑“系统”,输入“cmd”,回车打开命令窗口。 在命令窗口中,粘贴代码确认是否有 python 和 pip。 若没有,需安装:先安装 python,安装包可通过下载,按照步骤安装,关闭窗口再次运行命令确认。 2. 部署项目: 下载 COW 机器人项目并解压缩。 回到 chatgptonwechat/文件路径下,空白处右键,打开 Powershell 复制粘贴“python app.py”,弹出二维码扫码登录。 注意事项: 1. 程序在本地运行,关闭窗口进程结束,若要持续使用需保持窗口打开和运行。 2. 若突然不管用,可点击窗口并按空格。 3. 配置时,在 config.json 中的 OpneAi_Api 填“http://localhost:3000/api/v1/chat/completions”。 对于游戏截图升级到 KV 品质的应用,可充分发挥线上和线下平台的优势:线上找参考、测试模型,线下作为主要出图工具。先在线上绘图网站的绘图广场发现想要的画风,点击创作获取模型 lora 和 tag,截取游戏人物底图将线上算力集中在人物身上,多批次尝试不同画风得出合适模型+lora 组合,最后在 C 站()下载对应模型到本地加载部署后正式生图。
2024-11-10
Mac部署stable diffusion
在 Mac 上部署 Stable Diffusion 存在一定限制,功能可能不全且出错率偏高,严重影响使用体验。个人建议升级设备或者采用云服务器玩耍。 如果您仍想在 Mac 上部署,可以参考以下步骤: 1. 电脑硬件要求: 系统:无明确针对 Mac 的特定系统要求。 显卡:未明确针对 Mac 的显卡要求。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 2. 环境安装: 未提供 Mac 系统下的具体环境安装步骤。 由于 Mac 系统的特殊性,更推荐您采用云端部署的方式,相关教程可参考:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd
2024-11-06
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
如何做大模型的云端部署与微调
做大模型的云端部署与微调,主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 例如,对于 SDXL 的大模型,本地部署时要注意模型分为 base+refiner 以及配套的 VAE 模型,需将其放入对应文件夹,并在秋叶启动器中将 webUI 的版本升级到 1.5 以上。而对于 Llama3 的部署和微调,实操分两部分,包括本地部署并通过 webdemo 对话,以及使用特定数据集进行微调,具体流程为购买服务器、安装代码环境、下载通用模型和数据集、挑选微调框架、编写微调程序和验证结果。 总的来说,部署和微调大模型需要综合考虑多方面因素,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-10-26
docker部署qwen
以下是关于 Docker 部署相关问题的综合回答: 容器编排模板: 容器编排模板是一种配置文件,用于在 Docker 中部署和管理多个容器,可一键部署复杂环境,无需手动配置细节,如配置 COW 组件与微信和极简未来平台交互。 使用 Docker 部署 COW 组件的原因: Docker 提供隔离运行环境,确保应用在任何环境稳定运行,简化安装和配置过程,保证环境一致,便于管理和维护。 配置多个前缀触发机器人回复的原因: 配置如“bot”、“@bot”等多个前缀,能确保机器人只在特定情况回复,避免群聊或私聊中频繁干扰,提高响应准确性和用户体验。 扫码登录失败的解决办法: 1. 重启 Docker 容器:在宝塔面板中找到对应容器,点击“重启”。 2. 检查网络连接:确保服务器和微信客户端能正常访问互联网。 3. 重新扫描二维码:等待容器重启后,重新扫描日志中生成的二维码。 费用相关: 使用 AI 微信聊天机器人的费用实际上不高,极简未来平台按使用量收费,对一般用户费用相对低廉,充值少量费用通常可用很长时间,且平台提供每天签到免费领积分福利,进一步降低使用成本。使用极简未来平台创建 AI 机器人的具体费用未明确给出。
2024-10-20
我想在云服务器部署使用 dify 和 comfyui ,云服务器机器配置需要什么要求呢
在云服务器部署使用 Diffy 和 ComfyUI ,云服务器机器配置要求如下: 1. 系统:Windows 7 以上。 2. 显卡要求:NVIDIA 独立显卡且显存至少 4G 起步。但 SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 硬盘:留有足够的空间,最低 100G 起步(包括模型)。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD(固态硬盘)上。 4. 内存:最低 32GB,越高越好,最低配会经常爆显存。 需要注意的是,ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。如果您的电脑能顺畅清晰地玩 3A 游戏,那玩 WebUI 和 ComfyUI 通常也没问题。配置上不封顶,根据自己的需求和预算来选择即可。
2024-10-19