Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

什么是知识库

Answer

知识库是指大量的知识分片,通过语义匹配为模型补充知识。例如,在 Coze 中,支持上传私有化数据(如本地文件、实时在线数据),通过向量搜索来检索最相关的内容,以便更精确地回答用户的问题。

我们都知道,大模型通常基于公开数据训练,不包含特定领域私有数据,如公司规章制度、项目信息等。但通过配置私有知识库,可让大模型依据提供的内容回答问题,比如将公司制度、项目纪要等制作成知识库,大模型就能据此回答相关问题。

在专家系统中,知识库代表某个问题领域的长期知识,它从人类专家那里人工提取,不会因外部咨询而改变,由于能让我们从一个问题状态前往另一个问题状态,也被称为动态知识。

知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。但使用知识库也存在一些限制,如在 Coze 中,单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。

Content generated by AI large model, please carefully verify (powered by aily)

References

Coze - 打造 AI 私人提效助理实战知识库

创作者:@这显得我很呆昂@千钧一发之际Coze支持上传私有化数据(如本地文件、实时在线数据),通过向量搜索来检索最相关的内容,以便更精确地回答用户的问题。[heading2]什么是知识库?[content]我们都知道,大模型是基于公开的数据来训练的,不包含某个特定领域的私有数据,比如大模型肯定不知道你们公司的规章制度是什么、你在做项目的基本信息以及进度情况。但是通过配置私有知识库,就可以让大模型仅仅根据我们提供的内容来回答问题,比如我们把公司的制度或者项目的会议纪要、资料等信息,制作成知识库,大模型就可以根据知识库的内容,来回答我们关于公司制度或者是项目的相关问题。知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。[heading2]知识库Bot的实现原理[content]数据分段储存:由于大模型的上下文长度是有限制的,所以大模型首先会将我们上传的资料,根据特定的符号或者字符长度进行分段,比如一篇8000字的文档,他会按照每800字分成一个片段,一共分成10个片段,储存起来。增强检索:当用户输入一个问题,大模型就会根据相似度,检索出若干个最相关的数据片段,最后再根据这些内容,生成用户的答案,这个技术我们通常称为RAG(检索增强生成)。延伸阅读:[什么是RAG技术](https://icloudnative.io/posts/what-is-rag/)使用限制单用户最多创建1000个知识库。文本类型知识库下最多支持添加100个文档。单用户每月最多新增2 GB数据,累计上限是10 GB。

概述

扣子提供了以下几种方式来存储和记忆外部数据,这样Bot便可以使用这些外部数据来精准回复用户。知识库:是大量知识分片,通过语义匹配,给模型补充知识。以车型数据为例,每个知识库的分段中,保存了一种车型的基础数据。当用户问宝马X3的售价是多少?,能匹配到对应车型的分段,然后模型从中获取到售价信息。数据库:类似传统软件开发的数据库功能,以表格结构存储信息,通过NoSQL方式使用。目前提供的是关系型数据库,下面列举一些应用场景:AI便签:记录用户提交的便签,支持提交、查询操作,这些操作都是通过NL2SQL完成。单词本:记录用户背过哪些单词,其中哪些单词还没有记住等。

知识表示和专家系统

符号人工智能的早期成就之一是专家系统——为充当某个有限问题领域的专家而设计的计算机系统。它们基于从一个或多个人类专家那里提取的知识库,并包含一个推理引擎,在此基础上进行推理。专家系统就像人类的推理系统一样,包含短期记忆和长期记忆。同样,在以知识为基础的系统中,我们会区分以下几个部分:问题记忆(Problem memory):包含与当前要解决的问题有关的知识,如病人的体温或血压、是否有炎症等。这种知识也被称为静态知识(static knowledge),因为它包含了快照信息,记录着我们在当前状态下对问题的了解——即所谓的问题状态(problem state)。知识库(Knowledge base):代表某个问题领域的长期知识。它是从人类专家那里人工提取的,不会因外部的咨询而改变。由于它允许我们从一个问题状态前往另一个问题状态,因此也被称为动态知识(dynamic knowledge)。推理引擎(Inference engine):协调在问题状态空间中搜索的整个过程,必要时向用户提问。它还负责找到适用于每个状态的正确规则。举例来说,下面这个专家系统是根据动物的物理特征来判断动物的:这种图称为AND-OR树,是一组产生式规则的图形表示。在从人类专家那里提取知识的早期阶段,绘制树形图非常有用。要在计算机中表示知识,使用规则更为方便:你可以注意到,规则左侧的每个条件和操作本质上都是对象-属性-值(OAV)三元组。工作记忆包含与当前要解决的问题相对应的OAV三元组。规则引擎会查找满足条件的规则,并应用这些规则,从而向工作记忆中添加另一个三元组。✅为你喜欢的主题写一个AND-OR树!

Others are asking
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26
flowith知识库的用法
Flowith 知识库的用法包括以下方面: 1. 拆解创作任务: 将复杂的创作任务拆解到合适的颗粒度,为 AI 提供指导,例如拆解创作“科幻预见未来”的步骤。 明确关键任务节点和围绕其展开的主线任务。 2. 建立定向知识库: 将相关内容导入到 flowith 的知识花园中作为 AI 可调用的知识库,例如将《梦想与颠覆》卡牌的相关内容转化为文字上传。 打开智能拆分模式,让 AI 自动分析和优化拆分逻辑,形成知识“种子”。 激活知识库后,AI 会启用知识关联功能,使输出内容更具针对性。 可以发布或分享自己的知识库,也可在知识市场中使用他人的。 3. 构建知识库: 选择“Manage Your Knowledge Base”进入知识库管理页面。 点击左上角的加号添加新的知识库,并起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 处理文件。 4. 选择知识库提问: 在页面左侧可看到检索资料的来源,并可点击显示按钮展现所有原始信息。 Flowith 可以进行“可视化”的追问,能明确看到问答之间的序列关系。 可以在画布上平行提问,默认延续前面的问题,鼠标点击画布其他部分可新开问题。 不同的提示词面对同样的上下文会有不同结果,详细和强化的提示词能使答案更聚焦、详细。
2025-03-26
用扣子的时候怎么让大模型严格按照知识库内容进行输出
以下是关于让大模型严格按照知识库内容进行输出的相关信息: 扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法。在智能体中使用知识库,收集相关内容,当智能体回答用户时会先检索知识库,使回复更准确。 在“掘金 x 扣子 Hackathon 活动 深圳站”的总冠军工作流中,对于用户向小说人物角色的提问,通过一系列节点,包括开始节点接收问题、知识库节点检索、大模型节点生成答案等,本质上是一个根据用户 query 进行检索增强生成(RAG)的任务,每个工作流中都嵌入了知识库节点,维护了如小说合集等知识库。 大模型节点是调用大语言模型,使用变量和提示词生成回复。按需选择基础版或专业版模型,基础版支持扣子预设的一批模型资源,专业版除默认添加的豆包模型外,还支持按需接入火山引擎方舟平台的模型资源。模型选择右下角生成多样性可从多个维度调整不同模型在生成内容时的随机性,有精确模式、平衡模式和创意模式等预置模式。输入方面,开启智能体对话历史后,上下文信息将自动携带进入大模型,参数名可随意设置但建议有规律,变量值可引用前面链接过的节点的输出或进行输入。
2025-03-26
是什么类似本地知识库的模型
本地知识库相关的模型主要涉及 RAG(Retrieval Augmented Generation,检索增强生成)技术。以下是对 RAG 技术的详细介绍: 背景:大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG 技术发挥作用。 过程: 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片提交给 LLM,生成更合理的答案。 如果想要对本地知识库进行更灵活的掌控,可以使用额外的软件 AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 选择大模型。 2. 选择文本嵌入模型。 3. 选择向量数据库。 在 AnythingLLM 中有 Workspace 的概念,可以创建独有的 Workspace 与其他项目数据隔离。构建本地知识库的步骤包括: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 4. 测试对话。 在一个政府政策问答的项目实践中,由于传统智能问答产品在政策咨询方面存在困难,而大模型具有诸多优势,选择 LangChainChatchat 框架构建政策文档的本地知识库,实现基于本地知识库内容生成回答,为用户提供政策问答和解读服务。
2025-03-26
你这个知识库和检索是用什么搭建的?
我们的知识库和检索主要基于以下原理和流程搭建: 1. 文本预处理:包括去除无关字符、标准化文本(如将所有字符转换为小写)、分词等,以清洁和准备文本数据。 2. 嵌入表示:将预处理后的文本(词或短语)转换为向量。通常通过使用预训练的嵌入模型,如 Word2Vec、GloVe、BERT 等,将每个词或短语映射到高维空间中的一个点(即向量)。 3. 特征提取:对于整个问题句子,可能应用进一步的特征提取技术,比如句子级别的嵌入,或使用深度学习模型(如 BERT)直接提取整个句子的表示,以捕捉句子的上下文信息。 4. 向量优化:在某些情况下,问题的向量表示可能会根据具体任务进行优化,例如通过调整模型参数来更好地与检索系统的其他部分协同工作。 在知识库检索阶段: 1. 首先需要有一个知识库。在大模型的检索中,并非依靠传统的关键字搜索,而是依靠问题在空间中的向量位置,去寻找距离这个向量最近的其他词句,然后完成检索。 2. 要在向量中进行检索,我们的知识库会被转化成一个巨大的向量库。具体流程包括文档向量化、文档加载(从多种不同来源加载文档)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量的形式,并将向量数据存储到向量数据库)、检索(通过某种检索算法找到与输入问题相似的嵌入片)以及输出(把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起生成更加合理的答案)。
2025-03-25
构建知识库有什么要注意的?
构建知识库时需要注意以下几点: 1. 在使用在线检索流程生成结果时: 重排序的结果通常因大模型上下文有限制而不会都被使用,可以设置阈值进行截断,如只使用前 3 5 个文档,或只取相关性分数大于某个值的文档。 一些先进的 RAG 系统会对选中的文档进行摘要或压缩,以在有限空间内包含更多相关信息。 2. 对于后置处理,可能包括敏感内容检测和移除、格式化输出等。 3. 创建智能体的知识库时: 手动清洗数据可提高准确性,如创建画小二课程的 FAQ 知识库时,飞书在线文档中每个问题和答案以分割。 对于本地文档,不能一股脑全部放进去训练,应先放入大的章节名称内容,再按固定方式细化处理。 4. 使用 Coze 搭建知识库时: 文档的分片策略会严重影响查询结果,RAG 方案存在跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等问题。 希望以上内容对您有所帮助。
2025-03-25