Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

知识库

Answer

以下是关于知识库的相关内容:

在 Coze 中配置知识库

  • 创建好知识库后,可在智能体中进行配置。在 Coze 主页的个人空间->项目开发中,打开需添加知识库的智能体,能选择配置“文本”、“表格”、“照片”三种知识库。以配置文本知识库为例,点击加号选择提前创建好的知识库并添加。之后配置提示词让智能体自动使用知识库回答问题,点击右上角“优化”可自动优化提示词以获得更好结果,最后在“预览与调试”中测试智能体是否正常调用知识库。
  • 创建智能体时的知识库:
    • 手动清洗数据:创建画小二课程的 FAQ 知识库,飞书在线文档中每个问题和答案以###分割,可选择飞书文档、自定义等操作,添加 Bot 后可在调试区测试效果。
    • 本地文档:注意拆分内容以提高训练数据准确度,如对于画小二课程,按章节进行人工标注和处理,然后选择创建知识库自定义清洗数据。
    • 发布应用:点击发布,确保在 Bot 商店中能搜到。

知识库概述: 扣子提供了几种存储和记忆外部数据的方式,以便 Bot 精准回复用户。知识库是大量知识分片,通过语义匹配为模型补充知识,如车型数据中每个分段保存一种车型基础数据。同时还介绍了数据库、AI 便签、单词本等相关内容。

Content generated by AI large model, please carefully verify (powered by aily)

References

Coze - 打造 AI 私人提效助理实战知识库

在上述步骤中创建好知识库后,就可以在智能体中配置知识库了。在coze主页,个人空间->项目开发中,打开一个需要添加知识库的智能体,可以选择配置“文本”、“表格”、“照片”三种知识库。下面以配置文本知识库作为例子。点击加号,选择在1.3中已经提前创建好的知识库,点击添加。如下图所示,例子中已经成功添加了“格林童话1”知识库。下一步就是配置提示词,让智能体自动使用知识库回答问题。如下图,注意此时为单Agent(LLM模式)。在进行大概地描述以后,点击右上角“优化”,可以自动优化提示词,获得更好的结果,优化结果如下图:最后,在网页最右方的“预览与调试”中,测试智能体是否正常调用知识库:(例子中手动添加了背景图)测试正常,智能体成功调用了格林童话知识库,并返回了希望的结果。

【智能体】让Coze智能体机器人连上微信和微信群详细配置文档

本次创建知识库使用手动清洗数据,上节课程是自动清洗数据:[【智能体】用Coze在微信里搭建一个机器人,还能挖掘销售线索](https://a1i1hjmvcf0.feishu.cn/docx/JSdDd8ybLo7OHqxmePwcHlbLn3b?from=from_copylink),自动清洗数据会出现目前数据不准的情况,本节视频就尝试使用手动清洗数据,提高数据的准确性。[heading3]3.1在线知识库[content]点击创建知识库,创建一个画小二课程的FAQ知识库知识库的飞书在线文档,其中每个问题和答案以###分割,暂时不要问为什么。选择飞书文档选择自定义的自定义输入###然后他就将飞书的文档内容以###区分开来,这里可以点击编辑修改和删除。点击添加Bot添加好可以在调试区测试效果[heading3]3.2本地文档[content]本地word文件,这里要注意了~~~如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面画小二这个课程80节课程,分为了11个章节,那训练数据能不能一股脑全部放进去训练呢。答案是~~不能滴~~~正确的方法,首先将11章的大的章节名称内容放进来,如下图所示。章节内详细内容格式如下如所示,如果你再分节的内容,依次类推细化下去。每个章节都按照这种固定的方式进行人工标注和处理然后选择创建知识库自定义清洗数据,这里不再赘述。[heading3]3.3发布应用[content]点击发布确保在Bot商店中能够搜到,如图所示可以搜索到画小二智能小助手,这个很重要,没有通过发布的获取不到API的。

概述

扣子提供了以下几种方式来存储和记忆外部数据,这样Bot便可以使用这些外部数据来精准回复用户。知识库:是大量知识分片,通过语义匹配,给模型补充知识。以车型数据为例,每个知识库的分段中,保存了一种车型的基础数据。当用户问宝马X3的售价是多少?,能匹配到对应车型的分段,然后模型从中获取到售价信息。数据库:类似传统软件开发的数据库功能,以表格结构存储信息,通过NoSQL方式使用。目前提供的是关系型数据库,下面列举一些应用场景:AI便签:记录用户提交的便签,支持提交、查询操作,这些操作都是通过NL2SQL完成。单词本:记录用户背过哪些单词,其中哪些单词还没有记住等。

Others are asking
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26
flowith知识库的用法
Flowith 知识库的用法包括以下方面: 1. 拆解创作任务: 将复杂的创作任务拆解到合适的颗粒度,为 AI 提供指导,例如拆解创作“科幻预见未来”的步骤。 明确关键任务节点和围绕其展开的主线任务。 2. 建立定向知识库: 将相关内容导入到 flowith 的知识花园中作为 AI 可调用的知识库,例如将《梦想与颠覆》卡牌的相关内容转化为文字上传。 打开智能拆分模式,让 AI 自动分析和优化拆分逻辑,形成知识“种子”。 激活知识库后,AI 会启用知识关联功能,使输出内容更具针对性。 可以发布或分享自己的知识库,也可在知识市场中使用他人的。 3. 构建知识库: 选择“Manage Your Knowledge Base”进入知识库管理页面。 点击左上角的加号添加新的知识库,并起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 处理文件。 4. 选择知识库提问: 在页面左侧可看到检索资料的来源,并可点击显示按钮展现所有原始信息。 Flowith 可以进行“可视化”的追问,能明确看到问答之间的序列关系。 可以在画布上平行提问,默认延续前面的问题,鼠标点击画布其他部分可新开问题。 不同的提示词面对同样的上下文会有不同结果,详细和强化的提示词能使答案更聚焦、详细。
2025-03-26
用扣子的时候怎么让大模型严格按照知识库内容进行输出
以下是关于让大模型严格按照知识库内容进行输出的相关信息: 扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法。在智能体中使用知识库,收集相关内容,当智能体回答用户时会先检索知识库,使回复更准确。 在“掘金 x 扣子 Hackathon 活动 深圳站”的总冠军工作流中,对于用户向小说人物角色的提问,通过一系列节点,包括开始节点接收问题、知识库节点检索、大模型节点生成答案等,本质上是一个根据用户 query 进行检索增强生成(RAG)的任务,每个工作流中都嵌入了知识库节点,维护了如小说合集等知识库。 大模型节点是调用大语言模型,使用变量和提示词生成回复。按需选择基础版或专业版模型,基础版支持扣子预设的一批模型资源,专业版除默认添加的豆包模型外,还支持按需接入火山引擎方舟平台的模型资源。模型选择右下角生成多样性可从多个维度调整不同模型在生成内容时的随机性,有精确模式、平衡模式和创意模式等预置模式。输入方面,开启智能体对话历史后,上下文信息将自动携带进入大模型,参数名可随意设置但建议有规律,变量值可引用前面链接过的节点的输出或进行输入。
2025-03-26
是什么类似本地知识库的模型
本地知识库相关的模型主要涉及 RAG(Retrieval Augmented Generation,检索增强生成)技术。以下是对 RAG 技术的详细介绍: 背景:大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG 技术发挥作用。 过程: 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片提交给 LLM,生成更合理的答案。 如果想要对本地知识库进行更灵活的掌控,可以使用额外的软件 AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 选择大模型。 2. 选择文本嵌入模型。 3. 选择向量数据库。 在 AnythingLLM 中有 Workspace 的概念,可以创建独有的 Workspace 与其他项目数据隔离。构建本地知识库的步骤包括: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 4. 测试对话。 在一个政府政策问答的项目实践中,由于传统智能问答产品在政策咨询方面存在困难,而大模型具有诸多优势,选择 LangChainChatchat 框架构建政策文档的本地知识库,实现基于本地知识库内容生成回答,为用户提供政策问答和解读服务。
2025-03-26
你这个知识库和检索是用什么搭建的?
我们的知识库和检索主要基于以下原理和流程搭建: 1. 文本预处理:包括去除无关字符、标准化文本(如将所有字符转换为小写)、分词等,以清洁和准备文本数据。 2. 嵌入表示:将预处理后的文本(词或短语)转换为向量。通常通过使用预训练的嵌入模型,如 Word2Vec、GloVe、BERT 等,将每个词或短语映射到高维空间中的一个点(即向量)。 3. 特征提取:对于整个问题句子,可能应用进一步的特征提取技术,比如句子级别的嵌入,或使用深度学习模型(如 BERT)直接提取整个句子的表示,以捕捉句子的上下文信息。 4. 向量优化:在某些情况下,问题的向量表示可能会根据具体任务进行优化,例如通过调整模型参数来更好地与检索系统的其他部分协同工作。 在知识库检索阶段: 1. 首先需要有一个知识库。在大模型的检索中,并非依靠传统的关键字搜索,而是依靠问题在空间中的向量位置,去寻找距离这个向量最近的其他词句,然后完成检索。 2. 要在向量中进行检索,我们的知识库会被转化成一个巨大的向量库。具体流程包括文档向量化、文档加载(从多种不同来源加载文档)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量的形式,并将向量数据存储到向量数据库)、检索(通过某种检索算法找到与输入问题相似的嵌入片)以及输出(把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起生成更加合理的答案)。
2025-03-25
构建知识库有什么要注意的?
构建知识库时需要注意以下几点: 1. 在使用在线检索流程生成结果时: 重排序的结果通常因大模型上下文有限制而不会都被使用,可以设置阈值进行截断,如只使用前 3 5 个文档,或只取相关性分数大于某个值的文档。 一些先进的 RAG 系统会对选中的文档进行摘要或压缩,以在有限空间内包含更多相关信息。 2. 对于后置处理,可能包括敏感内容检测和移除、格式化输出等。 3. 创建智能体的知识库时: 手动清洗数据可提高准确性,如创建画小二课程的 FAQ 知识库时,飞书在线文档中每个问题和答案以分割。 对于本地文档,不能一股脑全部放进去训练,应先放入大的章节名称内容,再按固定方式细化处理。 4. 使用 Coze 搭建知识库时: 文档的分片策略会严重影响查询结果,RAG 方案存在跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等问题。 希望以上内容对您有所帮助。
2025-03-25