Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

RAG构建本地知识库

Answer

RAG(Retrieval Augmented Generation,检索增强生成)是一种利用大模型能力搭建知识库的技术。其主要应用场景是当需要依靠不包含在大模型训练集中的数据时。

一个RAG的应用可以抽象为以下5个过程:

  1. 文档加载:从多种不同来源加载文档,如PDF、SQL、代码等,LangChain提供了100多种不同的文档加载器。
  2. 文本分割:文本分割器把Documents切分为指定大小的块,称为“文档块”或者“文档片”。
  3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将Embedding后的向量数据存储到向量数据库。
  4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。
  5. 输出:把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案。

简单来说,RAG就是大模型+知识库,从广泛的知识库数据中检索相关片段,然后由大模型根据这些内容生成答案。这种方式一方面可以减大模型的幻觉,提高其在特定任务上的表现,更加贴合实际应用的需求,另一方面可以明显提高搜索文档信息和生成回答的效率和体验。

LangChain是一个可以实现RAG的开源框架,它提供一些基础的组件和工具,如知识库管理、文本处理、模型加载等,允许开发人员将大语言模型(LLM)与外部数据源相结合,快速搭建自己的应用。

在实际项目中,比如此次的政府政策问答实践,由于政策的复杂性和传统智能问答产品的局限性,选择LangChain-Chatchat框架构建政策文档的本地知识库,实现大模型基于本地知识库内容生成回答,为用户提供政策问答和解读服务,节省查找和理解政策的时间。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

开发:产品视角的大模型 RAG 应用

为了方便理解后面的内容,这里先对LangChain-Chatchat框架和实现原理做一个简单的介绍。由于本文非技术向梳理,详细介绍就不展开,感兴趣可参考:https://www.langchain.com.cn/[heading3]1、名词解释[content]RAG:即Retrieval-Augmented Generation,搜索增强生成,简单来说就是大模型+知识库,从广泛的知识库数据中检索相关片段,然后由大模型根据这些内容生成答案。这种方式,一方面可以减大模型的幻觉,提高其在特定任务上的表现,更加贴合实际应用的需求,另一方面可以明显提高搜索文档信息和生成回答的效率和体验,因此称为搜索增强生成。LangChain:是一个可以实现RAG的开源框架,它提供一些基础的组件和工具,如知识库管理、文本处理、模型加载等,允许开发人员将大语言模型(LLM)与外部数据源相结合,快速搭建自己的应用。LangChain-Chatchat:原Langchain-ChatGLM,是在LangChain基础上构建的一个具体应用,使用了LangChain的组件和工具,并结合了其他一些技术和库(如FastAPI、Streamlit等),来构建基于LLM的本地知识库问答系统,其目标是建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。

开发:产品视角的大模型 RAG 应用

此次实践做的是政府政策问答。对政策面向对象而言,从最开始的判断自身可申报的政策、找到政策原文、到解读政策、准备材料进行申报等各个节点,都存在一定的困难。因此,市面上也有许多提供政策咨询和申报服务的中介机构。由于政策之间关系复杂、政策条文拆解门槛高、政策语义理解难度大、用户面向政策咨询的问法多等多种原因,传统的智能问答产品很难实现政府政策的智能问答。而大模型能学习大量文本数据、能捕捉和理解问题的上下文,具有超强的泛化和生成自然语言的能力。同时区别于传统的智能问答系统,大模型通过预训练和微调的方式,减少了对人工标注数据的需求,这也大大增加了落地应用的可行性。大模型的出现,似乎为政策问答带来了新的曙光。因此,我们选择LangChain-Chatchat框架,构建政策文档的本地知识库,实现大模型基于本地知识库内容生成回答,为用户提供政策问答和解读服务,节省查找和理解政策的时间。

Others are asking
企业级rag系统开发框架
企业级 RAG 系统开发框架如下: 首先,通过数据预处理引擎(如 Unstructured)将企业无结构文件(如 PDF、幻灯片、文本文件)从数据孤岛(如 Google Drive 和 Notion)加载、转换为 LLM 可查询格式,并将这些文件“分块”成更小的文本块,以实现更精确的检索,然后作为向量嵌入和存储在数据库(如 Pinecone)中。 当用户提出问题时,系统会检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM。LLM 会从检索到的上下文中合成答复返回给用户。 在实际生产中,AI 应用程序具有更复杂的流程,包含多个检索步骤和“提示链”,不同类型的任务并行执行多个“提示链”,然后将结果综合在一起生成最终输出。 RAG 是检索增强生成(Retrieval Augmented Generation)的简称,概括起来是知识检索+内容生成,主要组成包括数据提取、embedding(向量化)、创建索引、检索、自动排序(Rerank)、LLM 归纳生成。其核心在于能否将内容检索得又快又准。 RAG 的优势在于: 大语言模型技术存在输出结果不可预测、知识有截止日期、无法满足实际业务需求等问题,而 RAG 可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。 RAG 可以和微调结合使用,两者并不冲突。微调适用于模型需要复制特定的结构、样式或格式时,RAG 适用于模型需要回答特定的询问或解决特定的信息检索任务。但 RAG 不适合教模型来理解广泛的领域或学习新的语言、格式或样式。 同时,通用的基础大模型无法满足实际业务需求的原因包括: 知识的局限性:模型自身的知识源于训练数据,对于实时性、非公开或离线的数据无法获取。 幻觉问题:大模型基于数学概率的文字预测,存在提供虚假、过时、通用或低可信度信息的情况。 数据安全性:企业重视数据安全,不愿承担数据泄露风险将私域数据上传第三方平台训练。
2025-03-08
RAG内LLM的主要作用,简单概括
RAG(检索增强生成)中LLM(大语言模型)的主要作用包括: 1. 利用外部检索到的知识片段生成更符合要求的答案。由于LLM无法记住所有知识,尤其是长尾知识,且知识容易过时、不好更新,输出难以解释和验证,容易泄露隐私训练数据,规模大导致训练和运行成本高,通过RAG为LLM提供额外且及时更新的知识源,有助于生成更准确和有用的回答。 2. 在RAG的工作流程中,LLM接收整合后的知识片段和特定指令,利用其推理能力生成针对用户问题的回答。 3. 事实性知识与LLM的推理能力相分离,LLM专注于运用推理能力处理外部知识源提供的信息。
2025-03-08
RAG是什么,简单概括
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 简单来说,它通过检索的模式为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 RAG 对于 LLM 来说很重要,因为 LLM 存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。 而 RAG 具有一些优点,如数据库对数据的存储和更新稳定,数据更新敏捷且可解释,能降低大模型输出出错的可能,便于管控用户隐私数据,还能降低大模型的训练成本。 RAG 概括起来是知识检索+内容生成,可以理解为大模型的开卷考试,其主要组成依次是数据提取、embedding(向量化)、创建索引、检索、自动排序(Rerank)、LLM 归纳生成。其核心在于能否将内容检索得又快又准。 推荐阅读: 如何让 LLM 应用性能登峰造极:https://mp.weixin.qq.com/s/Kr16ub_FN6pTF6acse6MA 大模型主流应用 RAG 的介绍——从架构到技术细节: https://luxiangdong.com/2023/09/25/ragone/ 高级 RAG 技术:图解概览: https://baoyu.io/translations/rag/advancedragtechniquesanillustratedoverview
2025-03-08
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源(如维基百科),这些文档作为上下文和原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-03-06
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 的研究人员引入了 RAG 方法来完成这类任务,它把信息检索组件和文本生成模型结合在一起,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 会接受输入并检索相关支撑文档,给出来源,这些文档作为上下文和原始提示词组合送给文本生成器得到最终输出,能适应事实随时间变化的情况,让语言模型获取最新信息并生成可靠输出。 LLM(大语言模型)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库对数据的存储和更新稳定且无学习风险、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-03-06
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-03-06
如何打造自己的知识库
打造自己的知识库可以参考以下方法: 1. 使用 GPT 打造个人知识库 利用 embeddings 技术:将文本转换成向量,节省空间,可理解为索引。把大文本拆分成小文本块,通过 embeddings API 转换为向量并保存。当用户提问时,将问题也转换为向量,与储存库中的向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API。 理解 embeddings:embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。 注意 GPT3.5 一次交互支持的 Token 数量有限,OpenAI 提供了 embedding API 解决方案。 2. 智慧课程培育建设中的方法 学习有效地收集、整理和检索信息。 进行知识管理,通过实际操作体验工具在教学准备和科研中的应用。 实践演示,如直接让 Claude 生成可视化概念图。 每天的具体操作,如早晚速读朋友圈文章、编写小代码和脚本、转换和呈现数据、从图像和图形中提取数据、翻译和改换风格、总结视频内容、作为私人导师探究问题等。 分新闻、观点、访谈、论文翻译来进行提炼,使用通义听悟整理录音笔记等工具。 利用各种相关网站和工具,如 https://tingwu.aliyun.com、https://ollama.com、https://snapbox.app、https://opencat.app、https://chathub.gg/、https://www.elmo.chat/、https://memo.ac/zh/ 等。 下载视频或录制视频文件,如用 Downie(Mac)、IDM(Windows)、OBS 等工具。
2025-03-11
如何搭建精准回答的本地知识库
搭建精准回答的本地知识库可以参考以下步骤: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入知识库页面,并单击创建知识库。 4. 在弹出的页面配置知识库名称、描述,并单击确认。需注意一个团队内的知识库名称不可重复,必须是唯一的。 5. 在单元页面,单击新增单元。 6. 在弹出的页面选择要上传的数据格式(默认是文本格式),然后选择一种文本内容上传方式完成内容上传。 如果想要对知识库进行更加灵活的掌控,可以使用额外的软件AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在AnythingLLM中有一个Workspace的概念,可以创建自己独有的Workspace跟其他的项目数据进行隔离。具体操作如下: 1. 首先创建一个工作空间。 2. 上传文档并且在工作空间中进行文本嵌入。 3. 选择对话模式,AnythingLLM提供了两种对话模式: Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案。 Query模式:大模型仅仅会依靠文档中的数据给出答案。 4. 测试对话。
2025-03-11
怎么和特定知识库对话
要和特定知识库对话,有以下几种方式: 1. 在 Bot 内使用知识库: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量(Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多)、最小匹配度(Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回)、调用方式(自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据)。 (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 2. 在工作流内使用 Knowledge 节点: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 如果想要对本地知识库进行更加灵活的掌控,可以使用额外的软件 AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后,进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。首先创建一个工作空间,然后上传文档并且在工作空间中进行文本嵌入,选择对话模式,包括 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案),完成上述配置后就可以跟大模型进行对话。 在创建名字写对联教学的智能体时,建议选择工作流的对话模式,创建一个工作流对话模式的智能体,注意一定要在开始调整工作流节点之前切换模式,因为切换成对话模式会将工作流清空,重置为对话模式默认节点。根据需求分析确认分支情况,包括根据名字和祝福写对联、根据幸运数字写对联的特定分支以及默认分支。通过理解用户意图进行分支,注意将意图介绍写清楚、准确。在幸运数字分支中,先用代码分支获取用户输入的数字,然后匹配知识库,再对匹配的春联做赏析。在名字写祝福分支中,根据用户输入的名字和祝福信息,调试提示词生成对应对联并输出。设置通用兜底回复,在用户不符合前两个意图时进行友好回复,首先匹配知识库,然后让大模型结合匹配结果、历史记录、当前输入,输出符合对话内容的回复。同时,知识库是使用大模型生成的 100 对对联,都比较好看、经典、有意义。
2025-03-10
如何建立个人知识库
建立个人知识库可以通过以下方式: 1. 利用 GPT 打造个人知识库: 将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,将问题转换成向量,与向量储存库中的向量比对,提取距离最小的几个向量对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如,对于“此文作者是谁?”的问题,通过比较 embeddings 向量,提取关联度高的文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。”,发送给 GPT API 以获得回答。 2. 本地部署大模型以及搭建个人知识库: 了解 RAG(检索增强生成)技术,它是利用大模型的能力搭建知识库的应用。 RAG 应用包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)等 5 个过程。 文本加载器用于将用户提供的文本加载到内存中,便于后续处理。 3. 基于 GPT API 搭建定制化知识库: 由于 GPT3.5 一次交互支持的 Token 数量有限,OpenAI 提供了 embedding API 解决方案。 Embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。
2025-03-10
最强AI办公提示词知识库,公益
以下是关于最强 AI 办公提示词知识库的相关信息: 一、提示词与知识库的概念 提示词是告诉全知全能的大语言模型其角色和要专注的技能,使其能按需求变成特定“员工”。知识库则相当于给“聪明员工”发放的工作手册,包含特定的工作相关内容,如《爱情公寓》全季剧情等。 二、相关资源 1. 画小二的相关内容: 如何写好提示词是创建智能体第一步,包括打破砂锅者、董宇辉的小作文等部分。 提示词网站分享,如 Learn Prompting(https://learnprompting.org/docs/intro )、AI Short(https://www.aishort.top/en/ )、AIPRM(https://www.aiprm.com/prompts/ )、Prompt Library(https://promptlibrary.org/ )。 延伸阅读,如人人都能懂的 Prompt 技巧:FewShots、COT、SC、TOT、StepBack(https://blog.csdn.net/oWuChenHua/article/details/135125891 )。 学习交流群和手把手教学,包括会员详细教程(https://m.qlchat.com/topic/details?topicId=2000022058296055 )及 AIGC 商业案例实操课海报。 2. 扣子提供的功能: 提示词(人设与回复逻辑功能),设定 Bot 的身份、目标和技能。详情参考 。 插件,通过 API 连接集成各种平台和服务。详情参考 。 工作流,用于规划和实现复杂功能逻辑。详情参考 。 记忆库,包括知识库(支持上传本地或线上内容并分割成知识分片)和数据库(存储和管理结构化数据)。知识库详情参考 。 希望以上信息对您有所帮助。
2025-03-10
我是IVD企业的技术中心主任,我想构建我们技术中心的知识库,有什么AI工具可以帮我实现
以下是一些可以帮助您构建技术中心知识库的 AI 工具及相关步骤: Dify 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建新的数据集,上传准备好的文档,并为数据集编写清晰的描述,说明其包含的内容和特点。 3. 配置索引方式:Dify 提供了高质量模式、经济模式和 Q&A 分段模式三种索引方式,您可根据实际需求选择,如追求更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代,定期更新知识库,增加新内容以保持时效性。 其他相关场景和应用 1. 提示词帮您规划 PARA 分类模式:PARA 代表项目(Projects)、领域(Areas)、资源(Resources)和档案(Archives)。AI 可通过分析您的工作模式和内容类型,自动生成提示词,帮助您将信息和知识分类到 PARA 的相应部分,简化分类过程,更快组织和检索信息。 2. 提示词帮您设计笔记标签系统:AI 能通过分析您的笔记内容和使用习惯,推荐合适的标签和标签结构,提高笔记管理和检索效率。 3. 知识助手 Bot 帮您渐进式积累领域知识:例如基于 dify.ai 将数百个思维模型整合成一个知识库,根据不同的对话和条件判断为用户选择适用的思维模型分析工具,封装成一个智能分析的 Bot,能根据您的学习进度和兴趣点,定期推送相关文章、论文和资源,持续扩展知识边界并确保知识及时更新。
2025-03-09
构建企业智能客服的方案有哪些
构建企业智能客服的方案主要包括以下几种: 1. 帮助企业快速建立产品智能客服体系,通过用户意图识别、知识库检索答案、AI 大模型总结输出答案、多轮对话沟通、对话分析打标、自动更新知识库 FAQ 以及客服效果分析,提供全面的 AI 客服解决方案,提高 AI 客服回答的准确率,降低企业商用 AI 客服的门槛。 2. 采用开源或者国内智谱、文心、百川等企业提供的 13B 级模型,本地部署在自己的内部系统中,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,在智能客服上实现 RPA 自动流程。 3. 可以转化为 LLM 技术支持方,专注发力 LLM 的工程化应用方向,为企业提供更好的 LLM 本地部署和工程化,走 IBM 的企业服务道路。 4. 转变赛道,例如像智齿客服一样,借助国内出海的兴起以及中东、东南亚需求的旺盛,提供在这个方向的智能客服国内服务。 5. 转向 LMops 方向,虽然当前挺有用,比如做复杂 prompt 的多模型效果测试,做 langchain 的可视化设计,但也存在一些隐患点需要思考。 以下是一些具体的应用案例: 1. 如 Grammarly、秘塔写作猫等 AI 智能写作助手,利用自然语言处理技术辅助用户进行高质量写作。 2. 淘宝拍照搜商品,通过图像识别为用户推荐相似商品。 3. 小爱同学、Siri 等 AI 语音助手定制开发,采用语音识别、自然语言理解技术,为不同需求定制专属语音助手。 4. Keep 智能训练计划,利用数据分析、机器学习技术,根据用户数据制定个性化健身方案。 5. 大众点评智能推荐,基于数据挖掘、自然语言处理技术,基于用户口味偏好推荐美食。 6. 阿里小蜜等电商客服,通过自然语言处理、机器学习技术,为企业提供智能客服解决方案。
2025-03-11
有什么构建类似键鼠精灵 AI工作流的方法
以下是构建类似键鼠精灵 AI 工作流的一些方法: 1. 利用 Comfyui 界面: 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以手动连接节点来实现工作流,例如实现一个最简单的 AI 女友工作流;也可以直接将相关工作流文件(如)拖拽到 Comfyui 界面中一键复刻。 2. 启动 ollama: 从 ollama 的 github 仓库找到对应版本并下载。 启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 如果 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 3. 低代码+UI 版本: 方法一:直接使用 Coze 的 API 对接前端 UI 框架,将工作流逻辑集中在工程模板端,实现前后端分离的处理方式。 方法二:直接调用大模型 API,并通过前端代码实现提示词处理和逻辑控制,将交互流程完全放入前端代码中。 实现文件上传:通过 Coze 的,用户可将本地文件上传至 Coze 的云存储。在消息或对话中,文件上传成功后可通过指定 file_id 来直接引用该文件。 关于 API 的使用及工作流执行流程可以参考。 4. 飞书机器人创建: 飞书应用建立: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 获取群组或用户 id: 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg 。
2025-03-08
工作流构建
以下是关于工作流构建的相关内容: Comfyui 界面的工作流搭建: 1. 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录。您既可以学习如何手动连接节点来实现一个最简单的 AI 女友工作流,也可以直接将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。如果 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 公众号内容自动总结并推送的工作流搭建: 1. 双击画板查看高清大图,此图很重要,可结合后边的具体细节反复查看。 2. 在开始节点输入 server 酱的 sendkey 和 rss 列表。其中,key 为 server 酱的 sendkey,获取方式参看文档「相关资源」部分;rss_list 为 rss 列表,没有的可以先白嫖提供的测试数据。 3. 使用「文本处理」节点处理输入的 rss 列表,处理为一行一个,输出为数组,方便后边节点批处理。 4. 读取用户输入的 rss 列表中的内容,在插件中找到链接读取节点。配置节点时选择批处理,批处理输入参数选择「分割 rss 列表」的 output,下方输入参数中 url 选择当前节点中的 item1。 5. 汇总 RSS 中所有文章内容。使用「代码」节点,左侧节点选择代码,输入项选择上一步中输出的 outputList,点击「在 IDE 中编辑」,选择「Python」,输入相应代码。配置输出项时,类型选择「Array<Object>」,点击右边的小加号,分别输出 title、url、author。 其他工作流相关内容: 1. 阿里云百炼工作流应用与模型介绍及作业布置,包括智能体与工作流的区别、工作流应用新建的类型、多模态模型工作流节点的操作、作业布置的要求和发布渠道等。 2. 工作流相关知识讲解,涵盖工作流类型差异、大模型使用、知识库创建等方面。 3. 工作流构建的步骤,如添加 Markdown 标题、输入内容、放入模型输出等,还提到不同场景下文字校对工作流的差异。 4. 模型能力应用方式和理解,包括语言翻译、图片识别、根据用户语言回复等。 5. 模型部署方式,提及智能体的发布与消耗 token 的情况,以及本地部署、蒸馏模型部署的相关内容。 6. 开源模型情况,介绍了通义万象的开源版本等。
2025-03-08
coze构建知识库
构建 Coze 知识库的步骤如下: 1. 手动清洗数据: 在线知识库:点击创建知识库,创建画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以“”分割,选择飞书文档、自定义的自定义,输入“”,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容以提高训练数据准确度,将海报内容训练到知识库中。例如画小二 80 节课程分为 11 个章节,先放入大章节名称内容,再按固定方式细化处理,然后选择创建知识库自定义清洗数据。 2. 发布应用:点击发布,确保在 Bot 商店中能够搜到。 3. 标准流程搭建产品问答机器人: 收集知识:确认了解知识库支持的数据类型,收集知识通常有三种方式,包括企业或个人沉淀的 Word、PDF 等文档,企业或个人沉淀的云文档(通过链接访问),互联网公开的一些内容(可安装 Coze 提供的插件采集)。 创建知识库:路径为个人空间知识库创建知识库,支持本地文档、在线数据、飞书文档、Notion 等文档类型,本次可使用本地文档,按照操作指引上传文档、分段设置、确认数据处理,可使用特殊分割符“”,分段标识符号选择“自定义”,内容填“”。 希望以上内容对您有所帮助。
2025-03-04
利用大模型构建系统的工具
以下是关于利用大模型构建系统的工具的相关内容: 大模型的发展历程: 2017 年发布的 Attention Is All You Need 论文是起源。 2018 年,Google 提出 BERT,其创新性地采用双向预训练并行获取上下文语义信息和掩码语言建模,开创了预训练语言表示范式,参数规模为 110M 到 340M。 2018 年,OpenAI 提出 GPT,开创了仅使用自回归语言建模作为预训练目标而无需额外监督信号,展示了强大的语言生成能力,参数规模达 1750 亿。 2021 年,Meta 提出 Large LAnguage Model Approach(LLAMA),这是首个开源模型,为构建更大规模、更通用的语言模型提供了系统化的方法与工具,参数规模为十亿到千亿。 Inhai:Agentic Workflow:AI 重塑了我的工作流: 以 Kimi Chat 为例,它利用「网页搜索」工具在互联网上检索相关内容,并基于检索结果进行总结分析,给出结论。同时,PPT 中介绍了众多不同领域类型的工具,为大模型在获取、处理、呈现信息上做额外补充。 Planning:Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。例如,先识别男孩姿势,再使用相关模型合成女孩图像,接着使用图像理解文本模型,最后语音合成输出。 Multiagent Collaboration:吴恩达通过开源项目 ChatDev 举例,可让大语言模型扮演不同角色相互协作,共同开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演 Agent 的“大脑”。规划包括子目标分解、反思与改进,将大型任务分解为较小可管理的子目标处理复杂的任务,反思和改进指对过去行动进行自我批评和自我反思,从错误中学习并改进未来步骤,提高最终结果质量。记忆用于存储信息。 开发:LangChain 应用开发指南 大模型的知识外挂 RAG: LangChain 是专注于大模型应用开发的平台,提供一系列组件和工具构建 RAG 应用: 数据加载器:从数据源加载数据并转换为文档对象,包含 page_content 和 metadata 属性。 文本分割器:将文档对象分割成多个较小的文档对象,方便后续检索和生成。 文本嵌入器:将文本转换为嵌入,用于衡量文本相似度实现检索。 向量存储器:存储和查询嵌入,通常使用索引技术加速检索。 检索器:根据文本查询返回相关文档对象,常见实现是向量存储器检索器。 聊天模型:基于大模型生成输出消息。 使用 LangChain 构建 RAG 应用的一般流程如下:(具体流程未给出)
2025-02-28