直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

RAG是什么

回答

RAG(Retrieval-Augmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。其旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。简单来说,就是通过检索的模式,为大语言模型的生成提供帮助,从而使大模型生成的答案更符合要求。

因为利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,所以在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。

我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,实现这一点的主要方法就是通过检索增强生成 RAG。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。

一个 RAG 的应用可以抽象为以下 5 个过程:

  1. 文档加载(Document Loading):从多种不同来源加载文档。LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。
  2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。
  3. 存储(Storage):存储涉及到两个环节,分别是:
    • 将切分好的文档块进行嵌入(Embedding)转换成向量的形式。
    • 将 Embedding 后的向量数据存储到向量数据库。
  4. 检索(Retrieval):一旦数据进入向量数据库,通过某种检索算法找到与输入问题相似的嵌入片。

LangChain 是一个用于构建高级语言模型应用程序的框架,它提供了一系列的工具和组件,使得开发人员能够更容易地使用大型语言模型(LLM)来创建各种应用程序。RAG 能够为 LLM 提供来自外部知识源的附加信息,使得 LLM 在应对下游任务时能够生成更精确和上下文相关的答案,并减少 LLM 的幻觉现象。LangChain 和 RAG 之间的关系可以概括为:LangChain 的设计主张集中在模块化组件上,这些组件提供用于使用 LLM 的行为抽象,并为每个抽象提供实现的集合,从而允许开发人员构造新链或实现现成的链。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

问:RAG 是什么?

RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,它旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。简单来说,就是通过检索的模式,为大语言模型的生成提供帮助,从而使大模型生成的答案更符合要求。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片

问:LangChain 和 RAG 有什么关系?

LangChain是一个用于构建高级语言模型应用程序的框架,它提供了一系列的工具和组件,使得开发人员能够更容易地使用大型语言模型(LLM)来创建各种应用程序。LangChain的设计主张集中在模块化组件上,这些组件提供用于使用LLM的行为抽象,并为每个抽象提供实现的集合,从而允许开发人员构造新链或实现现成的链。RAG,即检索增强生成(Retrieval-Augmented Generation),是一种结合了检索(检索外部知识库中相关信息)和生成(利用LLM生成文本)的技术。RAG能够为LLM提供来自外部知识源的附加信息,使得LLM在应对下游任务时能够生成更精确和上下文相关的答案,并减少LLM的幻觉现象。LangChain和RAG之间的关系可以概括为:

其他人在问
RAG技术实现的原理步骤
RAG 技术实现的原理步骤主要包括以下几个方面: 1. 理解问题:AI 模型首先需要理解用户的提问或指令。 2. 文档加载:从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 3. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 4. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 5. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 6. 检索相关知识:AI 模型根据对问题的理解,从外部知识库中检索相关的信息。 7. 整合知识与推理:AI 模型将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 例如,在医疗领域,RAG 技术可以帮助医疗 AI 助手获取最新的医学知识和临床案例,从而提高其诊断和治疗建议的准确性。但需要注意的是,在将大型文档转换为可检索内容的过程中,如文档解析和文本切分、嵌入向量生成等步骤,每一步都可能导致信息损失,复合损失会显著影响 RAG 响应的效果。
2024-09-17
RAG技术原理
RAG(RetrievalAugmented Generation,检索增强生成)是一种自然语言处理技术,主要用于提高语言模型的效果和准确性。其原理包括以下几个方面: 1. 由于大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG发挥作用。 2. 过程包括文档加载,从多种来源加载包括非结构化、结构化和代码等不同类型的文档。 3. 进行文本分割,把文档切分为指定大小的块。 4. 涉及存储环节,包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 5. 通过某种检索算法从向量数据库中检索出与输入问题相似的嵌入片。 6. 结合了检索和生成两种主要的自然语言处理方法。 检索部分从大量文本数据中检索出与输入问题最相关的信息,通常使用检索系统在大规模文档集合中寻找相关文段。 生成部分使用类似 GPT 的语言模型,根据检索到的信息生成响应或回答,涉及理解检索内容并生成连贯、相关且信息丰富的文本。 7. RAG 的出现解决了语言模型仅依靠固定资料回答问题的局限性,允许模型到搜索引擎上搜索相关资料,并结合自身知识体系综合回复。 其中的检索环节并非简单操作,还包含对输入问题的纠错、补充、拆分以及对搜索内容的权重逻辑等。
2024-09-17
RAG技术
RAG 即检索增强生成(RetrievalAugmented Generation),是一种结合了检索(检索外部知识库中相关信息)和生成(利用大型语言模型生成文本)的技术。 其工作原理包括以下几个步骤: 1. 理解问题:AI 模型首先理解用户的提问或指令。 2. 检索相关知识:根据对问题的理解,从外部知识库中检索相关信息。例如,用户问“埃菲尔铁塔有多高?”,AI 模型会从知识库中检索关于埃菲尔铁塔的信息。 3. 整合知识与推理:将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 RAG 技术的优势在于能够将 AI 模型与外部知识库连接起来,从而扩展 AI 模型的知识范围,提高其回答问题和生成内容的准确性。例如在医疗领域,可帮助医疗 AI 助手获取最新的医学知识和临床案例,提高诊断和治疗建议的准确性。 RAG 由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得 RAG 非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LangChain 是一个用于构建高级语言模型应用程序的框架,与 RAG 的关系在于,RAG 能够为大型语言模型提供来自外部知识源的附加信息,使得模型在应对下游任务时能够生成更精确和上下文相关的答案,并减少幻觉现象,而 LangChain 的设计主张集中在模块化组件上,为开发人员使用大型语言模型创建应用程序提供便利。
2024-09-17
rag与ai agent的区别
RAG(检索增强生成)与 AI Agent 存在以下区别: RAG 是给大模型提供一个浏览器工具来使用,而 AI Agent 则是给大模型提供了更多的工具,如长期记忆(相当于给大模型一个数据库工具来记录重要信息)、规划和行动(在大模型的 prompt 层进行目标拆解,并输出不同的固定格式 action 指令给工具)。 在实际应用中,外置知识的集成和管理常常采用 RAG 架构,它通过检索外部知识源来增强模型的生成能力。而 AI Agent 不仅依赖内置知识,还能实时检索和整合最新的外部信息来完成任务,例如可以让大模型帮忙安排差旅,它会判断完成目标所需的步骤,搜索差旅记录,预订酒店和机票等。 总的来说,AI Agent 在 RAG 的基础上有了更多的功能和更广泛的应用空间。
2024-09-06
对于大语言模型使用的未来趋势,是闭源云端还是开源本地部署,作为普通用户是否有必要了解本地部署知识,并且是否有必要自己搭建agent以及rag?
大语言模型的未来趋势在闭源云端和开源本地部署方面存在多种可能性。 对于开源本地部署,以下是一些相关信息: Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有以下特点: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,以满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装可访问 https://ollama.com/download/ 。 可以通过一些教程学习如何本地部署大模型以及搭建个人知识库,例如了解如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建完全本地化的数据库等。 同时,采用开源或国内企业提供的 13B 级模型本地部署在内部系统中,虽需投入算力,但有其价值。智能客服的大量优质大客户可能会选择自己搭建智能客服平台,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,实现 RPA 自动流程。 对于普通用户是否有必要了解本地部署知识以及是否有必要自己搭建 agent 以及 rag,这取决于个人需求和兴趣。如果您希望更深入了解大模型的工作原理和运行机制,或者有特定的个性化需求,那么了解和尝试本地部署可能是有意义的。但如果只是一般的使用需求,可能无需深入了解和自行搭建。
2024-09-03
有什么类似于 ragflow,dify 可以本地部署的
Dify 是一个开源的大模型应用开发平台,它融合了后端即服务和 LLMOps 的理念,为用户提供直观界面,能快速构建和部署生产级别的生成式 AI 应用。其具有强大的工作流构建工具,支持广泛的模型集成,提供功能丰富的提示词 IDE 以及全面的 RAG Pipeline 用于文档处理和检索。此外,允许用户定义 Agent 智能体,并通过 LLMOps 功能持续监控和优化应用程序性能。Dify 提供云服务和本地部署选项,满足不同需求,其开源特性确保对数据的完全控制和快速产品迭代。Dify 的设计理念注重简单、克制和快速迭代,能帮助用户将 AI 应用创意快速转化为现实。无论是创业团队构建 MVP、企业集成 LLM 增强现有应用能力,还是技术爱好者探索 LLM 潜力,Dify 都提供相应支持和工具。Dify 官方手册:https://docs.dify.ai/v/zhhans 。一般来说,如果是个人研究,推荐单独使用 Dify,如果是企业级落地项目,推荐使用多种框架结合,效果更好。
2024-08-30