Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

RAG技术

Answer

RAG 即检索增强生成(Retrieval Augmented Generation),是一种结合了检索和生成的技术。以下是关于 RAG 的详细介绍:

  • 应用背景:大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG 可发挥作用。
  • 抽象过程:包括文档加载(从多种来源加载文档,如 LangChain 提供 100 多种文档加载器)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块嵌入并转换为向量形式存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题及检索出的嵌入片提交给 LLM 生成更合理答案)。
  • 与 LangChain 的关系:LangChain 是用于构建高级语言模型应用程序的框架,提供实现 RAG 必需的工具和组件。两者关系包括框架与技术、模块化实现、简化开发、提高性能、应用构建等方面。
  • 核心流程:根据用户提问从私有知识中检索“包含答案的内容”,将其与用户提问一起放入提示词中提交给大模型,使大模型回答充分考虑该内容。
  • 常见应用场景:如用于构建知识问答系统,用户提问后,RAG 模型从大规模文档集合中检索相关文档并生成回答。
Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

问:LangChain 和 RAG 有什么关系?

LangChain是一个用于构建高级语言模型应用程序的框架,它提供了一系列的工具和组件,使得开发人员能够更容易地使用大型语言模型(LLM)来创建各种应用程序。LangChain的设计主张集中在模块化组件上,这些组件提供用于使用LLM的行为抽象,并为每个抽象提供实现的集合,从而允许开发人员构造新链或实现现成的链。RAG,即检索增强生成(Retrieval-Augmented Generation),是一种结合了检索(检索外部知识库中相关信息)和生成(利用LLM生成文本)的技术。RAG能够为LLM提供来自外部知识源的附加信息,使得LLM在应对下游任务时能够生成更精确和上下文相关的答案,并减少LLM的幻觉现象。LangChain和RAG之间的关系可以概括为:1.框架与技术:LangChain作为一个框架,提供了实现RAG所必需的工具和组件。RAG作为一项技术,可以在LangChain框架内得以实施和利用。2.模块化实现:LangChain允许开发者通过其模块化组件来构建RAG应用程序,例如使用LangChain的检索器(Retriever)和生成模型(LLM)来创建一个完整的RAG流程。3.简化开发:LangChain通过提供现成的链(Off-the-shelf chains)和提示模板(Prompt Templates),简化了RAG应用程序的开发过程。4.提高性能:利用LangChain实现RAG可以帮助开发者创建更高效、更准确的应用程序,特别是在需要大量外部信息来辅助决策的场景中。5.应用构建:LangChain通过其丰富的API和组件库,支持开发者构建复杂的RAG应用,如智能问答系统、内容推荐引擎等。

RAG性能提升策略和评估方法(产品视角)

作者:牛大局原文:[RAG性能提升策略和评估方法(产品视角)](https://iac2rhlh02p.feishu.cn/wiki/WL4Lwx5dyigl4zkZQojc7esQnWf)[heading1]一、前言[content]相信经过一年的知识沉淀,RAG是什么大家都不陌生了。RAG是检索增强生成(Retrieval-Augmented Generation)的缩写,它是一种结合了检索模型和生成模型的技术。其核心目的是通过某种途径把知识告诉给AI大模型,让大模型“知道”我们的私有知识,变得越来越“懂”我们。RAG的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。RAG的最常见应用场景知识问答系统:RAG可以用于构建问答系统,用户提出问题,RAG模型从大规模的文档集合中检索相关的文档,然后生成回答。

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源(如维基百科),这些文档作为上下文和原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-03-06
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 的研究人员引入了 RAG 方法来完成这类任务,它把信息检索组件和文本生成模型结合在一起,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 会接受输入并检索相关支撑文档,给出来源,这些文档作为上下文和原始提示词组合送给文本生成器得到最终输出,能适应事实随时间变化的情况,让语言模型获取最新信息并生成可靠输出。 LLM(大语言模型)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库对数据的存储和更新稳定且无学习风险、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-03-06
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-03-06
RAG架构图和实现案例
以下是关于 RAG 架构图和实现案例的相关内容: RAG 是当今大多数现代人工智能应用程序的标准架构。以 Sana 的企业搜索用例为例,其工作原理如下: 1. 应用程序加载和转换无结构文件(如 PDF、幻灯片、文本文件),跨越企业数据孤岛(如 Google Drive 和 Notion),通过数据预处理引擎(如 Unstructured)转换为 LLM 可查询格式。 2. 这些文件被“分块”成更小的文本块,以实现更精确的检索,并作为向量嵌入存储在数据库(如 Pinecone)中。 3. 当用户提出问题时,系统检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM。LLM 从检索到的上下文中合成答复返回给用户。 在生产中,AI 应用程序具有更复杂的流程,包含数十甚至数百个检索步骤,通常具有“提示链”,不同类型的任务并行执行多个“提示链”,然后将结果综合在一起生成最终输出。 随着 RAG 的发展,出现了自适应的检索(也被称作主动检索),其核心思想与 LLM Agent 相似。根据判断依据可分为 Promptbase 和 Tuningbase: 1. Promptbase:通过 Prompt Engineering 的方式让 LLM 对流程进行控制。典型实现案例是 FLARE,其核心思想是 LM 仅在缺乏所需知识时进行检索,以避免被动检索增强的 LM 中出现不必要或不适当的检索。FLARE 迭代地生成下一个临时句子,并检查是否包含低概率标记。如果是这样,系统将检索相关文档并重新生成句子。 2. Tuningbase:对 LLM 进行微调使其生成特殊的 token,以此来触发检索或生成。典型案例是 SelfRAG,具体步骤包括:给定输入提示和前面的生成结果,首先预测特殊 token“Retrieve”判断是否通过检索段落对继续的生成进行增强是有帮助;如果有帮助,调用检索模型,模型会生成一个 critique token 来评估检索段的相关性、下一个响应片段和一个批判令牌来评估响应片段中的信息是否得到了检索段的支持;最后,一个新的批判令牌评估响应的整体效用。模型会并行处理这些内容,并选择最佳结果作为最终的输出。 此外,系统的内存是 LMM 的上下文窗口,存在架构限制,窗口越大推理越慢,同时模型会失焦,降低推理的准确度。前沿模型研发团队都力争做到吞吐量、速度还有准确度的最佳平衡。大模型应用领域常用的方法是 RAG,例如 Perplexity、面向企业知识库的 Glean 以及面向个人知识库的 Maimo 等应用。
2025-03-05
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 研究人员引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送文本生成器得到输出,适应事实随时间变化。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-03-05
哪里可以找到了解AI模型微调和RAG知识库的外包开发团队?
以下是一些可能找到了解 AI 模型微调和 RAG 知识库的外包开发团队的途径: 1. 相关技术社区和论坛:例如一些专注于 AI 开发的社区,开发者可能会在其中分享经验和提供服务。 2. 专业的自由职业者平台:如 Upwork、Freelancer 等,您可以在这些平台上发布需求,寻找合适的团队或个人。 3. 参考行业报告和研究:部分报告中可能会提及相关的优秀开发团队或公司。 4. 联系 AI 领域的知名机构或公司:他们可能会推荐或提供相关的外包服务。 5. 社交媒体和专业群组:在如 LinkedIn 等社交媒体上的 AI 相关群组中发布需求,可能会得到相关团队的回应。 另外,从提供的资料中,以下信息可能对您有所帮助: 红杉的相关分析提到,迁移学习技术如 RLHF 和微调正变得更加可用,开发者可以从 Hugging Face 下载开源模型并微调以实现优质性能,检索增强生成(RAG)正在引入关于业务或用户的上下文,像 Pinecone 这样的公司的向量数据库已成为 RAG 的基础设施支柱。彬子的经历中,有出海垂直领域 Agent 平台的项目经理咨询 RAG 策略优化。2024 人工智能报告中提到对增强生成检索(RAG)的兴趣增长促使了嵌入模型质量的提高,传统 RAG 解决方案中的问题得到解决。
2025-03-04
我是一个新手小白,帮构思一下关于如何学习AI的PPT .要求有包括豆包,AI数字人,KIMI,灵犀,如影,剪映,即梦等APP学习技术。都带上APP网址
以下是为您构思的关于如何学习 AI 的 PPT 大纲: 幻灯片 1:封面 标题:如何学习 AI 幻灯片 2:目录 1. AI 辅助 PPT 的原理和作用 2. 几款 PPT 生成工具(网站) 3. 相关 APP 介绍 幻灯片 3:AI 辅助 PPT 的原理和作用 1. 减轻排版工作的压力 2. 生成打底的内容,减轻人写内容的工作 3. 文章生成 PPT,让 AI 帮忙摘要内容,生成大纲列表 4. 主题生成 PPT,让 AI 根据主题扩充成大纲列表,乃至具体内容 5. 在特定场景下不用改直接用,如学生快速为小组展示配 PPT 幻灯片 4:AI 辅助 PPT 的流程 1. 用户输入 2. AI 输出 3. 排版 网站把 AI 输出的文本丢给 LLM,让它根据内容,在已有的 UI 组件中选择更适合的组件。按时间线,每页 PPT 的文字,选出整个 PPT 中,每一页的 UI 组件。有的网站,如 tome、gamma,配图也是由 GenAI 根据页面内容生成的。呈现 AI 生成的 PPT 结果,用户不满意可以自行选择模版 幻灯片 5:几款 PPT 生成工具(网站) 1. 讯飞智文:https://zhiwen.xfyun.cn/ (免费引导好) 2. Mindshow.fun :http://Mindshow.fun (Markdown 导入) 3. kimi.ai :http://kimi.ai (选 PPT 助手暂时免费效果好) 4. Tome.app :http://Tome.app (AI 配图效果好) 5. Chatppt.com :http://Chatppt.com (自动化程度高) 6. 百度文库:https://wenku.baidu.com (付费质量好) 幻灯片 6:相关 APP 介绍 1. 豆包 2. AI 数字人 3. KIMI 4. 灵犀 5. 如影 6. 剪映(图文成片,只需提供文案,自动配图配音) 7. 即梦 希望以上内容对您有所帮助!
2025-03-05
假如你是一名测试工程师,要写一个关于《AI智能体输入输出验证》专利申请书,申请书的内容包括以下几点: 1、发明名称(一种xxxxxxxx算法/架构/设计/外观等等等等) 2、发明背景技术 3、具体的技术方案描述 4、本发明的有益效果
以下是为您生成的关于《AI 智能体输入输出验证》的专利申请书内容: 发明名称:一种基于 Coze 工作流的 AI 智能体输入输出验证算法 发明背景技术: 在当前的 AI 应用中,构建和测试智能体的功能至关重要。特别是在处理复杂的任务,如生成思维导图时,需要确保输入和输出的准确性和有效性。然而,现有的技术在配置子任务节点和验证其可用性方面存在不足,导致效率低下和结果不稳定。 具体的技术方案描述: 1. 对于生成思维导图的任务,首先确定处理方式为“单次”,因为一次精读任务仅需生成一张思维导图。 2. 在输入方面,<generateTreeMind>插件节点仅需设置{{query_text}}变量,格式为 string 字符串,通过引用“标题、导语、大纲”节点的{{enTreeMind}}变量来提供输入。 3. 在输出方面,观察输出区的众多字段,根据字段名称、「查看示例」中的示例说明或试运行来确定所需的字段。对于生成图片格式的思维导图,确定 pic 为所需的输出。 4. 完成任何一个节点的配置后,进行试运行测试。具体步骤包括:点击「测试该节点」,按格式要求输入待测试的内容(对于 array 等其他格式,自行对话 AI 或搜索网络确认格式要求),点击「展开运行结果」,检查输入、输出项是否有误。若有误,依次检查“测试输入内容”、“节点配置”以及优化“提示词”,以提升对生成内容的约束力。 本发明的有益效果: 1. 提高了 AI 智能体在处理生成思维导图等任务时输入输出配置的准确性和效率。 2. 通过明确的步骤和规范的测试流程,有效减少了错误和不确定性,提升了智能体的稳定性和可靠性。 3. 能够更好地满足用户在复杂任务中的需求,为相关领域的应用提供了更优质的解决方案。
2025-03-04
如何利用AI技术挣钱
利用 AI 技术挣钱的方式主要有以下几种: 1. 从 GPTs/GLMs 角度: 作为 AI 产品经理,以最俗气的“钱”的角度复盘 2023 年的所见所闻所感来探讨 AI 赚钱(应用落地)这件事。 参考 BeBeGPTs 收录的 GPTs 数据,但要注意数据可能存在少量错误和不完整。 2. 写作方面: 项目启动:确定目标客户群体,如大学生、职场人士、自媒体从业者等,并选择合适的 AI 写作工具。 准备阶段:学习并实践 AI 写作技术,构建团队。 商业模式构建:确定服务内容,如提供论文、报告、文案等直接写作服务,制定质量控制标准。 运营与推广:在淘宝等电商平台开设店铺,建立写作培训社群,通过社交媒体和线下活动进行品牌和社群建设,与其他团队合作。 项目优化与发展:持续关注 AI 技术进展,根据市场需求拓展新服务和产品,收集客户反馈优化服务。 3. 韦恩的“AI 应用”进阶: 变现方式:在公司给自己贴 AI 大神标签,在社交网络进行分享扩大影响力,承接项目开发。 二创方向:增加画板节点,结合公司 Logo 生成一系列公司主题的产品邮票,承接类似需求扩充工作流,修改提示词调整生图内容方向。 总之,技术很关键,创意更重要,好技术加上好创意才能成就好产品,祝您在 AI 应用之路越走越远,增加自己的收入。
2025-03-03
设计面向青少年的AI课程大纲,核心是围绕以DeepSeek技术专题为核心的各类技术到应用的设计
很抱歉,目前没有关于以 DeepSeek 技术专题为核心设计面向青少年的 AI 课程大纲的相关内容。但我可以为您提供一个通用的以技术到应用为思路的 AI 课程大纲框架供您参考: 一、课程简介 介绍课程的目标、重要性以及学习 AI 对青少年的益处。 二、基础知识 1. 什么是 AI 及其发展历程 2. 常见的 AI 应用领域 三、DeepSeek 技术基础 1. DeepSeek 技术的原理 2. 相关算法和模型 四、技术应用实践 1. 利用 DeepSeek 技术进行图像识别项目 2. 基于 DeepSeek 的自然语言处理应用 五、案例分析 1. 成功运用 DeepSeek 技术的实际案例 2. 案例中的创新点和可借鉴之处 六、创新与拓展 1. 鼓励学生提出基于 DeepSeek 技术的新应用想法 2. 小组讨论和展示 七、课程总结与回顾 复习重点知识,总结学习成果。 您可以根据实际需求和教学条件对上述大纲进行调整和完善。
2025-03-01
有没有大模型识别 CAD图纸的技术
目前存在一些可以辅助或自动生成 CAD 图的 AI 工具和插件,特别是在设计和工程领域。以下为您列举部分相关工具: 1. CADtools 12:这是一个 Adobe Illustrator(AI)插件,为 AI 添加了 92 个绘图和编辑工具,涵盖图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 2. Autodesk Fusion 360:Autodesk 开发的一款集成了 AI 功能的云端 3D CAD/CAM 软件,有助于用户创建复杂几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,能够帮助用户创建复杂的 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,可根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 5. 生成设计工具:一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供了基于 AI 的生成设计工具,能根据用户输入的设计目标和约束条件自动产生多种设计方案。 需要注意的是,这些工具通常需要一定的 CAD 知识和技能才能有效使用。对于 CAD 初学者,建议先学习基本的 3D 建模技巧,然后尝试使用这些 AI 工具来提高设计效率。以上内容由 AI 大模型生成,请仔细甄别。
2025-03-01
推理模型的技术原理
推理模型是一种新的范式,专注于解决复杂、多步骤的问题。其技术原理主要包括以下方面: 1. 思考输入意图:通过对输入内容的深入理解,明确问题的核心和需求。 2. 逐步提供答案:不像传统模型一次性给出结果,而是分步骤进行推理和回答。 3. 擅长领域:在解谜和高级数学等具有挑战性的任务中表现出色。 4. 与传统模型的区别:传统模型可能更倾向于直接给出结果,而推理模型会通过逐步思考来提供答案。 5. 成本和易错性:推理模型成本高昂且容易出错,适用场景有限。 6. 模型变体:如 DeepSeek 推出的多种变体(如 R1Zero 和 R1Distill)展示了不同的训练策略和性能表现。 7. 思考过程:类似于人类的慢思考过程,结合行业特点给出重要事项和先后顺序。 8. 运算原理:快思考是概率预测,脱口而出但不一定对;慢思考在概率预测基础上做二层逻辑,即链式思维,展开问题找多条路径并互相验证。 9. 适用场景:指令遵循领域 instruct 模型效果好,推理和创造性问题适合用慢思考的推理模型。
2025-03-01