直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

RAG还是长文本

回答

RAG(Retrieval Augmented Generation)是一种基于检索的生成技术,它通过从大规模语料库中检索相关信息来辅助生成文本。长文本是指长度较长的文本,通常包含多个句子或段落。在自然语言处理(NLP)领域,长文本建模是一个重要的研究方向,它旨在提高语言模型对长文本的理解和生成能力。

虽然 RAG 可以减轻模型的记忆负担,但它并不能取代模型本身的语言理解和推理能力。在代码生成方面,研究人员分享了一个最新技术:Task Weaver。Task Weaver 是微软的框架,用 GPT 的一个常规模型来完成。它本质是把一个复杂任务拆成很多小部分,然后再把每个小部分再去做 code intervention,中间用代码的形式来交互。在每一个小部分里面,开始套各种套模板。这种用在长文本的话,可以解决掉内容丢失的问题。但是这个模型上下文不长,超过 8K 就结束了。特别是它里面有个 Tools 叫 RAG,它占用上下文很大,每次调用 Tools,就会把 RAG 里面的东西全部抛进来,RAG 会作为一个 Tools 的 Observation 返回给 Agent。之后,把整个 Agent 的结果成为下一个 RAG 的内容,在下一次 Agent 的时候再套,再把这个记录套回去。如果长文本技术的发展提升,Agent 上限可能会提高。

总的来说,RAG 和长文本各有所长,它们可以相互补充,提高语言模型的性能和泛化能力。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

质朴发言:大模型未来发展:RAG vs 长文本,谁更胜一筹?|Z 沙龙第 8 期

长文本是一种智力能力。拥有一个更好的上下文窗口,可以更好地解决代码的相互依赖和逻辑性问题。如果只是用RAG方式去分段代码,然后再连接起来,再分段提问,是无法满足需求的。RAG更像是能力的边界。如果只使用上下文窗口,而没有好好利用RAG基于检索的方式,很难解决同一个代码工程在多个模块,或者在多个功能上的问题。只能解决比较局部的问题,无法处理多个模块之间的相互关联,例如进行联调测试,而合理使用RAG辅助可以拓展模型的知识边界。编者按:长文本是一种智力能力:从认知科学的角度看,人类处理长文本信息的能力是高级智力的体现。阅读理解一本小说,写作一篇论文,都需要在大脑中维护一个宏大的上下文,同时进行逻辑推理、情节关联等复杂的认知活动。这种能力区别于对简单句子或短语的机械处理。对语言模型而言,长文本建模能力意味着更强的抽象和归纳能力。RAG更像是能力的边界:RAG通过检索相关片段来辅助生成,在一定程度上弥补了语言模型在长文本建模上的不足。

质朴发言:大模型未来发展:RAG vs 长文本,谁更胜一筹?|Z 沙龙第 8 期

原文链接:https://mp.weixin.qq.com/s/jrgowNLS-cI-ztRHaZNqNg来源:质朴发言发文时间:2024.03.25编者按:当前,AIGC的迭代速度正以指数级的速度增长。2024年2月,谷歌发布的Gemini 1.5 Pro;再次将上下文刷新为100万token,创下了最长上下文窗口的纪录,相当于1小时的视频或者70万个单词。由于Gemini在处理长上下文方面表现出色,甚至有人高喊“RAG已死”。爱丁堡大学博士付尧表示:“一个拥有1000万token上下文窗口的大模型击败了RAG。大语言模型已经是非常强大的检索器,那么为什么还要花时间构建一个弱小的检索器,并将时间花在解决分块、嵌入和索引问题上呢?”随着模型上下文长度的提升,一个问题逐渐显现:RAG技术是否会被取代?由此,我们在3月9日举办了Z沙龙第八期:Long-context & RAG。我们邀请了产业界和学术界的朋友们共同碰撞思想,交流观点;他们分享了关于于Long-context和RAG的看法,并对Context length是否存在摩尔定律展开了精彩讨论。

质朴发言:大模型未来发展:RAG vs 长文本,谁更胜一筹?|Z 沙龙第 8 期

它提供了一种即时获取背景知识的机制,减轻了模型的记忆负担,但它并不能取代模型本身的语言理解和推理能力。针对代码生成,研究人员分享了一个最新技术:Task Weaver。Task Weaver是微软的框架,用GPT的一个常规模型来完成。本质是把一个复杂任务拆成很多小部分,然后再把每个小部分再去做code intervention,中间用代码的形式来交互。在每一个小部分里面,开始套各种套模板。这种用在长文本的话,可以解决掉内容丢失的问题。但是这个模型上下文不长,超过8K就结束了。特别是它里面有个Tools叫RAG,它占用上下文很大,每次调用Tools,就会把RAG里面的东西全部抛进来,RAG会作为一个Tools的Observation返回给Agent。之后,把整个Agent的结果成为下一个RAG的内容,在下一次Agent的时候再套,再把这个记录套回去。如果长文本技术的发展提升,Agent上限可能会提高。TaskWeaver是一款代码优先的Agent框架,能将用户的自然语言请求转化为可执行代码,并支持海量数据结构、动态插件选择以及专业领域适应的规划过程。

其他人在问
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。其旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。简单来说,就是通过检索的模式,为大语言模型的生成提供帮助,从而使大模型生成的答案更符合要求。 因为利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,所以在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,实现这一点的主要方法就是通过检索增强生成 RAG。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 一个 RAG 的应用可以抽象为以下 5 个过程: 1. 文档加载(Document Loading):从多种不同来源加载文档。LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储(Storage):存储涉及到两个环节,分别是: 将切分好的文档块进行嵌入(Embedding)转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索(Retrieval):一旦数据进入向量数据库,通过某种检索算法找到与输入问题相似的嵌入片。 LangChain 是一个用于构建高级语言模型应用程序的框架,它提供了一系列的工具和组件,使得开发人员能够更容易地使用大型语言模型(LLM)来创建各种应用程序。RAG 能够为 LLM 提供来自外部知识源的附加信息,使得 LLM 在应对下游任务时能够生成更精确和上下文相关的答案,并减少 LLM 的幻觉现象。LangChain 和 RAG 之间的关系可以概括为:LangChain 的设计主张集中在模块化组件上,这些组件提供用于使用 LLM 的行为抽象,并为每个抽象提供实现的集合,从而允许开发人员构造新链或实现现成的链。
2024-09-19
RAG技术实现的原理步骤
RAG 技术实现的原理步骤主要包括以下几个方面: 1. 理解问题:AI 模型首先需要理解用户的提问或指令。 2. 文档加载:从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 3. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 4. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 5. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 6. 检索相关知识:AI 模型根据对问题的理解,从外部知识库中检索相关的信息。 7. 整合知识与推理:AI 模型将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 例如,在医疗领域,RAG 技术可以帮助医疗 AI 助手获取最新的医学知识和临床案例,从而提高其诊断和治疗建议的准确性。但需要注意的是,在将大型文档转换为可检索内容的过程中,如文档解析和文本切分、嵌入向量生成等步骤,每一步都可能导致信息损失,复合损失会显著影响 RAG 响应的效果。
2024-09-17
RAG技术原理
RAG(RetrievalAugmented Generation,检索增强生成)是一种自然语言处理技术,主要用于提高语言模型的效果和准确性。其原理包括以下几个方面: 1. 由于大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG发挥作用。 2. 过程包括文档加载,从多种来源加载包括非结构化、结构化和代码等不同类型的文档。 3. 进行文本分割,把文档切分为指定大小的块。 4. 涉及存储环节,包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 5. 通过某种检索算法从向量数据库中检索出与输入问题相似的嵌入片。 6. 结合了检索和生成两种主要的自然语言处理方法。 检索部分从大量文本数据中检索出与输入问题最相关的信息,通常使用检索系统在大规模文档集合中寻找相关文段。 生成部分使用类似 GPT 的语言模型,根据检索到的信息生成响应或回答,涉及理解检索内容并生成连贯、相关且信息丰富的文本。 7. RAG 的出现解决了语言模型仅依靠固定资料回答问题的局限性,允许模型到搜索引擎上搜索相关资料,并结合自身知识体系综合回复。 其中的检索环节并非简单操作,还包含对输入问题的纠错、补充、拆分以及对搜索内容的权重逻辑等。
2024-09-17
RAG技术
RAG 即检索增强生成(RetrievalAugmented Generation),是一种结合了检索(检索外部知识库中相关信息)和生成(利用大型语言模型生成文本)的技术。 其工作原理包括以下几个步骤: 1. 理解问题:AI 模型首先理解用户的提问或指令。 2. 检索相关知识:根据对问题的理解,从外部知识库中检索相关信息。例如,用户问“埃菲尔铁塔有多高?”,AI 模型会从知识库中检索关于埃菲尔铁塔的信息。 3. 整合知识与推理:将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 RAG 技术的优势在于能够将 AI 模型与外部知识库连接起来,从而扩展 AI 模型的知识范围,提高其回答问题和生成内容的准确性。例如在医疗领域,可帮助医疗 AI 助手获取最新的医学知识和临床案例,提高诊断和治疗建议的准确性。 RAG 由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得 RAG 非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LangChain 是一个用于构建高级语言模型应用程序的框架,与 RAG 的关系在于,RAG 能够为大型语言模型提供来自外部知识源的附加信息,使得模型在应对下游任务时能够生成更精确和上下文相关的答案,并减少幻觉现象,而 LangChain 的设计主张集中在模块化组件上,为开发人员使用大型语言模型创建应用程序提供便利。
2024-09-17
rag与ai agent的区别
RAG(检索增强生成)与 AI Agent 存在以下区别: RAG 是给大模型提供一个浏览器工具来使用,而 AI Agent 则是给大模型提供了更多的工具,如长期记忆(相当于给大模型一个数据库工具来记录重要信息)、规划和行动(在大模型的 prompt 层进行目标拆解,并输出不同的固定格式 action 指令给工具)。 在实际应用中,外置知识的集成和管理常常采用 RAG 架构,它通过检索外部知识源来增强模型的生成能力。而 AI Agent 不仅依赖内置知识,还能实时检索和整合最新的外部信息来完成任务,例如可以让大模型帮忙安排差旅,它会判断完成目标所需的步骤,搜索差旅记录,预订酒店和机票等。 总的来说,AI Agent 在 RAG 的基础上有了更多的功能和更广泛的应用空间。
2024-09-06
对于大语言模型使用的未来趋势,是闭源云端还是开源本地部署,作为普通用户是否有必要了解本地部署知识,并且是否有必要自己搭建agent以及rag?
大语言模型的未来趋势在闭源云端和开源本地部署方面存在多种可能性。 对于开源本地部署,以下是一些相关信息: Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有以下特点: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,以满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装可访问 https://ollama.com/download/ 。 可以通过一些教程学习如何本地部署大模型以及搭建个人知识库,例如了解如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建完全本地化的数据库等。 同时,采用开源或国内企业提供的 13B 级模型本地部署在内部系统中,虽需投入算力,但有其价值。智能客服的大量优质大客户可能会选择自己搭建智能客服平台,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,实现 RPA 自动流程。 对于普通用户是否有必要了解本地部署知识以及是否有必要自己搭建 agent 以及 rag,这取决于个人需求和兴趣。如果您希望更深入了解大模型的工作原理和运行机制,或者有特定的个性化需求,那么了解和尝试本地部署可能是有意义的。但如果只是一般的使用需求,可能无需深入了解和自行搭建。
2024-09-03
想找一个强大的生成视频文本解读分镜头解读的AI工具
以下为您推荐一个强大的生成视频文本解读分镜头解读的 AI 工具——MMVid。 这是一个集成的视频理解系统,能处理和理解长视频内容并进行问答。其应用场景广泛,包括: 1. 快速的视频剪辑:只需输入镜头脚本,即可提取素材库内容进行拼接。 2. 快速的图生视频:结合图像识别,根据镜头脚本提取相同 seed 值的图片,通过 runwayml 思路生成 3 5 秒视频,再结合 comfy ui 自动化拼接。 3. 快速诊断:思路和之前的医疗诊断类似。 MMVid 属于 AI 学习模型,由 Microsoft Azure AI 开发,结合了 GPT4V 的能力和其他视觉、音频和语音处理工具,能够自动识别和解释视频中的元素,如人物行为、情感表达、场景变化和对话内容,从而实现对视频故事线的理解。其核心功能是将视频中的多模态信息(如视觉图像、音频信号和语言对话)转录成详细的文本脚本,以便大语言模型理解视频内容。 其官方网站等更多详细信息可进一步查询。
2024-09-16
用文本生成PPT的AI工具
以下是一些用文本生成 PPT 的 AI 工具: 1. 熊猫 Jay:点击文本转 PPT,在提示框中选择确定,即可得到转换后的 PPT,并可在线编辑。 2. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,可能提供智能文本生成、语音输入、文档格式化等功能,旨在提高文档编辑效率。网址:https://zhiwen.xfyun.cn/ 3. Gamma:在线 PPT 制作网站,允许用户通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式,如 GIF 和视频,以增强演示文稿的吸引力。网址:https://gamma.app/ 4. 美图 AI PPT:由知名图像编辑软件“美图秀秀”的开发团队推出,允许用户通过输入简单的文本描述来生成专业的 PPT 设计,包含丰富的模板库和设计元素,适用于多种场合。网址:https://www.xdesign.com/ppt/ 5. Mindshow:AI 驱动的 PPT 辅助工具,提供自动布局、图像选择和文本优化等智能设计功能,还包括互动元素和动画效果,以增强演示文稿的吸引力。网址:https://www.mindshow.fun/ 目前市面上大多数 AI 生成 PPT 按照如下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》
2024-09-15
免费文本AI处理工具
以下是为您整理的免费文本 AI 处理工具相关信息: AIGC 论文检测网站: 提供了免费的 AI 内容检测工具,可识别文本是否由 AI 生成。使用方法是将文本粘贴到在线工具中点击检测按钮获取分析结果。 绘制逻辑视图、功能视图、部署视图的工具: PlantUML:文本到 UML 的转换工具,可通过编写描述性文本自动生成序列图、用例图、类图等,辅助创建逻辑视图。 Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。需要注意的是,这些工具并非都基于 AI,在选择时应考虑具体需求,如是否支持特定建模语言、与开发工具集成、偏好在线或桌面应用等。 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风、实时同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,能处理多种文体,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的智能创作助手,提升写作者效率和创作体验。更多 AI 写作类工具可查看:https://www.waytoagi.com/sites/category/2 。 以上内容由 AI 大模型生成,请仔细甄别。
2024-09-13
文本生成PPT
以下是关于文本生成 PPT 的相关内容: 超全的 AI 工具生成 PPT 的思路和使用指南:点击文本转 PPT,并在提示框中选择确定,即可得到转换后的 PPT,还可在线编辑。 做 PPT 的 AI 产品:讯飞智文是由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,提供智能文本生成、语音输入、文档格式化等功能,提高文档编辑效率。网址:https://zhiwen.xfyun.cn/ 。目前市面上大多数 AI 生成 PPT 按照如下思路完成设计和制作:AI 生成 PPT 大纲、手动优化大纲、导入工具生成 PPT、优化整体结构。 推荐文章:《》 成熟案例参考: step 1(根据 PPT 大纲助手 GPTs 生成 PPT 大纲):https://chat.openai.com/g/gOKorMBxxUpptdagangzhushou step 2(根据输入文本生成 PPT 内容 GPTs 生成 PPT 内容):https://chat.openai.com/g/gYJs9jxVBHshuruwenbenshengchengpptneirong step 3(将生成的内容复制到 Marp Web 渲染简洁的 PPT):https://web.marp.app/
2024-09-13
用文本生成视频加数字人
以下是用文本生成视频加数字人的方法: 一、创建视频内容 1. 准备内容 先准备一段视频中播放的内容文字,可以是产品介绍、课程讲解、游戏攻略等任何您希望推广让大家了解的文字。您也可以利用 AI 来生成这段文字。 2. 制作视频 使用剪映 App 对视频进行简单处理。电脑端打开剪映 App,点击“开始创作”,进入创作页面。 选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号,为视频添加一个文字内容的轨道。 二、生成数字人 1. 生成数字人 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费且适合的数字人形象,如“婉婉青春”。 选择数字人形象时,软件会播放其声音,可判断是否需要,点击右下角“添加数字人”,软件会根据之前提供的内容生成对应音视频,并添加到当前视频中。 左下角会提示渲染完成时间,然后可点击预览按钮查看生成的数字人效果。 2. 增加背景图片 直接删除先前导入的文本内容,因为视频中的音频已包含文字内容。 点击左上角“媒体”菜单,点击“导入”按钮,选择本地一张图片上传。 选择的图片会添加到视频轨道下方的新轨道,将轨道最右侧竖线向右拖拽至视频最后,使其在整个视频播放时都显示。 选中背景图片所在轨道,在显示区域拖动图片角将其放大到适合尺寸,覆盖视频窗口,并将数字人拖动到合适位置。 3. 增加字幕 点击“文本 智能字幕 识别字幕,点击开始识别”,软件会自动将文字智能分段并形成字幕。 至此,数字人视频就完成了。点击右上角“导出”按钮,导出视频以作备用。如果希望数字人换成自己希望的面孔,则需要用另一个工具来进行换脸。
2024-09-12
可以给你一个文本,你模仿它的框架,但是主题换一个,你可以做到吗
可以做到。您请给出新的主题,我会按照要求进行模仿创作。
2024-09-06