Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

什么是rag模型

Answer

RAG(Retrieval-Augmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。

对于大语言模型(LLM)来说,存在一些缺点,如无法记住所有知识,尤其是长尾知识;知识容易过时且不好更新;输出难以解释和验证;容易泄露隐私训练数据;规模大,训练和运行成本高。

而 RAG 具有以下优点:

  1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。
  2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。
  3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。
  4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。
  5. 数据库维护可降低大模型的训练成本。

RAG 允许模型到搜索引擎上搜索问题相关资料,并综合自身知识体系进行回复。但 RAG 的检索环节并非简单操作,还涉及传统搜索的逻辑,如输入问题的纠错、补充、拆分以及搜索内容的权重逻辑等。例如,对于错误表述“中国界世杯夺冠那年的啤酒销量如何”,会先纠错为“中国世界杯夺冠那年的啤酒销量如何”,然后拆分问题进行综合搜索,再将搜索到的资料交给大模型总结输出。

大语言模型技术存在输出结果不可预测、知识有局限性、存在幻觉问题、数据安全性等问题,而 RAG 是解决这些问题的有效方案,它能让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制文本输出,且用户能深入了解 LLM 生成最终结果的过程。并且,RAG 可与微调结合使用,适用于模型回答特定询问或解决特定信息检索任务,但不适合教模型理解广泛领域或学习新的语言、格式或样式。

Content generated by AI large model, please carefully verify (powered by aily)

References

问:RAG 是什么?

RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,它旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。简单来说,就是通过检索的模式,为大语言模型的生成提供帮助,从而使大模型生成的答案更符合要求。[heading2]为什么LLM需要RAG?[content]众所周知,大模型已经在很多领域和问题下都取得了很好的效果,那为什么还需要RAG进行检索优化呢?[heading3]LLM的缺点[content]1.LLM无法记住所有知识,尤其是长尾的。受限于训练数据、现有的学习方式,对长尾知识的接受能力并不是很高;长尾数据是指数据集中某些类别数量较少,而其他类别样本数较多的不平衡“长尾”状态。例如在自然语言处理中,一些少见的词汇出现频率很低,而常见的词汇出现频率很高。2.LLM的知识容易过时,而且不好更新。只是通过微调,模型的接受能力其实并不高而且很慢,甚至有丢失原有知识的风险;3.LLM的输出难以解释和验证。一方面最终的输出的内容黑盒且不可控,另一方面最终的结果输出可能会受到幻觉之类的问题的干扰;4.LLM容易泄露隐私训练数据。用用户个人信息训练模型,会让模型可以通过诱导泄露用户的隐私;5.LLM的规模大,训练和运行的成本都很大。[heading3]RAG的优点[content]1.数据库对数据的存储和更新是稳定的,不像模型会存在学不会的风险。2.数据库的数据更新可以做得很敏捷,增删改查可解释,而且对原有的知识不会有影响。3.数据库的内容是明确、结构化的,加上模型本身的理解能力,一般而言数据库中的内容以及检索算法不出错,大模型的输出出错的可能就大大降低。4.知识库中存储用户数据,为用户隐私数据的管控带来很大的便利,而且可控、稳定、准确。5.数据库维护起来,可以降低大模型的训练成本,毕竟新知识存储在数据库即可,不用频繁更新模型,尤其是不用因为知识的更新而训练模型。

非技术背景,一文读懂大模型(长文)

rag,也就是Retrieval-augmented-Generation,检索增强技术,应该也是大家经常看到的一个名词了。那么他到底是个什么东西呢?首先我们先回顾llm的原理,其实就是把一堆互联网文献材料,降维到latentspace中,并通过transformer的方式用学习到了其中的“经验”。但文献资料是死的,如果仅通过固定的资料去回答问题,势必会出现一些无法回答的问题。那么rag的出现就解决了这个问题,rag允许模型可以到搜索引擎上去搜索问题相关的资料,并将获取到的信息,综合自己的知识体系内容,综合进行回复。当然rag不全是这些,rag的r,也就是搜索,其实不是一件简单的事情。所以这个环节还会有些传统的搜索的逻辑在,比如对于输入问题的纠错,补充,拆分,以及对于搜索内容的权重逻辑等等的事情。打个比方,比如问中国界世杯夺冠那年的啤酒销量如何,那就首先会做一次纠错,把“界世”纠错为“世界”,然后把问题拆分为两个问题,然后综合去搜索,把搜索到的资料在给到大模型,让其进行总结性输出[heading3]3.大模型的涌现[content]这个可能有些同学不怎么听过这个词,但这个是大模型里,我认为最核心的个概念。因为其实经上面的原理讲解,其实大家不难发现,这与目前大模型所表现出来的,仍然对不上啊。为什么只是在计算相关性和概率,就能让大模型表现出难以解释的表达?所以这就是涌现…也就是科学家们认为,当训练的数据到了一定程度后,模型的能力会涌现出很多难以用逻辑去解释的现象。说实话在我看来,因为本身模型的学习就是在一个降维的latentspace中进行的,那我们尝试去用三维世界中的if-else去解释其行为,似乎本身也不靠谱不是么。不过现在倒也有一些论文使用跟踪标注等的的方式来尝试解释大模型内部的行为,这个看看就好了

19. RAG 提示工程系列(一)

大语言模型技术的本质导致了大模型的输出结果具有不可预测性,此外,静态的训练数据导致了大模型所掌握的知识存在截止日期,无法即时掌握最新信息。因此,当我们将大模型应用于实际业务场景时会发现,通用的基础大模型无法满足我们的实际业务需求。主要存在以下原因:知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是抓取网络公开的数据用于训练,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。幻觉问题:大模型的底层原理是基于数学概率的文字预测,即文字接龙。因此大模型存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄露的风险,将自身的私域数据上传第三方平台进行训练。因此如何大模型落地应用时如何保障企业内部数据安全是一个重要问题。而RAG是解决上述问题的一套有效方案。它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解LLM如何生成最终的结果。并且,RAG可以和微调结合使用,两者并不冲突。RAG类似于为模型提供教科书,允许它基于特定查询检索信息。这该方法适用于模型需要回答特定的询问或解决特定的信息检索任务。然而,RAG不适合教模型来理解广泛的领域或学习新的语言,格式或样式。

Others are asking
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可以抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-02-12
RAG是什么
RAG 是检索增强生成技术(RetrievalAugmented Generation)。关于 RAG 的详细研究和应用,您可以参考以下文献: 1. Alibaba Group Holding Limited. Fiscal year annual report 2023. https://static.alibabagroup.com/reports/fy2023/ar/ebook/en/index.html, 2023. 2. Rongyu Cao, Hongwei Li, Ganbin Zhou, and Ping Luo. Towards document panoptic segmentation with pinpoint accuracy: Method and evaluation. In 16th International Conference on Document Analysis and Recognition, pages 3–18, 2021. 3. https://pdflux.com/. 4. Daisho Microline Holdings Limited. Fiscal year annual report 2022. https://www1.hkexnews.hk/listedco/listconews/sehk/2022/0626/2022062600094.pdf, 2022. 5. Peiyi Wang, Lei Li, Liang Chen, Dawei Zhu, Binghuai Lin, Yunbo Cao, Qi Liu, Tianyu Liu, and Zhifang Sui. Large language models are not fair evaluators, 2023. 6. Tesla Inc. Model 3 owner’s manual. https://manualdirectory.com/manual/2023teslamodel3ownersmanual/, 2023. 7. Flávio Cunha, Fatih Karahan, and Ilton Soares. Returns to skills and the college premium. Journal of Money, Credit and Banking, 43:39–86, 2011. https://scihub.hkvisa.net/https://doi.org/10.1111/j.15384616.2011.00410.x. 8. Tom S. Vogl. Height, skills, and labor market outcomes in mexico. NBER Working Paper Series, 2012. https://www.nber.org/system/files/working_papers/w18318/w18318.pdf.
2025-02-11
AI领域,传统机器学习,nlp,深度学习,大语言模型,rag,agent,请生成一张让普通人能看懂的AI领域概念图
以下是为您生成的 AI 领域概念图的相关解释: 人工智能(AI):一种目标,让机器展现智慧。 生成式人工智能(GenAI):一种目标,让机器产生复杂有结构的内容。 机器学习:一种手段,让机器自动从资料中找到公式,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,如聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失。 深度学习:一种更厉害的手段,参照人脑有神经网络和神经元(因为有很多层所以叫深度),神经网络可用于多种学习方式。 大语言模型(LLM):是一类具有大量参数的“深度学习”模型。对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 AIGC(Artificial Intelligence Generated Content):利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等内容。 ChatGPT:一个应用实例,通过投喂大量资料预训练后,会通过聊天玩“文字接龙游戏”。它是美国 OpenAI 公司开发的一款基于大型语言模型(LLM)的对话机器人,能够根据用户的输入生成连贯且相关的文本回复。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,比 RNN 更适合处理文本的长距离依赖性。
2025-02-11
请列举可对接deepseek的本地部署的rag
以下是可对接 DeepSeek 的本地部署的 RAG 相关信息: DeepSeek 公司:深度求索。 DeepSeek 有网站、手机应用。 DeepSeek R1 大模型权重文件开源,可本地部署。但本地部署的版本存在一些不足,如难以作为长期使用的版本。 实现联网版的 R1 大模型的核心路径是通过工作流+DeepSeek R1 大模型。 拥有扣子专业版账号:若为普通账号,请自行升级或注册专业号后使用。 开通 DeepSeek R1 大模型的步骤:访问地址 https://console.volcengine.com/cozepro/overview?scenario=coze,打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务,添加在线推理模型,添加后在扣子开发平台才能使用。 创建智能体:点击创建,先完成一个智能体的创建。
2025-02-09
rag
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控及受幻觉问题干扰的情况。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 的优点包括: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且不影响原有知识。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt 中,提交给大模型,让其回答充分考虑“包含答案的内容”。其最常见应用场景是知识问答系统。RAG 由“检索器”和“生成器”两部分组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统,能提供详细准确的回答。
2025-02-07
模型能力测评方法有哪些,比如ragas这种
以下是一些常见的模型能力测评方法: 1. 从模型角度(generation): 回答真实性:评估模型结果的真实性,减少模型幻觉。 回答相关度:衡量结果与问题的相关性,避免南辕北辙。 2. 从检索角度(retrieval): 召回率(recall):考查相关信息在返回的检索内容中的包含程度,越全越好。 准确率(precision):评估返回的检索内容中有用信息的占比,越多越好。 RAGAS 是一个用于 RAG 评估的知名开源库,您可以通过了解和使用。 RAG 具有一定的优势和局限性: 优势: 能够解决大语言模型技术中输出结果的不可预测性、知识的局限性、幻觉问题、数据安全性等问题。 可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。 可以和微调结合使用。 局限性: 适合打造专才,不适合打造通才,不适合为模型提供通用领域知识。 难以让模型保持稳定的风格或结构输出,降低 token 消耗等,需要使用微调技术解决。
2025-02-07
纯小白对于模型等等都没有任何概念能看懂吗
对于纯小白来说,理解模型等相关概念是有一定挑战的,但通过以下内容可以逐步入门: Tusiart 相关概念: 1. 首页包含模型、帖子、排行榜,其中发布了各种模型和生成的图片。不同模型有 checkpoint 和 lora 两种标签,有的还有 XL 标签属于 SDXL 新模型。点击可查看模型详细信息,下方是返图区。 2. 基础模型(checkpoint)是生图必需的,任何生图操作都要先选定。它与 lora 不同,lora 是低阶自适应模型,类似小插件,可有可无,但对细节控制有价值,旁边的数值是其权重。 3. ControlNet 可控制图片中特定图像,如人物姿态、生成特定文字等,属于高阶技能。 4. VAE 是编码器,类似滤镜,调整生图饱和度,一般选择 840000 这个。 5. Prompt 提示词是想要 AI 生成的内容,负向提示词是想要 AI 避免产生的内容。 6. 图生图是上传图片后,sd 根据图片、模型及输入信息重绘,重绘幅度越大,输出图与输入图差别越大。 AI 技术原理相关概念: 1. 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习(有标签的训练数据,学习输入和输出映射关系,包括分类和回归)、无监督学习(学习数据无标签,算法自主发现规律,如聚类)、强化学习(从反馈学习,最大化奖励或最小化损失,类似训小狗)。 深度学习是一种参照人脑的方法,有神经网络和神经元,神经网络可用于多种学习。 生成式 AI 可生成文本、图片、音频、视频等。 LLM 是大语言模型,生成图像的扩散模型不是大语言模型,有的大语言模型如谷歌的 BERT 模型可用于语义理解。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它基于自注意力机制处理序列数据,比 RNN 更适合处理文本长距离依赖性。
2025-02-13
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果 , 给我推荐这类大模型
以下为您推荐可用于图生图(img2img)的大模型: 1. Stable Diffusion(SD)模型:由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。在图生图任务中,SD 模型会根据输入的文本提示,对输入图片进行重绘以更符合文本描述。输入的文本信息通过 CLIP Text Encoder 模型编码成机器能理解的数学信息,用于控制图像生成。 2. Adobe Firefly image 2 模型:上周发布了 Beta 测试版本,增加了众多功能,模型质量提升。默认图片分辨率为 20482048,对图片的控制能力增强,具有更高质量的图像和插图生成、自定义选项和改进的动态范围。支持生成匹配(img2img),应用预先选择的图像集中的风格或上传自己的风格参考图像以创建相似图像,还有照片设置、提示建议、提示链接共享、反向提示词等功能。
2025-02-12
给我图生图的大模型
以下为一些常用于图生图的大模型: 1. AbyssOrangeMix2:可将真人图片转为二次元风格,通过 DeepBooru 反推关键词,并结合 LORA“blindbox”重新生成,能生成 2.5D 人物风格的图片。 2. majicmixRealistic:在进行“图生图”的“涂鸦”功能时可选用,是一款追求真实性的模型。 3. revAnimated:适用于卡通类图片的图生图。 4. Realistic Vision:常用于真实类图片的图生图。
2025-02-12
什么是大模型
大模型通俗来讲,是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,会被数字化形成词汇表,便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 大模型的“大”指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。 所谓的大模型,简而言之,就是拥有庞大参数数量的模型,通过处理和理解海量数据,能够胜任一系列复杂的任务。其强大的原因在于庞大的参数数量和大量的数据训练,这些参数帮助模型更深入地理解和生成数据,而大量的数据是学习的基础,使其能掌握丰富的知识和技能。
2025-02-12
coze 能调用用户自己部署的大模型吗
Coze 可以调用用户自己部署的大模型。例如: 在 Coze 上搭建工作流框架时,可通过“个人空间工作流创建工作流”进行操作,在编辑面板中拖入对应的大模型节点来实现各项文本内容的生成。 当在 COW 中直接调用千问的某一个大模型时,需要更改 key 和 model 等配置。获取 key 可参考相关的视频和图文教程,同时需要完成实名认证,否则可能出现报错。 在使用 Coze 做智能报表助手的过程中,也涉及到对大模型的运用,如将用户问题转换为 SQL 等。
2025-02-12
请讲一下DeepSeek为什么可以实现之前的大模型实现不了的表格类 任务
DeepSeek 能够实现之前的大模型实现不了的表格类任务,可能有以下原因: 1. 创新的架构和设计:例如 DeepSeek 可能采用了独特的 Transformer 架构或其他创新的模型结构,使其在处理表格类任务时具有更出色的性能。 2. 高效的训练策略:可能通过优化训练过程,如使用特定的算法、数据增强方法或更精准的参数调整,提高了模型在表格任务上的表现。 3. 针对性的优化:针对表格类数据的特点,进行了专门的优化,例如对数据的预处理、特征提取或模型的微调。 4. 资源的有效利用:以相对较少的资金和硬件资源,如 550 万美元和 2000 块英伟达 H800 GPU,实现了高效的训练和出色的性能。 需要注意的是,以上只是基于提供的信息进行的推测和分析,具体原因还需要更深入的研究和了解 DeepSeek 的技术细节。
2025-02-12