直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

RAG库排名

回答

以下是关于 RAG 库排名的相关信息:

  • 在检索阶段获取匹配的文档片后,会有一个排序环节,通常基于文档片与输入问题之间的相似度分数来进行,确保最相关的片段排在前面。
  • RAG 是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级 LLM 应用方案,概括起来就是知识检索+内容生成。其主要组成包括数据提取、embedding(向量化)、创建索引、检索、自动排序(Rerank)、LLM 归纳生成。
  • 在重排 rerank 方面,搜到相似信息后存在选择策略,如默认取 TOP 10、TOP 25 等。大部分场景下选择最相似的通常没问题,但由于向量化基本是平权的,存在优化空间,特别是对于私有化数据,可引入来源机制进行调整,对向量化的数据进行综合评分,如相似度*置信度等,然后再进行 rebank。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

这可能是讲 Coze 的知识库最通俗易懂的文章了

检索阶段会将匹配到的文档片全部获取,紧接着是一个排序的环节。对于检索的文档片进行排序,确保最相关的片段排在前面。这一步通常基于文档片与输入问题之间的相似度分数来进行排序

RAG提示工程(一):基础概念

RAG是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级LLM应用方案。RAG概括起来就是知识检索+内容生成。这么说太抽象,可以理解为大模型的开卷考试,既然是开卷考试,那么谁带的书和资料内容更全,谁翻书翻的更快更准,谁开卷考试的结果就往往更好。下面来看RAG的主要组成,依次是数据提取——embedding(向量化)——创建索引——检索——自动排序(Rerank)——LLM归纳生成。当然这里少了使用环节,我们暂时先忽略。大家知道,开卷考试时,往往大家的参考资料都差不多,在有限的考试时间内如何又快又准的锁定问题在书上的相关内容更为重要。RAG做的好不好也是如此,核心就看能不能将内容检索的又快又准。如果抄错了书上(知识库)内容,往往大模型给出的答案也南辕北辙。

RAG性能提升策略和评估方法(产品视角)

3.2重排rerank搜到了最相似的信息,那我选哪个呢?这个都是策略。有的默认的取TOP 10,TOP 25,等。大部分场景下选择最相似的就没有问题。但是,您在想一想,现在的向量化基本都是平权的,也就是每个向量的置信度是一致,我举个例子,官媒报道的消息的权重应该大于小道消息。但是现在的权限是相等的,不真实的信息也可以污染这个RAG的搜索结果,而这个位置就可以有优化空间,特别是对于私有化的数据来说,你的数据的置信度业务方是非常清楚的。所以在这方面可以进行改进,引入来源机制进行调整。对向量化的数据进行综合评分,例如相似度*置信度等,然后再进行rebank。以上就是笔者在做这个RAG知识问答上的一些思考,也感谢前辈们的智慧结晶,给与相关的思路和建议。共勉

其他人在问
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。其旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。简单来说,就是通过检索的模式,为大语言模型的生成提供帮助,从而使大模型生成的答案更符合要求。 因为利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,所以在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,实现这一点的主要方法就是通过检索增强生成 RAG。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 一个 RAG 的应用可以抽象为以下 5 个过程: 1. 文档加载(Document Loading):从多种不同来源加载文档。LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储(Storage):存储涉及到两个环节,分别是: 将切分好的文档块进行嵌入(Embedding)转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索(Retrieval):一旦数据进入向量数据库,通过某种检索算法找到与输入问题相似的嵌入片。 LangChain 是一个用于构建高级语言模型应用程序的框架,它提供了一系列的工具和组件,使得开发人员能够更容易地使用大型语言模型(LLM)来创建各种应用程序。RAG 能够为 LLM 提供来自外部知识源的附加信息,使得 LLM 在应对下游任务时能够生成更精确和上下文相关的答案,并减少 LLM 的幻觉现象。LangChain 和 RAG 之间的关系可以概括为:LangChain 的设计主张集中在模块化组件上,这些组件提供用于使用 LLM 的行为抽象,并为每个抽象提供实现的集合,从而允许开发人员构造新链或实现现成的链。
2024-09-19
RAG技术实现的原理步骤
RAG 技术实现的原理步骤主要包括以下几个方面: 1. 理解问题:AI 模型首先需要理解用户的提问或指令。 2. 文档加载:从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 3. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 4. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 5. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 6. 检索相关知识:AI 模型根据对问题的理解,从外部知识库中检索相关的信息。 7. 整合知识与推理:AI 模型将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 例如,在医疗领域,RAG 技术可以帮助医疗 AI 助手获取最新的医学知识和临床案例,从而提高其诊断和治疗建议的准确性。但需要注意的是,在将大型文档转换为可检索内容的过程中,如文档解析和文本切分、嵌入向量生成等步骤,每一步都可能导致信息损失,复合损失会显著影响 RAG 响应的效果。
2024-09-17
RAG技术原理
RAG(RetrievalAugmented Generation,检索增强生成)是一种自然语言处理技术,主要用于提高语言模型的效果和准确性。其原理包括以下几个方面: 1. 由于大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG发挥作用。 2. 过程包括文档加载,从多种来源加载包括非结构化、结构化和代码等不同类型的文档。 3. 进行文本分割,把文档切分为指定大小的块。 4. 涉及存储环节,包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 5. 通过某种检索算法从向量数据库中检索出与输入问题相似的嵌入片。 6. 结合了检索和生成两种主要的自然语言处理方法。 检索部分从大量文本数据中检索出与输入问题最相关的信息,通常使用检索系统在大规模文档集合中寻找相关文段。 生成部分使用类似 GPT 的语言模型,根据检索到的信息生成响应或回答,涉及理解检索内容并生成连贯、相关且信息丰富的文本。 7. RAG 的出现解决了语言模型仅依靠固定资料回答问题的局限性,允许模型到搜索引擎上搜索相关资料,并结合自身知识体系综合回复。 其中的检索环节并非简单操作,还包含对输入问题的纠错、补充、拆分以及对搜索内容的权重逻辑等。
2024-09-17
RAG技术
RAG 即检索增强生成(RetrievalAugmented Generation),是一种结合了检索(检索外部知识库中相关信息)和生成(利用大型语言模型生成文本)的技术。 其工作原理包括以下几个步骤: 1. 理解问题:AI 模型首先理解用户的提问或指令。 2. 检索相关知识:根据对问题的理解,从外部知识库中检索相关信息。例如,用户问“埃菲尔铁塔有多高?”,AI 模型会从知识库中检索关于埃菲尔铁塔的信息。 3. 整合知识与推理:将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 RAG 技术的优势在于能够将 AI 模型与外部知识库连接起来,从而扩展 AI 模型的知识范围,提高其回答问题和生成内容的准确性。例如在医疗领域,可帮助医疗 AI 助手获取最新的医学知识和临床案例,提高诊断和治疗建议的准确性。 RAG 由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得 RAG 非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LangChain 是一个用于构建高级语言模型应用程序的框架,与 RAG 的关系在于,RAG 能够为大型语言模型提供来自外部知识源的附加信息,使得模型在应对下游任务时能够生成更精确和上下文相关的答案,并减少幻觉现象,而 LangChain 的设计主张集中在模块化组件上,为开发人员使用大型语言模型创建应用程序提供便利。
2024-09-17
rag与ai agent的区别
RAG(检索增强生成)与 AI Agent 存在以下区别: RAG 是给大模型提供一个浏览器工具来使用,而 AI Agent 则是给大模型提供了更多的工具,如长期记忆(相当于给大模型一个数据库工具来记录重要信息)、规划和行动(在大模型的 prompt 层进行目标拆解,并输出不同的固定格式 action 指令给工具)。 在实际应用中,外置知识的集成和管理常常采用 RAG 架构,它通过检索外部知识源来增强模型的生成能力。而 AI Agent 不仅依赖内置知识,还能实时检索和整合最新的外部信息来完成任务,例如可以让大模型帮忙安排差旅,它会判断完成目标所需的步骤,搜索差旅记录,预订酒店和机票等。 总的来说,AI Agent 在 RAG 的基础上有了更多的功能和更广泛的应用空间。
2024-09-06
对于大语言模型使用的未来趋势,是闭源云端还是开源本地部署,作为普通用户是否有必要了解本地部署知识,并且是否有必要自己搭建agent以及rag?
大语言模型的未来趋势在闭源云端和开源本地部署方面存在多种可能性。 对于开源本地部署,以下是一些相关信息: Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有以下特点: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,以满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装可访问 https://ollama.com/download/ 。 可以通过一些教程学习如何本地部署大模型以及搭建个人知识库,例如了解如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建完全本地化的数据库等。 同时,采用开源或国内企业提供的 13B 级模型本地部署在内部系统中,虽需投入算力,但有其价值。智能客服的大量优质大客户可能会选择自己搭建智能客服平台,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,实现 RPA 自动流程。 对于普通用户是否有必要了解本地部署知识以及是否有必要自己搭建 agent 以及 rag,这取决于个人需求和兴趣。如果您希望更深入了解大模型的工作原理和运行机制,或者有特定的个性化需求,那么了解和尝试本地部署可能是有意义的。但如果只是一般的使用需求,可能无需深入了解和自行搭建。
2024-09-03
截止今日国内ai性能排名
以下是截至今日国内部分 AI 产品的性能排名情况: |排行|产品名|分类|4 月访问量(万 Visit)|相对 3 月变化| |||||| |60|文心一格|图像生成|41.5|0.086| |61|DupDub|文字转音频|41.4|0.107| |62|阿里堆友 AI 反应堆|图像生成|40.7|0.169| |63|识典古籍|AI 学习|39.2|0.164| |64|标智客 Ai Logo|图像生成|37.8|1| |65|笔灵 AI|通用写作|37.4|0.087| |66|Learn Prompting|Prompts|36.1|0.284| |67|搜韵网|通用写作|36|0.155| |68|腾讯智影|其他视频生成|35.4|0.131| |69|新片场素材|其他视频生成|35.2|0.128| |70||图像编辑|35|0.301| |71|彩云小译|翻译|34.3|0.107| |36|虎课网免费在线视频教程|AI 学习|62.9|0.005| |37|Glasp|会议总结|60.7|0.325| |38|aippt|PPT|59.6|0.142| |39|帆软战略|电商|59.5|0.145| |40|帆软数据|数据分析|59.5|0.145| |41|讯飞听见|转录|56.2|0.065| |42|Pixso AI|设计工具|54.9|0.017| |43|ToonMe(卡通头像)|图像生成|53.6|0.993| |44|edrawsoft|思维导图|53.5|0.14| |45|Dify.ai|AI ChatBots|51.7|0.452| |46|彩云|通用写作|51.5|0.117| |47|360 苏打办公|生产力|50.6|1.269|
2024-09-02
国内AI大模型排名
以下是国内部分 AI 大模型的相关信息: 8 月正式上线的国内大模型: 北京企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 特色功能: 昇思:生图 MiniMax:语音合成 聊天状态下能生成 Markdown 格式的:智谱清言、商量 Sensechat 目前不能进行自然语言交流的:昇思 受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值) VIRTUAL 中文大模型基准测评 2023 年度报告: 国内外大模型总体表现: 国内大模型竞争格局:大厂平均 62.09,创业公司平均 69.42,差值约 6.33 分,较 11 月份差距在增大,说明大厂在大模型竞争中长期资源投入方面有一定优势。 国内大模型历月前三甲: 过去八个月国内模型在 SuperCLUE 基准上的前三名: 12 月:文心一言 4.0 11 月:文心一言 4.0 10 月:BlueLM 9 月:SenseChat 3.0 VIRTUAL 国内大模型关键进展: AndesGPT 是 OPPO 自主训练的大语言模型,于 11 月 2023 OPPO 开发者大会上正式推出,具有对话增强、个性专属和端云协同三大技术特征。目前已接入 OPPO 智能助理新小布,可用于用机助手、内容创作、超级问答、专属 AI、日程管理等全新能力,正在公测中。 模型特点:在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三。各项能力较为均衡,在国内大模型厂商中比较有竞争力。 适合应用:聚焦在移动设备端的应用,主要涵盖知识、记忆、工具、创作四个方向。目前已支持使用“系统设置、一方应用、三方服务、代码解释器”等各类工具,并且已全面支持文生文、文生图等场景。 优秀模型:Baichuan213BChat(百川智能)
2024-08-15
写作能力很强的AI排名
以下是关于写作能力很强的 AI 的相关信息: 最佳免费选项:Bing(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx)和 Claude 2(https://claude.ai/)。 付费选项:带有插件的 ChatGPT 4.0/ChatGPT。目前,GPT4 是功能最强的人工智能写作工具,可在 Bing(选择“创新模式”)上免费访问,或通过购买 ChatGPT 的$20/月订阅来使用。Claude 是紧随其后的第二名,也提供了有限的免费选项。 此外,Notion AI(免费可用)可在笔记和文档中应用 AI 的力量,能让工作更迅速,写作更出色,思考更伟大。 还有 Guidde AI(免费可用),这是一款生成式 AI 平台,使团队能够以 11 倍的速度传递专业知识,与客户或员工共享。
2024-08-14
最新的国内大模型评测排名
中国国内的大模型排名可能在短时间内会有变化,作为AI机器人无法提供最新的信息。要获取最新的中国国内大模型排名,你可以查阅相关的科技新闻网站、学术论坛或关注人工智能领域的社交媒体平台,这些渠道通常会及时发布最新的排名和评价。 在通往 AGI 之路的知识库里,在 会定期更新相关的排名报告,可以供您查阅。
2024-04-15