直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

Graph RAG是什么

回答

GraphRAG 是一种基于图的 RAG 工具,具有以下特点和优势:

  • 在社区摘要应用中,它在全面性和多样性上以 70 - 80%的胜率大幅领先于传统 RAG。
  • 能通过 LLM 从文档集合中自动提取丰富的知识图谱,助力处理私有或未知数据集的问答。
  • 可以通过检测图中的“社区”(即密集连接的节点群组),从高层主题到低层话题,层次化地划分数据的语义结构。
  • 利用 LLM 为这些社区生成摘要,提供对数据集的全面概览,无需事先设定问题,尤其适合回答全局性问题。

微软前几天发布的 GraphRAG 架构非常厉害,Neo4j 的 CTO 写了一篇详细的文章《GraphRAG 宣言:为 GenAI 增加知识》,通俗易懂地介绍了 GraphRAG 的原理、与传统 RAG 的区别、GraphRAG 的优势、知识图谱的创建和利用知识图谱工作。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

AIGC Weekly #79

在社区摘要应用中,GraphRAG在全面性和多样性上以70-80%的胜率大幅领先于传统RAG。GraphRAG是一种基于图的RAG工具,通过LLM从文档集合中自动提取丰富的知识图谱,助力处理私有或未知数据集的问答。GraphRAG能通过检测图中的“社区”(即密集连接的节点群组),从高层主题到低层话题,层次化地划分数据的语义结构。它利用LLM为这些社区生成摘要,提供对数据集的全面概览,无需事先设定问题。这种方法尤其适合回答全局性问题。

AIGC Weekly #80

微软前几天发布的GraphRAG架构非常厉害,但是具体的原理和内容可能不太好理解。Neo4j的CTO写了一篇详细的文章《GraphRAG宣言:为GenAI增加知识》。通俗易懂的介绍了GraphRAG的原理、与传统RAG的区别、GraphRAG的优势、知识图谱的创建和利用知识图谱工作。

通过增强PDF结构识别,革新检索增强生成技术(RAG)

[title]通过增强PDF结构识别,革新检索增强生成技术(RAG)[heading1] 5 结论[content]参考文献[1]Alibaba Group Holding Limited.Fiscal year annual report 2023.https://static.alibabagroup.com/reports/fy2023/ar/ebook/en/index.html,2023.[2]Rongyu Cao,Hongwei Li,Ganbin Zhou,and Ping Luo.Towards document panoptic segmentation with pinpoint accuracy:Method and evaluation.In 16th International Conference on Document Analysis and Recognition,pages 3–18,2021.[3]https://pdflux.com/.[4]Daisho Microline Holdings Limited.Fiscal year annual report 2022.https://www1.hkexnews.hk/listedco/listconews/sehk/2022/0626/2022062600094.pdf,2022.[5]Peiyi Wang,Lei Li,Liang Chen,Dawei Zhu,Binghuai Lin,Yunbo Cao,Qi Liu,Tianyu Liu,and Zhifang Sui.Large language models are not fair evaluators,2023.[6]Tesla Inc.Model 3 owner’s manual.https://manual-directory.com/manual/2023-tesla-model-3-owners-manual/,2023.[7]Flávio Cunha,Fatih Karahan,and Ilton Soares.Returns to skills and the college premium.Journal of Money,Credit and Banking,43:39–86,2011.https://sci-hub.hkvisa.net/https://doi.org/10.1111/j.1538-4616.2011.00410.x.[8]Tom S.Vogl.Height,skills,and labor market outcomes in mexico.NBER Working Paper Series,2012.https://www.nber.org/system/files/working_papers/w18318/w18318.pdf.

其他人在问
GraphRAG 相关论文
以下是关于 GraphRAG 的相关论文信息: 在社区摘要应用中,GraphRAG 在全面性和多样性上以 70 80%的胜率大幅领先于传统 RAG。GraphRAG 是一种基于图的 RAG 工具,能够通过 LLM 从文档集合中自动提取丰富的知识图谱,有助于处理私有或未知数据集的问答。它可以通过检测图中的“社区”(即密集连接的节点群组),从高层主题到低层话题,层次化地划分数据的语义结构。并且能利用 LLM 为这些社区生成摘要,提供对数据集的全面概览,无需事先设定问题,尤其适合回答全局性问题。 微软前几天发布的 GraphRAG 架构非常厉害,但是具体的原理和内容可能不太好理解。Neo4j 的 CTO 写了一篇详细的文章《GraphRAG 宣言:为 GenAI 增加知识》,通俗易懂地介绍了 GraphRAG 的原理、与传统 RAG 的区别、GraphRAG 的优势、知识图谱的创建和利用知识图谱工作。
2024-07-15
给个使用langgraph的例子
LangGraph 是一个用于支持包含循环的 LLM 工作流创建的新包,它提供了 Python 和 JS 版本。以下是使用 LangGraph 的一个例子: 假设我们要开发一个客户支持机器人,它能够处理多种任务。我们可以使用 LangGraph 的核心功能来设计和构建这个机器人。 首先,我们需要确定机器人的多个独立代理,例如: 问题理解代理:负责理解客户提出的问题。 解决方案查找代理:根据问题查找相应的解决方案。 回答生成代理:生成回答并提供给客户。 然后,我们可以使用 LangGraph 将这些代理连接起来,形成一个多代理工作流。例如,问题理解代理可以将问题传递给解决方案查找代理,解决方案查找代理找到解决方案后再传递给回答生成代理,最后回答生成代理生成回答并提供给客户。 在这个过程中,每个代理都可以拥有自己的提示、LLM、工具和其他自定义代码,以便与其他代理最好地协作。 通过使用 LangGraph,我们可以更轻松地构建和管理复杂的多代理工作流,提高应用程序的灵活性和可扩展性。
2024-06-21
有没有关于RAG的实践
以下是关于 RAG 的一些实践: OpenAI 的实践:从 45%的准确率开始,尝试多种方法,如假设性文档嵌入(HyDE)和精调嵌入等,效果不理想。通过尝试不同大小块的信息和嵌入不同的内容部分,准确率提升到 65%。通过 Reranking 和对不同类别问题特别处理,进一步提升到 85%。最终,通过提示工程、查询扩展等方法结合,达到 98%的准确率。团队强调了模型精调和 RAG 结合使用的强大潜力,尤其是在未使用复杂技术的情况下,仅通过简单的模型精调和提示工程就接近行业领先水平。 本地部署大模型以及搭建个人知识库:利用大模型的能力搭建知识库是 RAG 技术的应用。RAG 应用可抽象为 5 个过程,包括文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 本地部署资讯问答机器人:基于用户问题从向量数据库中检索相关段落并过滤,让模型参考上下文信息回答,实现 RAG。通过 gradio 创建网页 UI 并进行评测,对不同模型如 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 进行测试,得出 GPT4 表现最好等结论。同时总结指出上下文数据质量和大模型性能决定 RAG 系统性能上限,RAG 能提升答案质量和相关性,但不能完全消除大模型幻觉、信息滞后问题。
2024-11-03
专门为大模型RAG设计的知识库产品 有哪些?
以下是一些专门为大模型 RAG 设计的知识库产品: 1. Metaso.cn:适用于学术、研究领域。 2. So.360.com:在生活方面提供便捷的搜索服务。 3. Felo.ai/search:具有综合性的特点。 4. Devv.ai:主要面向程序员、开发者。 5. Perplexity:属于付费产品,提供高质量的服务。 6. Bing.com:具有通用性。 7. Google.com:在全球范围内提供精准的搜索结果。 RAG 就像一个超级智能的图书馆员,其工作流程包括检索、增强和生成三个环节。在不改变大模型本身的基础上,通过外挂知识库等方式,为模型提供特定领域的数据信息输入,让模型能基于特定的数据生成内容、降低幻觉,实现对该内容更准确的信息检索和生成。 RAG 具有成本效益、灵活性和可扩展性等优点,比如实现成本更低,可以利用多种数据源,能随时增加或更新知识库中的内容。但也存在回答准确性不够的缺点。 在一些示例中,如设定使用阿里千问模型作为 AI 模型,将角色设定为“美嘉”并按照其人设、背景和对话风格设定提示词,放入《爱情公寓》全季剧情作为知识库,从而让“美嘉”拥有过往“记忆”。
2024-10-28
RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 大语言模型(LLM)需要 RAG 进行检索优化,原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控及受幻觉问题干扰的情况。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且不影响原有知识。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 便于管控用户隐私数据,且可控、稳定、准确。 5. 可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,在知识密集型任务中能增强语言模型的输出。基于检索器的方法越来越流行,常与 ChatGPT 等流行 LLM 结合使用。 在商业化问答场景中,优化 AI 更准确回答问题的过程称为 RAG。RAG 由检索器和生成器组成,检索器从外部知识中找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统。
2024-10-26
怎么写文档会让RAG 效果更好
要让 RAG 效果更好地写文档,您可以参考以下要点: 1. 文档切割: 合理的文档切割能让系统返回更完整、连贯的结果。例如,对于“猫咪的饮食习惯是什么?”的查询,将相关内容切割为“猫咪的饮食习惯取决于它们的年龄、健康状况和品种。”和“幼猫需要更多的蛋白质,而成年猫则需要均衡的营养。”这样的文档块。 目前免费平台一般提供智能切割和手动切割两种方式。但在当下技术水平下,智能切割效果一般,对于以问答为主的客服场景,将一个问答对切成一个文档片,检索效果会很好。 2. 整理知识库文档阶段: 确定知识库包含的文档类型,如政策原文文档、业务积累的 QA、操作指引、产品说明等,并进行预处理。 知识库本身质量对最终效果至关重要,是大模型生成回答的原始语料。 优化方向包括: 文档格式:PDF 文档格式信息相对简洁,干扰少,但也有说.docx 效果更优的,需根据场景测试。 文档命名:尽量控制在 10 字左右,涵义简洁明了,避免无意义的数字、符号或缩写。 文档语言:尽量统一为同一种,避免中英文混切导致乱码和无用数据。 文档内容:设置清晰的一二级标题,对特殊元素进行处理。 构建问答对:能达到更好效果,但耗费人力和运营成本,需综合考虑。 3. 通用语言模型微调可完成常见任务,更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源。Meta AI 引入的 RAG 方法把信息检索组件和文本生成模型结合,可接受输入并检索相关文档,给出来源,适应事实变化,不用重新训练就能获取最新信息并生成可靠输出。Lewis 等人(2021)提出通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。
2024-10-21
大模型中的RAG
RAG 即 RetrievalaugmentedGeneration(检索增强技术),是大模型中的一个重要概念。 首先回顾 LLM 的原理,它是把互联网文献材料降维到 latent space 中,并通过 transformer 方式学习其中的“经验”。但固定文献资料存在局限性,可能无法回答某些问题。 RAG 的出现解决了这一问题,它允许模型到搜索引擎上搜索问题相关资料,并结合自身知识体系综合回复。其中,RAG 的“R”即搜索环节并非简单操作,还涉及传统搜索的逻辑,如对输入问题的纠错、补充、拆分,以及对搜索内容的权重逻辑等。 例如,对于“中国界世杯夺冠那年的啤酒销量如何”的问题,会先纠错为“中国世界杯夺冠那年的啤酒销量如何”,然后拆分问题进行综合搜索,将搜索到的资料提供给大模型进行总结性输出。 RAG 是一种结合检索和生成的技术,能让大模型在生成文本时利用额外数据源,提高生成质量和准确性。其基本流程为:首先,给定用户输入(如问题或话题),RAG 从数据源中检索出相关文本片段(称为上下文);然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),输入通常包含提示,指导模型生成期望输出(如答案或摘要);最后,从大模型输出中提取或格式化所需信息返回给用户。
2024-10-20
RAG应用的案例,结合本地知识库和开放搜索
以下是一些 RAG 应用的案例: 1. 用户向 ChatGPT 查询最近引起广泛关注的事件,如 OpenAI 首席执行官的突然解雇和复职,由于 ChatGPT 预训练数据的限制缺乏对最新事件的了解。RAG 通过从外部知识库中检索最新的文档摘录来解决这一问题,获取相关新闻文章并与最初的问题合并成丰富的提示,使 ChatGPT 能够合成知情的回答,展示了其通过实时信息检索增强模型响应能力的过程。 2. 在本地知识库的搭建中,利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。RAG 应用可抽象为 5 个过程:文档加载,从多种来源加载文档;文本分割,把文档切分为指定大小的块;存储,包括将切分好的文档块嵌入转换成向量形式并存储到向量数据库;检索,通过检索算法找到与输入问题相似的嵌入片;输出,把问题及检索出来的嵌入片一起提交给 LLM,让其生成更合理的答案。 3. 在了解 RAG 全貌时,其流程分为离线数据处理和在线检索两个过程。离线数据处理目的是构建知识库这本“活字典”,在线检索则是利用知识库和大模型进行查询的过程。以构建智能问答客服这一最经典的应用场景为例,可深入了解 RAG 所有流程中的“What”与“Why”。
2024-10-20