Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

最新的 RAG 进展和业界实践

Answer

以下是关于最新的 RAG 进展和业界实践的详细介绍:

RAG 是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级 LLM 应用方案。概括来说,它是知识检索与内容生成的结合,就像大模型的开卷考试,谁的资料更全、翻找更快更准,结果往往更好。

Lewis 等人(2021)提出了一个通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆,并通过神经网络预训练的检索器访问。RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,用 MS-MARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、更具体、更多样,FEVER 事实验证使用 RAG 后也得到了更好的结果,这表明 RAG 是一种可行的方案,能在知识密集型任务中增强语言模型的输出。

目前,大部分公司倾向于使用 RAG 方法进行信息检索,因为相比长文本的使用成本,使用向量数据库的成本更低。在 RAG 应用中,一些公司会使用微调的 Embedding Model 增强检索能力,也有些公司会选择使用知识图谱或者 ES 等非向量数据库的 RAG 方法。一个正常的模型使用 RAG 仍是当前主流。由于大语言模型存在信息滞后和不包含业务知识的特点,常需外挂知识库协助解决问题,此时 Embedding 模型的召回效果直接影响大模型的回答效果,所以很多场景下需要微调 Embedding 模型提高召回效果。

最近,基于检索器的方法越来越流行,常与 ChatGPT 等流行 LLM 结合使用来提高其能力和事实一致性。例如,在 LangChain 文档中可以找到一个使用检索器和 LLM 回答问题并给出知识来源的简单例子。

此外,来自马里兰大学、劳伦斯利弗莫尔国家实验室、纽约大学的研究学者提出了一个大模型微调的方法,在微调时只需要在 Embedding 层上加随机噪声即可大幅度提升微调模型的对话能力,且不会削弱模型的推理能力。用 Alpaca 微调 LLaMA-2-7B 可以在 AlpacaEval 上取得一定表现,而用加了噪声的嵌入则表现更佳,不过该工作只在较小的模型上进行微调。

Content generated by AI large model, please carefully verify (powered by aily)

References

检索增强生成 (RAG)

Lewis等人(2021)提出一个通用的RAG微调方法。这种方法使用预训练的seq2seq作为参数记忆,用维基百科的密集向量索引作为非参数记忆(使通过神经网络预训练的检索器访问)。这种方法工作原理概况如下:图片援引自:[Lewis et el.(2021)(opens in a new tab)](https://arxiv.org/pdf/2005.11401.pdf)RAG在[Natural Questions(opens in a new tab)](https://ai.google.com/research/NaturalQuestions)、[WebQuestions(opens in a new tab)](https://paperswithcode.com/dataset/webquestions)和CuratedTrec等基准测试中表现抢眼。用MS-MARCO和Jeopardy问题进行测试时,RAG生成的答案更符合事实、更具体、更多样。FEVER事实验证使用RAG后也得到了更好的结果。这说明RAG是一种可行的方案,能在知识密集型任务中增强语言模型的输出。最近,基于检索器的方法越来越流行,经常与ChatGPT等流行LLM结合使用来提高其能力和事实一致性。LangChain文档中可以找到[一个使用检索器和LLM回答问题并给出知识来源的简单例子(opens in a new tab)](https://python.langchain.com/docs/use_cases/question_answering/quickstart)。

质朴发言:大模型未来发展:RAG vs 长文本,谁更胜一筹?|Z 沙龙第 8 期

目前,大部分公司倾向于使用RAG方法进行信息检索,因为相比长文本的使用成本,使用向量数据库的成本更低。而在RAG应用过程中,一些公司会使用微调的Embedding Model,以增强RAG的检索能力;而有些公司会选择使用知识图谱或者ES等非向量数据库的RAG方法。一个正常的模型使用RAG仍然是当前的主流选择。由于大语言模型信息的滞后性以及不包含业务知识的特点,我们经常需要外挂知识库来协助大模型解决一些问题。在外挂知识库的过程中,Embedding模型的召回效果直接影响大模型的回答效果,因此,在许多场景下,我们都需要微调Embedding模型来提高召回效果。来自马里兰大学、劳伦斯利弗莫尔国家实验室、纽约大学的研究学者提出了一个大模型微调的方法;在微调时只需要简单的在Embedding层上加随机噪声即可大幅度提升微调模型的对话能力,而且也不会削弱模型的推理能力。用Alpaca微调LLaMA-2-7B可以在在AlpacaEval上取得29.79%的表现,而用加了噪声的嵌入则提高到64.69%。不过该工作只在较小的模型上进行微调。

RAG提示工程(一):基础概念

RAG是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级LLM应用方案。RAG概括起来就是知识检索+内容生成。这么说太抽象,可以理解为大模型的开卷考试,既然是开卷考试,那么谁带的书和资料内容更全,谁翻书翻的更快更准,谁开卷考试的结果就往往更好。下面来看RAG的主要组成,依次是数据提取——embedding(向量化)——创建索引——检索——自动排序(Rerank)——LLM归纳生成。当然这里少了使用环节,我们暂时先忽略。大家知道,开卷考试时,往往大家的参考资料都差不多,在有限的考试时间内如何又快又准的锁定问题在书上的相关内容更为重要。RAG做的好不好也是如此,核心就看能不能将内容检索的又快又准。如果抄错了书上(知识库)内容,往往大模型给出的答案也南辕北辙。

Others are asking
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
RAG实战教程推荐
以下为您推荐一些 RAG 实战教程: 1. 【AI+知识库】商业化问答场景,让 AI 回复更准确,一篇专为所有“小白”讲透 RAG 的实例教程(上篇): 介绍了常见的错误场景,如回答不准确、报价错误、胡编乱造等,强调了优化 AI 准确回答的重要性,并引出 RAG 概念。 讲解了基础概念,包括优化幻觉问题和提高准确性需要了解从“问题输入”到“得到回复”的过程,并针对每个环节逐个调优。 阐述了检索原理,包括问题解析阶段通过嵌入模型将问题文本转化为向量,知识库检索阶段比较向量选择相关信息片段,信息整合阶段构建融合全面的信息文本,大模型生成回答阶段将整合后的信息转化为向量输入大语言模型生成回答。还通过实例进行了详细说明,如知识库检索部分的向量化、优化问题、向量检索、抽取内容块等,以及大模型对话部分。 2. 开发:LangChain 应用开发指南 不用向量也可以 RAG: 以餐饮生活助手为例展示了基于结构化数据来 RAG 的实战方法,包括给出用户提问和回复的示例,以及餐饮生活助手 RAG 的代码实战。 介绍了实现餐饮生活助手 RAG 的 Langchain 代码实战需要完成的步骤,如定义餐饮数据源,将餐饮数据集转化为 Langchain 可识别和操作的数据源并注册到 Langchain 中;定义 LLM 的代理,通过 Langchain 的代理根据用户问题提取信息、形成查询语句、检索数据源、生成答案并输出给用户。
2025-04-01
如何学习RAG
以下是关于学习 RAG 的方法和相关内容: 1. 从 AI 搜索切入:RAG 流程复杂,可先从熟悉的 AI 搜索入手。AI 大模型擅长语义理解和文本总结,但不擅长获取实时信息;搜索引擎擅长获取实时信息但信息分散,需人为总结。AI 与搜索引擎结合,给 AI 配备活字典,搜索引擎充当知识库。 2. 用 Coze 学习 RAG 的方法: 推荐使用 Claude + Coze 的方法。Claude 是强大的 AI 大模型,Coze 是 AI Agent 的衍生产品。 首先通过 Claude 了解细节概念,然后通过 Coze 搭建 Demo,在动手实践中学习。 学习过程中创建了 4 个 Bot: 产品资料问答机器人,利用 Coze 的知识库能力演示知识库在企业中的应用。 Query 改写助手学习 Bot,专门用于学习 Query 的改写。 Query 改写效果对比 Bot,对比 Query 改写和未改写的区别。 RAG 全流程学习 Bot,结合对 RAG 全流程的了解,使用 Coze 的工作流模拟 RAG 的离线存储和在线检索全流程。 3. 相关视频演示: 还不知道 Coze 是什么的同学可以看公开分享: 。
2025-04-01
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在一个 RAG 的应用中,可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-03-31
企业RAG知识库的实施步骤
企业 RAG 知识库的实施步骤主要包括以下几个方面: 1. 文档加载(Document Loading):从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割(Splitting):使用文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储(Storage):存储涉及两个环节,一是将切分好的文档块进行嵌入(Embedding)转换成向量的形式,二是将 Embedding 后的向量数据存储到向量数据库。 4. 检索(Retrieval):数据进入向量数据库后,通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起生成更加合理的答案。 此外,构建知识库也是重要的步骤。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2025-03-30
RAG和知识图谱的结合,需要如何实现
要实现 RAG 和知识图谱的结合,可以参考以下步骤: 1. 数据加载:根据数据源的类型选择合适的数据加载器,如对于网页数据源,可使用 WebBaseLoader 利用 urllib 和 BeautifulSoup 加载和解析网页,获取文档对象。 2. 文本分割:依据文本特点选用合适的文本分割器,将文档对象分割成较小的文档对象。例如,对于博客文章,可使用 RecursiveCharacterTextSplitter 递归地用常见分隔符分割文本,直至每个文档对象大小符合要求。 3. 嵌入与存储:根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,将文档对象转换为嵌入并存储。比如,可使用 OpenAI 的嵌入模型和 Chroma 的向量存储器,即 OpenAIEmbeddings 和 ChromaVectorStore。 4. 创建检索器:使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数,创建用于根据用户输入检索相关文档对象的检索器。 5. 创建聊天模型:根据模型性能和成本选择合适的聊天模型,如使用 OpenAI 的 GPT3 模型,即 OpenAIChatModel,根据用户输入和检索到的文档对象生成输出消息。 此外,通用语言模型通过微调能完成常见任务,而对于更复杂和知识密集型任务,可基于语言模型构建系统并访问外部知识源。Meta AI 研究人员引入的 RAG 方法把信息检索组件和文本生成模型结合,能接受输入并检索相关文档,组合上下文和原始提示词送给文本生成器得到输出,适应事实变化,无需重新训练模型就能获取最新信息并产生可靠输出。Lewis 等人(2021)提出通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。
2025-03-28
ai 写作业界产品分析
以下是关于 AI 写作业界产品的分析: 在论文写作领域,AI 技术的应用发展迅速,提供了多方面的辅助,常见的工具和平台包括: 1. 文献管理和搜索: Zotero:结合 AI 技术,自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化,助力复杂数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 通用写作领域的 Top30 AI 产品数据(4 月访问量及相对 3 月变化)如下: |排行|产品名|分类|4 月访问量(万 Visit)|相对 3 月变化| |||||| |17|Resume AI Scanner|通用写作|96.7|0.351| |18|Paperpal|通用写作|95.2|0.579| |19|Predis.ai|通用写作|93.6|0.112| |20|Intelligent paraphraser|通用写作|84|0.051| |21|秘塔写作猫|通用写作|75.3|0.013| |22|Sudowrite|通用写作|69.2|0.05| |23|SEO 优化精灵|通用写作|64.6|0.039| |24|Good AI|通用写作|61.2|0.475| |25|Neuroflash|通用写作|54.1|0| |26|Miniapps.ai|通用写作|53.3|0.002| |27|彩云|通用写作|51.5|0.117| |28|Magical AI|通用写作|51.4|0.034| |29|深言达意|通用写作|41.8|0.31| |30|火山写作|通用写作|41.7|0.058| 陈财猫对于如何用 AI 写出比人更好的文字有以下观点: 1. AI+内容创作是现阶段的好赛道,有完美的产品模型匹配和产品市场匹配,且天花板高。 2. 其业务包含营销和小说、短剧创作,开发了智能营销矩阵平台,参与相关写作课程,捣鼓出小财鼠程序版 agent。 3. 好文字能引起人的生理共鸣与情绪,AI 因预训练数据量大能学会引发共鸣从而写出好文字。 4. 用 AI 写出好文字的方法包括选好模型,评估模型的文风和语言能力等;克服平庸,平衡“控制”与“松绑”;显式归纳想要的文本特征,通过 prompt 中的描述与词语映射到预训练数据中的特定类型文本,往 prompt 里塞例子。 5. 认为 AI 创作的内容有灵魂,期望 AI 能力进一步提升改变每个人的生活。 使用这些 AI 写作工具时,要结合自己的写作风格和需求,选择最合适的辅助工具。同时,内容由 AI 大模型生成,请仔细甄别。
2025-01-17
AI在人力资源中的实践应用资料
以下是关于 AI 在人力资源中的实践应用资料: 在人力资源管理领域,AI 的应用覆盖了多个环节,显著提高了工作效率。 在招聘初期,AI 可用于职位描述生成、简历分析、面试题设计等方面。 在员工绩效评估中,AI 能够分析员工工作表现,识别绩效趋势和提升点,为管理层提供数据支持的绩效反馈。 在员工培训与发展方面,AI 也能发挥作用。 相关报告推荐: 《》预测,随着技术进步,AI 将进一步推动个性化人力资源管理,创造无人值守的 HR 平台,推动企业持续发展。 此外,在全行业中,基础办公提效如 ppt、excel、会议报告、策划会、文案包装、图文海报、客服机器人 bot 等,都可以从【单个任务 task>角色 role>角色间协同 collaboration】显著提高工作效率。
2025-03-31
公司给我了一个调研作业,收集 市场上其它公司在agent业务变革上的优秀实践
很抱歉,目前没有关于市场上其他公司在 agent 业务变革方面优秀实践的相关内容。建议您通过以下途径进行收集和调研: 1. 行业报告和研究机构发布的分析:这些通常会涵盖多个公司在特定领域的实践和趋势。 2. 专业的行业论坛和社区:与同行交流,获取他们的经验和见解。 3. 公司的官方网站和公开资料:了解其业务变革的介绍和相关案例分享。 4. 新闻媒体报道:关注相关的商业新闻,获取最新的动态和实践案例。
2025-03-31
实践案例推荐,仅搜索教育、多邻国相关的内容
以下是与教育、多邻国相关的实践案例推荐: 张翼然:用 AI 为教师减负(3H) 教师的 AI 减负指南生成式人工智能在教学中的应用 教师使用 AI 小技巧 想让 AI 做好,首先你得会做 教学目标:是否明确,与课程标准和学生实际需求相符合 教学方法:是否使用多种,考虑学生不同学习风格 能力培养:是否注重培养学生的思维、创新和实践能力 教学实践 教案中的教学过程是否紧密结合学生现实生活和个人经验 群里“公开问”创造良好探究学习气氛,提问技巧可见的快速提高 是否充分利用课堂时间,让学生参与教学 是否在教学中关注学生反馈和理解,及时调整教学策略 师生关系 是否营造良好教学氛围和师生关系 是否平等尊重学生主体地位,体现尊重和关爱学生的教育理念 是否注重发挥学生积极性和主动性,激发学习热情 移动教学应用: 多邻国 六六写字 幕布 “遇见苏轼”项目式教学 在教育实践中,针对二年级学生对于抽象数学概念感到困惑的痛点问题,也有相关的探索和尝试。
2025-03-20
育儿智能体落地实践推荐,相关案例和资讯
以下是为您整理的育儿智能体落地实践的相关案例和资讯: 在“通往 AGI 之路知识库使用指南”中,提到了智能纪要、智能章节等内容。包括博主精美解释六大策略,小七姐在社区带来共学课程及直播分享与回放,介绍了官方最佳 prompt 的 6 个实践办法。还提到了 AI 智能体的进阶、案例拆解及扣子的应用,如景淮老师的相关成果,阐述扣子、千帆百炼属于智能体范畴,扣子更偏 ToC 应用。同时提到 Cos 平台功能全面,社区共学成果显著,学习 AI agent 建议先吃透 prompt,官方文档内容全面,社区小伙伴参加 cos 比赛常获奖并分享经验。 在“张翼然:AI 赋能教学,创新引领未来.pdf_AI 赋能教学创新引领未来”中,涵盖了教育目标由知识本位向能力为重的转型、群智协同与知识动态生成、核心能力、关键价值等方面。还包括设计实验或观察方法、收集与分析数据、得出结论并撰写报告等研究过程的指导,以及黎加厚关于让教师掌握教育智能体金钥匙的相关内容。同时探讨了 AIGC 教育革命、AI 从工具到助手、赋能教师提升效率与能力、大语言模型的教学潜力、AI 与教育场景融合拓展教学边界与创新场景、一线教师的 AI 需求与高效工具推荐、AI 赋能课堂的核心逻辑、AI 与人类智能的共生放大学生思考力塑造深度学习能力、解码 AI 教学案例、能力的普遍性与局限性、现阶段 AI 在教育领域应用的局限性等内容。 在“扣子案例合集社区内容分享”中,包含了如“用 Coze 扣子轻松搭个 Bot,从此告别‘标题党’”“扣子官方:用扣子/Coze 揭秘吴恩达的 4 种 AI Agent 设计模式”“扣子官方:这届 00 后已经学会用扣子/Coze‘偷懒’了”“【2 万字长文】如何用 Kimi 全自动创建扣子智能体?这喂饭级教程将揭晓一切!”“保姆级教程:Coze 打工你躺平”“扣子 Coze 智能体开发实战教程|智能体开发”等案例。
2025-03-20
数据问答的最佳实践
以下是关于数据问答最佳实践的相关内容: Databricks: Databricks 作为大数据领域的领先服务商,在 RAG 设计上有自身特点和优势。用户输入问题后,从处理好的文本向量索引获取相关信息,结合提示词工程生成回答。上半部分 Unstructured Data pipeline 采用主流 RAG 方法,下半部分 Structured Data Pipeline 是其特征工程处理流程,也是最大特点。Databricks 从专业大数据角度出发,在准确度较高的数据存储中进行额外检索,发挥在 Real Time Data Serving 上的优势。可见其在 GenAI 时代将强大的 Lakehouse 数据处理能力与生成式 AI 技术深度融合,构建一体化解决方案。 OpenAI: 从 OpenAI Demo day 的演讲整理所得,在提升 RAG 准确率的成功案例中,OpenAI 团队从 45%的准确率开始,尝试多种方法。包括假设性文档嵌入(HyDE)和精调嵌入等,但效果不理想。通过尝试不同大小块的信息和嵌入不同内容部分,准确率提升到 65%。通过 Reranking 和对不同类别问题特别处理,进一步提升到 85%。最终,结合提示工程、查询扩展等方法,达到 98%的准确率。团队强调模型精调和 RAG 结合使用的强大潜力,仅通过简单的模型精调和提示工程就接近行业领先水平。 Loop: 具有环状结构的 RAG Flow 是 Modular RAG 的重要特点,检索和推理步骤相互影响,通常包括一个 Judge 模块控制流程,具体可分为迭代、递归和主动检索三种。 迭代检索:对于一些需要大量知识的复杂问题,可采用迭代方式进行 RAG,如 ITERRETGEN。每次迭代利用前一次迭代的模型输出作为特定上下文帮助检索更相关知识,通过预设迭代次数判断终止。 递归检索:特点是明显依赖上一步并不断深入检索,通常有判断机制作为出口,需搭配 Query Transformation,每次检索依赖新改写的 Query。典型实现如 ToC,从初始问题通过递归执行 RAC 逐步插入子节点到澄清树中,达到最大数量有效节点或最大深度时结束,然后收集所有有效节点生成全面长文本答案回答初始问题。
2025-03-17
数据分析领域智能化应用实践
以下是关于数据分析领域智能化应用实践的相关内容: ChatGPT 助力数据分析 在个性化分析示例中,上传的数据均为假数据,包括游戏 A 流水数据、游戏产品数据、页面事件统计和用户行为数据等,仅供测试。涉及单维度数据、多维度数据的折线图和柱状图。有时 AI 会误将数据项作为维度分析,可通过输入提示告诉它用哪个字段作为维度,或描述其他数据信息以使分析更准确。 总结和展望方面,ChatGPT 在数据分析领域具有广泛应用前景,能提高效率、降低技能门槛和支持决策。但案例分析结果可能简单,实际接入业务可定制多种分析模板,增加分析多样性。处理大量数据时,除注意长类型字段限制,还应指定允许查询或解析的字段,并对结果数据进行校验。随着技术进步,ChatGPT 等工具将为数据分析带来更多创新和突破。 金融领域的智能化应用 摩根大通的模型显示,美联储鹰鸽派评分上升 10 个百分点,意味着加息 25 个基点可能性增加约 10 个百分点。为深入应用成果,摩根大通等银行与大学合作培育生态系统,采用开源合作推动知识产权发展。研究者认为人工智能可通过处理大量数据集等完善经济和货币预测,为政策决策提供信息。摩根大通任命 Teresa Heitsenrether 领导新的数据和分析部门,目前公司有 300 多个人工智能用例投入生产,用于风险、勘探、营销等方面,降低了零售业务风险,改善了交易优化和投资组合构建。公司有 1000 多名数据管理人员、900 多名数据科学家和 600 名 ML 工程师,专注于自然语言处理等方面的人工智能和机器学习。
2025-03-06
目前deepseek的进展
目前 DeepSeek 的进展如下: 持续 5 天的“开源周”已进行到第 3 天。周一开源了专为英伟达 Hopper GPU 打造的高效 MLA 解码内核 FlashMLA,已正式投产使用。周二开源了专为混合专家系统(MoE)和专家并行(EP)设计的通信库 DeepEP。周三开源了支持稠密和 MoE 模型的 FP8 GEMM(通用矩阵乘法)计算库 DeepGEMM,可为 V3/R1 的训练和推理提供强大支持。总的来说,英伟达和 DeepSeek 开源的内容都是通过对英伟达 GPU 和集群的优化,来推动 AI 模型的高效计算和部署。 华尔街分析师对 DeepSeek 的反应:展示出媲美领先 AI 产品性能的模型,但成本仅为其一小部分,在全球主要市场的 App Store 登顶。Jefferies 警告其技术可能打破资本开支狂热,Citi 对其技术突破提出质疑。高盛预测其可能改变科技巨头与初创公司的竞争格局,降低 AI 行业进入门槛。 DeepSeek 的实际使用体验:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化,表现不错;编程能力略逊于 GPT,据用户反馈。GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。
2025-04-01
上一周 ai有什么新的进展
以下是上一周 AI 的一些新进展: 应用形态的重构方面,AI Agent 取得突破,为机器人赋予自主行动能力,AI 编程工具的进展或预示人机协作模式的变革。 2 月,OpenAI 发布视频生成模型 Sora,实现高质量文本生成视频,开创 AI 视频生成新纪元。 3 月,Suno 发布 V3 版本,AI 音乐生成进入生产力可用状态。 4 月,Meta 发布高性能开源大模型 Llama3,降低了 AI 技术的准入门槛。 5 月,GPT4 发布,RayBan 与 Meta 合作的智能眼镜销量突破百万,字节上线即梦 AI。 6 月,快手发布可灵,Apple Intelligence 发布。 9 月,OpenAI 发布 o1 预览版。 10 月,Rosetta 和 AlphaFold 算法的研发者因在蛋白质结构设计和预测中的突破性贡献获得诺贝尔化学奖,约翰·霍普菲尔德和杰弗里·辛顿因人工神经网络和深度学习的开创性贡献获诺贝尔物理学奖,Anthropic 大模型 Claude 3.5 Sonnet 获得“computer use”功能。 12 月,OpenAI 发布 o3 系列模型。 此外,还有一些关于 AI 的讨论和话题,如把 350 万条 Midjourney 提示词放进一张可视化图里,2 套权威的 AI 术语表,天工新功能的定位靠近元宇宙,NotebookLM 与 AI 播客的关系,Bob 类似于更轻巧的能选多种大模型的桌面端应用“豆包”,Monica.im 的发展,物圆 TreLoop 的情况,对 AGI 距离的讨论,Arc 浏览器的状态,李开复关于 AI 应用爆发和 AGI 的观点,李继刚的 Prompt 玩法,OpenAI 研究副总裁离职,15 岁开发者的开源项目被收购,关于 AI 编程效率的讨论等。
2025-03-17
请推荐最新的AI相关进展新闻
以下是一些最新的 AI 相关进展新闻: 在医疗领域: ChatGPT 和 Google Bard 等技术极大加速了医疗健康生物制药的研究,AI 在抗癌、抗衰老、早期疾病防治等方面发挥着重要作用。例如,AI 提前三年诊断胰腺癌;两名高中生与医疗技术公司合作发现与胶质母细胞瘤相关的新靶基因;AI 帮助抗衰老,筛查出高效的药物候选物;利用 AI 寻找阿尔兹海默症的治疗方法;使用神经网络分析患者体液中的生物标志物以早期诊断帕金森。 在技术应用方面: AI Agent 的突破让行业看到更多可能性,如机器人获得自主行动能力。AI 编程工具的进展预示着人机协作模式的变革。 2024 年 AI 关键进展时间线包括:2 月 OpenAI 发布视频生成模型 Sora;3 月 Suno 发布 V3 版本;4 月 Meta 发布高性能开源大模型 Llama3;5 月 GPT4 发布等。 赛博月刊显示,AI 音频公司在效果和延迟方面取得突破,3D 世界生成领域处于初级阶段但有望在明年取得巨大进步,AI 应用的更新集中在搜索、知识库、编程等领域,越来越多应用公司受到资本青睐。
2025-03-16
transformer是通往AGI的必经之路吗?什么是世界模型,当前有哪些进展
Transformer 并非通往 AGI 的必经之路。在已知的 token space 中,Transformer 符合一些条件,但在更通用的场景中不太符合。AI 本质包含一堆 scaling law,一个值得被 scale up 的架构是基础,且架构要支持不断加入更多数据。当前在数据方面,如限定问题的数据生成有进展,但通用问题还没有完全的解法。 世界模型方面,目前的研究正在以指数级别的速度增长。对于语言这种有结构、有规则的指令系统,其逻辑受指向描述变化,如早期语言模型建模中用到的 RNN、LSTM 及当前 LLM 的 Transformer 模型结构,都是对语言序列性所体现逻辑结构的适配。同时也在思考是否存在其他形式的符号化表征及相应的建模结构,以及对于非碳基生物语言的使用情况等。未来通往 AGI 的道路并非简单,需要探寻 RL 与 LLM 的本质普遍性。
2025-03-16
请帮我整理关于AI最新进展和应用的介绍内容
以下是关于 AI 最新进展和应用的介绍: 医疗领域: ChatGPT 和 Google Bard 等技术极大加速了医疗健康生物制药的研究。AI 在抗癌、抗衰老、早期疾病防治等方面发挥着重要作用。 提前三年诊断胰腺癌。 两名高中生与医疗技术公司合作发现与胶质母细胞瘤相关的新靶基因。 帮助抗衰老,筛查超过 80 万种化合物发现高效药物候选物。 用于寻找阿尔兹海默症的治疗方法。 帮助早期诊断帕金森。 法律法规方面: AI 在许多领域已经取得重大进展和效率提升,如交通监控、银行账户欺诈检测、工业大规模安全关键实践等。 AI 具有巨大的潜力来改变社会和经济,可能产生与电力或互联网相当的影响。 大型语言模型等技术进步带来了变革性的发展机会。 基础通识课方面: 流式训练方式提升了训练速度和质量,基于 Transformer 模型进行流匹配优于扩大模型。 有多种 AI 生成工具,如能创作音乐的 so no 音频生成工具、创建个人 AI 智能体的豆包、生成播客的 Notebook LN。 端侧大模型能部署在手机端等设备,通过压缩解决存储和性能问题。 AI 工程平台对模型和应用有要求,如 define 平台,coach 平台有新版本模板和众多插件工具,还有工作流。 有魔搭社区等为大模型提供服务的平台。 预告了 AI 建站,需安装基础软件帮助文科生和无基础人员建站。
2025-03-15
新手如何更好使用该网站,主要了解人工智能或者AGI进展,主流软件的学习和应用
对于新手想要更好地使用该网站来了解人工智能或 AGI 进展以及主流软件的学习和应用,以下是一些相关内容: AE 软件: 基本功能:可通过图层软件抠元素加插件做特效,如利用 auto field 自动填充工具,轨道遮罩功能让图层按特定形状变化等。 与 AI 结合运用:如用 runway 生成烟花爆炸素材,结合 AE 的图层混合模式、遮罩等功能实现特效可控的画面。 其他应用:用内容识别填充功能处理视频画面,如抹掉入镜的人;从素材网站获取粒子素材为画面添加氛围感。 学习路径:可在 B 站找丰富的 AE 软件入门课程自学,也可从包图网下载工程文件学习。 学习方法:通过拆解视频、留意路边广告特效、按层级逻辑思考画面运动来学习 AE,还可参考模板。 与 AI 的关系:AI 出现后,AE 使用减少,有些动效可用 AI 完成。 在短剧中的应用:在火焰、文字、光线等方面有少量应用。 AI 相关技术与活动: AI 音乐创作:通过输入更高级的词汇与 AI 音乐对话能产生更好效果,有 AI 音乐的版块、挑战、分享会和教程,可通过王贝加入 AI 音乐社区。 数字人语音合成:介绍了声音克隆技术,提到了微软、阿里等的相关成果,常用的是 JPT service。 Config UI 的应用:能降低成本、提高效率,在图书出版、引流等方面有应用,岗位稀缺,社区有相关共学课程。 社区共创项目:包括东京的 confii 生态大会、AI 文旅视频、娃卡奖、李普村共创故事、AI 春晚等活动。 作业与报名:作业是询问对 AI 方向的兴趣和想做的项目,活动报名可通过填写名字和申请新增学校参与。 线下寄送物料组织活动:会给大家寄送线下活动物料,在学校内组织。 AI 春晚即将开始:去年 300 人 30 天共创了 AI 春晚,今年的也即将开始,可报名参与多种岗位。 AIPO 活动及相关挑战:10 月 20 日的 AIPO 活动,可提前构思展示项目,有会话和视频相关的挑战赛。 共学活动与技能提升:接下来 10 天有从零基础到建站等内容的讲解,回放会放在链接里,可先从练习提示词入手。 硬件机器人材料购买:若搞硬件机器人,部分材料需尽快购买。 自媒体发布与流量扶持:在小红书发布活动内容带特定标签有流量扶持,作品也可发布在 GitHub 等平台。 活动奖项与历史玩法:设最佳创业奖和最佳投资奖各四个,有线下摆摊展示交流、IPO 路演等玩法,之前在多个城市举办过 AI 切磋大会。 工具使用与新大赛预告:可使用多种 AI 工具,新的大赛即将开启,有百万奖金池,相关动态会在社区活动栏目公布。 AI 音乐和数字人语音合成: AI 音乐方面,提到草爷、格林 king、狗哥带大家入门,有相关课程与教程,且淘宝上有套壳工具抄袭。社区伙伴做的 AI 音乐专辑不错。 数字人语音合成部分提到声音克隆,有新的声音克隆且音质很不错。 提到了微软新出的成果、阿里的 Cozy voice(指出其泛化能力不强)、大家常用的 GPT solve it、刚举办的 AI 3D 活动。 以小田的 config UI 基础工作流一日谈展开,讲述了多个案例,如许建拍摄场景图成本降低,郭佑萌在图书出版行业提升效率,影楼可进行换装等操作,文旅文创场景有有趣的合影生成方式,还提到该工作流岗位稀缺且社区有课程可供学习。 AJ 介绍平台资源,包括共学课程、专栏报告、数据等,还提及就业创业及一些企业专栏的内容。
2025-02-28