直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

最新的 RAG 进展和业界实践

回答

以下是关于最新的 RAG 进展和业界实践的详细介绍:

RAG 是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级 LLM 应用方案。概括来说,它是知识检索与内容生成的结合,就像大模型的开卷考试,谁的资料更全、翻找更快更准,结果往往更好。

Lewis 等人(2021)提出了一个通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆,并通过神经网络预训练的检索器访问。RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,用 MS-MARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、更具体、更多样,FEVER 事实验证使用 RAG 后也得到了更好的结果,这表明 RAG 是一种可行的方案,能在知识密集型任务中增强语言模型的输出。

目前,大部分公司倾向于使用 RAG 方法进行信息检索,因为相比长文本的使用成本,使用向量数据库的成本更低。在 RAG 应用中,一些公司会使用微调的 Embedding Model 增强检索能力,也有些公司会选择使用知识图谱或者 ES 等非向量数据库的 RAG 方法。一个正常的模型使用 RAG 仍是当前主流。由于大语言模型存在信息滞后和不包含业务知识的特点,常需外挂知识库协助解决问题,此时 Embedding 模型的召回效果直接影响大模型的回答效果,所以很多场景下需要微调 Embedding 模型提高召回效果。

最近,基于检索器的方法越来越流行,常与 ChatGPT 等流行 LLM 结合使用来提高其能力和事实一致性。例如,在 LangChain 文档中可以找到一个使用检索器和 LLM 回答问题并给出知识来源的简单例子。

此外,来自马里兰大学、劳伦斯利弗莫尔国家实验室、纽约大学的研究学者提出了一个大模型微调的方法,在微调时只需要在 Embedding 层上加随机噪声即可大幅度提升微调模型的对话能力,且不会削弱模型的推理能力。用 Alpaca 微调 LLaMA-2-7B 可以在 AlpacaEval 上取得一定表现,而用加了噪声的嵌入则表现更佳,不过该工作只在较小的模型上进行微调。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

检索增强生成 (RAG)

Lewis等人(2021)提出一个通用的RAG微调方法。这种方法使用预训练的seq2seq作为参数记忆,用维基百科的密集向量索引作为非参数记忆(使通过神经网络预训练的检索器访问)。这种方法工作原理概况如下:图片援引自:[Lewis et el.(2021)(opens in a new tab)](https://arxiv.org/pdf/2005.11401.pdf)RAG在[Natural Questions(opens in a new tab)](https://ai.google.com/research/NaturalQuestions)、[WebQuestions(opens in a new tab)](https://paperswithcode.com/dataset/webquestions)和CuratedTrec等基准测试中表现抢眼。用MS-MARCO和Jeopardy问题进行测试时,RAG生成的答案更符合事实、更具体、更多样。FEVER事实验证使用RAG后也得到了更好的结果。这说明RAG是一种可行的方案,能在知识密集型任务中增强语言模型的输出。最近,基于检索器的方法越来越流行,经常与ChatGPT等流行LLM结合使用来提高其能力和事实一致性。LangChain文档中可以找到[一个使用检索器和LLM回答问题并给出知识来源的简单例子(opens in a new tab)](https://python.langchain.com/docs/use_cases/question_answering/quickstart)。

质朴发言:大模型未来发展:RAG vs 长文本,谁更胜一筹?|Z 沙龙第 8 期

目前,大部分公司倾向于使用RAG方法进行信息检索,因为相比长文本的使用成本,使用向量数据库的成本更低。而在RAG应用过程中,一些公司会使用微调的Embedding Model,以增强RAG的检索能力;而有些公司会选择使用知识图谱或者ES等非向量数据库的RAG方法。一个正常的模型使用RAG仍然是当前的主流选择。由于大语言模型信息的滞后性以及不包含业务知识的特点,我们经常需要外挂知识库来协助大模型解决一些问题。在外挂知识库的过程中,Embedding模型的召回效果直接影响大模型的回答效果,因此,在许多场景下,我们都需要微调Embedding模型来提高召回效果。来自马里兰大学、劳伦斯利弗莫尔国家实验室、纽约大学的研究学者提出了一个大模型微调的方法;在微调时只需要简单的在Embedding层上加随机噪声即可大幅度提升微调模型的对话能力,而且也不会削弱模型的推理能力。用Alpaca微调LLaMA-2-7B可以在在AlpacaEval上取得29.79%的表现,而用加了噪声的嵌入则提高到64.69%。不过该工作只在较小的模型上进行微调。

RAG提示工程(一):基础概念

RAG是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级LLM应用方案。RAG概括起来就是知识检索+内容生成。这么说太抽象,可以理解为大模型的开卷考试,既然是开卷考试,那么谁带的书和资料内容更全,谁翻书翻的更快更准,谁开卷考试的结果就往往更好。下面来看RAG的主要组成,依次是数据提取——embedding(向量化)——创建索引——检索——自动排序(Rerank)——LLM归纳生成。当然这里少了使用环节,我们暂时先忽略。大家知道,开卷考试时,往往大家的参考资料都差不多,在有限的考试时间内如何又快又准的锁定问题在书上的相关内容更为重要。RAG做的好不好也是如此,核心就看能不能将内容检索的又快又准。如果抄错了书上(知识库)内容,往往大模型给出的答案也南辕北辙。

其他人在问
RAG技术实现的原理步骤
RAG 技术实现的原理步骤主要包括以下几个方面: 1. 理解问题:AI 模型首先需要理解用户的提问或指令。 2. 文档加载:从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 3. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 4. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 5. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 6. 检索相关知识:AI 模型根据对问题的理解,从外部知识库中检索相关的信息。 7. 整合知识与推理:AI 模型将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 例如,在医疗领域,RAG 技术可以帮助医疗 AI 助手获取最新的医学知识和临床案例,从而提高其诊断和治疗建议的准确性。但需要注意的是,在将大型文档转换为可检索内容的过程中,如文档解析和文本切分、嵌入向量生成等步骤,每一步都可能导致信息损失,复合损失会显著影响 RAG 响应的效果。
2024-09-17
RAG技术原理
RAG(RetrievalAugmented Generation,检索增强生成)是一种自然语言处理技术,主要用于提高语言模型的效果和准确性。其原理包括以下几个方面: 1. 由于大模型的训练数据有截止日期,当需要依靠不在训练集中的数据时,RAG发挥作用。 2. 过程包括文档加载,从多种来源加载包括非结构化、结构化和代码等不同类型的文档。 3. 进行文本分割,把文档切分为指定大小的块。 4. 涉及存储环节,包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 5. 通过某种检索算法从向量数据库中检索出与输入问题相似的嵌入片。 6. 结合了检索和生成两种主要的自然语言处理方法。 检索部分从大量文本数据中检索出与输入问题最相关的信息,通常使用检索系统在大规模文档集合中寻找相关文段。 生成部分使用类似 GPT 的语言模型,根据检索到的信息生成响应或回答,涉及理解检索内容并生成连贯、相关且信息丰富的文本。 7. RAG 的出现解决了语言模型仅依靠固定资料回答问题的局限性,允许模型到搜索引擎上搜索相关资料,并结合自身知识体系综合回复。 其中的检索环节并非简单操作,还包含对输入问题的纠错、补充、拆分以及对搜索内容的权重逻辑等。
2024-09-17
RAG技术
RAG 即检索增强生成(RetrievalAugmented Generation),是一种结合了检索(检索外部知识库中相关信息)和生成(利用大型语言模型生成文本)的技术。 其工作原理包括以下几个步骤: 1. 理解问题:AI 模型首先理解用户的提问或指令。 2. 检索相关知识:根据对问题的理解,从外部知识库中检索相关信息。例如,用户问“埃菲尔铁塔有多高?”,AI 模型会从知识库中检索关于埃菲尔铁塔的信息。 3. 整合知识与推理:将检索到的知识与自身的推理能力相结合,生成最终的答案或内容。 RAG 技术的优势在于能够将 AI 模型与外部知识库连接起来,从而扩展 AI 模型的知识范围,提高其回答问题和生成内容的准确性。例如在医疗领域,可帮助医疗 AI 助手获取最新的医学知识和临床案例,提高诊断和治疗建议的准确性。 RAG 由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得 RAG 非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LangChain 是一个用于构建高级语言模型应用程序的框架,与 RAG 的关系在于,RAG 能够为大型语言模型提供来自外部知识源的附加信息,使得模型在应对下游任务时能够生成更精确和上下文相关的答案,并减少幻觉现象,而 LangChain 的设计主张集中在模块化组件上,为开发人员使用大型语言模型创建应用程序提供便利。
2024-09-17
rag与ai agent的区别
RAG(检索增强生成)与 AI Agent 存在以下区别: RAG 是给大模型提供一个浏览器工具来使用,而 AI Agent 则是给大模型提供了更多的工具,如长期记忆(相当于给大模型一个数据库工具来记录重要信息)、规划和行动(在大模型的 prompt 层进行目标拆解,并输出不同的固定格式 action 指令给工具)。 在实际应用中,外置知识的集成和管理常常采用 RAG 架构,它通过检索外部知识源来增强模型的生成能力。而 AI Agent 不仅依赖内置知识,还能实时检索和整合最新的外部信息来完成任务,例如可以让大模型帮忙安排差旅,它会判断完成目标所需的步骤,搜索差旅记录,预订酒店和机票等。 总的来说,AI Agent 在 RAG 的基础上有了更多的功能和更广泛的应用空间。
2024-09-06
对于大语言模型使用的未来趋势,是闭源云端还是开源本地部署,作为普通用户是否有必要了解本地部署知识,并且是否有必要自己搭建agent以及rag?
大语言模型的未来趋势在闭源云端和开源本地部署方面存在多种可能性。 对于开源本地部署,以下是一些相关信息: Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有以下特点: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,以满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装可访问 https://ollama.com/download/ 。 可以通过一些教程学习如何本地部署大模型以及搭建个人知识库,例如了解如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建完全本地化的数据库等。 同时,采用开源或国内企业提供的 13B 级模型本地部署在内部系统中,虽需投入算力,但有其价值。智能客服的大量优质大客户可能会选择自己搭建智能客服平台,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,实现 RPA 自动流程。 对于普通用户是否有必要了解本地部署知识以及是否有必要自己搭建 agent 以及 rag,这取决于个人需求和兴趣。如果您希望更深入了解大模型的工作原理和运行机制,或者有特定的个性化需求,那么了解和尝试本地部署可能是有意义的。但如果只是一般的使用需求,可能无需深入了解和自行搭建。
2024-09-03
有什么类似于 ragflow,dify 可以本地部署的
Dify 是一个开源的大模型应用开发平台,它融合了后端即服务和 LLMOps 的理念,为用户提供直观界面,能快速构建和部署生产级别的生成式 AI 应用。其具有强大的工作流构建工具,支持广泛的模型集成,提供功能丰富的提示词 IDE 以及全面的 RAG Pipeline 用于文档处理和检索。此外,允许用户定义 Agent 智能体,并通过 LLMOps 功能持续监控和优化应用程序性能。Dify 提供云服务和本地部署选项,满足不同需求,其开源特性确保对数据的完全控制和快速产品迭代。Dify 的设计理念注重简单、克制和快速迭代,能帮助用户将 AI 应用创意快速转化为现实。无论是创业团队构建 MVP、企业集成 LLM 增强现有应用能力,还是技术爱好者探索 LLM 潜力,Dify 都提供相应支持和工具。Dify 官方手册:https://docs.dify.ai/v/zhhans 。一般来说,如果是个人研究,推荐单独使用 Dify,如果是企业级落地项目,推荐使用多种框架结合,效果更好。
2024-08-30
某银行计划对外采购2024年分行内训师培训项目,现需要对采购内容做详细要求,培训内容以AI工具课程开发与设计,课程制作与实践,短视频制作,直播授课技巧等,我该如何对培训老师资质,授课经验,AI工具运用等技能做细化要求
以下是为您提供的关于银行采购 2024 年分行内训师培训项目中对培训老师资质、授课经验、AI 工具运用等技能的细化要求建议: 培训老师资质: 具备相关领域的专业教育背景,如计算机科学、人工智能等。 持有相关的行业认证或资格证书。 授课经验: 拥有丰富的企业内训经验,特别是在金融行业的培训经历。 成功完成过类似 AI 工具课程开发与设计、课程制作与实践等相关课程的授课。 AI 工具运用技能: 熟练掌握多种主流的 AI 工具,如常见的机器学习框架、自然语言处理工具等。 能够运用 AI 工具进行实际项目开发,并具有相关的案例成果。 熟悉短视频制作和直播授课中涉及的 AI 辅助技术,如智能剪辑工具、虚拟主播技术等。 希望以上建议对您有所帮助。
2024-09-13
有没有关于微调的最佳实践
以下是关于微调的最佳实践: 一般最佳实践:使用更多高质量的示例进行微调效果更好。要微调一个比使用基本模型使用高质量提示更好地执行的模型,应提供至少几百个高质量的示例,最好由人类专家审查。从那里开始,性能往往会随着示例数量的每增加一倍而线性增加。增加示例的数量通常是提高性能的最佳和最可靠的方法。分类器是最容易上手的模型。对于分类问题,建议使用 ada,经过微调后,它通常只会比功能更强大的模型稍微差一点,同时速度更快,成本更低。 准备数据集:微调是一种强大的技术,可用于创建特定于您的用例的新模型。在微调您的模型之前,强烈建议阅读以下针对您的用例的最佳实践和具体指南。 具体指南:微调可以解决多种问题,最佳使用方式可能取决于您的具体用例。常见的微调用例和相应的指南包括: 如果您要对预先存在的数据集进行微调,而不是从头开始编写提示,请务必在可能的情况下手动检查您的数据是否存在令人反感或不准确的内容,或者如果数据集很大,请检查尽可能多的随机样本。
2024-09-06
帮我写一篇有关aigc的行业分析,标题为《AIGC行业洞察与概览》,其中框架内容包含以下部分,整体3万字 - 概念导入(AI、AIGC) - AI与人的区别 - AI衍生发展历程(诞生、发展、现状-中外各平台产品及语言模型介绍) - AI在社会各领域的应用实践 - AI技术的底层逻辑概览 - AI的弊端以及风险
以下是为您生成的《AIGC 行业洞察与概览》的部分内容: 一、概念导入 (一)AI 人工智能(Artificial Intelligence,简称 AI)是一种目标,旨在让机器展现智慧。 (二)AIGC GenAI(即生成式 AI)是一种能够从已有数据中学习并生成新的数据或内容的 AI 应用,利用 GenAI 创建的内容即 AIGC(全称 AIGenerated Content)。AIGC 是利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等内容。 二、AI 与人的区别 三、AI 衍生发展历程 (一)诞生 (二)发展 (三)现状 1. 中外各平台产品及语言模型介绍 (1)语言文本生成利用马尔科夫链、RNN、LSTMs 和 Transformer 等模型生成文本,如 GPT4 和 GeminiUltra。 (2)图像生成依赖于 GANs、VAEs 和 Stable Diffusion 等技术,代表项目有 Stable Diffusion 和 StyleGAN 2。 (3)音视频生成利用扩散模型、GANs 和 Video Diffusion 等,代表项目有 Sora 和 WaveNet。 四、AI 在社会各领域的应用实践 AIGC 技术可以用于多种应用,如自动撰写新闻文章、生成艺术画作、创作音乐、制作视频游戏内容等。 五、AI 技术的底层逻辑概览 (一)机器学习:一种让机器自动从资料中找到公式的手段。 (二)深度学习:一种更厉害的手段,类神经网络,具有非常大量参数的函数。 (三)大语言模型:是一类具有大量参数的“深度学习”模型,Large Language Models,简称 LLMs。 六、AI 的弊端以及风险 作为一种强大的技术,生成式 AI 能够赋能诸多领域,但也存在多重潜在的合规风险。目前,我国对 AIGC 的监管框架由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》等形成了共同监管的形势。 由于篇幅限制,目前仅能为您提供约 2000 字的内容,距离 3 万字还有较大差距。后续还需要进一步丰富和完善各个部分的细节及案例分析等。
2024-09-03
最佳实践prompt
以下是关于 prompt 最佳实践的相关内容: 李继刚等的 prompt 最佳实践: 贡献者包括李继刚、Sailor、田彬玏、Kyle😜、小七姐等群友。 李继刚的相关链接: 。 Role:文字排版大师,有适合私域群运营发公告通知等的版本 1,针对比较长的内容更适合的版本 2 以及最新版,案例包括群公告、群通知,小互的每日推文用的上面最新的 prompt: 。 小七姐:官方最佳 Prompt 实践的六个方法: 06 学习地图 | 编写清晰地说明 指定所需的格式/长度,用两个段落概括用三引号分隔的文本,用 3 个要点概括用三引号分隔的文本。要点总结:我们可以明确要求模型按特定数量的字、句子、要点来生成内容,但对于中文来说,由于字符和 token 的映射机制及中文的上下文生成机制问题,精确符合字数的生成不稳定,但对于引用文本的概括或修改,效果相对会变得好很多。
2024-08-07
prompt 编写最佳实践。
以下是关于 prompt 编写的最佳实践: 1. 明确任务:在 prompt 中清晰地定义任务,比如写故事时要包含故事背景、角色和主要情节。 2. 提供上下文:若任务需要特定背景知识,在 prompt 里提供充足的上下文信息,如写历史事件报告时提供基本信息。 3. 使用清晰语言:尽量用简单、清晰的语言描述任务,避免模糊或有歧义的词汇,防止 AI 模型误解。 4. 给出具体要求:若任务有特定格式或风格要求,在 prompt 中明确指出,如文章需遵循的格式或引用的文献类型。 5. 使用示例:如有特定期望结果,在 prompt 中提供示例,帮助 AI 模型理解需求。 6. 保持简洁:让 prompt 简洁明了,过多信息可能导致 AI 模型困惑,生成不准确结果。 7. 使用关键词和标签:有助于 AI 模型理解任务主题和类型。 此外,还需注意: 我们可以要求模型生成具有给定目标长度的输出,可用字数、句数、段落数、要点数等来指定。但指示模型生成特定字数的精确度不高,尤其对中文而言。相对来说,约束句子数量比明确要求字数更稳定,且 ChatGPT 4 在这方面的表现比 3.5 版本更稳定。对于既有文本的概括或改写,提供明确文本让模型概括时效果较好。
2024-07-24
coze有哪些最佳实践
Coze作为一个AI开发平台,提供了多种功能和工具,帮助用户创建聊天机器人、智能体、AI应用等。以下是一些关于Coze的最佳实践: 1. 理解用户需求:在创建机器人之前,理解目标用户的需求和目的是非常重要的。这将帮助设计更加贴合用户需求的对话流程和功能。 2. 利用预构建的机器人:Coze提供了预构建的机器人,这些可以直接用于探索Coze的功能,也可以作为创建个性化机器人的基础。 3. 拖拽式操作:Coze支持拖拽式操作,用户可以通过拖拽不同的功能卡片到工作区来构建对话流程,实现无代码的页面布局设计。 4. 工作流设计:通过Coze的工作流功能,可以设计复杂的对话路径和逻辑,实现更高级的交互。 5. 多Agent协同:在构建复杂的系统时,可以利用多Agent协同工作,分流处理不同的任务,提高效率和响应速度。 6. 知识库应用:Coze的知识库功能可以自动或按需调用,结合大模型生成回复,提供丰富的信息和知识支持。 7. 数据库和数据管理:使用Coze的数据库功能进行数据管理,可以直接收录用户回复的重要信息,并实现Text2SQL的功能。 8. API集成:Coze支持API集成,可以创建基于API的插件,实现与外部服务和数据库的连接。 9. 持续学习和优化:根据用户的反馈和交互数据,持续优化机器人的性能和用户体验。 10. 社区和资源共享:参与Coze社区,分享和学习其他用户的优秀案例和实践,获取灵感和改进建议。 通过遵循这些最佳实践,用户可以更有效地利用Coze平台的功能,创建出更加智能、有用的AI应用。
2024-05-25
人工智能2024进展综述
以下是关于人工智能 2024 进展的综述: 一、技术与应用方面的进展 1. 图片超短视频的精细操控:包括表情、细致动作、视频文字匹配。 2. 生成式短视频:风格化、动漫风最先成熟,真人稍晚。 3. AI 音频能力:带感情的 AI 配音基本成熟。 4. “全真 AI 颜值网红”:可以稳定输出视频并直播带货。 5. 游戏 AI NPC:有里程碑式进展,出现新的游戏生产方式。 6. AI 男/女朋友聊天:记忆上有明显突破,能较好模拟人的感情,产品加入视频音频,粘性提升并开始出圈。 7. 实时生成的内容:开始在社交媒体内容、广告中出现。 8. AI Agent:有明确进展,办公场景“AI 助手”开始有良好使用体验。 二、商业模式与硬件方面 1. AI 的商业模式:开始有明确用例,如数据合成、工程平台、模型安全等。 2. 可穿戴全天候 AI 硬件:层出不穷,虽然大多数不会成功。 三、国内外发展情况 1. 中国 AI:达到或超过 GPT4 水平。 2. 美国:出现 GPT5。 3. 世界:开始现“主权 AI”。 4. 华为昇腾生态:开始形成,国内推理芯片开始国产替代(训练替代要稍晚)。 四、相关问题与挑战 1. AI 造成的 DeepFake、诈骗、网络攻击等开始进入公众视野,并引发担忧。 2. AI 立法、伦理讨论仍然大规模落后于技术进展。 五、其他相关内容 1. 精选英文报告中添加了《》,135 页文档非常全面概述人工智能生成的内容,涵盖其基础、前沿、应用和社会影响。 2. 更新了 E2B 的。 3. 《》详细介绍了 108 种助于理解复杂概念、改善决策过程和提升问题解决技能的思维模型。 此外,红杉资本的观点认为: 1. AI 产品越来越契合市场的需要,如人工智能驱动的客户服务平台 Klarnas 实现了大量客户服务查询的自动化。 2. 生成式人工智能正在经历快速增长,第一年收入约 30 亿美元。 3. 存在 AI 的$200B 问题,即投资与回报的不平衡。 4. 预测 2024 年将是真正的 AI 应用从 Copilots 转变为人类 Agents 的一年,未来人工智能将更有能力完成更高层次的认知任务,计算平衡从预训练转向推理。
2024-09-12
Ai最新进展
AI 技术的发展历程如下: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):有专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):出现了机器学习算法,如决策树、支持向量机、贝叶斯方法等。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等得到广泛应用。 当前 AI 的前沿技术点包括: 1. 大模型,如 GPT、PaLM 等。 2. 多模态 AI,例如视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习,包含自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习,如元学习、一次学习、提示学习等。 5. 可解释 AI,涉及模型可解释性、因果推理、符号推理等。 6. 机器人学,包括强化学习、运动规划、人机交互等。 7. 量子 AI,有量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 此外,绿洲资本张津剑认为 AI 技术正在加速发展,并且没有看到任何减缓的迹象。尽管媒体报道可能有所减少,但 AI 的实际进展非常迅速。
2024-09-03
国内医疗行业的大模型有哪些,关于慢性病领域的有和进展
在国内医疗行业,大模型的应用主要涵盖疾病的诊断与预测、药物研发以及个性化医疗等方向。目前很多医疗研究机构都在进行医疗大模型的开发研究。 在慢性病领域,AI 随访/答疑助手方面有一定进展。例如腾讯健康智能随访、讯飞家庭医生随访系统等随访系统,目前主要起到数据库的作用,记录患者信息等,主要的随访和答疑工作仍由医护人员完成,但随着就诊人数增长,工作量超负荷。大模型为这类产品提供了基础,预计短期内能够实现 AI 提供大部分建议,医生护士做少量修改即可发送,不过仍需要按照科室进行精调,如骨科关注康复进度、疼痛发炎情况,肿瘤关注用药指导、药品之间的相互作用等。
2024-08-28
LLM写ABAP代码的最新进展
大型语言模型(LLM)在编写ABAP代码方面的能力正在不断提升。ABAP(高级业务应用编程)是SAP系统的编程语言,专门用于开发企业资源规划(ERP)软件。以下是一些LLM编写ABAP代码的最新进展: 1. 代码生成:LLM可以基于自然语言描述生成ABAP代码片段,帮助开发者快速实现特定功能。 2. 代码补全:通过机器学习技术,LLM能够预测并补全ABAP代码,提高开发效率。 3. 代码审查:LLM可以分析ABAP代码,识别潜在的错误和不规范的编程实践。 4. 文档生成:LLM能够根据ABAP代码自动生成文档,包括函数描述、参数说明等。 5. 模式识别:LLM可以识别ABAP编程中的常见模式和最佳实践,并在代码生成时应用这些模式。 6. 交互式学习:一些LLM提供交互式学习环境,帮助开发者通过实例学习ABAP编程。 7. 集成开发环境(IDE)插件:LLM技术被集成到ABAP开发工具中,提供智能代码提示和错误检测。 8. 自动化测试:LLM可以生成测试用例,帮助自动化ABAP代码的测试过程。 9. 性能优化:LLM可以分析ABAP代码的性能瓶颈,并提出优化建议。 10. 跨语言能力:一些LLM能够理解多种编程语言的概念,并将其应用于ABAP代码的编写。 然而,尽管LLM在编写ABAP代码方面取得了进展,但它们仍然面临一些挑战,例如: 领域特定知识:ABAP是一种领域特定的语言,需要对SAP系统有深入的理解。 复杂逻辑处理:企业级应用的逻辑可能非常复杂,LLM需要能够处理这些复杂性。 代码维护性:自动生成的代码需要易于理解和维护。 随着技术的发展,LLM在ABAP编程领域的应用将越来越广泛,但它们可能仍然需要与人类开发者合作,以确保生成的代码既高效又可靠。
2024-08-05
大模型生成UI方向进展
根据搜索结果,大模型在生成 UI 设计方面取得了以下进展: 1. 出现了专门针对 UI 设计的生成式 AI 工具,如"即时 AI"。这类工具可以根据文字描述快速生成可编辑的 UI 设计稿,大大提高了设计效率。 2. 国内外都有相关的大模型产品在发展,如 OpenAI 的 GPT4、百度的文心一言等。这些大模型在理解语义、生成内容等方面不断进步,为 UI 设计工具提供了强大的基础能力。 3. 新一代的生成式 UI 设计工具,如 Galileo AI,已经开始支持对生成结果进行自定义样式调整,如颜色、字体、圆角等。这种交互式的设计流程更符合实际需求。 4. 大模型生成 UI 设计的方向正在从单纯的内容生成,向交互式的设计协作模式发展。用户可以通过对话方式不断优化设计,大大提高了设计质量。 5. 总的来说,大模型技术正在推动 UI 设计工具从静态内容生成向动态、可交互的方向发展。未来设计师可以更高效地利用 AI 辅助完成设计工作。 综上所述,大模型在 UI 设计领域取得了显著进展,为设计师提供了更强大的创作工具和方法。这一趋势值得持续关注和研究。
2024-04-23
GPT4最新进展
GPT4是OpenAI开发的大型多模态语言模型,它能够接受图像和文本输入,并产生文本输出。以下是GPT4的一些最新进展: 1. GPT4 Turbo的发布:OpenAI推出了GPT4 Turbo的预览版,这是一个更强大的模型,它了解截至2023年4月的世界事件。GPT4 Turbo具有128K的上下文窗口,可以处理相当于300多页文本的输入。相比于GPT4,GPT4 Turbo在性能上进行了优化,提供了更低的价格,输入token价格降低了3倍,输出token价格降低了2倍。 2. 功能和性能提升:GPT4 Turbo支持多模态API调用,包括视觉功能和DALL·E 3 API。它还在指令跟随和JSON模式方面进行了改进,提供了更高的准确性和更有效的JSON格式输出。 3. 可重复输出和对数概率:GPT4 Turbo引入了新的seed参数,允许模型返回大部分时间一致的完成,这对于调试请求和编写单元测试非常有用。OpenAI还计划推出一个功能,返回最可能输出的令牌的对数概率,这将对构建搜索体验中的自动完成等功能非常有用。 4. GPT3.5 Turbo更新:除了GPT4 Turbo之外,OpenAI还发布了GPT3.5 Turbo的新版本,支持16K的上下文窗口,并改进了指令跟随、JSON模式和并行函数调用。 5. 助手API和新模态:OpenAI发布了助手API,允许开发者在自己的应用程序中构建Agent类体验。GPT4 Turbo可以通过Chat Completions API接受图像输入,实现生成标题、详细分析现实世界的图像以及阅读带有图表的文档等功能。 6. 技术报告:OpenAI发布了GPT4的技术报告,详细介绍了模型的开发、性能、能力和局限性。GPT4在多项专业和学术基准测试中展现出人类水平的表现,包括通过模拟律师资格考试并在SAT考试中取得高分。 7. 安全性和可靠性:尽管GPT4在性能上取得了显著进步,但它仍然存在一些局限性,例如可能产生不准确的信息(俗称“幻觉”)和有限的上下文窗口。OpenAI在模型开发过程中注重安全性,以减少潜在的风险。 8. 企业级服务:Azure OpenAI服务发布了企业级可用的GPT4国际预览版,允许企业构建自己的应用程序,并利用生成式AI技术提高效率。 9. 价格降低和速率限制提高:OpenAI降低了API价格,以将节省的费用传递给开发者,并提高了每分钟的令牌限制,以帮助开发者扩展应用程序。 10. 版权保护:OpenAI推出了版权保护措施,如果客户面临版权侵权的法律索赔,OpenAI将介入保护客户并支付相关费用。 这些进展显示了GPT4在多模态能力、性能优化、安全性和企业级应用方面的持续发展和创新。随着GPT4的不断改进和新功能的推出,它在自然语言处理领域的应用潜力将进一步扩大。
2024-04-22