Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

RAG技术基本了解

Answer

RAG(Retrieval Augmented Generation,检索增强生成)是一种结合信息检索和文本生成能力的技术,主要用于处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。

其基本流程包括以下几个步骤:

  1. 文档加载:从多种不同来源加载文档,如PDF 在内的非结构化数据、SQL 在内的结构化数据以及 Python、Java 之类的代码等。
  2. 文本分割:文本分割器把文档切分为指定大小的块,称为“文档块”或者“文档片”。
  3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。
  4. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。
  5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM(大语言模型),LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。

RAG 由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。在给定一个用户的输入(如问题或话题)时,RAG 会从数据源中检索出相关的文本片段作为上下文,然后将用户输入和检索到的上下文拼接成完整输入传递给大模型,并从大模型的输出中提取或格式化所需信息返回给用户。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG介绍[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。

开发:LangChain应用开发指南-大模型的知识外挂RAG

原创AI小智AI小智2023-12-11 08:10发表于湖北AI大模型能够处理广泛主题的文本生成,但模型知识只能基于它们训练时使用的公开数据。如果你想构建能够利用私有数据或实时数据进行推理的AI应用,你需要用特定的信息来增强模型的知识。将相关信息检索并插入到模型的输入中,即检索增强生成(Retrieval Augmented Generation,RAG)。在本文中,我们将介绍如何使用LangChain开发一个简单的RAG问答应用。我们将依次介绍典型的问答架构,讨论相关的LangChain组件,并展示如何跟踪和理解我们的应用。[heading3]RAG的基本概念[content]RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

Others are asking
RAG工作流对话调试
RAG(检索增强生成)工作流主要包括以下几个阶段: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段并抽取传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本,整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 RAG 的基本概念: RAG 是一种结合了检索和生成的技术,能让大模型在生成文本时利用额外的数据源,提高生成的质量和准确性。其基本流程为,首先给定用户输入(如问题或话题),RAG 从数据源中检索出相关文本片段(称为上下文),然后将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),输入通常包含提示指导模型生成期望输出(如答案或摘要),最后从大模型的输出中提取或格式化所需信息返回给用户。 在实际调试预览中,例如: 1. 知识库检索部分:把输入的问题通过 Embedding 做向量化,使用语言模型优化问题、添加接近的检索词,知识库向量检索时抽取条件包含相似度 0.85,通过检索抽取出多个内容块。 2. 大模型对话部分:将相关信息传递给 LLM 最终得到 AI 的回答。
2025-01-06
RAG工作流搭建
RAG(检索增强生成)工作流搭建主要包括以下步骤: 1. 文档加载:从多种不同来源加载文档,如非结构化的 PDF 数据、结构化的 SQL 数据、代码等,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把文档切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 RAG 是一种结合了检索和生成的技术,其基本流程为:首先,给定用户输入,如问题或话题,从数据源中检索出相关文本片段作为上下文。然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型,并包含提示指导模型生成期望输出。最后,从大模型输出中提取或格式化所需信息返回给用户。 此外,您还可以通过以下方式学习 RAG: 1. 观看视频演示,如: 2. 利用相关 Bot 进行学习,如: Query 改写效果对比 Bot:https://www.coze.cn/store/bot/7400553639514800182?panel=1&bid=6dkplh1r43g15 RAG 全流程学习 Bot:结合大模型,模拟 RAG 的离线存储和在线检索全流程。 您还可以参考如何使用 LangChain 开发一个简单的 RAG 问答应用。
2025-01-06
RAG与Agent如何结合应用
RAG 与 Agent 的结合应用可以通过以下步骤实现: 1. 数据加载:根据数据源类型选择合适的数据加载器,如网页可使用 WebBaseLoader 加载和解析,返回文档对象。 2. 文本分割:依据文本特点选择合适的文本分割器,将文档对象分割成较小的对象,如博客文章可用 RecursiveCharacterTextSplitter 分割。 3. 嵌入与存储:使用文本嵌入器和向量存储器将文档对象转换为嵌入并存储,根据质量和速度选择合适的,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。 4. 创建检索器:通过向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数,创建用于根据用户输入检索相关文档对象的检索器。 5. 创建聊天模型:根据性能和成本选择合适的聊天模型,如使用 OpenAI 的 GPT3 模型,根据用户输入和检索到的文档对象生成输出消息。 以餐饮生活助手为例,基于结构化数据来 RAG 实战: 1. 定义餐饮数据源:将餐饮数据集转化为 Langchain 可识别和操作的数据源,如数据库、文件、API 等,并注册到 Langchain 中,提供统一接口和方法供 LLM 代理访问和查询。 2. 定义 LLM 的代理:通过 Langchain 的代理(Agent)实现,代理管理器可让开发者定义不同的 LLM 代理及其功能和逻辑,提供统一接口和方法供用户交互。 以下是使用 LangChain 构建 RAG 应用的示例代码。
2025-01-06
RAG的经典应用场景
RAG(检索增强生成)的经典应用场景主要包括以下方面: 1. 构建智能问答客服:用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 2. 知识问答系统:用户提问后,RAG 从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到提示词中,提交给大模型,大模型的回答会充分考虑到“包含答案的内容”。
2025-01-06
RAG技术基本了解
RAG(Retrieval Augmented Generation,检索增强生成)是一种结合信息检索和文本生成能力的技术,主要用于处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 其基本流程包括以下几个步骤: 1. 文档加载:从多种不同来源加载文档,如 PDF 在内的非结构化数据、SQL 在内的结构化数据以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把文档切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 RAG 由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。 在实际应用中,例如构建能够利用私有数据或实时数据进行推理的 AI 应用时,将相关信息检索并插入到模型的输入中,即检索增强生成,可以提高生成的质量和准确性。首先给定一个用户的输入,RAG 会从一个数据源中检索出与之相关的文本片段作为上下文,然后将用户的输入和检索到的上下文拼接成一个完整的输入传递给大模型,最后从大模型的输出中提取或格式化所需的信息返回给用户。
2025-01-06
RAG,Agent 与小模型
以下是关于 RAG、Agent 与小模型的相关知识: RAG(RetrievalAugmented Generation,检索增强生成): 大语言模型存在输出结果不可预测、知识有局限性、幻觉问题和数据安全性等问题,RAG 是解决这些问题的有效方案。 它能让大模型从权威的、预先确定的知识来源中检索和组织相关信息,更好地控制文本输出,用户也能了解生成结果的过程。 RAG 类似于为模型提供教科书,适用于回答特定询问或解决特定信息检索任务,但不适合教模型理解广泛领域或学习新语言、格式或样式。 RAG 可与微调结合使用,两者不冲突。微调类似于让学生内化知识,适用于模型需要复制特定结构、样式或格式的情况。 Agent(智能体): 是大模型的一个主要发展方向。 中间的“智能体”通常是 LLM(大语言模型)。 为 LLM 增加了工具、记忆、行动、规划四个能力。 目前行业里主要用到的是 langchain 框架,它把 LLM 和 LLM 之间以及 LLM 和工具之间通过代码或 prompt 的形式进行串接。 比如长期记忆是给大模型一个数据库工具记录重要信息,规划和行动是在大模型的 prompt 层做逻辑,让其将目标拆解并输出固定格式指令给工具。 小模型:文中未提及小模型的相关具体内容。
2025-01-06
我先系统了解AIGC 行业
以下是关于 AIGC 行业的系统介绍: AIGC(Artificial Intelligence Generated Content,人工智能生成内容)的发展历程可以从内容生产方式的演变来了解。在互联网发展过程中,内容生产方式经历了从 PGC(ProfessionalGenerated Content,专业生成内容)到 UGC(UserGenerated Content,用户生成内容),再到 AIGC 的转变。 在 Web1.0 时代,互联网内容生产以 PGC 为主,由专家和专业机构生产高质量内容,如雅虎、IMDb 等。PGC 的优势在于专业性和易变现,但存在创作门槛高、产量不足等挑战。 随着互联网发展和用户需求多样化,Web 2.0 时代到来,用户参与内容创作,UGC 成为主流。UGC 内容多样、个性化,通过推荐系统满足用户需求,降低了专业门槛,促进了互联网的民主化和个性化内容创作。 在当前,国内 AIGC 行业主要在《网络安全法》《数据安全法》以及《个人信息保护法》的框架下,由《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》共同监管。 此外,还有一些具体的应用案例,如 Collov 是来自美国硅谷的家居垂直行业 AIGC 工具,专注于利用人工智能技术来实现空间设计与家具营销二合一,打通供应链,为企业提高更低成本、更智能高效的空间设计与家具营销解决方案。它能够完成人类设计师以及高美感内容的视觉理解、推理和生成任务,并将生成技术服务于家装、工装、建筑、具身智能机器人、智能驾驶等多领域的商业场景,替代传统人工设计和采集流程。AI 技术的应用显著提高了设计和营销的效率,减少了对传统人工的依赖,增强了客户的交付满意度,提升了企业的市场竞争力。
2025-01-06
能否实现,通过对话,了解一个人的生平,然后生成一个人的回忆录或者自传
目前通过对话来全面了解一个人的生平并生成其回忆录或自传具有一定的挑战性。虽然自然语言处理和人工智能技术在理解和处理语言方面取得了显著进展,但要准确、完整地捕捉一个人一生的复杂经历、情感和细节仍然存在困难。 然而,利用 AI 技术可以在一定程度上辅助这一过程。例如,可以通过与个人的多次深入交流,提取关键信息和重要事件,并运用语言生成模型来初步构建相关内容。但这需要大量的交互和精细的引导,并且生成的结果可能还需要人工进一步的编辑和完善,以确保其准确性和真实性。 总之,虽然完全依靠对话实现完美的个人回忆录或自传生成尚有难度,但 AI 可以作为一个有潜力的辅助工具来参与这一过程。
2025-01-06
我想学习和了解AI我从哪里开始?
如果您是新手,想要学习和了解 AI,可以从以下几个方面开始: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您能找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,还有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。建议掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得自己的成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。 比如在记忆方面,先从
2025-01-05
我是景观设计设计师,不了解市场上的各种AI工具,请问我需要怎么系统的学习、利用AI来改进工作呢
作为景观设计师,系统学习和利用 AI 改进工作可以从以下几个方面入手: 一、了解相关 AI 工具 1. 用于绘制 CAD 图的 AI 工具 CADtools 12:Adobe Illustrator 插件,添加 92 个绘图和编辑工具。 Autodesk Fusion 360:集成 AI 功能的云端 3D CAD/CAM 软件。 nTopology:基于 AI 可创建复杂 CAD 模型。 ParaMatters CogniCAD:根据输入自动生成 3D 模型。 主流 CAD 软件的生成设计工具:根据设计目标和约束条件自动产生方案。 2. 审核规划平面图的 AI 工具 HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色。 Maket.ai:面向住宅行业,能自动生成户型图。 ARCHITEChTURES:AI 驱动的三维建筑设计软件。 Fast AI 人工智能审图平台:全自动智能审图流程,集成建筑全寿命周期信息。 二、提升自身能力 1. 设计专业方面 培养持续学习习惯,将其转化为实践能力。 提高需求理解、问题分析、审美判断和创意能力。 显性化设计思考与专业优势,提升设计质量。 2. 工具能力方面 严格评估和选型现有 AI 工具,确保标准化输出和一致性体验。 基于业务场景训练专属 AI 模型,集成 AI 能力形成新工具。 建设参数文档库,减少个人喜好的自然语言影响。 3. 工作流程方面 将 AI 融入日常设计流程,形成新的工作方式。 针对不同业务形态和需求,精细化设计流程。 探索合理的人&机结合方式,优化效率和创意品质。 4. 团队协作方面 制定并执行明确的 AI 融合策略。 保证硬件设备支持,营造创新环境。 增强对市场动态的适应能力,明确团队未来发力方向。 总之,随着技术进步,AI 在设计领域的作用将愈发重要,为您创造更多可能。但需注意,每个工具都有特定应用场景和功能,建议根据具体需求选择合适的工具。
2025-01-02
科学家现在完全了解gpt是怎么工作的吗
目前科学家尚未完全了解 GPT 的工作原理。以下是一些关于 GPT 工作原理的相关知识: Openai 的科学家认为,GPT 产生智能是因为神经网络将知识进行了复杂的压缩,在询问问题时将其中的知识解码(解压缩)。大语言模型的数据压缩能力越强,意味着其 AGI 智能越强。遵循最小描述长度原理和奥卡姆剃刀原则,最佳解释应是对数据进行尽可能短而准确描述的模型,模型描述长度越短,泛化性越好,也就越智能。 GPT 中的知识存在方式包括:LLM 中有两类神经元,单语义神经元只对输入里某个特殊的知识点产生响应,多语义神经元则相反。在模型学习过程中,为了增加模型参数的利用效率,“单语义神经元”会被分配给重要特征,“多语义神经元”会分配给不太重要的特征,而对更加不重要的特征,模型完全不进行编码。此外,存在知识回路,某个任务的 Prompt 输入 Transformer 后,在网络中存在一些完成这个任务的关键路径,信息主要沿着这条路径向上传播,在传播过程中不断进行信息传递或知识加工,最终完成任务,这与人脑的某些信息处理回路相似。 GPT3 的训练是将模型暴露于大量文本的过程,包含 3000 亿个文本标记的数据集用于生成模型的训练示例。训练时,我们只向模型展示特征并要求它预测下一个单词,模型的预测会有错误,计算其预测中的误差并更新模型,以便下次做出更好的预测,重复数百万次。GPT3 实际上一次生成一个 token 的输出。 GPT 全称是生成式预训练转换器模型(Generative Pretrained Transformer)。生成式指的是大模型根据已有的输入为基础,不断计算生成下一个字词(token),从而逐字完成回答的过程。例如,一开始给大模型一些提示词 Prompt,大模型会结合自身“大脑中存储的知识”进行计算推理,算出下一个单词的概率最大并输出,新的输出会和过去的输入一并成为新的输入,用来计算下一个词,直到计算出下一个词是的概率最大,于是结束输出。
2024-12-31
人工智能伦理建设的基本内容
人工智能伦理建设的基本内容包括以下方面: 欧洲议会和欧盟理事会规定了人工智能的统一规则,并修正了一系列相关条例。回顾委员会任命的独立人工智能高级别专家组 2019 年制定的《值得信赖的人工智能的伦理准则》,其中包含七项不具约束力的人工智能伦理原则: 人类主体和监督:人工智能系统的开发和使用应为人服务,尊重人的尊严和个人自主权,其运行可由人类适当控制和监督。 技术稳健性和安全性:开发和使用方式应在出现问题时保持稳健,抵御试图改变其使用或性能的行为,减少意外伤害。 隐私和数据治理:符合现有隐私和数据保护规则,处理的数据应具备高质量和完整性。 透明度:开发和使用方式应允许适当的可追溯性和可解释性,让人类知晓交流或互动情况,并告知部署者系统的能力和局限性以及受影响者的权利。 多样性、非歧视和公平:开发和使用方式应包括不同参与者,促进平等获取、性别平等和文化多样性,避免歧视性影响和不公平偏见。 社会和环境福祉:有助于设计符合《宪章》和欧盟基础价值观的连贯、可信和以人为本的人工智能。 问责制。 人工智能能带来广泛的经济、环境和社会效益,如改进预测、优化运营等,但也可能根据应用、使用情况和技术发展水平产生风险,对受欧盟法律保护的公共利益和基本权利造成损害。 鉴于人工智能的重大影响和建立信任的必要性,其发展必须符合欧盟价值观、基本权利和自由,应以人为本,最终提高人类福祉。 为确保公众利益的高水平保护,应为所有高风险人工智能系统制定统一规则,这些规则应与《宪章》一致,非歧视,符合国际贸易承诺,并考虑相关准则。
2025-01-02
能向我解释ChatGPT的基本原理吗
ChatGPT 的基本原理如下: 1. 数据获取:从网络、书籍等来源获取大量人类创作的文本样本。 2. 训练神经网络:通过训练神经网络生成“类似”的文本。神经网络由简单元素组成,操作基本是为每个新单词(或单词部分)生成“输入”,然后将其“通过其元素”。 3. 生成文本:能够从“提示”开始,然后继续生成“类似于训练内容”的文本。具体方式是把自己生成的下一个词,和之前的上文组合成新的上文,再生成下一个词,不断重复以生成任意长的下文,此过程称为自回归生成。 4. 训练目的:训练的主要目的不是记忆,而是学习以单字接龙的方式来训练模型,学习提问和回答的通用规律,以便在遇到没记忆过的提问时,能利用所学规律生成用户想要的回答,这种能力也叫做泛化。 5. 模型特点:ChatGPT 被称为生成模型,与搜索引擎不同,它可以创造不存在的文本。但它也存在缺点,可能混淆记忆,无法直接查看和更新所学,且高度依赖学习材料,导致缺乏及时性和准确性。 ChatGPT 中的 GPT 是 Generative PreTraining Transformer,即生成式预训练转换器。其本质功能是“单字接龙”,长文由单字接龙的回归所生成。 ChatGPT 的成功表明人类语言(以及背后的思维模式)的结构比我们想象的要简单和更具有“法律属性”。但它并不总是说出“全局意义上的话”或对应于正确的计算,只是根据训练材料中的“声音类似”的东西“说出”“听起来正确”的东西。 当我们人类生成语言时,许多方面的工作与 ChatGPT 似乎相当相似。但 ChatGPT 最终(至少在它可以使用外部工具之前),仅仅从它积累的“传统智慧统计数据”中提取了一些“连贯的文本线索”。
2024-11-14
AI基本知识学习
以下是为您提供的新手学习 AI 基本知识的建议: 一、了解 AI 基本概念 1. 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 2. 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 1. 在「」中,您可以找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 2. 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。同时,一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 1. 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 2. 体验 AI 产品,与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 五、对于不会代码的您 如果希望继续精进,对于 AI,可以尝试了解以下内容作为基础: 1. AI 背景知识 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 六、中学生学习 AI 的建议 1. 从编程语言入手学习 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目 可以参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,中学生可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能,为未来的 AI 发展做好准备。需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-28
AI基本介绍
以下是关于 AI 的基本介绍: 新手学习 AI: 了解 AI 基本概念:建议阅读「」部分,熟悉术语和基础概念,包括主要分支(如机器学习、深度学习、自然语言处理等)及它们之间的联系。浏览入门文章,了解其历史、应用和发展趋势。 开始学习之旅:在「」中有为初学者设计的课程,特别推荐李宏毅老师的课程。还可通过在线教育平台(如 Coursera、edX、Udacity)按自己节奏学习并获取证书。 选择感兴趣模块深入:AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块,掌握提示词技巧。 实践和尝试:理论学习后通过实践巩固知识,尝试使用各种产品创作,知识库中有实践作品和文章分享。 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 AI 的应用场景: 医疗保健:包括医学影像分析、药物研发、个性化医疗、机器人辅助手术等。 金融服务:涵盖风控和反欺诈、信用评估、投资分析、客户服务等。 零售和电子商务:有产品推荐、搜索和个性化、动态定价、聊天机器人等。 制造业:包含预测性维护、质量控制、供应链管理、机器人自动化等。 AI 的基础内容: AI 背景知识:包括基础理论(人工智能、机器学习、深度学习的定义及关系)、历史发展(重要里程碑)。 数学基础:统计学基础(均值、中位数、方差等)、线性代数(向量、矩阵等)、概率论(条件概率、贝叶斯定理)。 算法和模型:监督学习(线性回归、决策树、支持向量机)、无监督学习(聚类、降维)、强化学习。 评估和调优:性能评估(交叉验证、精确度、召回率)、模型调优(网格搜索优化参数)。 神经网络基础:网络结构(前馈网络、卷积神经网络、循环神经网络)、激活函数(ReLU、Sigmoid、Tanh)。
2024-10-27
帮我制定《通往AGI之路》的学习规划。并在为期一个月内将内容全部学完并掌握AI基本操作技巧
以下是为您制定的为期一个月的《通往 AGI 之路》学习规划: 第一周: 了解并选择感兴趣的学习小组,如 AI 音乐之路、关键词学社(AI 绘画)、SD 学社(AI 绘画)、AI 视频学社等。按照相应要求进群,如添加微信或飞书群,并备注相关信息。 第二周: 熟悉所选学习小组的活动规则和学习内容。 对于 AI 绘画相关的小组,开始学习相关软件的基本操作。 第三周: 积极参与小组活动,如根据关键词出图测试、案例实操等。 尝试将所学应用到实际操作中,如创建图像流智能体等。 第四周: 总结所学知识和实践经验。 巩固 AI 基本操作技巧,确保能够熟练运用。 在学习过程中,要注重学以致用,通过学习、分享不断填补知识的缝隙,成长进步。同时,要记住“少就是多”“先有个初识”“目录索引推荐”“兴趣最重要”“先动手”等学习要点,找到适合自己的学习路径。
2024-10-23
高效微调技术-LoRA 全量微调与少量参数微调
以下是关于高效微调技术 LoRA 全量微调与少量参数微调的相关信息: LoRA 微调: 微调脚本: 脚本见: 具体实现代码见: 单机多卡的微调可以通过修改脚本中的include localhost:0来实现。 加载微调模型: 基于 LoRA 微调的模型参数见:基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。 通过加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 全量参数微调: 微调脚本: 脚本见: 具体实现代码见: 加载微调模型: 对于全量参数微调的模型,调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 此外,关于微调还有以下补充信息: 微调模型意味着改变模型的权重,现在微调变得越来越容易,因为开发了许多技术并建立了代码库。 像 LoRA 这样的参数高效微调技术只训练模型的小部分稀疏片段,模型大部分保持基础模型状态,效果好且成本低。 微调技术上更为复杂,需要更多技术专业知识,包括人工数据合同承包商的数据集和复杂的合成数据流程,会减慢迭代周期。 SFT(有监督的微调)相对简单明了,RLHF(基于人类反馈的强化学习)则是非常研究性的领域,难度大,不适合初学者。 目前除了传统的全量训练和 freeze 冻结某些层方式,还发展出了很多种高效的微调方法,如 LoRA、Prefix Tuning、PTuning、Prompt Tuning、AdaLoRA、3、MultiTask Prompt Tuning 等。本篇主要采用 LoRA 方式,主要思路是训练一个参数量较小的分支,然后再与底模合并,从而在模型中注入新的知识。
2025-01-06
提示词工程技术
提示词工程师(Prompt Engineer)是在与人工智能模型交互时,负责设计和优化提示的专业人员。他们的目标是通过精心构造的提示,引导模型产生准确、有用和相关的回答。 提示词工程师的主要职责包括: 1. 设计提示:根据用户需求和模型能力设计有效的提示,考虑提示的长度、结构、措辞和信息量等因素,以清晰传达用户意图并引导模型生成满意结果。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式不断优化提示,提高模型性能。 3. 评估提示:使用各种指标如模型的准确率、流畅度和相关性等来评估提示的有效性。 提示词工程师需要具备以下技能和知识: 1. 领域知识:对所工作的领域有深入了解,以便设计出有效的提示。 2. 自然语言处理(NLP):了解 NLP 的基本原理和技术,能够理解和生成自然语言文本。 3. 人工智能(AI):了解 AI 的基本原理和技术,能够理解和使用 AI 模型。 4. 沟通能力:具备良好的沟通能力,与用户、团队成员和其他利益相关者有效沟通。 以下是一些提示词工程师工作的实际案例: 在推理任务方面,目前对于大语言模型来说具有挑战性,但通过更高级的提示词工程技术可以改进。例如在涉及数学能力的推理任务中,通过设计不同的提示词和示例来展示算术功能。 在实现让 LLM 获得 tool calling 的功能方面,采用的提示词工程主要有两部分代码组成:提示词注入和工具结果回传。提示词注入用于将工具信息以及使用工具的提示词添加到系统提示中,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。工具结果回传则是解析 tool calling 的输出,并将工具返回的内容再次嵌入 LLM。利用正则表达式抓取输出中的“tool”和“parameters”参数,对于不同工具采用相应的处理方式。通过以上提示词工程,可以避免微调,让完全没有 tool calling 能力的 LLM 获得稳定的 tool calling 能力。 提示词工程师是一个新兴的职业,随着人工智能技术的不断发展,对提示词工程师的需求将会越来越大。
2025-01-06
RAG技术路线知识库搭建流程
RAG 技术路线知识库搭建流程主要包括以下步骤: 1. 文档加载:从多种不同来源加载文档,如 PDF 在内的非结构化数据、SQL 在内的结构化数据以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储: 将切分好的文档块进行嵌入转换成向量的形式。 将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 在构建知识库的过程中,还涉及到文档解析环节,即将各种类型的资料(包括但不限于 Word、PDF、Excel 和图片等)转换成文字,为后续流程奠定基础。针对图片一般使用 OCR 图像识别技术,针对文档一般将其转换成 Markdown 格式。文档解析完成之后,要进行预处理。 基于 Coze 的知识库问答是典型的 RAG 方案,其重要一环是文档切片(Segment),但 RAG 方案存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等。
2025-01-06
端到端语音技术现在进展到什么程度了
端到端语音技术目前取得了显著进展。 在语音合成方面: 语音合成将文本转换为可听的声音信息,是人机交互的重要接口,一般包括 TTS、歌唱合成等领域。 当代工业界主流语音合成系统包括文本前端和声学后端两个部分。文本前端将输入文本转换为层次化的语音学表征,声学后端基于此生成语音,主要技术路线包括单元挑选波形拼接、统计参数和端到端语音合成方法,当代主要采用端到端声学后端。 端到端声学后端一般包括声学模型和声码器两部分,也出现了直接从音素映射为波形的完全端到端语音合成系统。 在全模态智能体方面: OpenAI 发布的 GPT4o 是新模型通过端到端的神经网络,把视觉、语音和文本数据混合训练,对音频输入的平均反应时间为 300 毫秒,与人类对话的反应时间相似。 直接拿音频数据来训练的好处是模型能从数据中感悟到人类表达的情绪、语调、风格等,能听到几乎真实的人类的声音。 OpenAI 未公开 GPT4o 的技术细节,唯一线索来自内部模型炼丹师的一篇博客,项目名是 AudioLM,目标是用端到端的方式扩大语音模型的能力。
2025-01-03
数字孪生的关键技术
数字孪生的关键技术包括以下方面: 利用定制软件实现工厂的数字孪生,如 Wistron 利用 Omniverse SDK 定制软件将 NVIDIA DGX 和 HGX 工厂实现数字孪生,大幅缩短调试周期。 运用生成式 AI 进行天气预测,如 CoreDev 可通过超高分辨率 AI 预测严重风暴。 构建端到端的机器人系统,让 AI 理解物理世界,需要 AI 计算机、监测分析计算机和执行任务的机器人三位一体。 提供模拟环境,如 Omniverse 提供模拟环境,教会机器人如何成为机器人。 实现软件定义的仓储、工厂,让机器人自主协同工作。 解决数字人构建中的工程关键点,如构建像人一样思考的 AI Agent、实现灵魂驱动躯壳、保证实时性、实现多元跨模态、处理拟人化场景等。
2025-01-02