Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

rag教程有吗

Answer

以下为您提供关于 RAG 的教程:

首先,有一篇题为“胎教级教程:万字长文带你理解 RAG 全流程”的文章。作者大圣指出这是面向普通人的 RAG 科普,而非技术向文章。文章强调 RAG 技术在当前 AI 发展中的重要性,其衍生产品能为企业和个人带来效率提升,但也存在局限性。作者希望通过阐述 RAG 完整流程,让读者全面认知该技术,管理好预期,在使用相关产品时能充分发挥其潜力。适合包括 AI 爱好者、企业老板、AI 产品经理等人群。

其次,“【AI+知识库】商业化问答场景,让 AI 回复更准确,一篇专为所有‘小白’讲透 RAG 的实例教程(上篇)”中提到,通过一个简单的问答示例展示了有时回答不准确的情况,从而引出 RAG 这一优化回答的专业术语。接着介绍了基础概念,RAG 即检索增强生成,由检索器和生成器组成,适合处理需要广泛知识的任务。

最后,在“胎教级教程:万字长文带你理解 RAG 全流程”中还提到了 RAG 全貌概览。RAG 流程分为离线数据处理和在线检索两个过程,离线数据处理构建知识库,在线检索则是利用知识库和大模型进行查询。以构建智能问答客服为例来了解 RAG 流程中的 What 与 Why 。

Content generated by AI large model, please carefully verify (powered by aily)

References

胎教级教程:万字长文带你理解 RAG 全流程

大家好,我是大圣,一名致力于在AI时代打造超级个体的软件开发工程师。继Coze的胎教级教程之后,我再次为大家带来RAG(检索增强生成)技术的胎教级别教程。这篇文章不是一篇面向RAG研究者的技术向文章,而是面向普通人的RAG科普。这篇文章一共1.6万字,我为什么要花费大的心力写这篇文章呢?因为在当前AI技术的发展中,工作流和RAG已成为核心应用。RAG不仅是一项真正落地的AI技术,而且其衍生产品不仅服务于企业,更能为个人效率带来显著提升。然而,任何技术都有其局限性。许多人初次接触RAG时兴致勃勃,但实际使用后却失望而归。这并非RAG技术不够强大,而是因为期望过高。因此,我希望通过全面详细地阐述RAG的完整流程,让你对这项技术有更全面的认知。这样,在使用RAG相关产品时,可以更好地理解其能力边界,从而充分发挥其潜力在开始花费你的时间看这篇长文之前,我希望先管理好你的预期这是一篇关于RAG的科普性文章,我会用我一贯的文风(通俗易懂)给小白讲清楚RAG的各个环节严格来讲,这不是一篇技术向文章,为了让更多人可以听懂,我隐去了一些不重要的技术细节和术语本文适合任何人,不包括但不限于:AI爱好者/为企业寻找知识库解决方案的老板/AI产品经理等读完本文,我希望你在使用任何知识库工具的时候,对每一步操作都是清晰的,做到知其然,知其所以然废话不多说,我们开始!

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG介绍[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。

胎教级教程:万字长文带你理解 RAG 全流程

旁白:一路千辛万苦,终于要真正了解RAG的全貌了,好激动前面的开胃菜已经完毕,这里我们进入正餐,先上一张图注:这张图引用自:https://mp.weixin.qq.com/s/37tKVQbxenVVBAeMZ334aQ公众号:AI花果山一位RAG大佬,正在编写一系列教程《RAG高效应用指南》这张图将会是我们本章的知识地图,看到这么多的概念,不要慌,我们先整体理解下RAG。自顶向下,RAG的流程分为离线数据处理和在线检索两个过程。我们前面讲到,知识库是RAG的“活字典”,可以让AI随时进行查阅。而离线数据处理的目的就是为了构建出这本“活字典”。经过离线数据后,知识则会按照某种格式以及排列方式存储在知识库中,等待被使用。而在线检索则是我们使用利用知识库+大模型进行查询的过程。在学习一门新知识的时候,是什么与为什么同等重要是什么让你知其然为什么让你知其所以然接下来我们就以RAG最经典的应用场景《构建智能问答客服》来了解RAG所有流程中的What与Why

Others are asking
lmstudio可以支持联网搜索和本地知识库rag吗?如何实现?
LMStudio 能否支持联网搜索和本地知识库 RAG 以及如何实现的问题如下: 实现本地知识库 RAG 需加载所需的库和模块,如用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,通过特定函数从指定的 RSS 订阅 URL 提取内容,若需接收多个 URL 稍作改动即可。然后用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回用于后续处理或提取。 为文档内容生成向量,可使用文本向量模型 bgem3(从 hf 下载好模型假设放置在某个路径,通过函数利用 FAISS 创建高效的向量存储)。 实现 RAG 包括文档加载(从多种来源加载文档,LangChain 提供 100 多种文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块嵌入转换成向量形式并存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、Output(把问题及检索出的嵌入片提交给 LLM 生成答案)。 基于用户问题从向量数据库中检索相关段落,根据设定阈值过滤,让模型参考上下文信息回答,从而实现 RAG。 还可创建网页 UI 并进行评测,对于同样的问题和上下文,基于不同模型进行多次测试,其中 GPT4 表现最好,Mixtral 次之,Qwen7b 第三,Gemma 和 Mistral 表现一般。总结来说,本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人,结合 RSSHub 处理和提供资讯,上下文数据质量和大模型性能决定 RAG 系统性能上限,RAG 能提升答案质量和相关性,但不能完全消除大模型幻觉和信息滞后问题。
2025-02-04
RAG相关的 论文
以下是关于 RAG 的相关论文内容: 《大模型 RAG 问答行业最佳案例及微调、推理双阶段实现模式:基于模块化RAG 自定义 RAG Flow》:介绍了从 RAG Flow 的角度的几个行业最佳的 RAG 实践,如 OpenAI 团队在提升 RAG 准确率方面的尝试,包括多种方法的试验,最终通过提示工程、查询扩展等方法达到了 98%的准确率,并强调了模型精调和 RAG 结合使用的潜力。 《开发:产品视角的大模型 RAG 应用》:对 RAG 的技术原理、历史发展、应用方法、应用场景和未来的发展方向进行了完整解读,文本内容源自论文《RetrievalAugmented Generation for Large Language Models:A Survey》。 《RAG 系统开发中的 12 大痛点及解决方案》:受到 Barnett 等人论文《工程化检索增强生成系统时的七大挑战》的启发,探讨了论文中的七个挑战及开发 RAG 系统时遇到的五个常见难题,并深入讨论了这些难题的解决策略。
2025-02-04
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化,是因为 LLM 存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,可降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可以抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-02-03
RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控以及受幻觉问题干扰的情况。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 的优点包括: 1. 数据库对数据的存储和更新稳定,不存在学不会的风险。 2. 数据更新敏捷,增删改查可解释,对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,降低大模型输出出错的可能。 4. 便于管控用户隐私数据,且可控、稳定、准确。 5. 可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt 中,提交给大模型,让大模型的回答充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。RAG 由检索器和生成器两部分组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确和连贯的答案,非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。
2025-01-29
RAG与agent
RAG(RetrievalAugmented Generation,检索增强生成)是一种方法,例如在餐饮生活助手的应用中,它能根据用户需求从大规模餐饮数据集中检索出最合适的餐厅并提供相关信息和服务。实现餐饮生活助手的 RAG 实战,需要将餐饮数据集转化为 LangChain 可识别和操作的数据源,并定义 LLM 的代理,让其根据用户问题提取核心信息和条件,形成标准查询语句检索数据源并生成答案。 Agent 是大模型的一个重要概念,被认为是大模型未来的主要发展方向。它可以通过为 LLM 增加工具、记忆、行动、规划等能力来实现。目前行业里主要使用 LangChain 框架将 LLM 与工具串接。例如在 RAG 基础上,Agent 给大模型提供了更多工具,如长期记忆(数据库工具),还在 prompt 层和工具层完成规划和行动等逻辑设计。 在大模型请求中,最大的两个变量是 Messages 和 Tools,两者组合形成整个 Prompt。Agent 应用开发的本质是动态 Prompt 拼接,通过工程化手段将业务需求转述成新的 prompt。RAG 可以是向量相似性检索,放在 system prompt 里或通过 tools 触发检索。Action 触发 tool_calls 标记进入请求循环,拿模型生成的请求参数进行 API request,再把结果返回给大模型进行交互,没有 tool_calls 标记则循环结束。Multi Agents 则是通过更换 system prompt 和 tools 实现。
2025-01-28
RAG技术是什么
RAG 即检索增强生成(RetrievalAugmented Generation),是一种结合了检索模型和生成模型的技术。 其核心目的是通过某种途径把知识告诉给 AI 大模型,让大模型“知道”我们的私有知识,变得越来越“懂”我们。 在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 一个 RAG 的应用通常包含以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 RAG 的最常见应用场景是知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 LangChain 是一个用于构建高级语言模型应用程序的框架,它与 RAG 的关系为: 1. LangChain 作为框架,提供了实现 RAG 所必需的工具和组件。 2. RAG 作为技术,可以在 LangChain 框架内得以实施和利用。 3. LangChain 允许开发者通过其模块化组件来构建 RAG 应用程序。 4. LangChain 通过提供现成的链和提示模板,简化了 RAG 应用程序的开发过程。 5. 利用 LangChain 实现 RAG 可以帮助开发者创建更高效、更准确的应用程序,特别是在需要大量外部信息来辅助决策的场景中。 6. LangChain 通过其丰富的 API 和组件库,支持开发者构建复杂的 RAG 应用,如智能问答系统、内容推荐引擎等。
2025-01-28
deepseek教程
以下是关于 DeepSeek 的教程: 网址:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 获得游戏代码:只需点击开始对话,左边选择代码助手,直接向其许愿即可。 提示词使用: 效果对比:用 Coze 做了小测试,可对比查看 。 如何使用: 1. 搜索 www.deepseek.com,点击“开始对话”。 2. 将装有提示词的代码发给 DeepSeek 。 3. 认真阅读开场白之后,正式开始对话。 设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对作者有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 。 特别鸣谢:李继刚的【思考的七把武器】在前期提供了很多思考方向,Thinking Claude 是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源,Claude 3.5 Sonnet 是最得力的助手。 使用技巧: 特点与优势: 1. 推理型大模型:核心是推理型大模型,不需要用户提供详细步骤指令,通过理解用户真实需求和场景提供答案。 2. 更懂人话:能够理解用户用“人话”表达的需求,不需要用户学习和使用特定提示词模板。 3. 深度思考:回答问题时能够进行深度思考,不是简单罗列信息。 4. 文风转换器:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 正确方法: 1. 可以扔掉提示词模板:用自然语言描述,直接描述真实场景和具体需求,提示词模板的目的是清晰表达,如果使用也完全没问题。 2. 让 DeepSeek“说人话”:在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,可以让 DeepSeek 的回答更加通俗易懂。 3. 激发深度思考:让 DeepSeek 进行批判性思考、反面思考和复盘,以恢复其深度思考能力。 4. 文风转换:通过指定模仿的作家和文体,让 DeepSeek 生成符合特定风格的文本。
2025-02-01
零基础,如何系统性的学习和运用AI,请提供一个系统性的教程学习
对于零基础学习和运用 AI,以下是一个系统性的教程: 一、了解 AI 基本概念 首先,建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。这些课程将引导您了解生成式 AI 等基础知识,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。同时,建议您一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键。尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 六、深入学习 Python 编程(如果希望继续精进) 至少熟悉以下内容: 1. Python 基础 基本语法:了解 Python 的基本语法规则,比如变量命名、缩进等。 数据类型:熟悉 Python 中的基本数据类型,如字符串(String)、整数(Integer)、浮点数(Float)、列表(List)、元组(Tuple)、字典(Dictionary)等。 控制流:学习如何使用条件语句(if)、循环语句(for 和 while)来控制程序的执行流程。 2. 函数 定义和调用函数:学习如何定义自己的函数,以及如何调用现有的函数。 参数和返回值:理解函数如何接收参数和返回结果。 作用域和命名空间:了解局部变量和全局变量的概念,以及它们是如何在 Python 中工作的。 3. 模块和包 导入模块:学习如何导入 Python 标准库中的模块或者第三方库。 使用包:理解如何安装和使用 Python 包来扩展程序的功能。 4. 面向对象编程(OOP) 类和对象:了解面向对象编程的基本概念,包括类的定义和实例化。 属性和方法:学习如何为类定义属性和方法,以及如何通过对象来调用它们。 继承和多态:了解类之间的继承关系以及如何实现多态。 5. 异常处理 理解异常:了解什么是异常,以及它们在 Python 中是如何工作的。 异常处理:学习如何使用 try 和 except 语句来处理程序中可能发生的错误。 6. 文件操作 文件读写:学习如何打开文件、读取文件内容以及写入文件。 文件与路径操作:理解如何使用 Python 来处理文件路径,以及如何列举目录下的文件。
2025-01-29
cursor教程
以下是关于 Cursor 教程的相关内容: 1. 中文教程网站: 网站:,提供中文教程,帮助用户更好地掌握 AI 代码编辑器 Cursor 的使用方法,适合想深入了解和学习 Cursor 的用户。 2. 配置教程: 从穷👻套餐 2.0 开始,对 Cursor 的配置主要集中在接入更多模型,如 Qwen2.5Coder、Llama3.3、deepseek v3、gemini2.0flash 等,大部分是为了省 API 费用,但未完全挖掘出 Cursor 的潜力。接入再多的模型也无法完全填平 Cursor 免费版和 Cursor Pro 的差距,如 Agent、Yolo、Composer、Tab 代码补全等功能被限制。此次收集到 3 个插件,2 大 API 和 N 个新的提示语用法,给 Cursor 装配上 Tab 代码补全、AI Agent、全系大模型接入、开发进度管理、状态回滚等功能。 3. 0 编程基础入门极简使用指南: 下载 Cursor:https://www.cursor.com/ 注册账号,可用邮箱如 google/github/163/qq 邮箱,直接接受二维码登录。 安装中文包插件。 在设置中 Rule for AI 配置,按 ctrl/cmd+i 输入需求,如“帮我做一个贪吃蛇游戏,在网页中玩”,并清晰表达需求,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等规则。
2025-01-29
coze教程
以下是关于 Coze 教程的相关内容: 可能是全网最好的 Coze 教程之一,能一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南: 长文预警,请视情况收藏保存。 核心看点: 通过实际案例逐步演示,用 Coze 工作流构建能够稳定按照模板要求生成结构化内容的 AI Agent。 开源 AI Agent 的设计到落地的全过程思路。 10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群: 任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍)。 希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 Coze 概述: 字节的官方解释:Coze 是新一代一站式 AI Bot 开发平台。无论是否有编程基础,都可在 Coze 平台上快速搭建基于 AI 模型的各类问答 Bot,从解决简单的问答到处理复杂逻辑的对话。并且,可以将搭建的 Bot 发布到各类社交平台和通讯软件上,与这些平台/软件上的用户互动。 个人认为:Coze 是字节针对 AI Agent 这一领域的初代产品,在 Coze 中将 AI Agent 称之为 Bot。 字节针对 Coze 这个产品部署了两个站点,分别是国内版和海外版。 国内版: 网址:https://www.coze.cn 官方文档教程:https://www.coze.cn/docs/guides/welcome 大模型:使用的是字节自研的云雀大模型,国内网络即可正常访问。 海外版: 网址:https://www.coze.com 官方文档教程:https://www.coze.com/docs/guides/welcome 大模型:GPT4、GPT3.5 等大模型(可以在这里白嫖 ChatGPT4,具体参考文档:),访问需要突破网络限制的工具。 参考文档:https://www.coze.com/docs/zh_cn/welcome.html AI Agent 的开发流程: Bot 的开发和调试页面布局主要分为如下几个区块: 提示词和人设的区块。 Bot 的技能组件。 插件。 工作流。 Bot 的记忆组件。 知识库。 变量。 数据库。 长记忆。 文件盒子。 一些先进的配置,如触发器(例如定时发送早报)、开场白(用户和 Bot 初次对话时,Bot 的招呼话语)、自动建议(每当和 Bot 一轮对话完成后,Bot 给出的问题建议)、声音(和 Bot 对话时,Bot 读对话内容的音色)。下面会逐一讲解每个组件的能力以及使用方式。
2025-01-28
liblib教程
以下是关于 liblib 的教程: 线稿提取教程: 1. 出两张彩色的稍连贯的图片。 2. 提取第一张的线稿图: 用 liblib 提取,进入 https://www.liblib.art/ 。 点击【在线生图】。 滑到下面找出【ControlNet】并点击右侧。 点击上传图片。 勾选【启用】、【允许预览】、【Lineart】,预处理器选择【写实线稿提取】,并点击【运行&预览】。 把右侧的黑白图拉到左侧栏,预处理器改为【invert(白底黑线反色)】,并点击【运行&预览】,线稿提取大功告成!右键图片另存即可。 文生图简明操作流程: 1. 定主题:确定要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 4. 设置 VAE:选择 840000 那一串。 5. CLIP 跳过层:设成 2。 6. Prompt 提示词:用英文写需求,单词、短语之间用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,中间用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 时,在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 11. 生成批次:默认 1 批。 此外,还有 Liblibai 简易上手教程,包含概念与功能说明、简明操作流程、prompt 简易技巧三部分。可通过进入免费在线生图。若有不明白之处,可在评论区交流或添加微信:designurlife1st 沟通。
2025-01-28
从零到一的 LLM 学习教程
以下是从零到一学习 LLM 的教程: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 了解 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 运用 LLM 预训练框架,如 PyTorch、TensorFlow 等。 微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 进行模型评估和可解释性研究。 实现模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 此外,为您推荐以下 LLM 开源中文大语言模型及数据集集合的学习资源: 1. 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,主要包括:吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。 2. 提示工程指南: 地址: 简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。 3. LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:Langchain 的中文文档,由是两个在 LLM 创业者维护,希望帮助到从刚进入 AI 应用开发的朋友们。 4. LLMs 九层妖塔: 地址: 简介:ChatGLM、ChineseLLaMAAlpaca、MiniGPT4、FastChat、LLaMA、gpt4all 等实战与经验。 关于 LLM 的预测原理: LLM 接触了包括教科书、文章、网站等在内的庞大数据集。在训练阶段,它们学会了理解语言的上下文和流动性,掌握了包括语法、风格,甚至是文本的语调等方面。当您用一个句子或问题来指导 LLM 时,它便利用自己所学的知识,预测接下来最可能的一个或几个词。这不仅是基于它在训练期间观察到的模式和规则的推测。 在提示工程方面,鉴于 LLM 的概率本质,提示工程师面临的挑战是如何引导 LLM 向着高度可预测和准确的结果方向发展。在相关课程中,您将学习许多技巧,这些技巧将帮助您掌握高度可预测的 LLM 输出结果的艺术和科学。但在深入学习之前,可以先从一些简单的练习开始,激活思维。
2025-01-28