Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

请推荐一份学习rag的资料

Answer

以下是为您推荐的学习 RAG(Retrieval-Augmented Generation,检索增强生成)的资料:

  1. 《Retrieval-Augmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf),该资料对 RAG 进行了较为全面的介绍和分析。
  2. 关于新知识的学习,您可以参考“胎教级教程:万字长文带你理解 RAG 全流程”。其中提到可以通过 Claude 帮助了解细节概念,然后再通过 Coze 搭建 Demo 来实践学习。还不知道 Coze 是什么的同学可以看公开分享:胎教级教程:万字长文手把手教你用 Coze 打造企业级知识库
  3. 了解“RAG 是什么?”:RAG 是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。通过检索模式为大语言模型的生成提供帮助,使生成的答案更符合要求。同时,还介绍了大模型存在的缺点以及 RAG 的优点,如数据库对数据存储和更新稳定、敏捷、可解释等。

希望这些资料对您学习 RAG 有所帮助。

Content generated by AI large model, please carefully verify (powered by aily)

References

RAG提示工程(一):基础概念

大语言模型技术的本质导致了大模型的输出结果具有不可预测性,此外,静态的训练数据导致了大模型所掌握的知识存在截止日期,无法即时掌握最新信息。因此,当我们将大模型应用于实际业务场景时会发现,通用的基础大模型无法满足我们的实际业务需求。主要存在以下原因:知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是抓取网络公开的数据用于训练,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。幻觉问题:大模型的底层原理是基于数学概率的文字预测,即文字接龙。因此大模型存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄露的风险,将自身的私域数据上传第三方平台进行训练。因此如何大模型落地应用时如何保障企业内部数据安全是一个重要问题。而RAG是解决上述问题的一套有效方案。它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解LLM如何生成最终的结果。并且,RAG可以和微调结合使用,两者并不冲突。RAG类似于为模型提供教科书,允许它基于特定查询检索信息。这该方法适用于模型需要回答特定的询问或解决特定的信息检索任务。然而,RAG不适合教模型来理解广泛的领域或学习新的语言,格式或样式。微调类似于让学生通过广泛的学习内化知识。这种方法当模型需要复制特定的结构、样式或格式时非常有用。以下是RAG与微调从维度方面的比较:参考资料:《Retrieval-Augmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf)

胎教级教程:万字长文带你理解 RAG 全流程

关于新知识的学习,每个人都有自己的方法,这里我推荐我的一个方法,那就是Claude+CozeClaude大家都很清楚了,目前最强的AI大模型,一个月20美元,好用到飞起。而Coze呢则是一款AI Agent的衍生产品,对我来说他现在最大的价值就是两点依靠Coze来跟进当前AI Agent工具的发展情况,对其保持关注,发现商业化的机会做产品Demo,我有任何的想法都可以考虑在Coze中实现一个Demo还不知道Coze是什么的同学可以看我的公开分享:[胎教级教程:万字长文手把手教你用Coze打造企业级知识库](https://axsppz4oyvj.feishu.cn/wiki/ZP1wwFWhvii1sfkvcEFc2saznoh)我在学习RAG的过程首先会通过Claude帮助我了解细节的概念,然后再通过Coze搭建一个Dmeo,在动手实践中学习RAG在学习RAG的过程中,我一共创建了4个Bot:产品资料问答机器人这个Bot是利用了Coze的知识库能力,演示知识库在企业中的应用。相关资料请参考我的公开分享:[胎教级教程:万字长文手把手教你用Coze打造企业级知识库](https://axsppz4oyvj.feishu.cn/wiki/ZP1wwFWhvii1sfkvcEFc2saznoh)Query改写助手学习Bot:这里为了学习Query的改写,我专门做了一个Bot机器人进行学习Bot地址:https://www.coze.cn/store/bot/7400077517299957800?panel=1&bid=6dkpl06gg601j

问:RAG 是什么?

RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,它旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。简单来说,就是通过检索的模式,为大语言模型的生成提供帮助,从而使大模型生成的答案更符合要求。[heading2]为什么LLM需要RAG?[content]众所周知,大模型已经在很多领域和问题下都取得了很好的效果,那为什么还需要RAG进行检索优化呢?[heading3]LLM的缺点[content]1.LLM无法记住所有知识,尤其是长尾的。受限于训练数据、现有的学习方式,对长尾知识的接受能力并不是很高;长尾数据是指数据集中某些类别数量较少,而其他类别样本数较多的不平衡“长尾”状态。例如在自然语言处理中,一些少见的词汇出现频率很低,而常见的词汇出现频率很高。2.LLM的知识容易过时,而且不好更新。只是通过微调,模型的接受能力其实并不高而且很慢,甚至有丢失原有知识的风险;3.LLM的输出难以解释和验证。一方面最终的输出的内容黑盒且不可控,另一方面最终的结果输出可能会受到幻觉之类的问题的干扰;4.LLM容易泄露隐私训练数据。用用户个人信息训练模型,会让模型可以通过诱导泄露用户的隐私;5.LLM的规模大,训练和运行的成本都很大。[heading3]RAG的优点[content]1.数据库对数据的存储和更新是稳定的,不像模型会存在学不会的风险。2.数据库的数据更新可以做得很敏捷,增删改查可解释,而且对原有的知识不会有影响。3.数据库的内容是明确、结构化的,加上模型本身的理解能力,一般而言数据库中的内容以及检索算法不出错,大模型的输出出错的可能就大大降低。4.知识库中存储用户数据,为用户隐私数据的管控带来很大的便利,而且可控、稳定、准确。5.数据库维护起来,可以降低大模型的训练成本,毕竟新知识存储在数据库即可,不用频繁更新模型,尤其是不用因为知识的更新而训练模型。

Others are asking
使用RAG要注意什么?
使用 RAG 时需要注意以下几点: 1. 不能随意输入任何文档就期望得到准确回答。尽管 RAG 的基本概念不难理解,但有效实现 RAG 系统需要考虑多个复杂因素,如文档预处理、高效索引、相关性排序等,这些都需要专业知识和持续优化。 2. RAG 不能完全消除 AI 的幻觉。虽然它可以显著减少幻觉,但模型仍可能在检索到的信息基础上进行不当的推理或生成错误信息,只要有大模型参与,就有可能产生幻觉。 3. RAG 仍然消耗大模型的 Token。从流程上看,最终还是将知识库中检索的结果给到 LLM,然后由 LLM 进行重新整理输出。 4. 从评估角度看,如果检索到的知识是无效的,会严重影响 LLM 应用的表现,因此将检索过程的精确度和召回率与整个 LLM 应用程序分开进行研究尤为重要。 5. RAG 存在局限性,它适合打造专才,不适合打造通才,能够为模型提供新的信息、专有领域知识等,但并不适合为模型提供通用领域知识。同时,在让模型保持稳定的风格或结构输出、降低 token 消耗等方面存在不足,这两点需要使用微调技术解决。
2025-03-25
我想搭建个人rag知识库,实现本地化部署,可以调用本地大模型去分析知识库的内容进行解答
以下是搭建个人 rag 知识库并实现本地化部署,调用本地大模型分析知识库内容进行解答的详细步骤: 一、通过 Open WebUI 使用大模型 1. 访问相关网址,使用邮箱注册账号。 2. 登陆成功后,Open WebUI 一般有两种使用方式,包括聊天对话和 RAG 能力(让模型根据文档内容回答问题,这是构建知识库的基础之一)。 3. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现与大模型对话。ChatGPT 访问速度快且回答效果好的原因在于其服务器配置高、训练参数多、数据更优及训练算法更好。 二、本地知识库进阶 1. 若要更灵活掌控知识库,需使用额外软件 AnythingLLM,其包含 Open WebUI 的所有能力,并额外支持选择文本嵌入模型和向量数据库。 2. 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 3. 在 AnythingLLM 中有 Workspace 的概念,可创建独有 Workspace 与其他项目数据隔离。首先创建工作空间,然后上传文档并在工作空间中进行文本嵌入,选择对话模式(包括 Chat 模式和 Query 模式),最后进行测试对话。 三、RAG 是什么 利用大模型搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需对 RAG 有大概了解。RAG 应用可抽象为 5 个过程: 1. 文档加载:从多种来源加载文档,LangChain 提供 100 多种不同的文档加载器,包括非结构化、结构化数据及代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 文本加载器是将用户提供的文本加载到内存中,便于后续处理。
2025-03-25
什么是ai中的RAG
RAG 是检索增强生成(RetrievalAugmented Generation)的缩写,是一种结合了检索模型和生成模型的技术。其核心目的是通过某种途径把知识告诉给 AI 大模型,让大模型“知道”我们的私有知识,变得越来越“懂”我们。 RAG 的核心流程是:根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。 RAG 的最常见应用场景是知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 RAG 的基本流程如下: 1. 首先,给定一个用户的输入,例如一个问题或一个话题,RAG 会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。 2. 然后,RAG 会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如 GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。 3. 最后,RAG 会从大模型的输出中提取或格式化所需的信息,返回给用户。
2025-03-23
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源,与原始提示词组合后送给文本生成器得到最终输出,能适应事实随时间变化的情况,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点:数据库对数据的存储和更新稳定,无学习风险;数据更新敏捷,可解释且不影响原有知识;降低大模型输出出错可能;便于管控用户隐私数据;降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并针对每个难题有相应的解决策略。
2025-03-23
RAG技术是什么,你找到了什么文档
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合了检索和生成的技术。 其在多个基准测试中表现出色,如在 Natural Questions、WebQuestions 和 CuratedTrec 等中。用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体且多样,FEVER 事实验证使用后也有更好结果。基于检索器的方法越来越流行,常与 ChatGPT 等流行 LLM 结合使用以提高能力和事实一致性。 RAG 是一种结合检索和生成的技术,能让大语言模型在生成文本时利用额外的数据源,提高生成质量和准确性。基本流程是:先根据用户输入从数据源检索相关文本片段作为上下文,然后将用户输入和上下文拼接传递给大语言模型,最后提取或格式化大语言模型的输出给用户。 大语言模型存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库对数据的存储和更新稳定,数据更新敏捷且可解释,能降低大模型输出出错可能,便于管控用户隐私数据,还能降低大模型训练成本。
2025-03-20
RAG 开发实战
以下是关于 RAG 开发实战的详细内容: RAG 是一种结合了检索和生成的技术,能让大模型在生成文本时利用额外的数据源,提高生成质量和准确性。其基本流程为:首先,用户给出输入,如问题或话题,RAG 从数据源中检索相关文本片段(称为上下文);然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),此输入通常包含提示,指导模型生成期望输出(如答案或摘要);最后,从大模型输出中提取或格式化所需信息返回给用户。 以餐饮生活助手为例进行 RAG 的 Langchain 代码实战,需完成以下步骤: 1. 定义餐饮数据源:将餐饮数据集转化为 Langchain 可识别和操作的数据源(如数据库、文件、API 等),注册到 Langchain 中,并提供统一接口和方法,方便 LLM 代理访问和查询。 2. 定义 LLM 的代理:通过 Langchain 的代理(Agent)实现,代理管理器可让开发者定义不同 LLM 代理及其功能逻辑,并提供统一接口和方法,方便用户与 LLM 代理交互。
2025-03-20
背景:我是一名高中生,想学习AI知识,逐步从入门到精通 目标:希望在<3个月>内具备一定能力。 请结合我的背景和优势,为我设计一份学习路线: - 列出每阶段(例如每一个礼拜)的学习重点(比如编程基础、数学)。 - 为每个阶段推荐<具体资源>(书籍、在线课程、练习项目等)。 - 提供一些学习技巧或注意事项。
以下是为您设计的一份在 3 个月内从入门到具备一定能力的 AI 学习路线: 第一个月: 学习重点:了解 AI 基本概念,包括术语、主要分支及它们之间的联系;掌握编程基础,如 Python 语言。 推荐资源: 书籍:《人工智能:一种现代方法》 在线课程:Coursera 上的“人工智能入门”课程 练习项目:使用 Python 实现简单的数据分析和可视化 学习技巧和注意事项:多做笔记,理解概念,注重实践。 第二个月: 学习重点:深入学习数学基础,包括统计学、线性代数和概率论;了解算法和模型中的监督学习和无监督学习。 推荐资源: 书籍:《概率论与数理统计》《线性代数及其应用》 在线课程:edX 上的“机器学习基础”课程 练习项目:使用监督学习算法进行数据分类预测 学习技巧和注意事项:通过实际案例加深对数学知识的理解,多做练习题。 第三个月: 学习重点:掌握神经网络基础,包括网络结构和激活函数;学习模型的评估和调优。 推荐资源: 书籍:《深度学习》 在线课程:Udacity 上的“深度学习入门”课程 练习项目:构建并优化一个简单的神经网络模型 学习技巧和注意事项:积极参与在线讨论,及时解决学习中的问题。 在整个学习过程中,您还可以: 体验 AI 产品,如 ChatGPT、文心一言等,了解其工作原理和交互方式。 掌握提示词的技巧,提高与 AI 的交互效果。 参与相关的社区和论坛,分享学习经验和成果。
2025-03-21
我想用ai写一份报告,应该用什么软件
如果您想用 AI 写一份报告,可以考虑以下几种软件和方法: 1. 利用信息收集功能:结合 AI 搜索与权威网站获取关键数据,AI 可辅助提取结构化表格数据或编写抓取程序。 2. 内容拆分:针对报告需求将内容拆分,避免 AI 单次处理任务过长。 3. 数据处理:借助传统工具如 Excel,结合 AI 指导高效操作数据筛选与图表生成。 4. 分析与撰写:通过整理数据,利用 AI 辅助分析后撰写报告初稿,可指定风格并校验数据与结论准确性。但要注意,AI 仅作辅助,最终内容需人工主导校验,避免误导性结论。 5. 您还可以尝试以下应用: Mistral 发布的全新聊天应用,基于 Pixtral Large 124B 多模态模型,支持网络搜索、写作画布与 Flux Pro 图像生成功能。您可以通过在线体验。 使用 Claude 3.7 Sonnet 把 PDF 一键变成能玩的可视化网页,按照特定的 prompt 进行操作,将作者信息和媒体资源等细节部分改成自己的内容。但要注意,这个 Prompt 不是复制给任何大模型都可以用的,目前测试下来,只有 Claude 3.7 Sonnet 效果最好最强。您可以在 Claude 自己的官网、trea 海外版、cursor 等能用 Claude 3.7 的产品中使用。对于媒体资源中的图片,如果是网上现成的图片,可直接右键复制图像链接;如果是自己的图片,可以使用图床服务(比如 https://sm.ms/)托管图片,生成一个公链,然后用 Markdown 格式贴到媒体资源那。
2025-03-19
现在是2025年3月18日,我现在要整理一份AI行业的最新动态,在每天早上十点发布,请你整理今天的最新动态,10条左右
以下是 2025 年 3 月 18 日 AI 行业的最新动态: 1. 3 月 AI 发展持续升温。 2. 3 月潞晨科技发布 OpenSora。 3. 3 月 Suno 发布 V3 版本爆火。 4. OpenAI CPO Kevin Weil 访谈亮点:GPT5 近在眼前,将融合多个模型能力,快速推进,AI 代码自动化将在今年内达到 99%,强化推理能力和大规模预训练是关键方向,AI 不仅会写代码,还将让人人都能成为软件创造者。 5. 2025 年职场思考与建议:高管们面临“经验贬值”与“转型焦虑”,非 AI 公司的估值与融资变难,软件开发方式正被重构,“等风来”的代价越来越高,加入 AI 公司也并非万能,市场冷却下招聘更挑剔。 6. 你的孩子可能已经在用 AI“作弊”。 7. 过去一年,头部 AI 应用的品类变化不显著,创意工具仍占据最大比重。 8. 2024 年 9 月,OpenAI 发布新一代语言模型 o1,采用全新训练与推理方案,结合强化学习技术,显著增强推理能力,可能通过生成内部“思维链”模拟人类系统 2 思维方式。 9. 5 月伊莉雅离开 OpenAI,AI 竞争白热化。 10. 5 月伊利亚成立新公司,估值超五亿美金。
2025-03-18
能否提供一份关于在本网站的学习指南
以下是为您提供的在本网站的学习指南: 1. ComfyUI 相关学习资料: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,网址:https://www.comfyuidoc.com/zh/ 。 优设网:有详细的 ComfyUI 入门教程,适合初学者,网址:https://www.uisdc.com/comfyui3 。 知乎:有用户分享 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,网址:https://zhuanlan.zhihu.com/p/662041596 。 Bilibili:提供一系列从新手入门到精通的 ComfyUI 视频教程,网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。 2. 《2020 年国家人工智能倡议法案》相关内容:包含向相关委员会提交报告、开展研究等规定。 3. MIT 为孩子开设的免费 AI 课: 课程来自全球人工智能专业排名第一的麻省理工 MIT,名为 Day of AI,面向 8 18 岁孩子,来自 110 多个国家的 50 万名学生都在使用。 该课程完全免费,但资源面向家长、老师群体,大孩子可自学,小孩子可能需要家长辅助。 课程包含在 MIT 的 RAISE 项目中。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-17
给我一份通往AIGC的学习目录
以下是一份通往 AIGC 的学习目录: 1. AIGC 概述 1.1 GenAI、AIGC 的基本概念 GenAI 的定义、工作原理及应用 典型的 GenAI 产品 AIGC 的定义及创建方式 国内 AIGC 的监管框架 1.2 AIGC 的分类及应用 语言文本生成的模型和代表项目 图像生成的技术和代表项目 音视频生成的方法和代表项目 AIGC 在音乐生成、游戏开发和医疗保健等领域的应用 1.3 AIGC 应用可能引发的风险 内生风险,如算法的不可解释性和不可问责性,代码开源的安全和伦理担忧 数据隐私问题,如数据泄露、匿名化不足、未经授权的数据共享 知识产权风险,如作品侵权、不当竞争 相关法律和规定对 AIGC 的要求 AIGC 滥用可能导致的问题,如虚假信息传播、侵犯隐私 2. AI 赋能教学 从易到难的学习路径 了解 AI 工作原理 尝试各种 AI 工具 学会优化提示词 生成课程资源 解决教学场景 课上师生机共学 促学生正确使用 提升人机共创力 相关主题 AIGC 教育革命:技术原理与课堂实践 AI 从工具到助手赋能教师提升效率与能力 大语言模型的教学潜力:交流技巧与心得 AI 与教育场景融合拓展教学边界与创新场景 AI 与人类智能的共生放大学生思考力塑造深度学习能力 一线教师的 AI 需求与高效工具推荐 AI 赋能课堂的核心逻辑:从理论到应用 解码 AI 教学案例:创新与实践 教学主要负担分析,如备课压力、适应新课标
2025-03-17
怎么入门AI并且找到一份相关工作
以下是入门 AI 并找到相关工作的建议: 一、了解 AI 基本概念 建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。建议一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键。尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 此外,AI 已经在许多领域带来了重大进步和效率,具有巨大的应用潜力和创造就业的能力。但也要注意,随着 AI 的发展,相关的法律法规也在不断完善,以应对可能出现的风险和问题。
2025-03-07
MCP是什么 ?通往AGI之路中有相关的学习资料吗?
MCP(模型上下文协议)是由 Anthropic 于 2024 年 11 月推出的一项创新标准。它旨在实现大语言模型与第三方数据源的无缝连接,通过支持内容存储库、业务工具和开发环境等多种外部服务,让 AI 模型获取更丰富的上下文信息,从而生成更加精准、相关的智能回答。 Lark 认为,用一句话概括,MCP 是一种通用的方式,向各类大语言模型提供数据源和工具。官网解释:MCP 是一个开放协议,用于标准化应用程序向大语言模型提供上下文的方式,可以将其想象成 AI 应用程序的 USBC 接口。 此外,还有文章介绍了如何通过 MCP 连接 Claude 3.7 与 Blender,实现一句话生成 3D 场景的功能。随着 MCP 的崛起,AI 不再是数据孤岛,未来的 AI 智能体将能自主完成更复杂的任务,开启创作的新纪元。
2025-03-25
四轮腿机器人资料
以下是关于四轮腿机器人的相关资料: 宇树科技在该领域的情况: 推动了 AI + 机器人技术的标准化、模块化、智能化,实现快速、低成本落地。 基于企业训练数据完善深度学习训练模型及预测代码,通过四足机器人完成救援场景任务执行。 其四足机器人产品能力出众,多场景头部客户落地验证。 发布了 Aliengo 四足机器人,采用全新设计的动力系统,更轻量集成,一体化机身设计。 其 CEO 王兴兴在硕士期间独立开发了低成本外转子无刷电机驱动的高性能四足机器人 Xdog,开创了全球低成本高性能四足机器人方案的技术先河,并于 2016 年创立宇树科技。 2021 年 6 月发布伴随仿生机器人 Go1,以超低价格和优秀的感知运动能力,成为人类科技史上首款真正走入大众生活的移动机器人。2022 年 2 月“泰哥”亮相,2022 年 4 月推出 PUMP 健身泵。2023 年 4 月发布仿生 4D 激光雷达 L1。未来还将推出 Go 1 升级版、行业版、人形机器人等产品。 具身智能方面: 具身智能是将机器学习算法适配至物理实体,从而与物理世界交互的人工智能范式。以 ChatGPT 为代表的“软件智能体”使用大模型通过网页端、手机 APP 与用户进行交互,具身智能体则将大模型嵌入到物理实体上,通过机器配备的传感器与人类交流,强调智能体与物理环境之间的交互。通俗讲就是给人工智能装上“身体”,人形机器人是具身智能的代表产品。 具身智能的三要素包括“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界),本体、智能、环境的高度耦合是高级智能的基础,不同环境下会有不同形态的硬件本体适应环境,比如室内平地适用轮式机器人,崎岖不平地面适用四足机器人。 具身智能的行动分为“感知 决策 行动 反馈”四个步骤,分别由四个模块完成,并形成一个闭环。
2025-03-25
设计一条大模型学习之路,并给出推荐资料
以下是为您设计的大模型学习之路及推荐资料: 学习之路: 1. 了解大模型的基本概念:通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程,包括找学校(训练所需的大量计算和 GPU 等)、确定教材(大量的数据量)、找老师(算法讲述内容)、就业指导(微调)、搬砖(推导)。 2. 学习大模型的构建过程: 收集海量数据:如同教孩子成为博学多才的人需要让其阅读大量资料,对于大模型,要收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 预处理数据:像为孩子整理适合的资料,AI 研究人员要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、分割文本。 设计模型架构:为孩子设计学习计划一样,研究人员要设计大模型的“大脑”结构,如使用 Transformer 架构等特定的神经网络结构。 训练模型:如同孩子开始阅读和学习,大模型开始“阅读”提供的数据,通过反复预测句子中的下一个词来逐渐学会理解和生成人类语言。 推荐资料: 1. 直播共学: 可在飞书知识库中查看以下分享内容和教程:小七姐、刘宇龙、熊猫、MQ、财猫、李继刚、凯翔、AJ、南瓜博士、江树的分享。 参与每晚群里的分享和讨论会,包括 3.4 直播聊天(讲讲大家最初入门学 prompt 的一些入门方法)、3.5 直播分享(小七姐提示词学习路径)、3.5 直播答疑(小七姐、宇龙、AJ 学习路径中的各类问题和 AGI 对应知识推荐)、3.6 直播分享(MQ:文科小白+普通宝妈的 AI 学习之路、熊猫提示词和思维模型)、3.7 直播分享(南瓜博士&财猫文理兼修话 PROMPT)、3.7 直播聊天解答作业等。 2. 文章学习: 大模型工具请大家自行准备,推荐顺序为:1.chat 2.kimi.ai 3.智谱清言 4
2025-03-23
大模型学习资料
以下是为您提供的大模型学习资料: 大模型的底层原理: 预训练阶段:以 GPT3 为例,其训练使用了约 4990 亿 token 的数据集(约 570GB 文本),相当于 86 万本《西游记》。即使每天读完一本,也需约 28.6 辈子才能读完。这些数据大多来源于高质量的网页、书籍数据库、维基百科等。 模型架构:Transformer 是处理文本内容的经典模型架构,如 GPT1 所使用。关于其具体细节,不清楚也不太影响使用大模型,感兴趣可参考相关链接: 。 大模型的特点与架构: 架构分类:包括 encoderonly(适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT)、encoderdecoder(同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 google 的 T5)、decoderonly(更擅长自然语言生成任务,如故事写作和博客生成,众多 AI 助手采用此架构)。 规模特点:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级别的数据进行预训练;参数多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型的通俗解释: 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练、使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练。 2. 确定教材:需要大量数据,几千亿序列(Token)的输入是基本标配。 3. 找老师:选择合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称为推导(infer)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会被分割并数字化形成词汇表。
2025-03-23
想转型AI产品经理,推荐学习的资料有?
以下是为您推荐的学习资料,有助于您从产品经理转型为 AI 产品经理: 1. 林粒粒呀的相关视频,如“小白如何理解技术原理与建立框架”,其中介绍了思维链、RAG、PAL、ReAct 等概念,并且提到 Transformer 是仿生算法的阶段性实现。 思维链:谷歌在 2022 年一篇论文提到思维链可以显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可以在问题后面加一句【请你分步骤思考】。 RAG:检索增强生成(RetrievalAugmented Generation),外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 PAL:程序辅助语言模型(ProgramAided Language Model),2022 年一篇论文中提出,对于语言模型的计算问题,核心在于不让 AI 直接生成计算结果,而是借助其他工具比如 Python 解释器作为计算工具。 ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,核心在于让模型动态推理并采取行动与外界环境互动。比如用搜索引擎对关键字进行搜索,观察行动得到的结果。可借助 LangChain 等框架简化构建流程。 2. 余一的相关内容,如《AI 时代个人生存/摸鱼探索指南.Beta》《从 2023 年报,看中国上市公司怎么使用生成式 AI》。 3. 相关网页链接: 创新公司观察: 2022 2024 年融资 2000w 美金以上的公司列表和详细公司分析:https://ameliadev.notion.site/202220242000w08f50fafd81b420fa7f26ecd6c0b3243?pvs=4 AI Grant 公司列表和详细公司分析(三期):https://ameliadev.notion.site/AIGranta52f291e81f34b418c9919497961e831?pvs=4 AIGC 行业与商业观察(2024.1):https://gamma.app/docs/AIGCDev9q1bax2pspnlxqu 【AI 产品/功能构建】: 顶级科技公司产品团队正在构建哪些 AI 功能【总览】:https://gamma.app/docs/AIzawqmb2ff3cv958 顶级科技公司产品团队正在构建哪些 AI 功能【产品分析】:https://gamma.app/docs/AItebxqet8ubz3rje 顶级科技公司产品团队正在构建哪些 AI 功能【思考借鉴】
2025-03-18
AI和教育结合的案例以及资料
以下是一些 AI 和教育结合的案例及相关资料: 张翼然是湖南农业大学教育技术系副教授,国家教学成果奖获得者,也是“人工智能+教育”实践专家。其相关研究包括 AI 从工具到助手赋能教师提升效率与能力、AI 与教育场景融合拓展教学边界与创新场景、AI 与人类智能的共生放大学生思考力塑造深度学习能力、AIGC 教育革命:技术原理与课堂实践、大语言模型的教学潜力:交流技巧与心得、一线教师的 AI 需求与高效工具推荐、AI 赋能课堂的核心逻辑:从理论到应用、解码 AI 教学案例:创新与实践等。 例如,在个性化支持与学习自主性方面,AI 通过数据分析与即时反馈,提供定制化学习路径和资源,帮助学生根据自身兴趣、需求和能力规划学习,同时赋予学生更多学习自主权,支持自定步调学习,实现精准教学,关注每个学生的个体需求,帮助学生在学习过程中培养自主决策能力。 在科技伦理与批判性思维方面,通过 AI 生成的开放性问题与多维数据,帮助学生审视技术的潜在风险,培养批判性思维与负责任的科技使用态度,引导学生辨析技术优劣,理解科技的伦理边界,通过讨论和反思提升学生的审辨能力。如课堂讨论 AI 生成内容的真实性与偏见,并设计项目探索数据隐私的保护方案。 同时也指出了大模型在多数任务中可快速达到及格水平,但在绝大多数领域难以达到优秀水平,以及现阶段 AI 在教育领域应用存在知识适配的层次性问题等局限性。 深圳福田区梅山中学梁玉老师使用百度文库的 AI 有声画本导入故事生成,用即梦 AI 生成数字人。 教研员贺亚使用通义千问根据评分标准改英语作文。 黎加厚提出让每一位教师都掌握教育智能体金钥匙。
2025-03-17
怎么零基础学习ai
以下是零基础学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,无论是零基础还是中学生,学习 AI 可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能。
2025-03-25
stablediffusion学习
以下是关于系统学习 Stable Diffusion 的相关内容: 学习 Stable Diffusion 的提示词是一个系统性的过程,需要理论知识和实践经验相结合。具体步骤如下: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分,如主题词、修饰词、反面词等。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,Stable Diffusion 是一个 AI 自动生成图片的软件,通过输入文字就能生成对应的图片。学习 Stable Diffusion 非常简单,不需要深入了解其原理也能熟练使用。 Stable Diffusion 是一种扩散模型的变体,称为潜在扩散模型。其核心组件包括将用户输入的 Prompt 文本转化成 text embedding 的 CLIP、VAE EncoderDecoder 以及进行迭代降噪和在文本引导下进行多轮预测的 UNET 等。在训练和模型方面,有多种模型实例、训练方法、格式等,如 SD1.5、SDXL 等,还包括融合模型等形式。
2025-03-25
如何0基础学习Ai
以下是 0 基础学习 AI 的方法: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库有很多大家实践后的作品、文章分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 此外,还有二师兄的 AI 学习经历供您参考: 二师兄来自上海,是典型的 80 后,房地产行业从业二十年,计算机零基础。2024 年: 一月:买了 4070TiSuper 显卡配 4K160 显示器,备战游戏。 二月:在七彩虹售后群老哥的分享下,要了 SD 秋叶安装包,下载教学视频,迈出 AI 学习第一步。 三月:啃完 SD 的所有教程,炼丹,因图片数据集质量一般,lora 仅供自嗨。 四月:与小伙伴探讨 AI 变现途径,尝试用 GPT 和 SD 制作图文故事绘本、小说推文项目,因组员忙而不了了之,但练了一些绘本风格的丹。 五月:因工作变动,电脑运回家,在无硬件支持下加入 Prompt battle 社群,开始 Midjourney 的学习,打磨文生图提示词学习。
2025-03-25
我要学习提示词工程哪些教程最好
以下是一些学习提示词工程的优质教程推荐: 1. 小七姐的“Prompt Engineering a Prompt Engineer 精读翻译”: 提供了提示词工程的在线教程。 将提示词工程的任务分解为两个步骤,并在元提示词中明确这两个步骤,提前传达期望。 为鼓励模型仔细检查示例,指导提案模型回答一系列问题。 明确提示词在不同上下文中与输入的相互作用。 2. 歸藏翻译的“简单易懂,强烈推荐 Codesignal 提示工程教程1”: 通俗易懂,给出丰富实践经验。 课程地址:https://learn.codesignal.com/preview/coursepaths/16/promptengineeringforeveryone 。 3. “GPT1 到 Deepseek R1 所有公开论文 The 2025 AI Engineer Reading List”中的第 3 节: 推荐了 Lilian Weng、Eugene Yan、Anthropic 的《提示工程教程》和《人工智能工程师工作坊》。
2025-03-25
学习Prompt Engineering
提示工程(Prompt Engineering)是人工智能领域中,特别是在自然语言处理(NLP)和大型语言模型(LLMs)的上下文中一个相对较新的概念。 其关键点包括: 1. 精确性:通过精确的提示,提高 AI 模型输出的相关性和准确性。 2. 创造性:需要创造性地思考如何构建问题或请求,以激发 AI 模型的特定能力。 3. 迭代:通常需要多次尝试和调整提示,以获得最佳结果。 4. 上下文理解:提示需要包含足够的上下文信息,以便 AI 模型能够理解并执行所需的任务。 提示词通常指的是直接输入到 AI 模型中的问题、请求或指示,它们是提示工程的一部分。提示词可以简单,也可以复杂。 提示工程与提示词的区别在于:提示词是实际输入到 AI 系统中的具体文本,用以引导模型的输出。提示工程则是一个更广泛的概念,不仅包括创建提示词,还涉及理解模型的行为、优化提示以获得更好的性能、以及创造性地探索模型的潜在应用。提示工程的目标是最大化 AI 模型的效用和性能,而提示词是实现这一目标的手段之一。 在实际应用中,提示工程的提示开发生命周期包括: 1. 开发测试用例:在定义任务和成功标准之后,创建一组多样化的测试用例,涵盖应用程序的预期用例,包括典型示例和边界情况,以确保提示具有鲁棒性。提前定义好的测试用例将使您能够客观地衡量提示与成功标准的表现。 2. 设计初步提示:制定一个初步的提示,概述任务定义、良好响应的特征,以及所需的上下文。理想情况下,添加一些规范输入和输出的示例供参考。这个初步提示将作为改进的起点。 3. 根据测试用例测试提示:使用初步提示将测试用例输入到模型中。仔细评估模型的响应与预期的输出和成功标准是否一致。使用一致的评分标准,无论是人工评估、与答案标准的比较,甚至是基于评分标准的模型判断。关键是要有一种系统性的评估性能的方式。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-25