Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

深度学习模型架构有哪些

Answer

深度学习模型架构主要包括以下几种:

  1. Transformer 模型:
    • 由编码器(Encoder)和解码器(Decoder)两大部分组成。
    • 每个部分由多个相同的层堆叠而成,每层包含多头注意力机制(Multi-head Attention)和位置全连接前馈网络。
    • 编码器将自然语言转换成向量文本,解码器基于编码器的输出和之前生成的输出逐步生成目标序列。
  2. DiT 架构:结合扩散模型和 Transformer 的架构,用于高质量图像生成。
  3. 存算一体架构:
    • 是未来 AI 硬件的发展趋势。
    • 运行几百亿个参数的大模型时具有优势,可避免数据搬运。

此外,在端到端算法的时代,有观点认为不应继续使用冯诺依曼架构,且在存算一体的芯片之上,有望诞生全新的算法。在将大模型与私域知识结合方面,有重新训练、微调、RAG、关键词工程、加长 Context 等方法,其中长 Context 和 RAG 被认为较有希望。

Content generated by AI large model, please carefully verify (powered by aily)

References

Transformer模型主要由两大部分组成:编码器(Encoder)和解码器(Decoder)。每个部分都是由多个相同的层堆叠而成,每层包含了多头注意力机制(Multi-head Attention)和位置全连接前馈网络。[heading2]编码器(Encoder)[content]可以理解为将自然语言转换成向量文本,以模型内的既有参数表示。这些参数包含了原始信息,同时也融合了序列内元素间的相互关系。举个例子:输入:“我喜欢猫”将自然语言转换成词嵌入向量:我->[1,0]喜欢->[0,1]猫->[1,1]自注意力机制(这个后面详细讲)输出:编码器输出一个序列的向量,表示对输入句子的理解。[1,0],[0,1],[1,1][heading2]解码器(Decoder)[content]基于编码器的输出和之前生成的输出逐步生成目标序列,也就是把向量文本重新转化成自然语言。同样举例:目标:生成中文句子"我喜欢猫"。初始输入:解码器接收一个开始符号,用[0,0]来表示。第一步生成'我':考虑到编码器的输出和当前已生成的词,解码器决定生成[1,0],这在我们的简化模型中对应"我"。第二步生成'喜欢':现在,解码器考虑编码器的输出[1,0],[0,1],[1,1]和当前已生成的词[1,0]("我"),决定生成[0,1],对应"喜欢"。第三步生成'猫':考虑到之前的所有信息,解码器生成[1,1],对应"猫"。这是一个简单的复现概念,当模型得到匹配度高的参数时,它就会一个词一个词地判断需要输出的语言文本。

AI50年度关键词——腾讯研究院.pdf

基于全年研究积累的三十余万字AI进展数据库,对当前AI发展进行阶段性总结具有重要意义。为了系统呈现AI发展的关键技术要点和趋势,该报告精选了50个年度关键词,覆盖大模型技术的八大领域:图像处理、视频生成、3D生成、编程助手、Agent、端侧智能、具身智能和基础模型;借鉴大模型的思维特征,创新性1的通过"快思考"与"慢思考"两种维度进行分析,形成了50张AI技术图景卡片。•"快思考"维度呈现印象卡片,采用人机协同方式完成。项目团队研究人员主导提示词工程与价值判断,把握内容方向;AI系统负责执行,最终绘制输出技术定义、图示与总结语;•"慢思考"维度则深入分析技术发展的底层逻辑。重点整合研究团队在圆桌讨论和专题研究中的深度思考,借助AI辅助梳理出逻辑链条、本质洞见与趋势判断,为读者勾勒AI发展的脉络与方向。AI技术呈现持续演进、动态发展的特征。该报告通过50个关键词构建的技术图景,旨在展现AI发展的重点领域,把握未来关键趋势,为各界提供研究与决策参考。腾讯研究院将持续深化AI&Society领域的探索,并诚挚的邀请各界好友一共关注与参与,一起迈向一个智能共生的时代。——腾讯研究院院长司晓23DiT架构结合扩散模型和Transformer的架构,用于高质量图像生成的深度学习模型。核心观察A:Transformer从文本扩展至其它B:DiT架构带来图像生成质的飞跃C:Scaling Law在图像领域开始生效逻辑链条

【AI学习笔记】小白如何理解技术原理与建立框架(通俗易懂内容推荐)

2、观点——在端到端算法的时代,不应该继续使用冯诺依曼架构。3、在存算一体(在存储单元里做计算)的芯片之上,一定会诞生一种全新的算法。说明——对比人脑,我们用一碗米饭或者用一顿饭就可以支撑我们半天的工作或者大量的脑力消耗,不需要去花几千度电或者是上大量的能耗才能完成,所以使用存算一体的方式是未来AI硬件下一步的发展趋势。运行一个几百亿个参数的大模型最好的架构一定是存算一体的架构,因为它避免了所有的数据的搬运。4、现在大模型在通用知识方面很强,但对专业领域知识一无所知。怎么把领域知识结合进大模型里面去——这个是阻碍大模型更大规模应用的最关键的问题。5、把大模型和你的私域知识结合的5种方法:按对模型改造侵入性划分,可以从左到右分为:重新训练——微调——RAG——关键词工程1.重新训练(拿私域数据重新训练大模型)2.微调(拿私有数据fine-tuning大模型)3.RAG(将知识库里的知识搜索送进大模型)4.关键词工程(写好提示词)5.加长Context——当Context能无限长的时候,理论上讲可以把关于你的知识和记忆都prefill到Context里边去;好,我们今天看到了5种解法,下面就问哪一种是最有希望的?留在桌子上的只有长Context和RAG两个选项。学术界有两派人,很有意思的是,做深度学习的人,大家好像偏向于用RAG;以前做过搜索的人(了解搜索有哪些坑),大家会偏向于用Long Context~

Others are asking
生成组织架构图的AI工具
以下是一些可以生成组织架构图的 AI 工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建 ArchiMate 模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费在线图表软件,允许创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 转换工具,可通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 需要注意的是,虽然这些工具可以辅助创建架构视图,但它们不都是基于 AI 的。AI 在绘图工具中的应用通常涉及智能推荐布局、自动生成图表代码或识别图表中的模式和关系。在选择工具时,应考虑您的具体需求,比如是否需要支持特定的建模语言、是否需要与特定的开发工具集成、是否偏好在线工具或桌面应用程序等。
2025-03-17
Transformer 架构
Transformer 架构主要由编码器(Encoder)和解码器(Decoder)两大部分组成。 编码器可以将自然语言转换成向量文本,其内部参数包含了原始信息以及序列内元素间的相互关系。例如,输入“我喜欢猫”,会将自然语言转换成词嵌入向量,如“我”对应,然后通过自注意力机制输出一个表示对输入句子理解的向量序列。 解码器基于编码器的输出和之前生成的输出逐步生成目标序列,将向量文本重新转化成自然语言。例如生成中文句子“我喜欢猫”,解码器接收开始符号,然后逐步根据编码器输出和已生成的词决定生成后续的词。 Transformer 是一种使用注意力机制的编码器解码器模型,其模型架构使得它可以利用多元化的优势,同时处理大量数据,有助于提高机器翻译等应用程序的性能。 此外,Transformer 架构能够并行处理大量数据吞吐,且满足 scaling law,在各个模态和技术栈具有优势,被 OpenAI 广泛使用。使用同样的架构可以复用模型的参数来引导不同技术栈的训练,以及使用一套 infra 框架训练不同的模型。
2025-03-14
有没有可以输入文本快速生成组织架构图的软件推荐
以下是一些可以输入文本快速生成组织架构图的软件推荐: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。
2025-03-06
RAG架构图和实现案例
以下是关于 RAG 架构图和实现案例的相关内容: RAG 是当今大多数现代人工智能应用程序的标准架构。以 Sana 的企业搜索用例为例,其工作原理如下: 1. 应用程序加载和转换无结构文件(如 PDF、幻灯片、文本文件),跨越企业数据孤岛(如 Google Drive 和 Notion),通过数据预处理引擎(如 Unstructured)转换为 LLM 可查询格式。 2. 这些文件被“分块”成更小的文本块,以实现更精确的检索,并作为向量嵌入存储在数据库(如 Pinecone)中。 3. 当用户提出问题时,系统检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM。LLM 从检索到的上下文中合成答复返回给用户。 在生产中,AI 应用程序具有更复杂的流程,包含数十甚至数百个检索步骤,通常具有“提示链”,不同类型的任务并行执行多个“提示链”,然后将结果综合在一起生成最终输出。 随着 RAG 的发展,出现了自适应的检索(也被称作主动检索),其核心思想与 LLM Agent 相似。根据判断依据可分为 Promptbase 和 Tuningbase: 1. Promptbase:通过 Prompt Engineering 的方式让 LLM 对流程进行控制。典型实现案例是 FLARE,其核心思想是 LM 仅在缺乏所需知识时进行检索,以避免被动检索增强的 LM 中出现不必要或不适当的检索。FLARE 迭代地生成下一个临时句子,并检查是否包含低概率标记。如果是这样,系统将检索相关文档并重新生成句子。 2. Tuningbase:对 LLM 进行微调使其生成特殊的 token,以此来触发检索或生成。典型案例是 SelfRAG,具体步骤包括:给定输入提示和前面的生成结果,首先预测特殊 token“Retrieve”判断是否通过检索段落对继续的生成进行增强是有帮助;如果有帮助,调用检索模型,模型会生成一个 critique token 来评估检索段的相关性、下一个响应片段和一个批判令牌来评估响应片段中的信息是否得到了检索段的支持;最后,一个新的批判令牌评估响应的整体效用。模型会并行处理这些内容,并选择最佳结果作为最终的输出。 此外,系统的内存是 LMM 的上下文窗口,存在架构限制,窗口越大推理越慢,同时模型会失焦,降低推理的准确度。前沿模型研发团队都力争做到吞吐量、速度还有准确度的最佳平衡。大模型应用领域常用的方法是 RAG,例如 Perplexity、面向企业知识库的 Glean 以及面向个人知识库的 Maimo 等应用。
2025-03-05
假如你是一名测试工程师,要写一个关于《AI智能体输入输出验证》专利申请书,申请书的内容包括以下几点: 1、发明名称(一种xxxxxxxx算法/架构/设计/外观等等等等) 2、发明背景技术 3、具体的技术方案描述 4、本发明的有益效果
以下是为您生成的关于《AI 智能体输入输出验证》的专利申请书内容: 发明名称:一种基于 Coze 工作流的 AI 智能体输入输出验证算法 发明背景技术: 在当前的 AI 应用中,构建和测试智能体的功能至关重要。特别是在处理复杂的任务,如生成思维导图时,需要确保输入和输出的准确性和有效性。然而,现有的技术在配置子任务节点和验证其可用性方面存在不足,导致效率低下和结果不稳定。 具体的技术方案描述: 1. 对于生成思维导图的任务,首先确定处理方式为“单次”,因为一次精读任务仅需生成一张思维导图。 2. 在输入方面,<generateTreeMind>插件节点仅需设置{{query_text}}变量,格式为 string 字符串,通过引用“标题、导语、大纲”节点的{{enTreeMind}}变量来提供输入。 3. 在输出方面,观察输出区的众多字段,根据字段名称、「查看示例」中的示例说明或试运行来确定所需的字段。对于生成图片格式的思维导图,确定 pic 为所需的输出。 4. 完成任何一个节点的配置后,进行试运行测试。具体步骤包括:点击「测试该节点」,按格式要求输入待测试的内容(对于 array 等其他格式,自行对话 AI 或搜索网络确认格式要求),点击「展开运行结果」,检查输入、输出项是否有误。若有误,依次检查“测试输入内容”、“节点配置”以及优化“提示词”,以提升对生成内容的约束力。 本发明的有益效果: 1. 提高了 AI 智能体在处理生成思维导图等任务时输入输出配置的准确性和效率。 2. 通过明确的步骤和规范的测试流程,有效减少了错误和不确定性,提升了智能体的稳定性和可靠性。 3. 能够更好地满足用户在复杂任务中的需求,为相关领域的应用提供了更优质的解决方案。
2025-03-04
ai生成架构图
以下是一些可以用于生成架构图的 AI 工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源建模语言,用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费在线图表软件,允许创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 编码器解码器架构: 训练结束后,在服务时间,从提供编码器表示开始,给解码器一个特殊起始标记如“GO”提示生成第一个单词。生成阶段包括起始标记嵌入、循环层状态更新、生成单词概率和选择单词,单词通过贪婪搜索或波束搜索的最高概率块选择。该架构与大型语言模型的区别在于编码器和解码器块内部的内容,简单的 RNN 网络被 Transformer 块取代,这是基于注意力机制的架构。若想了解更多,还有两门概览课程:注意力机制概览,以及 Transformer 模型和 BERT 模型概览。此外还有实验室演练,展示如何在代码中生成诗歌。 增强版 Bot: 1. 图片理解与生成:在对话框输入诉求,可生成常见的系统架构风格的架构设计图,还能根据图片提取关键知识内容。 2. PPT 一键生成:根据上下文在对话框输入诉求,可生成包含架构风格的完整 PPT 及相关模板选择。 3. PDF 智能制作:根据上下文在对话框输入诉求,可生成常见系统架构风格的 PDF 文件及可选模板。 4. 系统架构论文一键创作。 温馨提示:经过不断锤炼并提取升华而来的提示词有中文版和英文版。
2025-03-04
懂编程但是不了解大模型的工程师如何系统的学习深度学习?
对于懂编程但不了解大模型的工程师,系统学习深度学习可以参考以下路径: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程推荐吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 学会微调 LLM 模型进行特定任务迁移。 参考相关资源,如 HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 了解模型评估和可解释性。 熟悉模型服务化、在线推理、多语言支持等。 运用相关开源工具,如 ONNX、TVM、BentoML 等。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 此外,为了更好地理解相关技术原理和建立框架,还可以了解以下内容: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,而不需要依赖于循环神经网络或卷积神经网络。
2025-03-13
帮我完成基于深度学习的草莓目标识别的毕设
很抱歉,目前没有关于基于深度学习的草莓目标识别毕设的具体内容。但我可以为您提供一个大致的指导框架: 首先,您需要收集大量包含草莓的图像数据,并对这些数据进行标注,例如标记出草莓的位置和类别。 然后,选择适合的深度学习模型,如卷积神经网络(CNN),可以考虑使用经典的模型架构如 VGG、ResNet 等,或者根据您的需求进行适当的修改和优化。 在训练模型时,要注意设置合适的超参数,如学习率、迭代次数等,并使用合适的优化算法,如随机梯度下降(SGD)、Adagrad 等。 在模型训练完成后,进行评估和验证,可以使用准确率、召回率、F1 值等指标来衡量模型的性能。 最后,对模型进行优化和改进,以提高识别效果。 希望以上框架对您有所帮助,祝您顺利完成毕业设计!
2025-03-09
我现在需要做我的毕业设计名为“基于深度学习的草莓目标识别系统”,你能告诉我如何制作以及用到这里的哪些ai工具、
对于您的“基于深度学习的草莓目标识别系统”毕业设计,以下是一些制作的步骤和可能用到的 AI 工具: 制作步骤: 1. 数据收集:收集大量包含草莓的图像数据,并对其进行标注,例如标记出草莓的位置和类别。 2. 数据预处理:对收集到的数据进行清洗、增强、裁剪等操作,以提高数据质量和模型的泛化能力。 3. 选择模型架构:可以考虑使用常见的深度学习目标检测模型,如 Faster RCNN、YOLO 等。 4. 训练模型:使用预处理后的数据对选择的模型进行训练。 5. 模型评估:使用测试集对训练好的模型进行评估,如准确率、召回率等指标。 6. 模型优化:根据评估结果对模型进行调整和优化,例如调整超参数、增加数据量、使用更复杂的模型等。 可能用到的 AI 工具: 1. TensorFlow:一个广泛使用的深度学习框架,提供了丰富的模型构建和训练工具。 2. PyTorch:另一个流行的深度学习框架,具有灵活的编程接口和强大的计算能力。 3. OpenCV:用于图像处理和数据预处理。 4. LabelImg:用于图像数据的标注。 希望以上内容对您有所帮助,祝您毕业设计顺利!
2025-03-09
【深度拆解】ChatGPT-4o背后的技术革新:从语言模型到多模态跨越
ChatGPT4o 背后的技术革新具有重要意义。人类的感知多样,仅靠语言描述世界远远不够,多模态理解非常有用,能更全面学习世界、理解人类需求等。2023 年 9 月 GPT4v 发布,将大语言模型竞赛带入多模态模型时代,如 ChatGPT 能看图说话、画图,Google 的 Gemini 支持多种模态,但 OpenAI 常抢先发布。今年 5 月 OpenAI 发布 GPT4o,向智能体方向迈进,其是之前技术的集大成者,通过端到端神经网络混合训练视觉、语音和文本数据,平均音频输入反应时间为 300 毫秒,能感悟人类表达的情绪等。OpenAI 未公开 GPT4o 技术细节,唯一线索来自内部炼丹师的博客 AudioLM。此外,GPT4 是 OpenAI 的多模态工具,在编程任务中表现出色,ChatGPT 是用户友好界面,可与高级语言模型交互。2024 年 5 月 14 日 OpenAI 发布 GPT4o,效率高、价格降低、延迟缩短。9 月 16 日 OpenAI 推出 o1 系列模型,在复杂任务中表现优异,o1mini 适合编码任务,两个模型已在 ChatGPT 中提供,有免费或收费版本。
2025-03-09
深度学习模型图
以下是为您提供的关于深度学习模型图的相关内容: 腾讯研究院的 AI 年度关键词报告: 基于全年研究积累的三十余万字 AI 进展数据库,精选 50 个年度关键词,覆盖大模型技术的八大领域,包括图像处理、视频生成、3D 生成、编程助手、Agent、端侧智能、具身智能和基础模型。通过“快思考”与“慢思考”两种维度进行分析,“快思考”采用人机协同方式完成印象卡片,“慢思考”深入分析技术发展的底层逻辑。 DiT 架构: 结合扩散模型和 Transformer 的架构,用于高质量图像生成的深度学习模型。其核心观察包括 Transformer 从文本扩展至其它、DiT 架构带来图像生成质的飞跃、Scaling Law 在图像领域开始生效。 深度学习模型原理的通俗解释: 将深度学习要处理的信息比作水流,处理数据的深度学习网络是由管道和阀门组成的庞大水管网络。网络入口和出口有许多管道开口,且有多层,每层有调节阀。根据不同任务,层数和调节阀数量可变化。如识别汉字,将图片数字组成的水流灌入网络,根据出口水流情况调节调节阀,直至符合预期要求,训练好的模型可识别新的图片。 AI 技术原理与框架的小白学习笔记: 1. 概念:生成式 AI 生成的内容叫 AIGC。 2. 相关技术名词及关系: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,监督学习有标签,无监督学习无标签,强化学习从反馈学习。 深度学习参照人脑有神经网络和神经元,神经网络可用于多种学习方式。 生成式 AI 可生成多种内容形式,LLM 是大语言模型。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,提出 Transformer 模型,基于自注意力机制处理序列数据,无需依赖 RNN 或 CNN。
2025-03-05
深度学习模型图
以下是为您提供的关于深度学习模型图的相关内容: 腾讯研究院的相关报告: 基于全年研究积累的三十余万字 AI 进展数据库,精选 50 个年度关键词,覆盖大模型技术的八大领域,包括图像处理、视频生成、3D 生成、编程助手、Agent、端侧智能、具身智能和基础模型。通过“快思考”与“慢思考”两种维度进行分析,“快思考”采用人机协同方式完成印象卡片,“慢思考”深入分析技术发展的底层逻辑。 DiT 架构: 结合扩散模型和 Transformer 的架构,用于高质量图像生成的深度学习模型。其核心观察包括 Transformer 从文本扩展至其它、DiT 架构带来图像生成质的飞跃、Scaling Law 在图像领域开始生效。 深度学习模型原理的通俗解释: 将深度学习要处理的信息比作水流,处理数据的深度学习网络是由管道和阀门组成的庞大水管网络。网络有多层,每层有调节阀,根据不同任务,层数和调节阀数量有不同组合。比如识别汉字,将图片的数字组成水流灌入网络,根据出口水流情况调节调节阀,直到符合预期要求,训练好的模型可识别新的图片。 AI 相关技术概念与关系: 1. 生成式 AI 生成的内容叫 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,监督学习有标签,无监督学习无标签,强化学习从反馈学习。 深度学习参照人脑有神经网络和神经元,神经网络可用于多种学习方式。 生成式 AI 可生成多种内容形式,LLM 是大语言模型,大语言模型的任务不止生成。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,提出 Transformer 模型,基于自注意力机制处理序列数据。
2025-03-05
大模型学习资料
以下是为您提供的大模型学习资料: 大模型的底层原理: 预训练阶段:以 GPT3 为例,其训练使用了约 4990 亿 token 的数据集(约 570GB 文本),相当于 86 万本《西游记》。即使每天读完一本,也需约 28.6 辈子才能读完。这些数据大多来源于高质量的网页、书籍数据库、维基百科等。 模型架构:Transformer 是处理文本内容的经典模型架构,如 GPT1 所使用。关于其具体细节,不清楚也不太影响使用大模型,感兴趣可参考相关链接: 。 大模型的特点与架构: 架构分类:包括 encoderonly(适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT)、encoderdecoder(同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 google 的 T5)、decoderonly(更擅长自然语言生成任务,如故事写作和博客生成,众多 AI 助手采用此架构)。 规模特点:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级别的数据进行预训练;参数多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型的通俗解释: 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练、使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练。 2. 确定教材:需要大量数据,几千亿序列(Token)的输入是基本标配。 3. 找老师:选择合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称为推导(infer)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会被分割并数字化形成词汇表。
2025-03-23
最新的大模型发展趋势
以下是关于最新的大模型发展趋势的相关内容: 决策模块方面:决策模块是具身智能系统的核心,早期依赖人工编程和专用算法,如今基于近端策略优化算法和 Qlearning 算法的强化学习方法在具身智能自主导航等任务中展现出更好的决策灵活性,但在复杂环境适应能力等方面仍有局限。大模型的出现极大增强了具身智能体的智能程度,提高了环境感知等能力。具身智能体的大模型发展方向是视觉语言动作模型(VLA)和视觉语言导航模型(VLN)。VLA 输入语言、图像或视频流,输出语言和动作;VLN 输入语言、图像或视频流,输出语言和移动轨迹。 应用场景方面:大模型因其强大能力在多个领域有出色表现,成为热点。包括文本生成和内容创作、聊天机器人和虚拟助手、编程和代码辅助、翻译和跨语言通信、情感分析和意见挖掘、教育和学习辅助、图像和视频生成、游戏开发和互动体验、医疗和健康咨询、法律和合规咨询等。随着技术进步和模型优化,未来可能拓展到更多领域,同时需注意隐私、安全和伦理挑战。 OpenAI 方面:OpenAI 推出新模型为行业注入强心剂,带来新活力和希望。结合其提出的通往 AGI 的分级,正在从第一级向第二级迈进,未来可能见证 AI 从生成工具向智能体转变。
2025-03-23
我想找最新的关于大模型发展趋势的材料
以下是为您找到的关于大模型发展趋势的最新材料: 基础通识课中提到了 AI 模型及相关进展,包括视频生成模型、相关论文,以及 AI 在诺奖和蛋白质研究领域的应用等。还介绍了人工智能的发展历程,从早期到如今大模型和多模态模型百花齐放的阶段。同时提到大模型由数据、算法、算力构成,算法有技术架构的迭代,数据质量对生成理想的大模型至关重要,以及针对弱智 8 的问题对大模型进行测试等相关内容。 2023 年度中文大模型基准测评报告.pdf 中包含 2023 年国内大模型发展趋势、测评体系、方法说明、综合测评结果、SuperCLUE2.0 升级、四大维度测评分析及示例介绍、优秀模型案例介绍等内容。 2024 年历史更新(归档)中,有《探讨大模型未来:从 Scaling Law 到数据红利再到终极 Token 工厂》,探讨了大模型的未来,包括规模化法则、数据红利和 Token 工厂概念。还有《【AI 学习笔记】小白如何理解技术原理与建立框架(通俗易懂内容推荐)》《智变时代/全面理解机器智能与生成式 AI 加速的新工业革命》《文生图大模型基准测评首期榜单公布,DALLE 3 取得最高 76.94 分》等相关文章。
2025-03-23
我想学习有关ai的知识,但是并不是单单的系统性的学,而是想利用现有的模型比如说deep seekr1模型来训练一个自己的模型这样的,来实现某些功能
以下是关于 DeepSeek R1 模型的相关知识: 1. DeepSeek R1 引入了纯强化学习(RL),不依赖大量人类标注数据,而是通过自我探索和试错来学习。在“冷启动”阶段,仅通过少量人工精选的思维链数据进行初步引导,建立符合人类阅读习惯的推理表达范式,随后主要依靠强化学习,在奖励系统的反馈下(只对结果准确率与回答格式进行奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。准确率奖励用于评估最终答案是否正确,格式奖励强制结构化输出,让模型把思考过程置于<think></think>标签之间。 2. 与其他模型相比,Alpha Zero 只训练了三天,就以 100 比 0 的战绩完胜 Alpha Go Lee,Alpha Go(老)采用监督学习+强化学习,学习人类棋谱,更接近人类职业棋手风格,继承了人类的局限,Alpha Zero(新)完全摒弃人类数据的纯强化学习,从零开始自我博弈,不受限于人类经验,具有创造性的下棋风格。DeepSeek R1 在训练中更注重学习推理的底层策略,培养通用推理能力,使其能够实现跨领域的知识迁移运用和推理解答。 3. 使用 DeepSeek R1 给老外起中文名的操作指引: 点击邀请,复制邀请链接或下载邀请海报分享给好友。 打开火山引擎的模型页面(https://zjsms.com/iP5QRuGW/),使用习惯的方式登录。 登录后点击左侧列表里的“在线推理”,再点击“快速入门”。 获取 API Key,点击“创建 API Key”,可修改名字后创建,创建完成后点击“查看并选择”,将“已复制”的提示内容找个地方存一下。 复制 R1 的调用示例代码,选择模型为“DeepSeek R1”,修改示例代码中的相关内容,然后点击右侧的复制按钮,将代码找个地方存起来。 上述接入方法是快速入门方式,平台会自动创建在线推理接入点,并提供 50 万 Token 的免费额度,用完才需充值。如需充值,点击页面右上角的“费用”》“充值汇款”,根据账单适当充值。 4. DeepSeek R1 不同于先前的普通模型,它与 OpenAI 现在最先进的模型 o1、o3 同属于基于强化学习 RL 的推理模型。在回答用户问题前,R1 会先进行“自问自答”式的推理思考,提升最终回答的质量,这种“自问自答”是在模拟人类的深度思考,其“聪明”源于独特的“教育方式”,在其他模型还在接受“填鸭式教育”时,它已率先进入“自学成才”新阶段。
2025-03-22
大模型是怎么训练的
大模型的训练过程可以类比为“上学参加工作”: 1. 找学校:训练大模型需要大量的计算资源,如 GPU,只有具备强大计算能力的机构才有条件训练自己的大模型。 2. 确定教材:大模型需要大量的数据,通常几千亿序列(Token)的输入是基本要求。 3. 找老师:即选择合适的算法来讲解“书本”中的内容,让大模型更好地理解 Token 之间的关系。 4. 就业指导:学完知识后,为了让大模型更好地胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary)。 此外,训练大模型的基础步骤如下: 1. 创建数据集:进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset),在数据集一栏中点击右上角创建数据集,输入数据集名称。可以上传包含图片和标签的 zip 文件,也可单独上传照片,但建议提前将图片和标签打包成 zip 上传,且图片名与对应的达标文件应匹配。上传后等待一段时间,确认创建数据集,返回上一个页面等待上传成功,可点击详情检查,能预览到数据集的图片以及对应的标签。 2. Lora 训练:点击 Flux,基础模型会默认是 FLUX 1.0D 版本。选择数据集,触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词可随机抽取数据集中的一个标签填入。训练参数可调节重复次数与训练轮数,若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。可按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有生图,点击可自动跳转到使用此 lora 生图的界面,点击下方的下载按钮可自动下载到本地。 从原理层面,用数学来理解 Prompt:传统的机器学习是 p,但这个模型未经人工标注,我们给出的 Prompt 就是 x,让大模型基于此知道概率最大的 y,避免人工标注,但依赖 x 给入的信息更大概率找到合适的 y。例如给一张照片,输入“这是一个动物,这是什么”,大模型根据输入提取特征和提示,最终返回结果。
2025-03-22
大模型是什么
大模型通俗来讲,是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要大量的数据量,几千亿序列(Token)的输入基本是标配。 3. 找老师:即选择合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,会被分割并生成词汇表,数字化后便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 大模型的“大”指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。 所谓的大模型,简而言之,就是拥有庞大参数数量的模型,通过处理和理解海量数据,能够胜任一系列复杂的任务。其规模之大通常包含从数十亿到数千亿的参数,庞大的参数集合赋予了强大的学习和记忆能力。大模型强大的原因一方面在于庞大的参数数量,这些参数在学习过程中不断调整,帮助模型更深入地理解和生成数据;另一方面,大模型的训练离不开大量的数据,包括文本、图像、音频等,通过对这些数据的学习,模型能够掌握丰富的知识和技能。 GPT 是“生成式预训练变换器”(Generative Pretrained Transformer)的缩写,是一种大型语言模型(LLM),也是生成式人工智能的重要框架。
2025-03-22
我想学习AGI, 你会怎么帮助我
以下是一些帮助您学习 AGI 的建议和途径: 1. 访问,您可以在这里: 和 AI 知识库对话,询问任何关于 AI 的问题。 查找集合的精选 AI 网站,按需求找到适合您的工具。 参考集合的精选提示词,并复制到 AI 对话网站来使用。 查看知识库精选,获取每天知识库的精华内容。 2. 参考通往 AGI 之路知识库的使用指南: 智能纪要部分,博主会精美地解释六大策略,小七姐在社区带来共学课程并有直播分享及回放,像喂饭教程般帮助理解 prompt。 智能章节部分,提到提示词很关键,智能体由大语言模型衍生而来,讲述了智能体进阶案例拆解,推荐景淮老师的相关成果,阐述扣子、千帆百炼属于智能体范畴,扣子更偏 ToC 应用。 Cos 平台功能全面,社区共学成果显著,建议先吃透 prompt 再看相关内容,官方文档内容全面,社区小伙伴参加 cos 比赛常拿大奖,有共学活动,获奖小伙伴会分享经验。 3. 阅读通往 AGI 之路介绍.pdf_: 按照记忆、理解、应用、分析、评价、创造的步骤来学习,从认识历史、基本术语等开始,进一步了解主要思想,深入了解 AI 对话、绘画语音产品并用于解决实际问题,大量阅读各类文章、视频以及报告,通过课程与书籍深入学习,提出自己的观点和论断,尝试创造新想法。 希望以上内容对您学习 AGI 有所帮助。
2025-03-23
我想学习有关ai的知识
以下是为您提供的新手学习 AI 的知识指导: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 如果您不会代码,对于 AI 可以尝试了解以下作为基础的内容: 1. AI 背景知识: 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 周鸿祎免费课 AI 系列第一讲中提到: 周鸿祎受李一舟的启发,发现大家对于 AI 的知识了解不多,尤其对于前沿 AI 的了解更是摸不着头脑,因此做免费课进行科普。他认为学习新领域时,先要学习框架,整体把握,避免出大方向的偏差。课程会先从宏观开始,如《预见 AGI》,从大框架上讲讲创新趋势和带来的启发,后面会宏观、微观结合,安排人工智能研究院的产品经理、技术专家讲基本产品的使用方法等微观层面的内容。
2025-03-22
一个从来没有接触过AI技术的、电脑方面就会打字的人怎么学习AI及应用
对于从未接触过 AI 技术但会打字的新手,以下是学习 AI 及应用的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库中有很多实践后的作品、文章分享,欢迎实践后分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,如果您想深入了解 AI 的技术历史和发展方向,以及目前最前沿的技术点,有以下学习路径: 1. 偏向技术研究方向: 数学基础:线性代数、概率论、优化理论等。 机器学习基础:监督学习、无监督学习、强化学习等。 深度学习:神经网络、卷积网络、递归网络、注意力机制等。 自然语言处理:语言模型、文本分类、机器翻译等。 计算机视觉:图像分类、目标检测、语义分割等。 前沿领域:大模型、多模态 AI、自监督学习、小样本学习等。 科研实践:论文阅读、模型实现、实验设计等。 2. 偏向应用方向: 编程基础:Python、C++等。 机器学习基础:监督学习、无监督学习等。 深度学习框架:TensorFlow、PyTorch 等。 应用领域:自然语言处理、计算机视觉、推荐系统等。 数据处理:数据采集、清洗、特征工程等。 模型部署:模型优化、模型服务等。 行业实践:项目实战、案例分析等。 无论是技术研究还是应用实践,数学和编程基础都是必不可少的。同时需要紧跟前沿技术发展动态,并结合实际问题进行实践锻炼。
2025-03-22
哪里可以找到免费且可以系统学习机器学习的课程
以下是一些可以免费系统学习机器学习的课程资源和学习路径: 1. 对于大型语言模型(LLM)开发的学习: 掌握深度学习和自然语言处理基础,包括机器学习、深度学习、神经网络等基础理论,以及自然语言处理基础,如词向量、序列模型、注意力机制等。相关课程有吴恩达的深度学习课程、斯坦福 cs224n 等。 理解 Transformer 和 BERT 等模型原理,包括 Transformer 模型架构及自注意力机制原理,BERT 的预训练和微调方法,掌握相关论文,如 Attention is All You Need、BERT 论文等。 学习 LLM 模型训练和微调,包括大规模文本语料预处理,LLM 预训练框架,如 PyTorch、TensorFlow 等,微调 LLM 模型进行特定任务迁移。相关资源有 HuggingFace 课程、论文及开源仓库等。 LLM 模型优化和部署,包括模型压缩、蒸馏、并行等优化技术,模型评估和可解释性,模型服务化、在线推理、多语言支持等。相关资源有 ONNX、TVM、BentoML 等开源工具。 LLM 工程实践和案例学习,结合行业场景,进行个性化的 LLM 训练,分析和优化具体 LLM 工程案例,研究 LLM 新模型、新方法的最新进展。 持续跟踪前沿发展动态,关注顶会最新论文、技术博客等资源。 2. 神经网络架构方面: 神经网络是机器学习文献中的一类模型,在完成吴恩达的 Coursera 机器学习课程后,可以寻找 Geoffrey Hinton 的机器学习神经网络课程。 一般神经网络架构可分为三类:前馈神经网络,这是实际应用中最常见的神经网络类型;循环网络,在他们的连接图中定向了循环,更具有生物真实性。 3. 强化学习的入门学习: 如果基础薄弱,可先学习概率论和线性代数相关课程。 对机器学习无基础的话,先看吴恩达的课程,再以李宏毅的课程作为补充,只看前几节讲完神经网络的部分。 学完后跟着《动手学深度学习 https://hrl.boyuai.com/》动手学习,只看前五章。 接着看 B 站王树森的深度学习课程的前几节学习强化学习基础知识点。 最后可以看《动手学强化学习》,看到 DQN 的部分。
2025-03-22