Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

模型训练的底层原理

Answer

模型训练的底层原理如下:

  • 对于多模态模型,以生图片环节的扩散模型(如 StableDiffusion)为例,其训练过程是先对海量带有标注文字描述的图片逐渐加满噪点,模型学习并沉淀每一步图片向量值和文字向量值的数据分布演变规律。后续输入文字后,模型根据文字转化的向量指导充满噪点的图片减噪点以生成最终图片。
  • 大语言模型在接收到请求时,会将自然语言转化为机器可理解的向量格式。其训练过程类似于通过已知的几组值计算方程式中的参数,大语言模型的参数可能多达 1750 亿个。
  • 大型语言模型(LLMs)的参数获取是关键,训练是一个计算量极大的过程,如 Llama2 70B 模型的训练涉及约 10TB 的互联网文本抓取,需要大量互联网资源和约 6000 个 GPU 运行约 12 天,花费约 200 万美元,将文本压缩成参数文件,这是一种有损压缩,得到的是训练文本的一种格式塔。
Content generated by AI large model, please carefully verify (powered by aily)

References

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

[title]Ranger:【AI大模型】非技术背景,一文读懂大模型(长文)[heading2]三、理解模型如何运作[heading3]2.多模态的原理ok讲完了LLm,我们来看多模态是怎么实现的多模态模型目前基本就是文生图、图生图、图生视频、文生视频这些,其底层逻辑其实还是先从生图片这一源头。因为毕竟视频也是若干帧的图片组成。所以在生图片的这个环节上,我们把比较火的这个stablediffusion用的这个diffusion扩散模型理解掉,也就差不多够了。那么什么是扩散模型呢,这里我拿论文中的两张图帮助理解一张是前向的,在图片上加噪点,最终生成一张无意义的噪点图,一个是后向的,从一个无意义的噪点图上消除噪点,最终得到一张有意义的实际图片。其实扩散模型训练的就是这个加减噪点的过程:先把海量的带有标注文字描述的图片,例如“一只白色的小猫”,逐渐加满噪点。在这个过程中,模型会把每一步的图片向量值,和文字的向量值的数据分布的演变规律,进行系统学习并沉淀下来,这就完成了模型的训练。在后续我们输入文字后,模型就可以根据输入的文字转化为的向量,去指导一个充满噪点的图片每一步减噪点的过程,生成最终的图片。这里其实有两个点一个是diffusion模型中加减噪点的方式,其实也与我们大脑中去构思一张图片的方式有些类似,我们去想像一张图片的时候,不也是从一片模糊中逐渐想清楚一张图片嘛第二个是多模态模型会把文字的向量值和图片的rgb像素点的向量值进行关联,这个也像极了我们大脑中的一个思考过程。

学习笔记:【这就是 ChatGPT】了解原理让大语言模型 AI 成为你的打工人

当我们的请求被输入到模型时,它不再是我们通常理解的自然语言形式。而是被转化为机器可以理解的格式,通常是向量。不必深入了解向量的具体含义,重要的是明白这代表了从人类的自然语言到机器可识别的数字形式的转换。在数学上,我们通过方程式如y = f(x)= ax + b来解决问题,通过已知的几组(x,y)值来计算出参数a和b。类似地,大语言模型的训练过程也是通过计算来确定模型的参数。这些参数不仅限于两个(如a和b),而是可能达到1750亿个。介绍这些概念的目的是为了揭示,尽管工程实现可能看似枯燥,但理解其背后的原理对于去除对AI的无根据迷信非常重要。这种深入的理解可能需要时间和努力,但它将帮助我们更有效地利用这些技术,避免形成基于误解的观念。

文章:Andrej Karpathy 亲授:大语言模型入门

[title]文章:Andrej Karpathy亲授:大语言模型入门[heading1]第一部分:大型语言模型(LLMs)因此,您只需要这两个文件和一台MacBook,就可以构成一个完全独立的系统,无需连接互联网或其他设施。您可以编译C代码,得到一个可以指向参数文件的二进制文件,然后与语言模型进行交互。例如,您可以请求模型创作一首关于Scale.ai公司的诗,模型将根据指令生成文本。我之所以选择Scale.ai作为例子(您会在整个讲座中看到),是因为我最初的讲座是在Scale.ai主办的活动中进行的,因此我在整个讲座中都使用了它们的例子。在视频中,我展示的是一个运行70亿参数模型的例子,而不是700亿参数的模型,因为后者的运行速度会慢大约10倍。我的目的是让您了解文本生成的过程和外观。LLM训练当我们谈论获取这些参数时,我们面临的是一个计算复杂性问题。那么,我们是如何获得这些参数的呢?尽管run.c文件中的内容、神经网络架构以及前向传播等都可以通过算法理解和开放,但真正的魔法在于参数的获取。模型训练比模型推理要复杂得多。模型推理可以简单地在MacBook上运行,而模型训练则是一个计算量极大的过程。我们所做的可以被理解为对互联网的一大块内容进行压缩。Llama2 70B作为一个开源模型,我们对其训练方式有很多了解,因为Meta在论文中发布了相关信息。训练过程涉及大约10TB的文本,通常来源于互联网的抓取。您需要大量的互联网资源和一个GPU集群,这些专业计算机用于执行如神经网络训练这样的繁重计算任务。您需要大约6000个GPU,运行约12天,费用大约200万美元,以将这一大块文本压缩成类似于zip文件的形式。这些参数文件大约140GB,压缩比大约是100倍。但这不是无损压缩,而是有损压缩,我们得到的是训练文本的一种格式塔,而不是原始文本的完整副本。

Others are asking
你的底层大模型用的是哪个?
目前常见的大型语言模型多采用右侧只使用 Decoder 的 Decoderonly 架构,例如我们熟知的 ChatGPT 等。这些架构都是基于谷歌 2017 年发布的论文“attention is all you need”中提出的 Transformer 衍生而来,其中包括 Encoder 和 Decoder 两个结构。 大模型的特点在于: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型之所以能有效生成高质量有意义的回答,关键在于“大”。例如 GPT1 的参数规模是 1.5 亿,GPT2 Medium 的参数规模是 3.5 亿,到 GPT3.5 时,参数规模达到惊人的 1750 亿,参数规模的增加实现了量变到质变的突破,“涌现”出惊人的“智能”。 大模型的预训练机制是指其“脑袋”里存储的知识都是预先学习好的,预训练需要花费相当多的时间和算力资源。在没有其他外部帮助的情况下,大模型所知道的知识信息总是不完备且滞后的。
2025-02-18
不同厂家的AI产品是底层算法不一样吗?比如ChatGPT和豆包
不同厂家的 AI 产品底层算法通常是不一样的。 以常见的 ChatGPT 和豆包为例,ChatGPT 是由 OpenAI 开发的,其底层算法具有独特的特点和优势。而豆包是由字节跳动开发的,也有其自身的算法设计和优化。 在当前的 AI 领域,大多数 AI 应用程序都由大型语言模型(LLMs)驱动,其中只有几个基础模型,由少数几个组织创建。例如 OpenAI 制作了 GPT3.5 和 GPT4,Google 有 Bard 等。 从相关的访问量数据来看,不同的 AI 产品在市场上的表现也有所不同。比如在某些月份,ChatGPT 的访问量较高,而豆包的访问量也在不断变化。但这并不能直接反映其底层算法的差异,只是从侧面反映了它们在用户中的受欢迎程度和使用情况。
2025-01-17
ChatGPT的底层原理是什么
ChatGPT 的底层原理主要包括以下几个方面: 1. 数据获取与训练:从网络、书籍等来源获取大量人类创作的文本样本,然后训练神经网络生成“类似”的文本。 2. 神经网络结构:由非常简单的元素组成,尽管数量庞大。基本操作是为每个新单词(或单词部分)生成“输入”,然后将其“通过其元素”(没有任何循环等)。 3. 生成文本方式:通过自回归生成,即把自己生成的下一个词和之前的上文组合成新的上文,再生成下一个词,不断重复生成任意长的下文。 4. 训练目的:不是记忆,而是学习以单字接龙的方式训练模型,学习提问和回答的通用规律,实现泛化,以便在遇到没记忆过的提问时,能利用所学规律生成用户想要的回答。 5. 与搜索引擎的区别:搜索引擎无法给出没被数据库记忆的信息,而ChatGPT作为生成模型,可以创造不存在的文本。 其结果表明人类语言(以及背后的思维模式)的结构比我们想象的要简单和更具有“法律属性”,ChatGPT已经隐含地发现了它。同时,当人类生成语言时,许多方面的工作与ChatGPT似乎相当相似。此外,GPT的核心是单字接龙,在翻译等场合应用时,先直译再改写能使Transform机制更好地起作用。
2024-12-03
ai的底层逻辑是什么
AI 的底层逻辑包括以下几个方面: 1. 决策方面:AI 在越来越多的场景落地,成为企业管理和决策的重要工具。然而,AI 的决策过程并非真正的“理解”,而是基于复杂计算和模式匹配,其本质存在局限性,是个“黑盒”,输出结果可见但决策过程难以理解,这种不透明性给企业决策带来风险。 2. 大模型方面:大模型依靠概率计算逐字接龙工作,参数规模的增加使其实现量变到质变的突破,从而“涌现”出智能。大模型的知识是通过预训练预先学习和存储的,但在没有外部帮助时,其知识信息可能不完备和滞后。 3. 神经网络方面:计算机科学家以人脑神经元细胞结构为灵感,利用概览模型在计算机上实现对人脑结构的模仿,但大模型内部如同人类大脑一样是混沌系统,即使是开发者也无法解释其微观细节。
2024-11-13
ai的底层逻辑
AI 的底层逻辑主要涉及以下几个方面: 1. 大模型的底层原理: 大语言模型依靠概率计算逐字接龙的方式工作,平时看到的逐字输出并非特效,而是其真实的工作方式。 大模型参数规模的增加,如从 GPT1 的 1.5 亿到 GPT3.5 的 1750 亿,实现了量变到质变的突破,从而“涌现”出智能。这种“涌现”结构在人类的进化和个体学习成长中也存在。 预训练是大模型获取知识的方式,其需要大量时间和算力资源。在没有外部帮助的情况下,大模型的知识信息可能不完备且滞后。 GPT 是生成式预训练转换器模型(Generative Pretrained Transformer),生成式指大模型根据已有输入不断计算生成下一个字词,直至计算出概率最大时结束输出。 2. 必须理解的核心概念: LLM 是 Large language model 的缩写,即大语言模型。 Prompt 是提示词,即输入给大模型的文本内容,其质量会显著影响回答质量。 Token 是大模型语言体系中的最小单元,不同厂商对中文的切分方法不同,通常 1Token≈12 个汉字,大模型的收费和输入输出长度限制以 token 为单位。 上下文指对话聊天内容的前后信息,其长度和窗口会影响大模型回答质量。
2024-11-06
如果想学习ai,作为ai产品经理,需要ai底层的算法掌握到什么程度
作为 AI 产品经理,对 AI 底层算法的掌握程度需要达到以下几个方面: 1. 理解产品核心技术:了解基本的机器学习算法原理,以便做出更合理的产品决策。 2. 与技术团队有效沟通:掌握一定的算法知识,减少信息不对称带来的误解。 3. 评估技术可行性:在产品规划阶段,能够准确判断某些功能的技术可行性。 4. 把握产品发展方向:了解算法前沿,更好地把握产品未来的发展趋势。 5. 提升产品竞争力:发现产品的独特优势,提出创新的产品特性。 6. 数据分析能力:掌握相关算法知识,提升数据分析能力。 同时,如果希望在 AI 领域继续精进,还需要了解以下基础内容: AI 背景知识: 基础理论:清楚人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等基本概念。 概率论:掌握基础的概率论知识,如条件概率、贝叶斯定理。 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:了解其基本概念。 评估和调优: 性能评估:知道如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学会使用网格搜索等技术优化模型参数。 神经网络基础: 网络结构:理解包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)等的基本结构。 激活函数:熟悉常用的激活函数,如 ReLU、Sigmoid、Tanh。
2024-11-05
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
现在大语言模型的跑分对比
对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。 4. 泛化能力:处理未见过的任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。 6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等性能指标来量化比较。 当前领先的大型语言模型的排行榜,例如聊天机器人竞技场,由伯克利的团队管理,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋中的类似。在排行榜中,顶部多为专有模型,下方有开放权重的模型。 大语言模型的特点包括: 1. 架构:有 encoderonly、encoderdecoder、decoderonly 等,如 BERT 是 encoderonly 模型,google 的 T5 是 encoderdecoder 模型,众多 AI 助手多为 decoderonly 模型。 2. 数据和参数:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,参数多,如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。
2025-02-18
现在大语言模型的跑分对比
对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。 4. 泛化能力:处理未见过的任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。 6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等性能指标来量化比较。 当前领先的大型语言模型的排行榜,例如聊天机器人竞技场,由伯克利的团队管理,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋中的类似。在排行榜中,顶部多为专有模型,下方有开放权重的模型。 大语言模型的特点包括: 1. 架构:有 encoderonly、encoderdecoder、decoderonly 等,如 BERT 是 encoderonly 模型,google 的 T5 是 encoderdecoder 模型,众多 AI 助手多为 decoderonly 模型。 2. 数据和参数:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,参数多,如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。
2025-02-18
什么是大模型一体机
大模型一体机是一个相对复杂的概念。通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。其本质是两个文件:一个是参数文件,类似于问答机器人的“大脑镜像”,负责处理和生成文本信息;另一个是包含运行这些参数的代码文件。 大模型的训练和使用过程可以类比为上学参加工作: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 大模型的特点包括: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 在架构方面,大模型有 encoderonly、encoderdecoder、decoderonly 等类型。目前常见的 AI 助手多采用 decoderonly 架构。
2025-02-18
传统AI、大模型、AGI的区别
传统 AI、大模型、AGI 存在以下区别: 传统 AI: 语音技能 NLU 通常通过一系列规则、分词策略等训练而成。 运作逻辑规律可观测,具有 ifelse 式的逻辑性。 大模型: 凭借海量数据在向量空间中学习知识的关联性。 运作逻辑难以观测,脱离了 ifelse 的层面。 Transformer 是其底层结构,是一个大参数(千亿级别)的回归方程,底层是 function loss 损失函数,能在一定 prompt condition 情况下,repeat 曾经出现过的数据内容,实现“生成”能力。 大语言模型是一个 perfect memory,repeat 曾经出现的内容。与 Alpha Go 相比,Alpha Go 是增强学习模型,有推理能力,而大语言模型这块很弱。 AGI(通用人工智能): 部分人觉得 LLM(大语言模型)具有 AGI 潜力,但 LeCun 反对。 目前对于能否到达 AGI 阶段尚不明确。 在公众传播层面: AIGC 指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容。 LLM 指 NLP 领域的大语言模型,如 ChatGPT。 GenAI 是生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了 LLM 和 AIGC。 公众传播一般会混用上述名词,但底层是 transformer 结构。
2025-02-18
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18
agent训练
在人工智能领域中,AI Agent 的训练具有以下特点: 传统强化学习中,Agent 训练往往需大量样本和时间,且泛化能力不足。 为突破瓶颈,引入了迁移学习:通过促进不同任务间知识和经验迁移,减轻新任务学习负担,提升学习效率和性能,增强泛化能力,但当源任务与目标任务差异大时,可能无法发挥效果甚至出现负面迁移。 探索了元学习:核心是让 Agent 学会从少量样本中迅速掌握新任务最优策略,能利用已有知识和策略调整学习路径适应新任务,减少对大规模样本集依赖,但需要大量预训练和样本构建学习能力,使开发通用高效学习策略复杂艰巨。 时间:21 世纪初至今 特点:迁移学习是将一个任务学到的知识迁移到其他任务;元学习是学习如何学习,快速适应新任务。 技术:迁移学习如领域自适应;元学习如 MAML、MetaLearner LSTM。 优点:提高学习效率,适应新任务。 缺点:对源任务和目标任务的相似性有一定要求。 此外,智谱 AI 开源的语言模型中与 Agent 相关的有: AgentLM7B:提出了 AgentTuning 方法,开源了包含 1866 个高质量交互、6 个多样化真实场景任务的 Agent 数据集 AgentInstruct,基于上述利用 Llama2 微调而成,上下文 token 数为 4K。 AgentLM13B:上下文 token 数为 4K。 AgentLM70B:上下文 token 数为 8K。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
主流的LORA 训练工具是什么?
主流的 LORA 训练工具包括: 1. B 站 UP 主“朱尼酱”的赛博丹炉,其界面友好、美观,适合新手入门。 2. 训练器,支持 Kolors 开源模型。 3. Kolors+Refiner,由 AIKSK 开发的工作流应用。 4. Kolors可图大模型XL 精修工作流,由@AiARTiST 非人类开发。 5. kolors+SDXL 细节修复+instant+ipa,由@谷尘 DesignDog 开发。 6. kolors 一键设计中文海报,由亦诚视觉开发。 7. ,魔搭社区官方模型。 8. InstantIDKolors 专属模型,由 InstantX 开发。
2025-02-18
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置不限,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程。下载完成后会提示是否下载 hunyuan 模型,选择“n”不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。建议提前将图片和标签打包成 zip 上传,Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集。返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 6. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择您的 Lora 和调节参数。
2025-02-17
LLM 训练推理模型有哪些
以下是一些常见的 LLM 训练推理模型: 1. FengshenbangLM: 地址: 简介:是 IDEA 研究院认知计算与自然语言研究中心主导的大模型开源体系,开源了姜子牙通用大模型 V1,是基于 LLaMa 的 130 亿参数的大规模预训练模型,具备翻译、编程、文本分类、信息抽取、摘要、文案生成、常识问答和数学计算等能力。除姜子牙系列模型之外,还开源了太乙、二郎神系列等模型。 2. BiLLa: 地址: 简介:开源了推理能力增强的中英双语 LLaMA 模型。较大提升 LLaMA 的中文理解能力,并尽可能减少对原始 LLaMA 英文能力的损伤;训练过程增加较多的任务型数据,利用 ChatGPT 生成解析,强化模型理解任务求解逻辑;全量参数更新,追求更好的生成效果。 3. Moss: 地址: 简介:支持中英双语和多种插件的开源对话语言模型,MOSS 基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。 此外,Andrej Karpathy 的相关介绍中提到了 LLM 训练的一些情况,如训练过程涉及大约 10TB 的文本,通常来源于互联网的抓取,需要大量的互联网资源和一个 GPU 集群,费用大约 200 万美元。Karpathy 的视频还详细介绍了 LLM 训练的全部过程,包括预训练、有监督微调和强化学习等。
2025-02-16
我是一个有23年软件系统开发和设计经验的架构师,但是对AI还没有系统化了解过,请问我该如何开始?如何在短时间内掌握AI的使用、原理以及二次开发?
以下是为您提供的在短时间内系统化学习 AI 的建议: 一、了解 AI 基本概念 首先,建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。这些课程将引导您了解生成式 AI 等基础知识,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。我建议您一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 如果希望继续精进,对于 AI,可以尝试了解以下内容作为基础: 1. AI 背景知识 (1)基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 (2)历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础 (1)统计学基础:熟悉均值、中位数、方差等统计概念。 (2)线性代数:了解向量、矩阵等线性代数基本概念。 (3)概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型 (1)监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 (2)无监督学习:熟悉聚类、降维等算法。 (3)强化学习:简介强化学习的基本概念。 4. 评估和调优 (1)性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 (2)模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础 (1)网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 (2)激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 此外,以证件照为例,Code AI 应用开发教学中,智能体开发从最初的 chatbot 只有对话框,到有了更多交互方式,因用户需求扣子推出了 AI 应用,其低代码或零代码的工作流等场景做得较好。但 AI CODING 虽强,目前适用于小场景和产品的第一个版本,复杂应用可能导致需求理解错误从而使产品出错。在创建 AI 应用时,要学习操作界面、业务逻辑和用户界面,包括布局、搭建工作流、用户界面及调试发布,重点熟悉桌面网页版的用户界面。
2025-02-17
大模型的基本原理
大模型的基本原理如下: 1. 模仿人类大脑结构,表现出人的特征,应对大模型回答不及预期的解决之道与人与人交流沟通的技巧相似。 2. GPT 全称是生成式预训练转换器模型(Generative Pretrained Transformer): 生成式(Generative):大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,从提示词“How”开始,依次推理计算出“are”“you”等,直到计算出下一个词是的概率最大时结束输出。 3. 通俗来讲,大模型通过输入大量语料来让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。其训练和使用过程可类比为上学参加工作: 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 找老师:用合适算法讲述“书本”内容,让大模型更好理解 Token 之间的关系。 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后进行推导(infer),如进行翻译、问答等。 4. 在 LLM 中,Token 被视为模型处理和生成的文本单位,可代表单个字符、单词、子单词等,在将输入进行分词时会对其进行数字化,形成词汇表。 5. 相关技术名词及关系: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,监督学习有标签,无监督学习无标签自主发现规律,强化学习从反馈里学习。 深度学习参照人脑有神经网络和神经元,神经网络可用于多种学习方式。 生成式 AI 可生成多种内容形式,LLM 是大语言模型,生成只是大语言模型的一个处理任务。 6. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,基于自注意力机制处理序列数据,不依赖 RNN 或 CNN。
2025-02-17
ai修图的原理
AI 修图的原理主要包括以下几个方面: 1. 对于 Stable Diffusion 这类软件,其工作原理类似于学习画画。就像学习梵高的风格,需要大量临摹,而 AI 则通过对成千上万美术风格作品的学习形成大模型,如 Checkpoint。用户要想获得满意的作品,需选择合适的大模型。大模型可在 C 站下载,但需科学上网。 2. ComfyUI 是一个开源的用于生成 AI 图像的图形用户界面,主要基于 Stable Diffusion 等扩散模型。其原理包括 Pixel Space(像素空间)和 Latent Space(潜在空间)。像素空间对应输入图像或随机噪声图像,最终生成的图像也会转换回像素空间。许多操作在潜在空间进行,如通过 KSampler 节点执行采样过程,可通过节点调整潜在空间的操作,如噪声添加、去噪步数等。 3. 扩散过程是从噪声生成图像的过程,通过调度器控制,如 Normal、Karras 等,可选择不同调度器控制在潜在空间中处理噪声及逐步去噪回归到最终图像。时间步数也会影响图像生成的精细度和质量。 在实际的 AI 修图过程中,还涉及到提示词编写、对输出图片的二次和多次微调、确定情绪和风格等锚点再发散联想等操作,以获得更符合需求的修图效果。
2025-02-13
agi的方法原理
OpenAI 能够跑通所有 AGI 技术栈的方法原理主要基于以下几个方面: 1. 方法论明确:有着清晰的逻辑结构和明确的推论,甚至可以用公理化的方式描述。 公理 1:The bitter lesson。长期来看,AI 领域所有的奇技淫巧都比不过强大的算力夹持的通用的 AI 算法,强大的算力加持的通用的 AI 算法才是 AGI 路径的正道。 公理 2:Scaling Law。一旦选择了良好且通用的数据表示、标注和算法,就能找到一套通用规律,保证数据越多、模型越大、效果越好,甚至能在训练模型之前预知效果。 公理 3:Emerging properties。这是一条检验公理,用于判断 scaling law 带来的是质变而非量变,即随着 scaling law 的进行,模型会突然稳定掌握之前不能掌握的能力。 2. 具体实践: 在 GPT 中,良好且通用的数据表示是 tokenizer 带来的 embedding,数据标注是文本清理和去重的一套方法,算法是大家熟知的 transformers + autoregressive loss。 在 Sora 中,良好且通用的数据表示是 video compress network 带来的 visual patch,数据标注是 OpenAI 自己的标注器给视频的详细描述,算法是大家熟知的 transformers + diffusion。 3. 数据和任务: 大量数据从世界本身获取,世界产生的数据是 AGI 需要的数据的最小集合,OpenAI 未来会执着于持续获得或者构造数据。 要最有效地利用数据,需要做生成模型,能够模拟和生成整个世界,OpenAI 未来还会在更多的模态和数据上去做生成模型。 通用模型也是 OpenAI 追求的方向。
2025-02-12
deepseek技术原理
DeepSeek 技术原理包括以下方面: 核心原理认知: AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架: 可以套用框架指令,如四要素模板。 格式控制语法包括强制结构(使用```包裹格式要求)、占位符标记(用{{}}标注需填充内容)、优先级符号(>表示关键要求,!表示禁止项)。 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,即在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 多模态输出。 此外,1 月 30 日社区动态速览中提到了 DeepSeek 相关的基本术语,阐述其省钱原因,包括高效硬件使用、创新训练方法、高效模型压缩、避免无效尝试等,还提及成本对比及创新蒸馏技术。接着从核心思想、技术实现方式(知识表示、温度调节)、训练过程(基本流程、关键点)、DeepSeek 的创新及有效性原因(信息压缩、概率分布学习、泛化能力)等方面详细讲述了蒸馏工作原理。1 月 26 日社区动态速览中提到 Deepseek 提示词框架的四大模块:任务目的(Purpose)、计划规则(Planning Rules)、格式规则(Format Rules)、输出说明(Output)。
2025-02-11
请简单解释或者举例DeepSeek与ChatGPT的区别,原理
DeepSeek 与 ChatGPT 的区别主要体现在以下方面: 1. 在 App Store 排名上,DeepSeek R1 冲到了美国区 App Store 第一名,超越了 ChatGPT。 2. 口碑与技术实力方面,DeepSeek 没有市场部和市场投放,完全依靠技术实力和口碑获得用户认可。 3. 性能与成本方面,DeepSeek R1 的效果比肩顶尖闭源模型 o1,但价格仅为 o1 的 27 分之一。 4. 开源与创新方面,DeepSeek R1 开源让行业认知整体拉齐,得到全世界尊重和喜爱。 5. 训练方式上,DeepSeek R1 的创新模型 R1 Zero 跳过了监督微调(SFT)阶段,直接采用强化学习(RL)进行训练。 6. 在回答用户问题时,DeepSeek R1 会先进行“自问自答”式的推理思考,模拟人类的深度思考,以提升最终回答的质量,而 ChatGPT 可能没有这种特定的机制。 原理方面:DeepSeek R1 与 ChatGPT 同属于基于强化学习 RL 的推理模型,但在具体的训练和推理过程中可能存在差异。例如,DeepSeek R1 在训练时可能有独特的方法和策略,使其在性能和表现上与 ChatGPT 有所不同。
2025-02-11