Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

什么是大模型

Answer

大模型通俗来讲,是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。

可以用“上学参加工作”这件事来类比大模型的训练和使用过程:

  1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。
  2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。
  3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。
  4. 就业指导:学完知识后,为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。
  5. 搬砖:就业指导完成后,就要正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。

在大模型中,Token 被视为模型处理和生成的文本单位,会被分割并生成词汇表,数字化便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Self-attention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。

大模型的“大”指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT-3 拥有 1750 亿参数。

所谓的大模型,简而言之,就是拥有庞大参数数量的模型,通过处理和理解海量数据,能够胜任一系列复杂任务。大模型强大的原因在于庞大的参数数量和大量的数据训练。这些参数帮助模型更深入地理解和生成数据,而大量的数据让模型掌握丰富的知识和技能。

Content generated by AI large model, please carefully verify (powered by aily)

References

大模型入门指南

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|

大模型入门指南

数字化的好处是便于计算机处理。但为了让计算机理解Token之间的联系,还需要把Token表示成稠密矩阵向量,这个过程称之为embedding([3]),常见的算法有:基于统计Word2Vec,通过上下文统计信息学习词向量GloVe,基于词共现统计信息学习词向量基于深度网络CNN,使用卷积网络获得图像或文本向量RNN/LSTM,利用序列模型获得文本向量基于神经网络BERT,基于Transformer和掩码语言建模(Masked LM)进行词向量预训练Doc2Vec,使用神经网络获得文本序列的向量以Transform为代表的大模型采用自注意力(Self-attention)机制来学习不同token之间的依赖关系,生成高质量embedding。大模型的“大”,指的是用于表达token之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如GPT-3拥有1750亿参数,其中权重数量达到了这一量级,而词汇表token数只有5万左右。参考:[How does an LLM"parameter"relate to a"weight"in a neural network?](https://datascience.stackexchange.com/questions/120764/how-does-an-llm-parameter-relate-to-a-weight-in-a-neural-network"How does an LLM"parameter"relate to a"weight"in a neural network?")

十七问解读生成式人工智能

GPT是“生成式预训练变换器”(Generative Pre-trained Transformer)的缩写,是一种大型语言模型(LLM),也是生成式人工智能的重要框架。首个GPT由OpenAI于2018年推出。GPT模型是基于Transformer模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。截至2023年,大多数LLM都具备这些特征,并广泛被称为GPT。而所谓的生成式预训练,其实是机器学习领域一个由来已久的概念。但是,直到2017年Google推出了Transformer模型,我们才见到了如BERT(2018年发布)和XLNet(2019年发布)这样的大型语言模型的诞生。这些模型都是基于预训练的转换器,但它们并不是为生成文本而设计,而是作为“仅编码器”使用。2018年,OpenAI发表了一篇名为《通过生成式预训练提高语言理解能力》的文章,首次介绍了基于转换器的生成式预训练模型(GPT)系统,即我们所说的“GPT-1”。[heading1]问题六、大模型是什么东西?[content]所谓的大模型,简而言之,就是那些拥有庞大参数数量的模型。它们通过处理和理解海量数据,能够胜任一系列复杂的任务。那么,为何将这些模型称作“大”模型呢?原因在于它们的规模之大,通常包含从数十亿到数千亿的参数。这些庞大的参数集合赋予了模型强大的学习和记忆能力,使其在处理各种任务时表现出色。我们可以从两个方面来进一步解读大模型的特点:1.大模型之所以强大,一个重要原因在于它们庞大的参数数量。这些参数,或者说“权重”,是模型在学习过程中不断调整的核心,它们帮助模型更深入地理解和生成数据。2.大模型的训练离不开大量的数据。无论是文本、图像还是音频数据,都是大模型学习的基础。通过对这些数据的深入学习,模型能够掌握丰富的知识和技能。

Others are asking
是不是可以跟任何大模型进行对话
一般来说,可以跟很多大模型进行对话。以下是一些常见的方式: 1. 对于 Llama3 大模型: 下载大模型主要是为了与之对话,或者称为使用其进行推理。 有两种对话方式,可使用 API 或部署简单界面。面向小白,这里主要介绍部署界面的方式。 例如,在 /root/autodltmp 路径下新建 chatBot.py 文件并输入相关内容,然后启动 Webdemo 服务,按照指示映射端口,在浏览器中打开相应链接即可看到聊天界面。 2. 对于 Llama 大模型: 首先编译,为利用 Metal 的 GPU 可用特定命令编译。 去指定网址下载模型。 llama.cpp 还提供了 WebUI 供用户使用,启动 server 后默认监听 8080 端口,打开浏览器就可以对话。 3. 对于通过 Open WebUI 使用大模型: 访问指定网址,使用邮箱注册账号。 登陆成功后,Open WebUI 一般有聊天对话和 RAG 能力(让模型根据文档内容回答问题)两种使用方式。如果要求不高,已实现通过 Web UI 与本地大模型对话的功能。 需要注意的是,不同大模型的访问速度和回答效果可能存在差异,例如 ChatGPT 访问速度快是因为其服务器配置高,回答效果好是因为训练参数多、数据更优以及训练算法更好。
2025-01-07
我想在dify里按照一个reranker模型,推荐哪个
在 Dify 中安装 reranker 模型,推荐使用中转服务商。Dify 的部署版本中,模型需自行配置,官方和中转的都支持,但中转服务商从性价比角度更优,充点小钱就能用上各种模型,价格通常有较大折扣,20 刀普通用户能用很久,还能在不同地方使用。若没有合适的中转服务商,可使用我自用的,点击原文即可。模型设置方面,在 Dify 右上角点击设置模型供应商,填入中转服务商提供的信息(一般包括 API base 或 Base URL 以及 key)并保存。若保存成功,回到主页面创建一个 Agent 测试,正常则大功告成。比如我填的 API base 是‘https://one.glbai.com’。
2025-01-07
文生图有哪些大模型
以下是一些常见的文生图大模型: 1. SD(StableDiffusion):如 majicmixRealistic_v6.safetensors 模型,可通过设置相关提示词、参数等生成图像。 2. 快手 Kolors:这是一个基于潜在扩散的大规模文本生成图像模型,在视觉质量、复杂语义准确性以及中英文字符的文本渲染方面有显著优势,支持中文和英文输入。其相关资源包括工作流与模型地址、文档说明、项目地址等。 开源代码:https://github.com/KwaiKolors/Kolors 模型权重:https://huggingface.co/KwaiKolors/Kolors 官方页面:https://kwaikolors.github.io/ 企业页面:https://kolors.kuaishou.com/
2025-01-07
文生图模型打分的排行榜
以下是关于文生图模型打分的排行榜相关信息: SuperCLUEImage 测评基准首次公布,DALLE 3 以 76.94 分高居榜首,显示其在图像生成质量、多样性和文本一致性方面的卓越表现。百度文心一格和 vivo 的 BlueLMArt 位列国内前列,但与国际领先模型仍有差距。 在包含人工评估、机器评估的全面评测中,Kolors 具有非常有竞争力的表现,达到业界领先水平。构建了包含 14 种垂类、12 个挑战项、总数量为一千多个 prompt 的文生图评估集 KolorsPrompts。 人工评测方面,邀请了 50 个具有图像领域知识的专业评估人员对不同模型的生成结果进行对比评估,衡量维度为画面质量、图文相关性、整体满意度三个方面。Kolors 在整体满意度方面处于最优水平,其中画面质量显著领先其他模型。具体平均分如下: AdobeFirefly:整体满意度平均分 3.03,画面质量平均分 3.46,图文相关性平均分 3.84。 Stable Diffusion 3:整体满意度平均分 3.26,画面质量平均分 3.5,图文相关性平均分 4.2。 DALLE 3:整体满意度平均分 3.32,画面质量平均分 3.54,图文相关性平均分 4.22。 Midjourneyv5:整体满意度平均分 3.32,画面质量平均分 3.68,图文相关性平均分 4.02。 Playgroundv2.5:整体满意度平均分 3.37,画面质量平均分 3.73,图文相关性平均分 4.04。 Midjourneyv6:整体满意度平均分 3.58,画面质量平均分 3.92,图文相关性平均分 4.18。 Kolors:整体满意度平均分 3.59,画面质量平均分 3.99,图文相关性平均分 4.17。所有模型结果取自 2024.04 的产品版本。
2025-01-07
目前主流的AI大模型有哪些
目前主流的 AI 大模型主要有以下几种: 1. OpenAI 系列:包括 GPT3.5 和 GPT4 等。GPT3.5 在 11 月启动了当前的 AI 热潮,GPT4 功能更强大。ChatGPT 也属于 OpenAI 系列。 2. 微软 Bing:使用 GPT4 和 GPT3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型,能创建和查看图像,还能在网页浏览器中阅读文档,并连接到互联网。 3. 谷歌 Bard:由各种基础模型驱动,最近是 PaLM 2 模型。 4. Anthropic Claude 2:其特点是有非常大的上下文窗口,不太可能恶意行事。 此外,大模型的架构也有所不同,如 encoderonly 模型(代表模型是 BERT)、encoderdecoder 模型(代表是 google 的 T5)、decoderonly 模型(适用于自然语言生成任务,如故事写作和博客生成,众多 AI 助手包括 ChatGPT 都属于此类)。大模型的“大”体现在预训练数据量大(往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级别的数据进行预训练)和参数多(如 OpenAI 在 2020 年发布的 GPT3 就已达到 170B 的参数)。
2025-01-07
用于训练销售助手类型业务的私有模型
以下是关于训练销售助手类型业务私有模型的相关信息: 1. 提示词方面:设计了一套模拟江南皮革厂销售的拟人化提示词模板,并将其应用于国内的豆包角色扮演模型,生成吸引人的广告词。若与语音技术结合用于宣传,能创造出有趣且有效的销售助手,吸引顾客注意。拟人化提示词母体可通过关注作者微信领取。 2. 增加私有知识方面:通过前面步骤拥有可与客户对话的 AI 助手后,若想让其像公司员工一样精准专业回答商品相关问题,需为大模型应用配置知识库。例如在售卖智能手机的公司,网站上有很多相关信息,不同机型的详细配置清单可参考相关文档。
2025-01-07