大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。
大模型的“大”体现在用于表达 token 之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如 GPT-3 拥有 1750 亿参数。以 Transform 为代表的大模型采用自注意力(Self-attention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。
在大模型的训练和使用过程中,可以用“上学参加工作”来类比:
在 LLM 中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。在将输入进行分词时,会对其进行数字化,形成一个词汇表。常见的将 Token 表示成稠密矩阵向量的算法有:基于统计的 Word2Vec(通过上下文统计信息学习词向量)、GloVe(基于词共现统计信息学习词向量);基于深度网络的 CNN(使用卷积网络获得图像或文本向量)、RNN/LSTM(利用序列模型获得文本向量);基于神经网络的 BERT(基于 Transformer 和掩码语言建模进行词向量预训练)、Doc2Vec(使用神经网络获得文本序列的向量)。
数字化的好处是便于计算机处理。但为了让计算机理解Token之间的联系,还需要把Token表示成稠密矩阵向量,这个过程称之为embedding([3]),常见的算法有:基于统计Word2Vec,通过上下文统计信息学习词向量GloVe,基于词共现统计信息学习词向量基于深度网络CNN,使用卷积网络获得图像或文本向量RNN/LSTM,利用序列模型获得文本向量基于神经网络BERT,基于Transformer和掩码语言建模(Masked LM)进行词向量预训练Doc2Vec,使用神经网络获得文本序列的向量以Transform为代表的大模型采用自注意力(Self-attention)机制来学习不同token之间的依赖关系,生成高质量embedding。大模型的“大”,指的是用于表达token之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如GPT-3拥有1750亿参数,其中权重数量达到了这一量级,而词汇表token数只有5万左右。参考:[How does an LLM"parameter"relate to a"weight"in a neural network?](https://datascience.stackexchange.com/questions/120764/how-does-an-llm-parameter-relate-to-a-weight-in-a-neural-network"How does an LLM"parameter"relate to a"weight"in a neural network?")
1.选择自定义提示词(当然你也可以选之前预定义的话题,也就是黑色的按钮):PS:黑色的按钮会带着你做新手使用指引。然后左边会出现我们熟悉的chat界面,就不详细介绍这个界面。网站上提供的模型是Llama-3.1 8B Instruct:1.输入你的对话内容,等待左右两边的内容生成。如果这时右边的分析没刷新成上图的样子,在这两个按钮之间做做切换。由于它的归因聚类也是用了大模型,所以稍微等等,它也有个反应时间,过程中可能是这样的:最终你得到的结果可能和我不同,甚至可能是正确的答案,猜测是这个模型用的温度temprature不是最低,因此你会得到不同的结果。Activation Mode:你将获得整段的推理判断。Attribution Mode:你需要选中一个token,它会帮你分析对应的内容里最大的关联。1.从结果中,你会发现模型认知的9.11大概率是那个著名的时间,也可能是一个日期。这种情况下,模型就判断9月11日比9月3日大。而如果我们用一个显然不是日期的数字对比,比如9.31和9.4比,大概率答案是正确的:解释也回归到了数字范畴:它从侧面证明了LLM的基本原理:LLM是采用多头注意力机制预测下一个token的,因此训练数据中相关的语句如果越多,它们之间的相关性概率会越高。在这个案例里,9.11作为日期“概念”的权重显然比它是个数字“概念”的权重大。
通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|