Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型相关术语中,参数和Token分别指什么?

Answer

在大模型相关术语中:

  • 参数:主要指模型中的权重(weight)与偏置(bias),大模型的“大”通常体现在用于表达 token 之间关系的参数数量众多,例如 GPT-3 拥有 1750 亿参数,其中权重数量达到了这一量级。
  • Token:大模型有着自己的语言体系,Token 是其语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型的语言,这种转换的基本单位就是 Token。不同厂商的大模型对 Token 的定义可能不同,以中文为例,通常 1 Token 约等于 1 - 2 个汉字。大模型的收费计算方法以及对输入输出长度的限制,通常都是以 Token 为单位计量的。Token 可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization),在将输入进行分词时,会对其进行数字化,形成一个词汇表。
Content generated by AI large model, please carefully verify (powered by aily)

References

大模型入门指南

数字化的好处是便于计算机处理。但为了让计算机理解Token之间的联系,还需要把Token表示成稠密矩阵向量,这个过程称之为embedding([3]),常见的算法有:基于统计Word2Vec,通过上下文统计信息学习词向量GloVe,基于词共现统计信息学习词向量基于深度网络CNN,使用卷积网络获得图像或文本向量RNN/LSTM,利用序列模型获得文本向量基于神经网络BERT,基于Transformer和掩码语言建模(Masked LM)进行词向量预训练Doc2Vec,使用神经网络获得文本序列的向量以Transform为代表的大模型采用自注意力(Self-attention)机制来学习不同token之间的依赖关系,生成高质量embedding。大模型的“大”,指的是用于表达token之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如GPT-3拥有1750亿参数,其中权重数量达到了这一量级,而词汇表token数只有5万左右。参考:[How does an LLM"parameter"relate to a"weight"in a neural network?](https://datascience.stackexchange.com/questions/120764/how-does-an-llm-parameter-relate-to-a-weight-in-a-neural-network"How does an LLM"parameter"relate to a"weight"in a neural network?")

走入AI的世界

首先我们给出一些常见缩写和专业词汇的“人话”解释,它们十分基础,但理解他们至关重要。为了讨论更加聚焦,接下来的内容将主要围绕大语言模型为主进行展开(对于其他模态的大模型,我们暂且放放):LLM:Large language model的缩写,即大语言模型,前面百团大战中的各类大模型,说的都是大语言模型(极其应用)Prompt:中文译作提示词,就是我们输入给大模型的文本内容,可以理解为你和大模型说的话,下达的指令。提示词的质量好坏,会显著影响大模型回答的质量,很多时候如果你觉得大模型回答的太差了,AI味儿太浓了,很可能是你的提示词写的不够好,换言之,不是AI不行,而是你不行😌Token:就像人类有着不同的语言,大模型也有着自己的语言体系,如图9,我们发送文本给大模型时,大模型会先把文本转换为他自己的语言,并推理生成答案,而后再翻译成我们看得懂的语言输出给我们。正如人类不同语言都有最小的字词单元(汉语的字/词,英语的字母/单词),大模型语言体系中的最小单元就称为Token。这种人类语言到大模型语言的翻译规则,也是人类定义的,以中文为例,由于不同厂商的大模型采用了不同的文本切分方法,因此一个Token对应的汉字数量也会有所不同,但在通常情况下,1Token≈1-2个汉字。请注意,大模型的收费计算方法,以及对输入输出长度的限制,都是以token为单位计量的。上下文:英文通常翻译为context,指对话聊天内容前、后的内容信息。使用时,上下文长度和上下文窗口都会影响AI大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大token数量,而上下文窗口限制了模型在生成每个新token时实际参考的前面内容的范围(关于这一点,你需要看完3.2中关于GPT的讨论,方能更好理解)

大模型入门指南

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|

Others are asking
什么是tokens
在大语言模型领域,Token 通常用来表示文本数据中的一个单元。在不同的语境下,一个 Token 可能代表一个字、一个词,或者是一个句子。在英文中,一个 Token 通常是一个词或者是标点符号。在一些汉语处理系统中,一个 Token 可能是一个字,也可能是一个词。Token 是处理和理解文本数据的基本单元。 在深度学习的语言模型中,如 Transformer,输入的文本首先被切分成一系列的 Tokens。这些 Tokens 被转换成向量,然后被输入到神经网络中进行处理。因此,在这种情况下,Token 可以被理解为语言模型接收和处理的最小的信息单元。在训练过程中,每个 Token 会关联一个预测,这个预测可以是下一个 Token 的预测,也可以是该 Token 的属性预测,如词性、情感等。 训练 Token 的数量会影响模型的性能和准确性。更多的训练 Token 通常意味着更多的训练数据,这可能会提升模型的准确性和泛化能力。然而,处理更多的 Token 也会增加计算的复杂性和计算资源的需求。 很多同学把 Token 理解为中文语义里的“字节”,这种理解有一定的类比相似性,因为“字节”是计算机存储和处理数据的基本单元,而“Token”是语言模型处理文本信息的基本单元。但这种理解不够准确,“Token”在语言模型中的作用比“字节”在计算机中的作用更加复杂和多元。在大语言模型中,“Token”不仅代表文本数据中的一个单位,而且每个“Token”都可能携带了丰富的语义信息。比如,在处理一句话时,“Token”可能表示一个字,一个词,甚至一个短语,这些都可以被认为是语言的基本单元。同时,每个“Token”在模型中都有一个对应的向量表示,这个向量包含了该“Token”的语义信息、句法信息等。 Unicode 是一种在计算机上使用的字符编码,为每种语言中的每个字符设定了统一并且唯一的二进制编码,以满足跨语言、跨平台进行文本转换、处理的要求。例如中文中的“你”字对应特定的 Unicode 编码。GPT 实际是将我们输入的文字转换成 Token,然后通过 GPT 模型预测 Token,再将 Token 转换成文字,最后再输出给我们。通过 Token 的学习,能感觉到 ChatGPT 理解文本的方式和人类并不相同,它在以自己的方式理解这个世界。 在 ComfyUI SD3 中,如输入的文字描述会被转换为 Tokens(文本向量),其中包括使用 CLIPG/14、CLIPL/14、T5 XXL 等预训练文本编码器将描述文字转换为 Tokens,每个编码器生成 77 个 Token,总共 154 个 Token 等一系列处理过程。
2025-02-07
100 万 tokens 什么概念
100 万 tokens 具有以下重要意义和影响: 算法视角:更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力经历了从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token 的发展历程。 产品视角:长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化。 具体应用:Gemini1.5 支持 100 万 token,可以一次性处理大量信息,比如 1 小时的视频,11 小时的音频,超过 30,000 行代码或超过 700,000 个单词的代码库。Claude2100 k 模型的上下文上限是 100k Tokens,即 100000 个 Token。ChatGPT16 k 模型的上下文上限是 16k Tokens,即 16000 个 Token;ChatGPT432 k 模型的上下文上限是 32k Tokens,即 32000 个 Token。Token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时,会遗忘最前面的对话。若想直观查看 GPT 如何切分 token,可以打开。此外,英文的 Token 占用相对于中文较少,因此很多中文长 Prompt 会被建议翻译成英文设定,然后要求中文输出。
2025-01-28
token是什么
在大语言模型领域,Token 通常用来表示文本数据中的一个单元。在不同语境下,一个 Token 可能代表一个字、一个词或一个句子。在英文中,通常是一个词或标点符号;在一些汉语处理系统中,可能是一个字或一个词。Token 是处理和理解文本数据的基本单元。 在深度学习的语言模型中,如 Transformer,输入的文本首先被切分成一系列的 Tokens。这些 Tokens 被转换成向量,然后被输入到神经网络中进行处理。因此,在这种情况下,Token 可以被理解为语言模型接收和处理的最小信息单元。在训练过程中,每个 Token 会关联一个预测,这个预测可以是下一个 Token 的预测,也可以是该 Token 的属性预测,如词性、情感等。 训练 Token 的数量会影响模型的性能和准确性。更多的训练 Token 通常意味着更多的训练数据,这可能会提升模型的准确性和泛化能力。然而,处理更多的 Token 也会增加计算的复杂性和计算资源的需求。 很多同学把 Token 理解为中文语义里的“字节”,这种理解有一定相似度,因为“字节”是计算机存储和处理数据的基本单元,而“Token”是语言模型处理文本信息的基本单元。但不准确的地方在于:“Token”在语言模型中的作用比“字节”在计算机中的作用更加复杂和多元。在大语言模型中,“Token”不仅代表文本数据中的一个单位,而且每个“Token”都可能携带丰富的语义信息。比如,在处理一句话时,“Token”可能表示一个字、一个词甚至一个短语,同时每个“Token”在模型中都有一个对应的向量表示,这个向量包含了该“Token”的语义信息、句法信息等。 Unicode 是一种在计算机上使用的字符编码,为每种语言中的每个字符设定了统一且唯一的二进制编码,以满足跨语言、跨平台进行文本转换、处理的要求。有意思的是,Unicode 不仅有自然语言,还包含 emoji 等自然语言之外的符号,这也是 ChatGPT 能理解和回复 emoji 的原因。所以,GPT 实际是将我们输入的文字转换成 Token,然后通过 GPT 模型预测 Token,再将 Token 转换成文字,最后输出给我们。 通过 Token 的学习,能感觉到 ChatGPT 理解文本的方式和人类不同,它在以自己的方式理解世界。尽管“Token”和“字节”都是基本的处理单位,但“Token”在大语言模型中的含义和作用比“字节”在计算机中的含义和作用更加丰富和复杂。 另外,如果曾经“机翻”过一些文档,会经常看到“Token”被自动翻译工具翻译为“令牌”。GPT 的输入和输出不是到中文字的粒度,它能处理几乎世界上所有流行的自然语言,所以需要引入 Token 的概念,Token 是自然语言处理的最细粒度,GPT 的输入和输出都是一个个的 Token。GPT 适用于几乎所有流行的自然语言,其 Token 需要兼容几乎人类的所有自然语言,通过 Unicode 编码来实现。
2025-01-23
AI中常说的token是什么
Token 是大模型语言体系中的最小单元。 在人类语言中,不同语言都有最小的字词单元,如汉语的字/词、英语的字母/单词。而在大模型语言体系中,Token 就相当于这样的最小单元。 当我们向大模型发送文本时,大模型会先将文本转换为它自己的语言,并推理生成答案,然后再翻译为我们能看懂的语言输出。 不同厂商的大模型对中文文本的切分方法不同,通常情况下,1 个 Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 Token 为单位计量的。 例如,在英文中,单词“hamburger”会被分解成“ham”“bur”和“ger”这样的 Token,而常见的短单词如“pear”则是一个 Token。对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。但要注意,在给定的 API 请求中,文本提示词和生成的补合起来不能超过模型的最大上下文长度(对于大多数模型,约为 2048 个 Token 或 1500 个单词)。
2025-01-08
智谱 注册送2000万 tokens
智谱 BigModel 共学营第二期相关信息如下: 本期共学应用为人人可打造的微信助手。 注册智谱 Tokens:智谱 AI 开放平台的网址为 https://bigmodel.cn/ 。参与课程至少需要有 token 体验资源包,获取资源包有三种方式: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,直接充值现金,所有模型可适用的网址为 https://open.bigmodel.cn/finance/pay 。 共学营报名赠送资源包。 语言资源包:免费 GLM4Flash 语言模型/ 。 多模态资源包: 。 多模态资源包: 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 进入智能体中心我的智能体,开始创建智能体。 会议 ID:185 655 937 ,会议链接:https://vc.feishu.cn/j/185655937 ,共学营互动群。 BigModel 开放平台是智谱一站式的大模型开发及应用构建平台。基于智谱自研的全模型矩阵,面向企业客户及合作伙伴,支持多样化模型和自定义编排。平台提供即插即用的智能工具箱,包括 API 接口、模型微调及部署功能,同时具备流程编排以适应复杂业务场景。还提供免费、好用、高并发的 GLM4Flash 模型,0 元上手大模型,新用户注册登录即送 2000 万 Tokens,调用智谱全家桶模型。更多应用场景包括: 。
2024-12-05
AI 评估 GPU 大模型的性能指标,包括输入 token 和输出 token 能力的区分。
以下是关于 AI 评估 GPU 大模型性能指标中输入 token 和输出 token 能力区分的相关内容: 大模型是通过输入大量语料进行训练,从而获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。在大模型的训练和使用过程中: 1. 训练需要大量计算,GPU 更合适,只有具备大量 GPU 的才有资本训练大模型。 2. 大模型需要大量数据量,几千亿序列(Token)的输入基本是标配。 3. 要用合适的算法让大模型更好理解 Token 之间的关系。 4. 为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 完成上述步骤后,大模型就可以进行如翻译、问答等推导(infer)工作。 Token 是大模型语言体系中的最小单元,人类语言发送给大模型时,会先转换为其自身语言,推理生成答案后再翻译输出。不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 在评估 GPU 大模型性能时,显卡的常规指标很重要。大部分模型默认采用 FP16 的加载方式,因此显卡的性能指标主要关注 FP16 的算力和显存大小。算力影响推理速度,包括输入数据处理和持续吐出数据的速度,会体现在从提示词输入后到第一个输出的 token 的等待时间间隔,以及流式输出下每秒吐字的字数,通常每秒 10 token 以上能获得较好的用户体验。显存大小影响能否装载模型,可通过“参数大小乘 2”简化判断所需显存大小,但实际显存需求还会受其他因素影响。
2024-12-05
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF,0编程基础应该怎么做呢
对于您这种没有编程基础但想要制作针对电子元器件行业的 AI 工具来实现中文 PDF 上传并下载翻译好的 PDF 的需求,以下是一些建议: 首先,您需要学习一些基本的 AI 概念和技术知识,了解自然语言处理(NLP)的基本原理。 其次,可以考虑使用现有的无代码或低代码 AI 开发平台。这些平台通常具有可视化的界面和易于操作的工具,能够帮助您在不编写代码的情况下构建简单的 AI 应用。 然后,针对您的专业术语翻译需求,需要对电子元器件行业的术语进行系统整理和分类,建立一个清晰的术语库。 同时,确定固定描述语句的翻译规则和方法,并将其转化为可在 AI 工具中应用的逻辑。 在实施过程中,要不断测试和优化您的工具,以确保翻译的准确性和质量。 总之,虽然没有编程基础会增加一定的难度,但通过合理利用现有资源和持续学习,您是有可能实现这个目标的。
2025-01-04
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF
目前针对您想要针对电子元器件行业制作一个能上传中文 PDF 并下载翻译好的 PDF 的 AI 工具的需求,暂时没有相关的现成内容和方法。但您可以考虑以下步骤来实现这一目标: 1. 数据准备:收集和整理电子元器件行业的专业术语、固定描述语句以及对应的翻译,构建一个丰富准确的知识库。 2. 选择合适的技术:例如自然语言处理技术和机器翻译算法,以实现对中文 PDF 的翻译。 3. 开发工具界面:设计一个用户友好的界面,方便用户上传中文 PDF 和下载翻译后的 PDF。 4. 测试和优化:对工具进行充分的测试,根据测试结果不断优化翻译的准确性和工具的性能。 这是一个较为复杂的项目,需要一定的技术和资源投入,但如果成功实现,将为电子元器件行业带来很大的便利。
2025-01-04
Sd文生图的专业术语有哪些
以下是一些关于 SD 文生图的专业术语: 1. 内容型提示词:主要用于描述想要的画面,如“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”。 2. 标准化提示词:例如“,drawing,paintbrush”。 3. 权重:通过括号和特定数值来增加提示词的权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。 4. 反向提示词:告诉 AI 不要的内容,如“NSFw,”。 5. 采样迭代步数:指 AI 绘画去噪的次数,步数越高绘画越清晰,但绘画速度越慢,通常数值控制在 20 40 之间较好。 6. 采样方法:AI 生成图像时的特定算法,常用的有“Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM”。 7. 比例:尺寸并非越大越好,模型练图通常按 512x512 的框架绘制,高宽比尽量在这个数值附近。高清修复可放大图像倍率,高宽比主要控制画面比例。
2024-12-16
有哪些入门级的搭建工作流术语
以下是一些入门级的搭建工作流术语及相关内容: 在典型应用场景中,入门级场景可能仅添加一个节点来构建简单工作流。例如,使用获取新闻插件构建一个获取新闻列表的工作流;使用大模型节点接收并处理用户问题等。 端口设置方法:通过神秘代码让所有联网操作应用指定端口,端口号一般在代理选项中,将其填入相关代码,在 CMD 中复制粘贴代码回车,无反应即成功,需安装 Git。 工作流搭建过程:从零开始搭建工作流,如加载 checkpoint loader、prompt 等节点,按颜色连接,未连接会报错,连接后填写提示词即可生成图像。 工作流原理讲解:以做菜为例,空的 latent 是锅,代表图片大小;模型是食材,正反向提示词是菜谱,VE 是调料,按颜色连接各部分。 使用他人工作流:从工作流网站下载 json 文件,拖入相关界面,若有爆红说明有节点未安装,可在 manager 中安装缺失节点。 工作流本地与在线使用方法:介绍了工作流在本地和在线的使用步骤,如安装、处理报错、放置模型文件等。 解决工作流依赖冲突:讲解了通过修改 cast NODE 里的 requirements 来解决依赖冲突的方法。 网页版工具的使用:指出很多工具都有网页版,本地没有工具时可用网页版。 涉及的应用领域包括大摩托车商业应用、学会 AI 工具、自主搭建工作流、生图制作、视频制作、AI 设计创作、3D 动画、建筑方案图、个人应用、人物一致性出视频、设计工作流、各种实践应用、工作流的设计思路、家装和游戏设计、商业和生活、娱乐、综合应用、实现个人想法、游戏美术全流程等。
2024-12-15
ai的历史,基本术语,重要人物,方法和原理灯等
以下是关于 AI 的相关知识: AI 的历史: 最初,查尔斯·巴贝奇发明了计算机,用于按照一套明确定义的程序来对数字进行运算。现代计算机虽更先进,但仍遵循相同的受控计算理念。 基本术语: 您可以通过特定链接(https://ywh1bkansf.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=tbltvr7KExCt7Jpw&view=vewjxk9tDu )了解。 重要人物: 相关信息可参考(https://ywh1bkansf.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=tblLtN12KuvP5reO&view=vewuvGBXhd )。 方法和原理: 详情见(https://ywh1bkansf.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=tblolGx2mprs1EQz&view=vewx5ROYtl )。 对于新手学习 AI,建议: 1. 了解 AI 基本概念:阅读「」部分,熟悉术语和基础概念,了解其主要分支及联系,浏览入门文章。 2. 开始 AI 学习之旅:在「」中找到为初学者设计的课程,可通过在线教育平台按自己节奏学习,如 Coursera、edX、Udacity 等,特别推荐李宏毅老师的课程。 3. 选择感兴趣的模块深入学习:AI 领域广泛,比如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。
2024-08-21
ai术语有哪些
AI 术语包括但不限于以下内容: 机械学习:让电脑在不被编程的情况下自己学习,是学习输入输出的映射关系。 数据科学:分析数据集以获取结论和提示,输出结果通常是幻灯片、结论、PPT 等。 神经网络/深度学习:具有输入层、输出层和中间层(隐藏层)。 人工智能(AI):使计算机模拟人类智能的技术。 通用人工智能(AGI):能够像人类一样思考、学习和执行多种任务的人工智能系统。 自然语言处理(NLP):处理和理解人类语言的技术。 大型语言模型(LLM):数据规模很大的语言模型。 聊天机器人:提供聊天服务,回答问题和解决问题。 预测性维护:预测机器故障,避免停机。 质量控制:检测产品缺陷,提高产品质量。 供应链管理:优化供应链,提高效率和降低成本。 机器人自动化:控制工业机器人,提高生产效率。 自动驾驶:开发自动驾驶汽车,提高交通安全性和效率。 交通管理:优化交通信号灯和交通流量,缓解交通拥堵。 物流和配送:优化物流路线和配送计划,降低运输成本。 无人机送货:利用无人机快速送达货物到偏远地区。 个性化学习:为每个学生提供定制化的学习体验。 农业:分析农田数据,提高农作物产量和质量。 虚拟现实和增强现实体验:开发虚拟现实和增强现实体验。 能源:优化能源使用,提高能源效率。 这些术语只是 AI 领域的一部分,随着技术的不断发展,还会有新的术语不断涌现。
2024-07-01
我的工作需要根据元数据表在本地查询大量数据,并把匹配的数据参数复制到元数据表,有没有智能体可以做这个工作
智能体可以帮助您完成根据元数据表在本地查询大量数据,并把匹配的数据参数复制到元数据表的工作。 智能体可以根据其复杂性和功能分为以下几种类型: 1. 简单反应型智能体:根据当前的感知输入直接采取行动,不维护内部状态,也不考虑历史信息。例如温控器,它根据温度传感器的输入直接打开或关闭加热器。 2. 基于模型的智能体:维护内部状态,对当前和历史感知输入进行建模,能够推理未来的状态变化,并根据推理结果采取行动。比如自动驾驶汽车,它不仅感知当前环境,还维护和更新周围环境的模型。 3. 目标导向型智能体:除了感知和行动外,还具有明确的目标,能够根据目标评估不同的行动方案,并选择最优的行动。例如机器人导航系统,它有明确的目的地,并计划路线以避免障碍。 4. 效用型智能体:不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动的优劣,权衡利弊。比如金融交易智能体,根据不同市场条件选择最优的交易策略。 5. 学习型智能体:能够通过与环境的交互不断改进其性能,学习模型、行为策略以及目标函数。例如强化学习智能体,通过与环境互动不断学习最优策略。 在实际应用中,多智能体 AI 搜索引擎的方案如下: 1. 第一步,快速搜索补充参考信息:根据用户的任务,使用搜索工具补充更多的信息,例如使用工具 API WebSearchPro。 2. 第二步,用模型规划和分解子任务:使用大模型把用户问题拆分成若干子搜索任务,并转换为 JSON 格式。 3. 第三步,用搜索智能体完成子任务:AI 搜索智能体具备联网搜索的能力,还能够自主分析并进行多轮搜索任务。 4. 第四步,总结子任务生成思维导图:智能体能调用各种插件,如思维导图、流程图、PPT 工具等。 此外,生物医药小助手智能体是由 1 个工作流和 6 个数据库实现的。工作流相对简单,而数据库包括公众号文章、执业药师教材、执业医师讲义、药监局新药审评报告、中国医药企业融资动态、药物对外授权动态、全球药物销售额等。在医疗领域,为保证回答的准确性,提示词约定回答只能来自于知识库。其商业化场景包括医药企业研发立项、科研机构临床转化评估、投资机构评估标的公司等。
2025-02-07
如果让提示词变成模板, 每次输入需要的参数就好。
要将提示词变成模板,每次输入需要的参数即可。以下是一些相关的方法和要点: 在 Stable Diffusion 中,下次作图时先选择模板,点击倒数第二个按钮可快速输入标准提示词。描述逻辑通常包括人物及主体特征(如服饰、发型发色、五官、表情、动作)、场景特征(室内室外、大场景、小细节)、环境光照(白天黑夜、特定时段、光、天空)、画幅视角(距离、人物比例、观察视角、镜头类型)、画质(高画质、高分辨率)、画风(插画、二次元、写实)等,通过这些详细提示词能更精确控制绘图。新手可借助功能型辅助网站书写提示词,如 http://www.atoolbox.net/ (通过选项卡快速填写关键词信息)、https://ai.dawnmark.cn/ (每种参数有缩略图参考),还可去 C 站(https://civitai.com/)抄作业,复制每张图的详细参数粘贴到正向提示词栏,注意图像作者使用的大模型和 LORA,也可选取部分好的描述词使用。 简单的提示词模板最终目标是把需求说清楚,如 GPTs 提示词模板:Act like a 输入最终结果),并给出了示例。 提示词母体系列(2)中,在掌握人物设计整体框架后编写提示词,可借鉴替换方式替换模板。模板构成包括:先看约束部分,规则放顶部加强约束,底部也有相应约束,整个约束包裹具体提示词以提示模型专注性;模板结构有基本信息(姓名、性别、年龄、职业)、外貌特征、背景和经历、性格和价值观、爱好特长和语言风格、人际关系和社交活动、未来规划和目标。
2025-01-28
Roo Code 的API Provider 参数哪里设置
要设置 Roo Code 的 API Provider 参数,您可以按照以下步骤进行操作: 1. 首先,进入 deepseek 的官网(https://www.deepseek.com/)。 2. 进入右上角的 API 开放平台。早期 deepseek 是有赠送额度,如果没有赠送的余额,可以选择去充值,支持美元和人民币两种结算方式,以及各种个性化的充值方式,并创建一个 API key。注意,API key 只会出现一次,请及时保存下来。 3. 接下来,以 cursor 作为代码编辑器为例,下载安装 cursor(https://www.cursor.com/),在插件页面搜索并安装 Roocline。安装完后,打开三角箭头,就可以看到 RooCline,选中 RooCline,并点击齿轮,进入设置。 4. 依次设置配置基本参数: API Provider:选择 DeepSeek。 API Key:填入已创建的 key。 模型:选择 DeepSeekreasoner。 5. 进行语言偏好设置。 6. 小贴士:记得把 HighRisk 选项都打开,这样 AI 才能帮您自动生成文件。最后做完所有不要忘记点击 Done 保存修改。在聊天框输入产品需求,输入需求后点击这个 blingbling 的星星,优化提示词。最终,在 deepseekr1 的加持下基本上是一遍过,各种特效效果交互逻辑也都正确。画面也算优雅,交互效果也不错,是您想要的。
2025-01-26
理解LoRA训练以及参数
LoRA 训练的参数主要包括以下方面: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。repeat 值越高,AI 越能读懂图片,但图片精细度越高,学习步数也要越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮就是一次循环,循环次数就是将这个过程重复的遍数。一般数值在 10 20 之间,次数并非越多越好,过多会导致过拟合。总的训练步数 = 图片张数×学习步数×循环次数。 3. 效率设置:主要控制电脑的训练速度,可保持默认值,也可根据电脑显存微调,但要避免显存过载。 4. DIM:不同场景有不同的推荐值。如二次元一般为 32,人物常见为 32 128,实物、风景则≥128。DIM 为 64 时,输出文件一般为 70MB +;DIM 为 128 时,输出文件一般为 140MB + 。 5. 样图设置:主要控制训练过程中的样图显示,可实时观测训练效果。“sample every n steps”为 50 代表每 50 步生成一张样图,prompts 提示词可预设效果或自定义。 6. 并行数量:代表 AI 同一时间学习的图片数量。数值越大,训练速度越快,内存占用越大,收敛得慢;数值越小,训练速度越慢,内存占用越小,收敛得快。以 512×512 的图片为例,显存小于等于 6g,batch size 设为 1;显存为 12g 以上,batch size 可设为 4 或 6。增加并行数量时,通常也会增加循环次数。 7. 质量设置: 学习率:指 AI 学习图片的效率,过高会过拟合,过低会不拟合。1e 4 即 1 除以 10 的 4 次方,等于 0.0001;1e 5 即 1 除以 10 的 5 次方,等于 0.00001。一般保持默认,如需调整可点击数值旁的加减号。 网格维度:network dim 决定出图精细度,数值越高有助于 AI 学会更多细节,但数值越大学习越慢,训练时间越长,易过拟合。
2025-01-06
全量微调与少量参数微调
在参数规模的角度,大模型的微调分为全量微调(FFT,Full Fine Tuning)和少量参数微调(PEFT,ParameterEfficient Fine Tuning)两条技术路线。 全量微调是对全量的模型参数进行全量的训练。少量参数微调则只对部分模型参数进行训练。从成本和效果的综合考虑,PEFT 是目前业界较流行的微调方案。 微调是在较小的、特定领域的数据集上继续 LLM 的训练过程,通过调整模型本身的参数,而非像提示工程和 RAG 那样仅更改提示,能大幅提高模型在特定任务中的性能。微调有两大好处:一是提高模型在特定任务中的性能,可输入更多示例,经过微调的模型可能会失去一些通用性,但对于特定任务会有更好表现;二是提高模型效率,实现更低的延迟和成本,可通过专门化模型使用更小的模型,且只对输入输出对进行训练,舍弃示例或指令进一步改善延迟和成本。 关于微调的具体实现,LoRA 微调脚本见:。 在微调的超参数方面,选择了适用于一系列用例的默认超参数,唯一需要的参数是训练文件。调整超参数通常可产生更高质量输出的模型,可能需要配置的内容包括:model(要微调的基本模型的名称,可选择“ada”“babbage”“curie”或“davinci”之一)、n_epochs(默认为 4,训练模型的时期数)、batch_size(默认为训练集中示例数量的 0.2%,上限为 256)、learning_rate_multiplier(默认为 0.05、0.1 或 0.2,具体取决于 final batch_size)、compute_classification_metrics(默认为假,若为 True,为对分类任务进行微调,在每个 epoch 结束时在验证集上计算特定于分类的指标)。要配置这些额外的超参数,可通过 OpenAI CLI 上的命令行标志传递。 OpenAI 官方微调教程:
2025-01-06
理解LoRA训练以及参数
LoRA 训练的参数主要包括以下方面: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。repeat 值越高,AI 越能读懂图片,但图片精细度越高,学习步数也要越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮就是一次循环,循环次数就是将这个过程重复的遍数。一般数值在 10 20 之间,次数并非越多越好,过多会导致过拟合。总的训练步数 = 图片张数×学习步数×循环次数。 3. 效率设置:主要控制电脑的训练速度,可保持默认值,也可根据电脑显存微调,但要避免显存过载。 4. DIM:不同场景有不同的推荐值。如二次元一般为 32,人物常见为 32 128,实物、风景则≥128。DIM 为 64 时,输出文件一般为 70MB +;DIM 为 128 时,输出文件一般为 140MB + 。 5. 样图设置:主要控制训练过程中的样图显示,“sample every n steps”为 50 代表每 50 步生成一张样图。Prompts 提示词可预设效果或自定义。 6. 并行数量:代表 AI 同一时间学习的图片数量。数值越大,训练速度越快,内存占用越大,但收敛得慢;数值越小,训练速度越慢,内存占用越小,但收敛得快。显存小于等于 6g 时,batch size 设为 1;显存为 12g 以上时,batch size 可设为 4 或 6。 7. 质量设置: 学习率:指 AI 学习图片的效率,过高会过拟合,过低会不拟合。1e 4 实际为 1 除以 10 的 4 次方,即 0.0001;1e 5 为 1 除以 10 的 5 次方,即 0.00001。一般保持默认,如需调整可点击数值旁的加减号。 网格维度:network dim 决定出图精细度,数值越高有助于 AI 学会更多细节,但数值越大学习越慢,训练时间越长,易过拟合。
2025-01-06
大语言模型幻觉的本质是什么
大语言模型幻觉的本质主要包括以下方面: 1. 大语言模型的底层原理是基于数学概率的文字预测,类似于文字接龙,这导致其存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。 2. 样本存在错误,即如果大语言模型学习的“教材”中有错误,那么它也容易给出错误的回答。 3. 大语言模型技术的本质导致其输出结果具有不可预测性,且静态的训练数据导致其掌握的知识存在截止日期,无法即时掌握最新信息。 4. 大语言模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。
2025-02-16
LLM 训练推理模型有哪些
以下是一些常见的 LLM 训练推理模型: 1. FengshenbangLM: 地址: 简介:是 IDEA 研究院认知计算与自然语言研究中心主导的大模型开源体系,开源了姜子牙通用大模型 V1,是基于 LLaMa 的 130 亿参数的大规模预训练模型,具备翻译、编程、文本分类、信息抽取、摘要、文案生成、常识问答和数学计算等能力。除姜子牙系列模型之外,还开源了太乙、二郎神系列等模型。 2. BiLLa: 地址: 简介:开源了推理能力增强的中英双语 LLaMA 模型。较大提升 LLaMA 的中文理解能力,并尽可能减少对原始 LLaMA 英文能力的损伤;训练过程增加较多的任务型数据,利用 ChatGPT 生成解析,强化模型理解任务求解逻辑;全量参数更新,追求更好的生成效果。 3. Moss: 地址: 简介:支持中英双语和多种插件的开源对话语言模型,MOSS 基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。 此外,Andrej Karpathy 的相关介绍中提到了 LLM 训练的一些情况,如训练过程涉及大约 10TB 的文本,通常来源于互联网的抓取,需要大量的互联网资源和一个 GPU 集群,费用大约 200 万美元。Karpathy 的视频还详细介绍了 LLM 训练的全部过程,包括预训练、有监督微调和强化学习等。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入材质图片,得到经过设计后的成品衣服
目前尚未有成熟的 AI 大模型或智能体能够直接实现输入材质图片就得到经过设计后的成品衣服的功能。但在 AI 领域的不断发展中,可能会有相关的技术和模型在未来出现。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入衣服材质图片,得到经过设计后的材质成品衣服
目前尚未有专门的 AI 大模型或智能体能够直接实现您所描述的输入衣服材质图片就得到经过设计后的材质成品衣服的功能。但随着 AI 技术的不断发展,未来可能会出现相关的应用。
2025-02-16
给我提供一份标准的 DeepSeek R1大模型的 prompt 提示词模板
以下是一份关于 DeepSeek R1 大模型的 prompt 提示词模板: 一、核心原理认知 1. AI 特性定位 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 4K tokens 上下文窗口,换算成汉字是 8000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 2. 系统响应机制 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 二、基础指令框架 1. 四要素模板 2. 格式控制语法 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 三、进阶控制技巧 1. 思维链引导 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 2. 知识库调用 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 3. 多模态输出 此外,还有关于创建 DeepSeek 联网版工作流的相关内容: 1. 创建工作流 创建一个对话流,命名为 r1_with_net 开始节点,直接使用默认的 大模型分析关键词设置 模型:豆包通用模型lite 输入:直接使用开始节点的 USER_INPUT 作为大模型的输入 系统提示词:你是关键词提炼专家 用户提示词:根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索 bingWebSearch搜索 插件:BingWebSearch 参数:使用上一个节点,大模型分析输出的关键词作为 query 的参数 结果:data 下的 webPages 是网页搜索结果,将在下一个节点使用 大模型R1 参考搜索结果回答 这里需要在输入区域开启“对话历史” 模型:韦恩 AI 专用 DeepSeek 输入:搜索结果,选择搜索节点 data 下的 webPages;选择开始节点的 USER_INPUT;开启对话历史,设置 10 轮,默认不开启对话历史,开启后默认是 3 轮 系统提示词:这里不需要输入 用户提示词: 结束节点设置 输出变量选择大模型R1 参考搜索结果回答的输出 回答内容里直接输出:{{output}} 测试并发布工作流 输入你的测试问题,测试完成后,直接发布工作流 关于 HiDeepSeek 的相关内容: 1. 效果对比 用 Coze 做了个小测试,大家可以对比看看 2. 如何使用? Step1:搜索 www.deepseek.com,点击“开始对话” Step2:将装有提示词的代码发给 Deepseek Step3:认真阅读开场白之后,正式开始对话 3. 设计思路 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 4. 完整提示词 v 1.3 5. 特别鸣谢 李继刚:【思考的七把武器】在前期为我提供了很多思考方向 Thinking Claude:这个项目是我现在最喜欢使用的 Claude 提示词,也是我设计 HiDeepSeek 的灵感来源 Claude 3.5 Sonnet:最得力的助手
2025-02-16
你用的什么模型
我使用的模型是 GPT4。在不同的应用场景中,还存在其他多种模型可供选择和切换,例如: 在 Cursor 中,AI 输入框下方有下拉列表,默认准备好的模型有、cursorsmall 等,您还可以在 Cursor Settings>Models>Model Names 下添加其他模型。 ComfyUI FLUX 原生支持,FLUX.1 有三个变体:FLUX.1是一个蒸馏的 4 步模型,拥有 Apache 2.0 商用许可,适用于在本地进行部署或者个人使用。相关模型的链接、模型与工作流地址、说明文档等信息如下: FLUX.1:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main FLUX.1:https://huggingface.co/Kijai/fluxfp8 FLUX.1:https://huggingface.co/blackforestlabs/FLUX.1schnell/tree/main 模型与工作流地址: https://pan.quark.cn/s/2797ea47f691 https://pan.baidu.com/s/1nV26Fhn3WYBLrg2hSA0_YQ?pwd=cycy 说明文档:https://xiaobot.net/post/8fd64f3f52d14948824d5ee0c38e2594
2025-02-16