Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

什么是AI中的Token

Answer

Token 在 AI 中,就像人类语言有最小的字词单元,大模型也有自己的语言体系,其中的最小单元被称为 Token。

在将人类发送的文本传递给大模型时,大模型会先把文本转换为自己的语言,推理生成答案后再翻译为人类能看懂的语言输出。不同厂商的大模型对中文的文本切分方法不同,通常情况下,1 Token 约等于 1 - 2 个汉字。

对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。Token 可以是单词,也可以是字符块,例如单词“hamburger”被分解成“ham”“bur”和“ger”,而很短且常见的单词像“pear”是一个 Token。

大模型的收费计算方法以及对输入输出长度的限制,都是以 Token 为单位计量的。

Content generated by AI large model, please carefully verify (powered by aily)

References

走入AI的世界

首先我们给出一些常见缩写和专业词汇的“人话”解释,它们十分基础,但理解他们至关重要。为了讨论更加聚焦,接下来的内容将主要围绕大语言模型为主进行展开(对于其他模态的大模型,我们暂且放放):LLM:Large language model的缩写,即大语言模型,前面百团大战中的各类大模型,说的都是大语言模型(极其应用)Prompt:中文译作提示词,就是我们输入给大模型的文本内容,可以理解为你和大模型说的话,下达的指令。提示词的质量好坏,会显著影响大模型回答的质量,很多时候如果你觉得大模型回答的太差了,AI味儿太浓了,很可能是你的提示词写的不够好,换言之,不是AI不行,而是你不行😌Token:就像人类有着不同的语言,大模型也有着自己的语言体系,如图9,我们发送文本给大模型时,大模型会先把文本转换为他自己的语言,并推理生成答案,而后再翻译成我们看得懂的语言输出给我们。正如人类不同语言都有最小的字词单元(汉语的字/词,英语的字母/单词),大模型语言体系中的最小单元就称为Token。这种人类语言到大模型语言的翻译规则,也是人类定义的,以中文为例,由于不同厂商的大模型采用了不同的文本切分方法,因此一个Token对应的汉字数量也会有所不同,但在通常情况下,1Token≈1-2个汉字。请注意,大模型的收费计算方法,以及对输入输出长度的限制,都是以token为单位计量的。上下文:英文通常翻译为context,指对话聊天内容前、后的内容信息。使用时,上下文长度和上下文窗口都会影响AI大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大token数量,而上下文窗口限制了模型在生成每个新token时实际参考的前面内容的范围(关于这一点,你需要看完3.2中关于GPT的讨论,方能更好理解)

快速开始

OpenAI API可以应用于几乎所有涉及生成自然语言、代码或图像的任务。我们提供了一系列不同能力级别的[模型](https://ywh1bkansf.feishu.cn/wiki/R70MwasSpik2tgkCr7dc9eTmn0o),适用于不同任务的,并且能够[微调(Fine-tune)](https://ywh1bkansf.feishu.cn/wiki/ATYCwS5RRibGXNkvoC4ckddLnLf)您自己的自定义模型。这些模型可以用于从内容生成到语义搜索和分类的所有领域。[heading2]提示词Prompts[content]设计提示词本质上就是对模型进行“编程”,这通常是通过提供一些指令或几个示例来完成。这与大多数其他NLP服务不同,后者是为单个任务设计的,例如情绪分类或命名实体识别。相反,补全(Completions)和聊天补全(Chat Completions)几乎可用于任何任务,包括内容或代码生成、摘要、扩展、对话、创意写作、风格转换等。[heading2]标记Token[content]我们的模型通过将文本分解为标记(Token)来理解和处理文本。Token可以是单词,也可以是字符块。例如,单词“hamburger”被分解成标记“ham”、“bur”和“ger”,而很短且常见的单词像“pear”是一个Token。许多Token以空格开头,例如“ hello”和“ bye”。在给定的API请求中处理的Token数量取决于您的输入和输出长度。作为一个粗略的经验法则,对于英文文本,1个Token大约相当于4个字符或0.75个单词。要记住的一个限制是,您的文本提示词和生成的补全合起来不能超过模型的最大上下文长度(对于大多数模型,这是2048个Token,或大约1500个单词)。可以查看我们的[分词器工具](https://platform.openai.com/tokenizer)来了解有关文本如何转换为Token的更多信息。

【Token趣闻】AI收费为何要按Token计费?一探究竟!

听说AI是按Token算钱的?这个用起来很费Token电脑一晚上没关,耗了很多Token,是不是感觉一套房子没了?为啥要用Token来计费呢?听说Token是双向收费的问AI问题收费,回答也收费,这有点过分吧那AI还不可劲说废话呀!Token是单词还是字母呢?汉字怎么计费呢阿拉伯语怎么计费呢Token在企业信息化过程中有何不同意义呢?传统的信息化弄个架构搞搞数据库AI的应用为啥会有Token的问题?本文尝试从这些角度来解答,我们常常听到的Token到底是个什么?文章很长,且看吧。在企业环境中,使用AI技术帮助降本增效,了解Token会帮我们更好理解AI在企业中落地。通俗一些理解它是积木,通过搭建积木来完成我们需要的应用,从而提高效率。

Others are asking
初学者如何使用AI学习AI知识
对于初学者学习 AI 知识,建议如下: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出自己的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 通过与这些 AI 产品的对话,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得自己的成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-01-23
即梦AI里做儿童绘本制作、故事绘本里,怎么做到人物一致,风格一致,场景风格一致。
要在即梦 AI 中制作儿童绘本并做到人物、风格和场景风格一致,可以按照以下步骤进行: 1. 描述故事场景:利用 ChatGPT 或者自行构思一段适合画绘本的故事,将其分为多个场景,用一句包含环境、人物、动作的话描述每个场景。例如,故事名《Lily 的奇妙之旅》,场景 1 为“探险开始,Lily 来到一个阳光明媚的森林,跳过清澈的小溪,愉快玩耍。在路上结识了一只友善的棕熊,她们成为了旅伴”。 2. 生成场景图片:为每个场景生成图片时,使用固定的 prompt 风格词,如“super high details,HDsmooth,by Jon Burgerman,s 400niji 5style expressivear 3:4”。为了使熊和人物有更好的互动感,生成场景时也包括人物主角。如场景 2 的 prompt 为“Walking in a mysterious cave with glittering gems,little girl Lily wearing a yellow floral skirt,her friend brown bear,dim,dreamlike,super high details,HDsmooth,by Jon Burgerman,s 400niji 5style expressivear 3:4”。如果需要,可使用 mj 的 region vary 工具将小女孩完全框选,在提示词中完全删除 Lily 的描述词,重新生成得到场景图像。 3. 绘制绘本主角:确定人物形象,如“a little girl wearing a yellow floral skirt+人物动作+风格词”,在 mj 中生成直到得到一张满意的人物图像,且一套绘本中风格词语不要改变。 4. 保持一致性描述:在写 prompt 时,应从多个角度描述需求,包括人种、画风、宠物品种等,以稳定内容符合预期。例如,如果想生成一个关于“狗”的视频,提供不同狗的品种、外貌、行为等信息,确保物种和画风的一致性。
2025-01-23
你有哪些AI工具
以下是一些常见的 AI 工具: 对于建筑设计师审核规划平面图,有以下工具: HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster。 Maket.ai:面向住宅行业,可根据输入自动生成户型图。 ARCHITEChTURES:AI 驱动的三维建筑设计软件,能引入标准和规范约束设计结果。 Fast AI 人工智能审图平台:形成全自动智能审图流程,实现建筑全寿命周期内信息的集成与管理。 绘制逻辑视图、功能视图、部署视图的工具包括: Lucidchart:流行的在线绘图工具,支持多种图表创建。 Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 ArchiMate:开源建模语言,与 Archi 工具配合使用可创建逻辑视图。 Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 draw.io(diagrams.net):免费的在线图表软件。 PlantUML:文本到 UML 转换工具,可通过描述文本生成相关视图。 Gliffy:基于云的绘图工具,支持创建多种架构图。 Archi:免费开源工具,支持逻辑视图创建。 Rational Rose:IBM 的 UML 工具,支持多种视图创建。 与 Excel 相关的 AI 工具和插件有: Excel Labs:Excel 插件,新增生成式 AI 功能,基于 OpenAI 技术。 Microsoft 365 Copilot:整合办公软件,通过聊天形式完成任务。 Formula Bot:提供数据分析聊天机器人和公式生成器功能。 Numerous AI:支持 Excel 和 Google Sheets,可生成文本、执行情感分析等任务。
2025-01-23
AI从业者相关资质证书
以下是一些与 AI 从业者相关的资质证书和学习资源: 学习资源: 云端问道:https://developer.aliyun.com/topic/techworkshop?spm=a2c6h.29649919.J_3425856640.1.45d87102rfvft7 云起实践平台:https://developer.aliyun.com/adc/?spm=a2c6h.28938832.0.0.5ca5448a0xO1Q9 人工智能认证证书: (免费) 视觉开放平台:https://vision.aliyun.com/ 此外,以下是一些关于 AI 从业者的相关信息: 【已结束】AI 创客松中参与同学的自我介绍和分类,包括擅长领域、想法方向和优势等。 AI 切磋大会第七期·线下狂欢 Show 中提到适合做 AI 摊主的人群特点,如技术背景丰富、产品开发与管理经验、多元化应用场景等,以及 AI 爱好者与学习者、AI 内容创作与营销能力方面的相关情况。
2025-01-23
哪个AI对PDF文件的提炼总结能力最强
目前在对 PDF 文件的提炼总结能力方面,Claude 2 表现出色。将整本书粘贴到 Claude 的前一版本中能取得令人印象深刻的结果,新模型更强大。可以通过查看相关经验和提示。此外,myaidrive.com 网站上的 AI PDF 也能处理较大的 PDF 文件,并为冗长的文档提供上级摘要。同时,近期出现的各类 AI 搜索引擎,如 perplexity.ai、metaso、360 搜索、ThinkAny 等,其智能摘要功能能够辅助快速筛选信息。但需要注意的是,这些系统仍可能产生幻觉,若要确保准确性,需检查其结果。
2025-01-23
目前最强大的AI工具
目前较为强大的 AI 工具包括以下几类: 绘制逻辑视图、功能视图、部署视图的工具: 1. Lucidchart:流行的在线绘图工具,支持多种视图创建,操作便捷。 2. Visual Paradigm:全面的 UML 工具,功能丰富。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用。 4. Enterprise Architect:强大的建模、设计和代码生成工具。 5. Microsoft Visio:广泛使用,提供丰富模板。 6. draw.io(diagrams.net):免费在线图表软件。 7. PlantUML:文本到 UML 转换工具。 8. Gliffy:基于云的绘图工具。 9. Archi:免费开源,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具。 辅助编程的工具: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE。 2. 通义灵码:阿里巴巴团队推出,提供多种编程辅助能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,提供实时代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费工具,可快速生成代码。 5. Cody:Sourcegraph 推出,借助强大的代码分析能力。 6. CodeFuse:蚂蚁集团支付宝团队推出的免费 AI 代码助手。 7. Codeium:提供代码建议等帮助,提高编程效率和准确性。 辅助写邮件的工具: 1. Grammarly:提供语法检查、拼写纠正等功能,多平台适用。 2. Hemingway Editor:简化句子结构,提高可读性。 3. ProWritingAid:全面的语法和风格检查,提供详细报告。 4. Writesonic:基于 AI 生成多种文本,速度快。 5. Lavender:专注邮件写作优化,提供个性化建议和模板。
2025-01-23
token是什么
在大语言模型领域,Token 通常用来表示文本数据中的一个单元。在不同语境下,一个 Token 可能代表一个字、一个词或一个句子。在英文中,通常是一个词或标点符号;在一些汉语处理系统中,可能是一个字或一个词。Token 是处理和理解文本数据的基本单元。 在深度学习的语言模型中,如 Transformer,输入的文本首先被切分成一系列的 Tokens。这些 Tokens 被转换成向量,然后被输入到神经网络中进行处理。因此,在这种情况下,Token 可以被理解为语言模型接收和处理的最小信息单元。在训练过程中,每个 Token 会关联一个预测,这个预测可以是下一个 Token 的预测,也可以是该 Token 的属性预测,如词性、情感等。 训练 Token 的数量会影响模型的性能和准确性。更多的训练 Token 通常意味着更多的训练数据,这可能会提升模型的准确性和泛化能力。然而,处理更多的 Token 也会增加计算的复杂性和计算资源的需求。 很多同学把 Token 理解为中文语义里的“字节”,这种理解有一定相似度,因为“字节”是计算机存储和处理数据的基本单元,而“Token”是语言模型处理文本信息的基本单元。但不准确的地方在于:“Token”在语言模型中的作用比“字节”在计算机中的作用更加复杂和多元。在大语言模型中,“Token”不仅代表文本数据中的一个单位,而且每个“Token”都可能携带丰富的语义信息。比如,在处理一句话时,“Token”可能表示一个字、一个词甚至一个短语,同时每个“Token”在模型中都有一个对应的向量表示,这个向量包含了该“Token”的语义信息、句法信息等。 Unicode 是一种在计算机上使用的字符编码,为每种语言中的每个字符设定了统一且唯一的二进制编码,以满足跨语言、跨平台进行文本转换、处理的要求。有意思的是,Unicode 不仅有自然语言,还包含 emoji 等自然语言之外的符号,这也是 ChatGPT 能理解和回复 emoji 的原因。所以,GPT 实际是将我们输入的文字转换成 Token,然后通过 GPT 模型预测 Token,再将 Token 转换成文字,最后输出给我们。 通过 Token 的学习,能感觉到 ChatGPT 理解文本的方式和人类不同,它在以自己的方式理解世界。尽管“Token”和“字节”都是基本的处理单位,但“Token”在大语言模型中的含义和作用比“字节”在计算机中的含义和作用更加丰富和复杂。 另外,如果曾经“机翻”过一些文档,会经常看到“Token”被自动翻译工具翻译为“令牌”。GPT 的输入和输出不是到中文字的粒度,它能处理几乎世界上所有流行的自然语言,所以需要引入 Token 的概念,Token 是自然语言处理的最细粒度,GPT 的输入和输出都是一个个的 Token。GPT 适用于几乎所有流行的自然语言,其 Token 需要兼容几乎人类的所有自然语言,通过 Unicode 编码来实现。
2025-01-23
AI中常说的token是什么
Token 是大模型语言体系中的最小单元。 在人类语言中,不同语言都有最小的字词单元,如汉语的字/词、英语的字母/单词。而在大模型语言体系中,Token 就相当于这样的最小单元。 当我们向大模型发送文本时,大模型会先将文本转换为它自己的语言,并推理生成答案,然后再翻译为我们能看懂的语言输出。 不同厂商的大模型对中文文本的切分方法不同,通常情况下,1 个 Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 Token 为单位计量的。 例如,在英文中,单词“hamburger”会被分解成“ham”“bur”和“ger”这样的 Token,而常见的短单词如“pear”则是一个 Token。对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。但要注意,在给定的 API 请求中,文本提示词和生成的补合起来不能超过模型的最大上下文长度(对于大多数模型,约为 2048 个 Token 或 1500 个单词)。
2025-01-08
智谱 注册送2000万 tokens
智谱 BigModel 共学营第二期相关信息如下: 本期共学应用为人人可打造的微信助手。 注册智谱 Tokens:智谱 AI 开放平台的网址为 https://bigmodel.cn/ 。参与课程至少需要有 token 体验资源包,获取资源包有三种方式: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,直接充值现金,所有模型可适用的网址为 https://open.bigmodel.cn/finance/pay 。 共学营报名赠送资源包。 语言资源包:免费 GLM4Flash 语言模型/ 。 多模态资源包: 。 多模态资源包: 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 进入智能体中心我的智能体,开始创建智能体。 会议 ID:185 655 937 ,会议链接:https://vc.feishu.cn/j/185655937 ,共学营互动群。 BigModel 开放平台是智谱一站式的大模型开发及应用构建平台。基于智谱自研的全模型矩阵,面向企业客户及合作伙伴,支持多样化模型和自定义编排。平台提供即插即用的智能工具箱,包括 API 接口、模型微调及部署功能,同时具备流程编排以适应复杂业务场景。还提供免费、好用、高并发的 GLM4Flash 模型,0 元上手大模型,新用户注册登录即送 2000 万 Tokens,调用智谱全家桶模型。更多应用场景包括: 。
2024-12-05
AI 评估 GPU 大模型的性能指标,包括输入 token 和输出 token 能力的区分。
以下是关于 AI 评估 GPU 大模型性能指标中输入 token 和输出 token 能力区分的相关内容: 大模型是通过输入大量语料进行训练,从而获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。在大模型的训练和使用过程中: 1. 训练需要大量计算,GPU 更合适,只有具备大量 GPU 的才有资本训练大模型。 2. 大模型需要大量数据量,几千亿序列(Token)的输入基本是标配。 3. 要用合适的算法让大模型更好理解 Token 之间的关系。 4. 为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 完成上述步骤后,大模型就可以进行如翻译、问答等推导(infer)工作。 Token 是大模型语言体系中的最小单元,人类语言发送给大模型时,会先转换为其自身语言,推理生成答案后再翻译输出。不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 在评估 GPU 大模型性能时,显卡的常规指标很重要。大部分模型默认采用 FP16 的加载方式,因此显卡的性能指标主要关注 FP16 的算力和显存大小。算力影响推理速度,包括输入数据处理和持续吐出数据的速度,会体现在从提示词输入后到第一个输出的 token 的等待时间间隔,以及流式输出下每秒吐字的字数,通常每秒 10 token 以上能获得较好的用户体验。显存大小影响能否装载模型,可通过“参数大小乘 2”简化判断所需显存大小,但实际显存需求还会受其他因素影响。
2024-12-05
目前各大主流模型的 max output token
以下是目前各大主流模型的 max output token 情况: Claude2100 k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT16 k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT432 k 模型的上下文上限是 32k Tokens,即 32000 个 token。 需要注意的是,token 限制同时对一次性输入和一次对话的总体上下文长度生效。不是达到上限就停止对话,而是会遗忘最前面的对话。 如果想直观查看 GPT 如何切分 token,可以打开: 。此外,GPT3 和 GPT3.5/4 的 token 计算方式不同,英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。
2024-11-24
在调用大模型的过程中,将token设置最大值,大模型回答还是会出现中断的情况,应该怎么避免和解决
在调用大模型的过程中,将 token 设置最大值但回答仍出现中断的情况,可以从以下几个方面避免和解决: 1. 调整相关参数: Max_output_tokens:根据具体需求设置合适的值。若需要更短响应,设为较低值;若希望更长回答,设为较高值。但注意设置过低可能导致回答在奇怪位置截断。 Temperature:值越小,模型返回结果越确定;值调高,可能更随机和具创造性。对于质量保障等任务设低,诗歌生成等创造性任务可适当调高。 Top_p:用于控制模型返回结果的真实性,需要准确和事实答案时调低,想要更多样化答案时调高。一般改变 Temperature 和 Top_p 其中一个参数即可。 Max Length:调整以控制大模型生成的 token 数,有助于防止生成冗长或不相关响应并控制成本。 Stop Sequences:指定字符串,模型生成文本遇到时停止,可控制响应长度和结构。 Frequency Penalty:对下一个生成的 token 进行惩罚,与 token 在响应和提示中出现次数成比例,减少单词重复。 2. 利用插入文本的最佳实践: 使用 max_tokens > 256,模型插入较长完成时效果更好,且只按实际生成 token 数收费。 优先选择 finish_reason == "stop",表明模型成功连接后缀且完成质量良好。 重新采样 3 5 次,温度较高以增加多样性。若所有返回示例的 finish_reason 都是“length”,可能 max_tokens 太小,需考虑增加再重试。 尝试给出更多线索,通过提供示例帮助模型确定自然停顿处。
2024-11-18