Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

目前各大主流模型的 max output token

Answer

以下是目前各大主流模型的 max output token 情况:

  • Claude-2-100 k 模型的上下文上限是 100k Tokens,即 100000 个 token。
  • ChatGPT-16 k 模型的上下文上限是 16k Tokens,即 16000 个 token。
  • ChatGPT-4-32 k 模型的上下文上限是 32k Tokens,即 32000 个 token。

需要注意的是,token 限制同时对一次性输入和一次对话的总体上下文长度生效。不是达到上限就停止对话,而是会遗忘最前面的对话。

如果想直观查看 GPT 如何切分 token,可以打开:https://platform.openai.com/tokenizer 。此外,GPT3 和 GPT3.5/4 的 token 计算方式不同,英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。

Content generated by AI large model, please carefully verify (powered by aily)

References

关于 token 你应该了解……

从官方文档可以看到我们目前使用的模型有哪些,以及每个模型的token限制。除此之外,最直观能感受到各类模型token限制的其实是poe:在这里我们看到的16K、32K、100K就是指token上限。Claude-2-100 k模型的上下文上限是100k Tokens,也就是100000个tokenChatGPT-16 k模型的上下文上限是16k Tokens,也就是16000个tokenChatGPT-4-32 k模型的上下文上限是32k Tokens,也就是32000个token但似乎很多小伙伴不理解这个限制具体影响在哪些方面。所以我替你们问了一下GPT(真不懂你们为什么不自己问/手动狗头)从回答可以看出,这个token限制是同时对下述两者生效的:1、一次性输入2、一次对话的总体上下文长度,值得注意的是这个长度不是达到上限就停止对话,而是遗忘最前面的对话,你可以理解为鱼的记忆只有7秒,第8秒的时候他会忘记第1秒的事,第9秒的时候……(某些同学是不是恍然大悟了)

小七姐:Prompt 喂饭级系列教程小白学习指南(三)

Claude-2-100 k模型的上下文上限是100k Token s,也就是100000个TokenChatGPT-16 k模型的上下文上限是16k Token s,也就是16000个TokenChatGPT-4-32 k模型的上下文上限是32k Token s,也就是32000个Token但似乎很多小伙伴不理解这个限制具体影响在哪些方面。所以我替你们问了一下GPT从回答可以看出,这个Token限制是同时对下述两者生效的:一次性输入一次对话的总体上下文长度,值得注意的是这个长度不是达到上限就停止对话,而是遗忘最前面的对话,你可以理解为鱼的记忆只有7秒,第8秒的时候他会忘记第1秒的事,第9秒的时候……(某些同学是不是恍然大悟了)三、怎么看我使用了多少Token如果我们想要直观的查看GPT是如何切分token的话,我们可以打开:[https://platform.openai.com/tokenizer](https://platform.openai.com/tokenizer)在下图可以看到实时生成的tokens消耗和对应字符数量请注意,GPT3和GPT3.5/4的token计算方式是不一样的。(GPT3用的编码是p50k/r50k,GPT3.5是cl100K_base)在这里值得注意的是,英文的Token占用相对于中文是少很多的,这也是为什么很多中文长Prompt会被建议翻译成英文设定,然后要求中文输出的原因。四、Token限制对Prompt编写有什么影响当你理解了前面的一、二、三之后,这个问题的答案应该已经在你脑子里有雏形了:

走入AI的世界

首先我们给出一些常见缩写和专业词汇的“人话”解释,它们十分基础,但理解他们至关重要。为了讨论更加聚焦,接下来的内容将主要围绕大语言模型为主进行展开(对于其他模态的大模型,我们暂且放放):LLM:Large language model的缩写,即大语言模型,前面百团大战中的各类大模型,说的都是大语言模型(极其应用)Prompt:中文译作提示词,就是我们输入给大模型的文本内容,可以理解为你和大模型说的话,下达的指令。提示词的质量好坏,会显著影响大模型回答的质量,很多时候如果你觉得大模型回答的太差了,AI味儿太浓了,很可能是你的提示词写的不够好,换言之,不是AI不行,而是你不行😌Token:就像人类有着不同的语言,大模型也有着自己的语言体系,如图9,我们发送文本给大模型时,大模型会先把文本转换为他自己的语言,并推理生成答案,而后再翻译成我们看得懂的语言输出给我们。正如人类不同语言都有最小的字词单元(汉语的字/词,英语的字母/单词),大模型语言体系中的最小单元就称为Token。这种人类语言到大模型语言的翻译规则,也是人类定义的,以中文为例,由于不同厂商的大模型采用了不同的文本切分方法,因此一个Token对应的汉字数量也会有所不同,但在通常情况下,1Token≈1-2个汉字。请注意,大模型的收费计算方法,以及对输入输出长度的限制,都是以token为单位计量的。上下文:英文通常翻译为context,指对话聊天内容前、后的内容信息。使用时,上下文长度和上下文窗口都会影响AI大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大token数量,而上下文窗口限制了模型在生成每个新token时实际参考的前面内容的范围(关于这一点,你需要看完3.2中关于GPT的讨论,方能更好理解)

Others are asking
minimax侧重在哪些方面
MiniMax 侧重在以下几个方面: 1. 语音技术: 快速克隆:仅需 10 秒音频即可克隆语音,智能情感系统精准捕捉细腻情感变化。 多维预置语音:提供 300+语音选项,支持 17 种语言(不断扩展),涵盖口音、性别、年龄、风格等。 专业音效:支持房间音效、电话滤镜,输出接近录音室级别。 2. 通用人工智能: 成立于 2021 年 12 月,是通用人工智能时代基础设施建设者和内容应用创造者。 拥有文本、语音、视觉多种模态融合的通用大模型引擎能力并打通产品全链路。 自研了整套端到端 AGI 引擎系统。 3. 团队组成:核心技术研发成员均来自全球知名高校和全球顶尖科技公司,拥有世界顶尖自然语言处理、语音、计算机视觉、计算机图形学等工业界和学术界经验,拥有多项全球领先的人工智能领域研究成果,具有上百个全球发明专利,1/3 的团队成员拥有世界顶尖技术实验室的博士学位。 相关链接: 免费试用: API 平台:
2025-03-28
minimax的大模型算法热点
以下是关于 MiniMax 的大模型算法热点的相关内容: 1. MiniMax 有两个适合特定任务的大模型:MiniMaxText01 支持 400 万 token 的上下文,能应对超长文章;T2A v2(speech01turbo)拥有最好的声音复刻效果。可以通过其开放平台(https://platform.minimaxi.com/login )进行注册登录及实名认证。首次注册会赠送 15 元,API 消耗会消耗余额,生成一条 3 分钟的语音,文本模型消耗 1 分钱,语音模型消耗 5 毛钱,克隆音色有额外费用,现优惠 9.9 元。接着创建 API Key 并保存好,以及 groupid。还可以克隆声音,相关链接为 https://platform.minimaxi.com/examinationcenter/voiceexperiencecenter/voiceCloning ,有创建 voice id、上传复刻音频及音频 prompt、试听文本等操作,勾选用户协议点击“克隆”选项一段时间后完成克隆,使用填写的 voice id 生成声音。 2. MiniMax 推出了 MoE 架构的新模型,其“星野”是目前国内最成功的 AI 陪聊 APP。 3. MiniMax 近日发布新模型 MiniMax01,采用线性注意力机制和 MoE 架构,显著提升上下文处理能力,支持超长上下文(400 万 Token),在多项学术基准上表现优异,超越许多国际顶尖模型。其开源旨在促进长上下文研究和应用,加速 Agent 时代的到来,通过精细架构设计和训练策略,在处理长输入时实现接近线性的计算效率。
2025-03-28
minimax这家企业怎么样
MiniMax 成立于 2021 年 12 月,是通用人工智能时代基础设施建设者和内容应用创造者。作为国内唯一一家拥有文本、语音、视觉多种模态融合的通用大模型引擎能力并打通产品全链路的科技创业公司,团队致力于用领先的通用人工智能(AGI)引擎技术,通过多场景和多维度应用及交互,推动通用人工智能技术新范式变革,重塑人工智能商业模式。 其核心技术研发成员均来自全球知名高校和全球顶尖科技公司,拥有世界顶尖自然语言处理,语音,计算机视觉,计算机图形学等工业界和学术界经验,拥有多项全球领先的人工智能领域研究成果,具有上百个全球发明专利,1/3 的团队成员拥有世界顶尖技术实验室的博士学位,团队核心成员皆亲历了海内外人工智能 1.0 时代的发展变化。 创始人闫俊杰,是 MiniMax 联合创始人,前商汤科技副总裁、通用智能技术负责人,也曾担任商汤研究院副院长。2015 年博士毕业于中科院自动化所,此前在商汤科技负责搭建深度学习的工具链和底层算法,以及通用智能的技术发展。此外,他还搭建了商汤的人脸识别和智慧城市相关的技术体系。在深度学习和计算机视觉领域,闫俊杰发表顶级会议和期刊论文 100 余篇,Google Scholar 引用超过 10000 次。 技术合伙人杨斌,曾于 2014 年在中科院自动化所读硕士,在加拿大读完博士后,先后在 Uber AI 研究院、以及自动驾驶卡车领域有多年研发经验,对基于数据驱动的端到端无人卡车运输问题颇有研究。 MiniMax 推出了 MoE 架构的新模型,和“星野”这个目前国内最成功的 AI 陪聊 APP 。
2025-03-28
MINIMAX怎么样
MiniMax 相关信息如下: 推出了 Hailuo Audio HD,具有以下特点: 快速克隆:仅需 10 秒音频即可克隆语音,智能情感系统能精准捕捉细腻情感变化。 多维预置语音:提供 300+语音选项,支持 17 种语言(不断扩展),涵盖口音、性别、年龄、风格等。 专业音效:支持房间音效、电话滤镜,输出接近录音室级别。 相关链接: 免费试用: API 平台: 其视频模型团队规模较小,约 10 人,于今年 8 月底发布了视频生成模型。 旗下的 Talkie 加星野的总日活约有 500 万,其中星野 9 月日活为 94 万,30 日留存率达到 60%。
2025-03-28
Qwen 2.5 max 如何访问
Qwen 2.5 Max 可以通过以下方式访问: 1. 目前,Qwen 2.5 Max 已在阿里云百炼平台上架,模型名称为 qwenmax20250125,企业和开发者都可通过阿里云百炼调用新模型 API。 2. 同时,也可以在全新的 Qwen Chat(https://chat.qwenlm.ai/)平台上使用 Qwen 2.5 Max,直接与模型对话,或者使用 artifacts、搜索等功能。 此外,您还可以通过以下链接获取更多相关信息:
2025-02-13
qwen2.5-max如何安装
Qwen2.5Max 的安装方式如下: 目前,Qwen2.5Max 已在阿里云百炼平台上架,模型名称为 qwenmax20250125,企业和开发者都可通过阿里云百炼调用新模型 API。同时,也可以在全新的 Qwen Chat(https://chat.qwenlm.ai/)平台上使用 Qwen2.5Max,直接与模型对话,或者使用 artifacts、搜索等功能。 相关链接:
2025-01-30
Error occurred when executing IPAdapterAdvanced: insightface model is required for FaceID models File "D:\AI\comfyui_20240421\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "D:\AI\co
以下是针对您所遇到的报错问题的一些解决建议: 1. 对于 ipadater 部分报错说 model 不存在的情况,将文中画圈部分修改调整到不报错。Pulid 部分,除了下载好对应的节点以及参考官方网站最下面的安装对应要求外,还要注意上图中的第二要点,对应安装一些内容,具体要求可查看云盘中命名为“pulid 插件模型位置.png”的文件及对应的云盘链接:PulID 全套模型,链接:https://pan.baidu.com/s/1ami4FA4w9mjuAsPK49kMAw?pwd=y6hb,提取码:y6hb。否则将会遇到报错:Error occurred when executing PulidEvaClipLoader。 2. 对于 Ollama 大模型部分,为了应对没下载大模型带来的报错,需要下载大模型。首先,下载 ollama,网站: 。 3. 如果缺少 ipadapter 的模型,可去这个网址下载:https://github.com/cubiq/ComfyUI_IPAdapter_plus 。如果遇到“Error occurred when executing IPAdapterUnifiedLoader:ClipVision model not found.......”类似的报错,可在这个网址里找到多个关于 IPAdapter 报错的解决办法:https://github.com/cubiq/ComfyUI_IPAdapter_plus/issues/313 。 另外,换脸工作流的核心组件是 Apply InstantID Advanced 节点,这个节点的作用就是将源人脸替换到目标图像中。其中,instantID 模型擅长提取图片的高层次特征,包括面部的纹理信息、几何结构、风格特征等,在图中例子是 IPAdpater,用于识别和保留目标图像 image_kps 的风格并迁移到生成图像中。instantID Face Analysis 节点用于提取人脸五官的特征向量,作用是使生成图像时,人脸的眼睛、鼻子、嘴巴等样子仍然符合源人脸 image 的特征。controlnet 模型的作用是识别目标图像 image_kps 的低层次特征,包括骨架、姿势、边缘、结构。controlnet 模型和 instantID 模型起到不同的控制作用,结合使用可以达到将源人脸的五官替换目标图像中五官的效果。
2024-09-03
在AI生成中,1token大约是多少字符?
在 AI 生成中,对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。以中文为例,由于不同厂商的大模型采用了不同的文本切分方法,通常情况下 1 Token 约等于 1 2 个汉字。在 ChatGPT 4 中,“Learning AI Meticulously,Sharing Knowledge Joyfully”这句话被视为 10 个 Token,标点符号单独计算,“Joyfully”被拆分成“Joy”和“fully”。您可以查看 OpenAI 的分词器工具来了解更多关于文本如何转换为 Token 的信息。
2025-03-18
token是什么
在大语言模型领域,Token 通常用来表示文本数据中的一个单元。在不同语境下,一个 token 可能代表一个字、一个词或一个句子。在英文中,一个 token 通常是一个词或标点符号;在一些汉语处理系统中,一个 token 可能是一个字或一个词。Token 是处理和理解文本数据的基本单元。 在深度学习的语言模型中,如 Transformer,输入的文本首先被切分成一系列的 tokens。这些 tokens 被转换成向量,然后被输入到神经网络中进行处理。因此,在这种情况下,token 可以被理解为语言模型接收和处理的最小的信息单元。在训练过程中,每个 token 会关联一个预测,这个预测可以是下一个 token 的预测,也可以是该 token 的属性预测,如词性、情感等。 训练 token 的数量会影响模型的性能和准确性。更多的训练 token 通常意味着更多的训练数据,这可能会提升模型的准确性和泛化能力。然而,处理更多的 token 也会增加计算的复杂性和计算资源的需求。 很多同学把 token 理解为中文语义里的“字节”,这种理解有一定相似度,因为“字节”是计算机存储和处理数据的基本单元,而“token”是语言模型处理文本信息的基本单元。但这种理解不够准确,“Token”在语言模型中的作用比“字节”在计算机中的作用更加复杂和多元。在大语言模型中,“token”不仅代表文本数据中的一个单位,而且每个“token”都可能携带了丰富的语义信息。比如,在处理一句话时,“token”可能表示一个字、一个词甚至一个短语,同时,每个“token”在模型中都有一个对应的向量表示,这个向量包含了该“token”的语义信息、句法信息等。 Unicode 是一种在计算机上使用的字符编码,为每种语言中的每个字符设定了统一并且唯一的二进制编码,以满足跨语言、跨平台进行文本转换、处理的要求。GPT 实际是将我们输入的文字转换成 token,然后通过 GPT 模型预测 token,再将 token 转换成文字,最后再输出给我们。GPT 的输入和输出都是一个个的 token,GPT 适用于几乎所有流行的自然语言,其 token 需要兼容几乎人类的所有自然语言,通过 unicode 编码来实现这个目的。
2025-03-13
飞书多维表格中使用deepseek有100万tokens总量的限制?
飞书多维表格中使用 DeepSeek 有一定的 token 总量限制。DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动(算下来 5 元有 100 万)。即日起至北京时间 20250218 23:59:59,所有用户均可在方舟享受 DeepSeek 模型服务的价格优惠。 不同模型的 token 限制有所不同,例如 Claude2100 k 模型的上下文上限是 100k Tokens,即 100000 个 token;ChatGPT16 k 模型的上下文上限是 16k Tokens,即 16000 个 token;ChatGPT432 k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制同时对一次性输入和一次对话的总体上下文长度生效,不是达到上限就停止对话,而是会遗忘最前面的对话。 如果想直观查看 GPT 如何切分 token,可以打开,在其中可以看到实时生成的 tokens 消耗和对应字符数量。需要注意的是,英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。
2025-03-07
长token处理
以下是关于长 token 处理的相关信息: 通义千问方面: 开源的 Qwen2.51M 大模型推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速,首次将开源 Qwen 模型的上下文扩展到 1M 长度。 在上下文长度为 100 万 Tokens 的大海捞针任务中,Qwen2.51M 能够准确地从 1M 长度的文档中检索出隐藏信息,仅有 7B 模型出现少量错误。 对于更复杂的长上下文理解任务,通义官方选择了等测试集。 Qwen2.51M 系列模型在大多数长上下文任务中显著优于之前的 128K 版本,特别是在处理超过 64K 长度的任务时表现出色。Qwen2.514BInstruct1M 模型不仅击败了 Qwen2.5Turbo,还在多个数据集上稳定超越 GPT4omini,可作为现有长上下文模型的优秀开源替代。 OpenAI API 方面: 模型通过将文本分解为标记(Token)来理解和处理文本,Token 可以是单词,也可以是字符块。 对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。 给定的 API 请求中处理的 Token 数量取决于输入和输出长度,文本提示词和生成的补全合起来不能超过模型的最大上下文长度(对于大多数模型,这是 2048 个 Token,或大约 1500 个单词),可查看分词器工具了解更多信息。
2025-03-07
token与参数的关系
Token 与参数存在密切关系。在大模型中,用于表达 token 之间关系的参数众多,主要指模型中的权重(weight)与偏置(bias)。例如,GPT3 拥有 1750 亿参数,而词汇表 token 数相对较少,只有 5 万左右。 目前使用的大模型存在 token 限制,如 Claude2100k 模型的上下文上限是 100k Tokens(100000 个 token),ChatGPT16k 模型的上下文上限是 16k Tokens(16000 个 token),ChatGPT432k 模型的上下文上限是 32k Tokens(32000 个 token)。这种 token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时不是停止对话,而是遗忘最前面的对话。 在分词过程中,不同的字符串会被编码为不同的 token,例如字符串“Tokenization”编码到 token30642 及其后的 token1634,token“is”(包括前面的空格)是 318 等。数字的分解可能不一致,如 127 是由 3 个字符组成的 token,677 是 2 个 token 等。 为了让计算机理解 Token 之间的联系,需要把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法包括基于统计的 Word2Vec、GloVe 等,基于深度网络的 CNN、RNN/LSTM 等,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。
2025-03-06
Claude3/grok3/Gemini使用API调用时消耗token的价格是?
Claude 3 的 API 调用价格为:每百万输入 token 0.25 美元,每百万输出 token 1.25 美元。可以处理和分析 400 起最高法院案件或 2500 张图片只需 1 美元。相关链接:https://x.com/imxiaohu/status/1768284259792691366?s=20
2025-02-27
目前各大高校有哪些场景会实用算力
目前各大高校实用算力的场景可能包括以下方面: 1. 科研计算:如在物理学、化学、生物学等学科的研究中,进行复杂的模拟和数据分析。 2. 人工智能研究:包括模型训练、算法优化等。 3. 图形和图像处理:例如在设计、动画制作等专业中的应用。 4. 数据分析和处理:用于处理大规模的数据集,以支持学术研究和决策制定。 需要注意的是,具体的应用场景会因高校的学科设置、研究方向和教学需求而有所不同。
2025-02-19
类似 智能驾驶、智能客服 等,AI 在各大行业的主要应用(成熟一点的)有哪些
以下是 AI 在各大行业的一些主要成熟应用: 智能办公: 快速总结群聊内容或会议信息。 为写公文提供结构模板参考。 智能客服: 借助 agent 接入企业的 QA 知识库,回应用户信息,并依据回答下达诸如取消订单、催快递之类的 action 指令。 AI 导购: 依据用户问题,结合产品介绍和评论信息等,为用户推荐更准确、精准的产品。 医疗保健: 医学影像分析,辅助诊断疾病。 加速药物研发,识别潜在药物候选物和设计新治疗方法。 个性化医疗,分析患者数据提供个性化治疗方案。 机器人辅助手术,提高手术精度和安全性。 金融服务: 风控和反欺诈,识别和阻止欺诈行为。 信用评估,帮助金融机构做出贷款决策。 投资分析,分析市场数据辅助投资决策。 提供 24/7 客户服务,回答常见问题。 零售和电子商务: 产品推荐,分析客户数据推荐可能感兴趣的产品。 改善搜索结果和提供个性化购物体验。 动态定价,根据市场需求调整产品价格。 汽车行业: 自动驾驶技术,利用 AI 进行图像识别、传感器数据分析和决策制定。 车辆安全系统,如自动紧急制动、车道保持辅助和盲点检测。 个性化用户体验,根据驾驶员偏好和习惯调整车辆设置。 预测性维护,分析车辆实时数据预测潜在故障和维护需求。 生产自动化,用于自动化生产线,提高生产效率和质量控制。 销售和市场分析。
2024-09-05
国内各大主流AI的特点及优势对比分析,请用表格形式展示
|AI名称|特点|优势| |||| |XiaoHu.AI|提供实时互动学习体验|测试版模型在高中和初中数学问题上的准确率比 GPT4 高 20%,数学推理方面比 GPT4o 高 15%,已被全球 200 多个国家的 40 万名学生使用,创始人是 14 岁考入大学的女学霸| |阿里 CosyVoice 语音合成模型|精细控制、自然模拟、情感和风格|生成符合性别、年龄和个性特征的声音,模拟笑声、咳嗽和呼吸等人类语音自然特征,为声音添加情感和风格,更具表现力| |百度“文心 4.0”|/|是当前国内能力最好的模型之一| |阿里“通义千问” QwenVLMAX 和 Qwen2.0|/|有比较好的指标,与钉钉的结合可圈可点| |字节“云雀”|/|/| |腾讯“混元”|/|/|
2024-08-10
Ai+宗教佛学自媒体,用mj生成图片加runway动起来在配合剪映制作成视频,最后配上符合佛学的宁静音乐。用它制作视频,上传到各大平台,分析此赛道并复现
这个赛道结合了多种技术和内容,需要进行以下步骤来实现: 1. 准备素材: 收集宗教佛学相关的图片、视频素材,以及符合佛学理念的宁静音乐。这些素材可以来自于网络上的免费资源或者自己制作,确保版权合法。 2. 使用 MJ 生成图片: 利用 Midjourney(MJ)生成符合宗教佛学主题的图片。可以在 MJ 平台上选择合适的模板和风格,生成高质量的图片素材。 3. 使用 Runway 生成动画: 使用 Runway 将生成的图片转换为动态效果。Runway 是一个 AI 动画生成工具,可以为静态图片添加生动的动画效果,增强视觉效果。 4. 使用剪映制作视频: 将生成的动态图片和视频素材导入到剪映等视频编辑软件中,进行剪辑和编辑。根据需要调整剪辑顺序、添加过渡效果、字幕等,制作成符合宗教佛学主题的视频内容。 5. 配音乐: 在视频编辑过程中,将符合佛学理念的宁静音乐添加到视频中。选择合适的音乐可以增强视频的氛围和情感,让观众更好地沉浸其中。 6. 导出和上传: 完成视频编辑后,将视频导出为常见的视频格式,如MP4等。然后上传到各大视频平台,如YouTube、抖音、Bilibili等,分享给目标受众。 7. 分析和优化: 视频上传后,关注观看量、点赞数、评论等指标,分析观众反馈和视频效果。根据分析结果,优化视频内容和推广策略,提升视频的影响力和曝光度。 以上就是实现该赛道的步骤,需要整合利用 MJ、Runway、剪映等工具和平台,以及宗教佛学素材和宁静音乐,制作出符合佛学理念的高质量视频内容,并通过上传到各大平台进行推广和分享。
2024-04-20