Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

阶跃星辰、通义千问、Gemini三个视频理解模型哪个收费更便宜

Answer

以下是阶跃星辰、通义千问、Gemini 三个视频理解模型的收费情况:

  • 阶跃星辰:输入价格为 0.005~0.015 元/千 tokens,输出价格为 0.02~0.07 元/千 tokens。阶跃星辰接口调用示例
  • 通义千问:Qwen-vl-plus 模型调用价格为 0.008 元/千 tokens,训练价格为 0.03 元/千 tokens。通义千问接口调用示例
  • Gemini 未提及收费信息。

综上,从已有的信息来看,通义千问的收费相对可能更便宜,但具体还需根据您的使用情况和需求来判断。

Content generated by AI large model, please carefully verify (powered by aily)

References

0基础手搓AI拍立得

用成本相对较高,大家可以选择以下供应商中|模型厂商|类型|特点|成本|网址/文档||-|-|-|-|-||智谱<br>GLM-4V|通用视觉类大模型|拍立得最早使用的模型<br>接口响应速度快<br>指令灵活性差一些<br>一个接口支持图片/视频/文本,视频和图片类型不能同时输入|调用:0.05元/千tokens|[智谱接口调用示例](https://bigmodel.cn/dev/api/normal-model/glm-4v)||阿里云百炼<br>qwen-vl-plus|通用视觉类大模型|拍立得目前使用的模型<br>指令灵活性比较丰富<br>接口调用入门流程长一些,密钥安全性更高|调用:¥0.008/千tokens<br>训练:¥0.03/千tokens|[通义千问接口调用示例](https://bailian.console.aliyun.com/?spm=5176.21213303.J_qCOwPWspKEuWcmp8qiZNQ.33.14162f3drQWnj1&scm=20140722.S_card@@%E4%BA%A7%E5%93%81@@2983180._.ID_card@@%E4%BA%A7%E5%93%81@@2983180-RL_%E7%99%BE%E7%82%BC%E5%A4%A7%E6%A8%A1%E5%9E%8B-LOC_search~UND~card~UND~item-OR_ser-V_3-RE_cardNew-P0_0#/model-market/detail/qwen-vl-plus?tabKey=sdk)||阶跃星辰|通用视觉类大模型|响应速度快<br>支持视频理解|输入:¥0.005~0.015/千tokens<br>输出:¥0.02~0.07/千tokens|[阶跃星辰接口调用示例](https://platform.stepfun.com/docs/guide/image_chat)||百度PaddlePaddle|OCR,垂直小模型|文本识别能力补齐增强|私有化部署服务费<br>API调用在¥0.05~0.1/次|[Paddle OCR开源地址](https://github.com/PaddlePaddle/PaddleOCR)|

XiaoHu.AI日报

🔔Xiaohu.AI日报「12月31日」✨✨✨✨✨✨✨✨1⃣️💥Pixverse V3.5模型发布全球最快的AI视频生成模型,Turbo模式下可在10秒内生成视频,最快仅需5-6秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能。具备顶尖动漫生成能力,仅需提示词即可快速生成动画画面。🔗[https://x.com/imxiaohu/status/1874093362032398471](https://x.com/imxiaohu/status/1874093362032398471)2⃣️📉通义千问视觉理解模型降价最高降幅达85%。Qwen-vl-max输入价格降至0.003,输出价格降至0.009。对比Doubao vision Pro,输入价格也同为0.003。🔗[https://x.com/imxiaohu/status/1874084227568066608](https://x.com/imxiaohu/status/1874084227568066608)

XiaoHu.AI日报

🔔Xiaohu.AI日报「12月31日」✨✨✨✨✨✨✨✨1⃣️💥Pixverse V3.5模型发布全球最快的AI视频生成模型,Turbo模式下可在10秒内生成视频,最快仅需5-6秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能。具备顶尖动漫生成能力,仅需提示词即可快速生成动画画面。🔗[https://x.com/imxiaohu/status/1874093362032398471](https://x.com/imxiaohu/status/1874093362032398471)2⃣️📉通义千问视觉理解模型降价最高降幅达85%。Qwen-vl-max输入价格降至0.003,输出价格降至0.009。对比Doubao vision Pro,输入价格也同为0.003。🔗[https://x.com/imxiaohu/status/1874084227568066608](https://x.com/imxiaohu/status/1874084227568066608)

Others are asking
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
gemini-2.5目前是什么水平
Gemini 2.5 是一款全能思考模型,具有以下特点和优势: 多领域达到 SOTA 水平,逻辑、代码、任务处理能力大幅提升。 支持 100 万 tokens 上下文,具备强大的阅读能力。 统一架构原生多模态支持,图文音码协同处理,并非外挂而是原生融合。 您可以通过以下链接获取更多详细信息:https://www.xiaohu.ai/c/xiaohuai/googlegemini25proexperimental
2025-04-13
怎么使用gemini
使用 Gemini 的方法如下: 1. 申请 API key:在申请您的 API key,并将其填到 api_key.ini 中。该文件位于插件根目录下,默认名字是 api_key.ini.example,初次使用需将文件后缀改为.ini。用文本编辑软件打开,在 google_api_key=后面填入您的 API key 并保存。 2. 节点选项说明: api:使用的 Api。目前只有"geminiprovision"和"googlegemini"选项。 token_limit:生成提示词的最大 token 限制。 exclude_word:需要排除的关键词。 replace_with_word:替换 exclude_word 的关键词。 3. 使用方式: 通过 API 调用(需要一定技术基础)。 在 Google AI Studio 中使用:这是一个免费的在线平台。 登录方法: 第一步:打开浏览器访问 https://aistudio.google.com/prompts/new_chat 或下载 Gemini 应用(Android 或 iOS)。 第二步:登录您的 Google 账户。 第三步:在 model 选项处选择 Gemini 2.0 Flash Experimental 模型。 操作步骤: 上传图片。 输入指令,例如“把衣服改成蓝色”或者“给狗狗加个墨镜”等清晰明确的描述。 点击运行按钮等待处理结果。若不满意可修改指令再次尝试。 此外,Gemini 还具备实时视频功能,打开完整的 Gemini Live 界面,开启视频流后,界面右下角的按钮可切换到前置摄像头,能实时分析手机摄像头捕捉到的画面并回答相关问题。但此功能会在 3 月下旬作为谷歌 One AI 高级计划的一部分,向 Gemini 高级订阅用户逐步推送。
2025-04-11
飞书多维表格如何接入gemini?
要将飞书多维表格接入 Gemini,以下是一些相关的操作步骤和说明: 首先,请注意部分操作需要搭配 Google 云服务或自备 API 才可以正常练习,具体内容)。友情提示,从这一部分及以后内容,多数都会是配合代码完成的,如果您是 0 代码学习者,尝试看懂提示词,并在一些 AI 产品上尝试使用。 接下来,课程将深入探讨代码部分。为了运行这个笔记本,需要执行一些设置代码。首先,需要导入 utils 并进行身份验证,这意味着需要设置一些凭证和项目 ID,以便能够从笔记本环境调用云端的 Gemini API。项目包含在云中使用的资源和 Gemini API。这个设置过程确保了笔记本能够正确连接和使用 Gemini 模型。 对于本课程,还需要指定一个区域,即代码将在哪里执行。在这种情况下,使用的是 uscentral1。 接下来,课程将导入 Vertex AI SDK。Vertex AI SDK 可以看作是一个 Python 工具包,帮助用户与 Gemini 交互。通过这个 SDK,可以使用 Python 调用 Gemini API 并获得响应。 在笔记本中,需要初始化 Vertex SDK。这意味着需要告诉 SDK 以下信息: 1. 使用的项目 2. 想要使用 Gemini 模型的区域 3. 用户凭证 通过提供这些信息,Gemini API 就能识别用户身份,并确认用户有权使用 API。 为了使用 Gemini API,需要从 SDK 中导入 generative_model。设置完成后,需要指定具体的模型。这可以通过设置 model 变量来完成,使用刚刚导入的 generative_model,并选择特定的 Gemini 模型。在这个案例中,课程将使用 Gemini 1.0 Pro 版本。这个选择反映了对于当前任务,Gemini Pro 可能是最合适的平衡点,提供了良好的性能和效率。 此外,Gemini 不仅是单一模型,而是一个模型系列,包含不同大小的模型,每种大小都针对特定的计算限制和应用需求而定制。首先是 Gemini Ultra,这是系列中最大和最强大的模型。Gemini Pro 被设计为多功能的主力模型,平衡了模型性能和速度。还有 Gemini Flash,这是一个专门为高容量任务设计的最快、最具成本效益的模型。最后是 Gemini Nano,它是 Gemini 家族中的轻量级成员,专门设计用于直接在用户设备上运行。
2025-03-28
Gemini是用什么训练的
Gemini 是在 Google 的 TPU AI 加速器上训练的,似乎没有使用英伟达的 GPU。Google 还推出了全新的 Cloud TPU v5p 和 AI Hypercomputer 超级计算机,将加速 Gemini 的开发,使 AI 模型的训练更快。 Cloud TPU v5p 是目前 Google 最强大、可扩展和灵活的 AI 加速器。它在 TPU v4 的基础上提供了超过 2 倍的 FLOPS(浮点运算次数/秒)和 3 倍的高带宽内存(HBM)。TPU v5p 可以比前一代 TPU v4 更快地训练大型语言模型(LLM),对于嵌入密集型模型,其训练速度比 TPU v42 快 1.9 倍。TPU v5p 的可扩展性是 TPU v4 的 4 倍。 AI Hypercomputer 是一个突破性的超级计算机架构,它采用了集成的系统,包括性能优化的硬件、开放软件、领先的机器学习框架,以及灵活的消费模型。通过系统级协同设计来提高 AI 训练、调优和服务的效率和生产力。具有性能优化的计算、存储和网络硬件,建立在超大规模数据中心基础设施之上,利用高密度占地面积、液体冷却和 Jupiter 数据中心网络技术。通过开放软件使开发者能够调整、管理和动态编排 AI 训练和推理工作负载。提供了一系列灵活和动态的消费选择,包括传统的承诺使用折扣(CUD)、按需定价和现货定价,以及为 AI 工作负载量身定制的消费模型。 Gemini 模型是在一个既包含多模态又包含多语言的数据集上进行训练的。预训练数据集使用来自网络文档、书籍和代码的数据,并包括图像、音频和视频数据。使用 SentencePiece 分词器,发现在整个训练语料库的大样本上训练分词器可以改善推断的词汇,并进而提高模型性能。对所有数据集进行过滤,使用启发式规则和基于模型的分类器,还进行安全过滤以删除有害内容。从训练语料库中筛选出评估集。在训练过程中进行分阶段训练,通过增加领域相关数据的权重来改变混合组合,直到训练结束。
2025-03-26
gemini
Google 的多模态大模型叫 Gemini。Gemini 是由 Google DeepMind 团队开发的,它不仅支持文本、图片等提示,还支持视频、音频和代码提示。能够理解和处理几乎任何输入,结合不同类型的信息,并生成几乎任何输出。被称为 Google 迄今为止最强大、最全面的模型,是一种“原生多模态大模型”,从设计之初就支持多模态,能够处理语言、视觉、听觉等不同形式的数据。 Gemini report 有中文翻译,翻译贡献者为林夕,源文档为 https://storage.googleapis.com/deepmindmedia/gemini/gemini_1_report.pdf 。本报告介绍了一种新的多模态模型 Gemini,它在图像、音频、视频和文本理解方面具有卓越的能力。Gemini 系列包括 Ultra、Pro 和 Nano 三种尺寸,适用于从复杂的推理任务到设备内存受限的应用场景。 可以使用 Gemini 拆解视频,例如使用 Gemini 1.5 Pro 进行视频分析和拆解。有测试者如阿强、张余、Ling、洋洋等进行了相关测试,反馈效果较好,准确度很高。
2025-03-24
通义千问的视频理解模型怎么使用
通义千问的 Qwen2.5VL 视频理解模型具有以下特点和使用方式: 版本:推出 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作,如给指定朋友送祝福、电脑修图、手机订票等。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai
2025-04-09
通义千问发展历程
通义千问是阿里云推出的大语言模型。于 2023 年 4 月 11 日在阿里云峰会上正式发布 1.0 版本。9 月 13 日,通义千问大模型首批通过备案。10 月 31 日,阿里云正式发布千亿级参数大模型通义千问 2.0,8 大行业模型同步上线。9 月,通义千问 2.5 系列全家桶开源。
2025-03-20
阿里的千问大模型在行业内处于一个什么样的水平
阿里的通义千问大模型在行业内处于领先水平。 通义千问 2.5 正式发布并开源 1100 亿参数模型,在多模态和专有能力模型方面影响力强大,始终坚持开源路线,已推出多款开源模型,受到开发者和生态伙伴的热情支持。百炼平台也升级支持企业 RAG 链路,提供更灵活的企业级检索增强服务。通义灵码推出企业版,满足企业定制化需求,已在多个领域落地应用。 Qwen2.5Max 基于 SFT 和 RLHF 策略训练,在多项基准如 Arena Hard、LiveBench、LiveCodeBench、GPQADiamond 上超越 DeepSeek V3,引发社区关注。支持官方 Chat、API 接口、Hugging Face Demo 等多种方式,展示其顶尖性能与灵活应用场景。 Qwen2.5VL 是新一代视觉语言模型,可解析 1 小时以上视频内容并秒级定位事件,识别从金融文档到通用物体,动态适配高分辨率图像。具备复杂任务执行能力,覆盖更多实际场景如票据解析、商业分析等。 10 月 31 日,阿里云正式发布千亿级参数大模型通义千问 2.0,8 大行业模型同步上线。
2025-03-14
通义千问最新模型
通义千问最新模型情况如下: 发布了一个模型并开源了两个模型。 Qwen2.5Max:全新升级发布,比肩 Claude3.5Sonnet,几乎全面超越 GPT4o、DeepSeekV3 及 Llama3.1405B。是阿里云通义团队对 MoE 模型的最新探索成果,预训练数据超过 20 万亿 tokens。在多项公开主流模型评测基准上录得高分,开发者可在 Qwen Chat(https://chat.qwenlm.ai/)平台免费体验模型,企业和机构也可通过阿里云百炼平台直接调用新模型 API 服务。 Qwen2.5VL:全新视觉模型实现重大突破,增强物体识别与场景理解,支持文本、图表、布局分析,可处理长达 1 小时视频内容,具备设备操作的 Agent 能力。 Qwen2.51M:推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速,首次将开源 Qwen 模型的上下文扩展到 1M 长度。在上下文长度为 100 万 Tokens 的大海捞针任务中,7B 模型出现少量错误。在更复杂的长上下文理解任务中,Qwen2.51M 系列模型在大多数长上下文任务中显著优于之前的 128K 版本,Qwen2.514BInstruct1M 模型不仅击败了 Qwen2.5Turbo,还在多个数据集上稳定超越 GPT4omini。
2025-02-26
通义千问私有化部署方案
以下是关于通义千问私有化部署的相关方案: 1. 在 FastGPT+OneAPI+COW 框架下的部署: 回到宝塔,选择 Docker(若显示“当前未安装”则进行安装,否则无需此步)。 点击确定,等待安装完成,完成后刷新页面确认安装成功。 打开左侧【终端】,粘贴两行命令验证 Docker 是否可用。 一条一条复制并粘贴相关命令完成安装。 访问 OneAPI,地址为:http://这里改成你自己宝塔左上角的地址:3001/(举例:http://11.123.23.454:3001/),账号默认 root,密码 123456。 点击【渠道】,类型选择阿里通义千问,名称随意。 将千问里创建的 API Key 粘贴到秘钥里,点击确认。 点击【令牌】【添加新令牌】,名称随意,时间设为永不过期、额度设为无限额度,点击【提交】。 点击【令牌】,复制出现的 key 并保存。 2. 在 Langchain+Ollama+RSSHub 框架下的部署: Ollama 支持包括通义千问在内的多种大型语言模型,适用于多种操作系统,同时支持 cpu 和 gpu。 可通过 https://ollama.com/library 查找模型库,通过简单步骤自定义模型,还提供了 REST API 用于运行和管理模型及与其他应用程序的集成选项。 访问 https://ollama.com/download/ 进行下载安装,安装完之后确保 ollama 后台服务已启动。 3. 在 0 基础手搓 AI 拍立得框架下的部署: 可以选择通义千问作为模型供应商,其指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高。接口调用费用为:调用:¥0.008/千 tokens,训练:¥0.03/千 tokens。可参考 。
2025-02-26
通义 提示词 教程
以下是关于通义提示词的相关教程: 1. 小七姐的 Prompt 喂饭级系列教程小白学习指南(一): 提示词的理解:如果您是低年级学生看不懂英文问题,可让 GPT 为您翻译和解释,并让其举例帮助理解。 应用方法:对于没看懂的句子,都可以通过提示词让 GPT 换种说法解释和举例。 自测方法:点击链接查看对话原文,顶部的问题可复制作为 prompt 自行提问。 下一节将带来 prompt 小白系列课程(二)如何开始练习有效提问。 2. 不懂代码,也能 3 小时打造并上架一款 AI 插件: 初版提示词:如果不了解如何从 0 1 编写词生卡 Prompt,请阅读前作,这套提示词在后续测试中,在多种模型中都能保持较高成功率和稳定的预期效果。 3. SD 新手入门图文教程: 提示词语法:根据想画的内容写提示词,多个提示词之间用英文半角符号。一般概念性、大范围、风格化的关键词写在前,叙述画面内容的其次,描述细节的最后。每个词语在模型中的自带权重可能不同,特异性、具体且措辞不抽象的关键词效果更好。可使用括号人工修改提示词的权重。
2025-04-11
通义的日活是多少?
根据提供的信息,阿里通义在 11 月的活跃用户为 147 万人,WEB 月活为 141 万人,APP 月活为 355 万人,全网月活为 496 万人。在 9 月的活跃用户为 529 万人。
2025-03-28
以DeepSeek R1为代表的推理模型,与此前模型(如 ChatGPT-4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于
以 DeepSeek R1 为代表的推理模型与此前模型(如 ChatGPT4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于: 1. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 一样,属于基于强化学习 RL 的推理模型。 2. 思考方式:在回答用户问题前,R1 会先进行“自问自答”式的推理思考,模拟人类的深度思考,从用户初始问题出发,唤醒所需的推理逻辑与知识,进行多步推导,提升最终回答的质量。 3. 训练方式:在其他模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”的新阶段。 4. 模型制作:R1 是原生通过强化学习训练出的模型,而蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。此外,DeepSeek R1 还能反过来蒸馏数据微调其他模型,形成互相帮助的局面。 5. 与 Claude 3.7 Sonnet 相比,Claude 3.7 Sonnet 在任务指令跟随、通用推理、多模态能力和自主编程方面表现出色,扩展思考模式在数学和科学领域带来显著提升,在某些方面与 DeepSeek R1 各有优劣。
2025-03-19