Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

模型成本

Answer

以下是关于模型成本的相关信息:

GPT-3.5 系列

  • gpt-3.5-turbo:功能强大,针对聊天优化,成本仅为 text-davinci-003 的 1/10,最大 Token 数 4096,训练数据截至 2021 年 9 月。
  • gpt-3.5-turbo-0301:gpt-3.5-turbo 2023 年 3 月 1 日的快照,不会更新,仅在 2023 年 6 月 1 日结束的三个月内提供支持,最大 Token 数 4096,训练数据截至 2021 年 9 月。
  • text-davinci-003:能完成任何语言任务,支持在文本中插入补全,最大 Token 数 4097,训练数据截至 2021 年 6 月。
  • text-davinci-002:与 text-davinci-003 类似,使用监督微调训练,最大 Token 数 4097,训练数据截至 2021 年 6 月。
  • code-davinci-002:针对代码完成任务优化,最大 Token 数 8001,训练数据截至 2021 年 6 月。

其他模型供应商

  • 智谱 GLM-4V:通用视觉类大模型,拍立得最早使用,接口响应速度快,指令灵活性差些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本 0.05 元/千 tokens。
  • 阿里云百炼 qwen-vl-plus:通用视觉类大模型,拍立得目前使用,指令灵活性丰富,接口调用入门流程长,密钥安全性高,调用成本 0.008 元/千 tokens,训练成本 0.03 元/千 tokens。
  • 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本 0.005 - 0.015 元/千 tokens,输出成本 0.02 - 0.07 元/千 tokens。
  • 百度 PaddlePaddle:OCR,垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在 0.05 - 0.1 元/次。

Claude 3 系列

  • Opus:最智能,擅长处理复杂任务,输入成本 15 美元/百万 token,输出成本 75 美元/百万 token,上下文窗口 200K token(特定用途 1M token 可用,详情咨询),应用场景包括任务自动化、研发、策略分析等。
  • Sonnet:平衡,应用场景包括客户服务、内容审核、优化物流等,优势在于速度和成本效益。

此外,Claude 3 系列在设计上注重安全和可靠,持续改进减少模型偏见,提高公正性和中立性,被评定为 AI 安全等级 2(ASL-2)。

Content generated by AI large model, please carefully verify (powered by aily)

References

模型(Models)

GPT-3.5模型可以理解和生成自然语言或代码。我们在GPT-3.5系列中功能最强大、最具成本效益的型号是gpt-3.5-turbo,它已针对聊天进行了优化,但也适用于传统的补全(Completion)任务。|MODEL|描述|最大Token数|训练数据||-|-|-|-||gpt-3.5-turbo|功能最强大的GPT-3.5型号,针对聊天进行了优化,成本仅为text-davinci-003的1/10。将使用我们最新的模型迭代进行更新。|4096 Token|截至2021年9月||gpt-3.5-turbo-0301|gpt-3.5-turbo 2023年3月1日的快照。与gpt-3.5-turbo不同,此模型不会更新,并且仅在2023年6月1日结束的三个月内提供支持。|4096 Token|截至2021年9月||text-davinci-003|可以以比curie、babbage、ada模型更好的质量、更长的输出和一致的指令遵循来完成任何语言任务。还支持在文本中[插入](https://platform.openai.com/docs/guides/completion/inserting-text)补全。|4097 Token|截至2021年6月||text-davinci-002|与text-davinci-003类似的功能,但使用监督微调而不是强化学习进行训练|4097 Token|截至2021年6月||code-davinci-002|针对代码完成任务进行了优化|8001 Token|截至2021年6月|我们建议使用gpt-3.5-turbo而不是其他GPT-3.5模型,因为它的成本更低。

0基础手搓AI拍立得

用成本相对较高,大家可以选择以下供应商中|模型厂商|类型|特点|成本|网址/文档||-|-|-|-|-||智谱<br>GLM-4V|通用视觉类大模型|拍立得最早使用的模型<br>接口响应速度快<br>指令灵活性差一些<br>一个接口支持图片/视频/文本,视频和图片类型不能同时输入|调用:0.05元/千tokens|[智谱接口调用示例](https://bigmodel.cn/dev/api/normal-model/glm-4v)||阿里云百炼<br>qwen-vl-plus|通用视觉类大模型|拍立得目前使用的模型<br>指令灵活性比较丰富<br>接口调用入门流程长一些,密钥安全性更高|调用:¥0.008/千tokens<br>训练:¥0.03/千tokens|[通义千问接口调用示例](https://bailian.console.aliyun.com/?spm=5176.21213303.J_qCOwPWspKEuWcmp8qiZNQ.33.14162f3drQWnj1&scm=20140722.S_card@@%E4%BA%A7%E5%93%81@@2983180._.ID_card@@%E4%BA%A7%E5%93%81@@2983180-RL_%E7%99%BE%E7%82%BC%E5%A4%A7%E6%A8%A1%E5%9E%8B-LOC_search~UND~card~UND~item-OR_ser-V_3-RE_cardNew-P0_0#/model-market/detail/qwen-vl-plus?tabKey=sdk)||阶跃星辰|通用视觉类大模型|响应速度快<br>支持视频理解|输入:¥0.005~0.015/千tokens<br>输出:¥0.02~0.07/千tokens|[阶跃星辰接口调用示例](https://platform.stepfun.com/docs/guide/image_chat)||百度PaddlePaddle|OCR,垂直小模型|文本识别能力补齐增强|私有化部署服务费<br>API调用在¥0.05~0.1/次|[Paddle OCR开源地址](https://github.com/PaddlePaddle/PaddleOCR)|

3 月动态|Claude3 发布等

以下是对Claude三款模型性能与成本的直观介绍,旨在为不同需求的用户提供清晰的选择指南。[heading4]Opus:智能[content]特点:Opus模型是目前市场上最智能的模型,擅长处理极其复杂的任务。它能够流畅应对开放式问题和全新场景,显示出类似人类的高度理解能力。成本:输入$15/百万token,输出$75/百万token。上下文窗口:200K token(对于特定用途,1M token可用,详情请咨询)。应用场景:包括任务自动化、研发、策略分析等。优势:在智能层面,超越其他所有模型。[heading4]Sonnet:平衡[content]特点:应用场景:客户服务、内容审核、优化物流等。优势:在速度和成本效益上领先,为用户提供高效的AI体验。[heading4]设计理念其及他[content]负责任的AI:Claude 3系列在设计上注重安全和可靠,通过持续跟踪和缓解风险,确保了模型的稳定运行。持续改进:Claude公司致力于减少模型偏见,提高模型的公正性和中立性。安全等级:根据负责任扩展政策,Claude 3被评定为AI安全等级2(ASL-2),展现了其在安全方面的可靠性。[heading2]文档还有简体中文版[heading2]拓展阅读[content][《GPT-4时代结束!全球最强大模型一夜易主,体验完Claude 3我更期待GPT-5了》](https://mp.weixin.qq.com/s/eR9DLV19IK5WonyNtQgr2A)

Others are asking
如何训练一个自己的模型用来识别不同的图片类别
训练自己的模型来识别不同的图片类别可以参考以下方法: 对于扩散模型(如 Midjourney): 强大的扩散模型训练往往消耗大量 GPU 资源,推理成本高。在有限计算资源下,可在强大预训练自动编码器的潜在空间中应用扩散模型,以在复杂度降低和细节保留间达到平衡,提高视觉保真度。引入交叉注意力层可使其成为灵活的生成器,支持多种条件输入。 Midjourney 会定期发布新模型版本以提升效率、连贯性和质量。最新的 V5 模型具有更广泛的风格范围、更高的图像质量、更出色的自然语言提示解读能力等。 用 SD 训练贴纸 LoRA 模型: 对于原始形象,可通过 MJ 关键词生成不同风格的贴图,总结其特征。注意关键词中对颜色的限制,保持正面和负面情绪数据比例平衡。若训练 25626 大小的表情包,初始素材可能够用,若训练更高像素图片,可能需进一步使用 MJ 垫图和高清扩展功能。 进行高清化时,从 256 到 1024 分辨率,输入左图并加入内容和风格描述,挑选合适的图片。 多模态模型(以 StableDiffusion 为例): 多模态模型包括文生图、图生图、图生视频、文生视频等,底层逻辑通常从生图片源头开始。 扩散模型(如 StableDiffusion 中使用的)的训练是对图片加减噪点的过程。先对海量带有标注文字描述的图片逐渐加噪点,模型学习每一步图片向量值和文字向量值的数据分布演变规律,完成训练。输入文字后,模型根据文字向量指导充满噪点的图片减噪点生成最终图片。扩散模型加减噪点方式与大脑构思图片方式类似,且多模态模型会关联文字向量值和图片像素点向量值。
2025-01-31
layer_xl_bg2ble.safetensors,layer_xl_transparent_conv.safetensors,vae_transparent_encoder.safetensors这一类是大模型,还是Lora?
layer_xl_bg2ble.safetensors、layer_xl_transparent_conv.safetensors、vae_transparent_encoder.safetensors 这类文件可能是大模型的一部分,也可能是 Lora 模型。 在 AI 模型中: 基础模型(英文名 Checkpoint)是生图必需的,任何生图操作必须要选定一个基础模型才能开始。 Lora 是低阶自适应模型,可以理解为基础模型的小插件,生图时可有可无,但在控制面部、材质、物品等细节方面有明显价值。 同时,VAE 是个编码器,功能类似于滤镜,可调整生图的饱和度。
2025-01-31
deepseek的多模态大模型?
DeepSeek 发布了大一统模型 JanusPro,将图像理解和生成统一在一个模型中。以下是关于该模型的一些重要信息: 最新消息:DeepSeek 深夜发布该模型,它是一个强大的框架。 特点: 统一了多模态理解和生成,通过将视觉编码解耦为独立路径解决先前方法的局限性,利用单一的统一 Transformer 架构进行处理,缓解了视觉编码器在理解和生成中的角色冲突,增强了框架的灵活性。 超越了之前的统一模型,匹配或超过了特定任务模型的性能,其简单性、高灵活性和有效性使其成为下一代统一多模态模型的有力候选者。 规模:提供 1B 和 7B 两种规模,适配多元应用场景。 开源及商用:全面开源,支持商用,采用 MIT 协议,部署使用便捷。 测试案例: 模型直接支持中文交互(图像理解+图像生成)。 云上 L4 测试,显存需 22GB。 图像生成速度约 15s/张。 图像理解质量方面,文字和信息识别基本准确,内容理解完整清晰,局部细节有欠缺。 Colab(需 Pro,因需 20GB 以上显存):https://colab.research.google.com/drive/1V3bH2oxhikj_B_EYy5yRG_9yqSqxxqgS?usp=sharing 模型地址: 7B 模型:https://huggingface.co/deepseekai/JanusPro7B 1B 模型:https://huggingface.co/deepseekai/JanusPro1B 下载地址:https://github.com/deepseekai/Janus
2025-01-30
怎样构建一个自己专业的AI小模型
构建一个自己专业的 AI 小模型可以参考以下步骤: 1. 搭建 OneAPI:这是为了汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时了解如何白嫖大模型接口。 2. 搭建 FastGpt:这是一个知识库问答系统,将知识文件放入,接入上面的大模型作为分析知识库的大脑,最后回答问题。如果不想接到微信,搭建完此系统就可以,它也有问答界面。 3. 搭建 chatgptonwechat 并接入微信,配置 FastGpt 把知识库问答系统接入到微信,建议先用小号以防封禁风险。若想拓展功能,可参考 Yaki.eth 同学的教程,里面的 cow 插件能进行文件总结、MJ 绘画等。 部署和训练自己的 AI 开源模型的主要步骤如下: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 大模型的构建过程包括: 1. 收集海量数据:像教孩子成为博学多才的人一样,让模型阅读大量的文本数据,如互联网上的文章、书籍、维基百科条目、社交媒体帖子等。 2. 预处理数据:清理和组织收集到的数据,如删除垃圾信息,纠正拼写错误,将文本分割成易于处理的片段。 3. 设计模型架构:为模型设计“大脑”结构,通常是一个复杂的神经网络,如使用 Transformer 架构。 4. 训练模型:让模型“阅读”提供的数据,通过反复尝试预测句子中的下一个词等方式,逐渐学会理解和生成人类语言。
2025-01-29
现在最好的AI大模型
目前较为出色的 AI 大模型包括: 1. GPT4(免费可用):是 OpenAI 在深度学习规模扩大方面的最新里程碑,是一个大型多模态模型,在各种专业和学术基准测试中表现出与人类相当的水平。 2. Midjourney v5(免费):具有极高的一致性,擅长以更高分辨率解释自然语言 prompt,并支持像使用 tile 这样的重复图案等高级功能,能生成令人惊叹的逼真 AI 图像。 3. DALL·E 3(免费可用):代表了生成完全符合文本的图像能力的一大飞跃,能轻松将想法转化为极其精准的图像。 4. Mistral 7B(免费):是一个具有 73 亿参数的模型,在所有基准测试上超越了 Llama 2 13B,在许多基准测试上超越了 Llama 1 34B,在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。 此外,在主要的大语言模型方面: 1. OpenAI 系统:包括 3.5 和 4.0 版本,3.5 模型在 11 月启动了当前的 AI 热潮,4.0 模型功能更强大。微软的 Bing 使用 4 和 3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型。 2. 谷歌:一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是一个名叫 PaLM 2 的模型。 3. Anthropic 发布了 Claude 2,其最值得注意的是有一个非常大的上下文窗口。
2025-01-29
你好,你是什么模型?
您好,我是一名 AI 知识专家,能够为您提供全面的 AI 知识指导和解答相关问题。 关于模型方面的知识: LoRA 和 LyCORIS 都属于微调模型,常用于控制画风、生成的角色、角色姿势等。它们的后缀均为.safetensors,体积较主模型小,一般在 4M 300M 之间,使用 LoRA 模型较多,LyCORIS 可调节范围更大,现在 SD 已内置。在 WebUl 中使用时,可在 LoRA 菜单中点击使用,也可直接使用 Prompt 调用。 在 Tusiart 中,首页有模型、帖子、排行榜,展示了大手子炼成的模型和图片。生图必需基础模型(Checkpoint),任何生图操作必须选定一个 Checkpoint 模型才能开始,lora 是低阶自适应模型,可有可无,但对细节控制有价值。ControlNet 可控制图片中特定图像,VAE 类似于滤镜调整生图饱和度,选择 840000 即可。Prompt 提示词是想要 AI 生成的内容,负向提示词是想要 AI 避免产生的内容。还有图生图,即上传图片后 SD 会根据相关信息重绘。 如果您想搭建类似的群问答机器人,可以参考以下内容:
2025-01-28
如何根据虑库存水平、需求预测、补货成本、库存持有成本等因素,使用线性规划、动态规划、随机优化等方法来调整库存结构呢
很抱歉,目前没有关于如何根据您提到的库存水平、需求预测、补货成本、库存持有成本等因素,使用线性规划、动态规划、随机优化等方法来调整库存结构的具体内容。但我可以为您提供一些一般性的思路和步骤: 首先,需要对库存水平、需求预测、补货成本和库存持有成本等数据进行详细的收集和分析。 对于线性规划方法,您可以建立一个目标函数,例如最小化总成本(包括补货成本和库存持有成本),同时满足库存水平和需求预测的约束条件。通过求解这个线性规划问题,得到最优的库存调整策略。 动态规划则是将问题分解为多个阶段,在每个阶段根据当前状态和决策选择来优化未来的结果。在库存调整中,可以根据不同时期的库存和需求情况,逐步做出最优决策。 随机优化适用于需求存在不确定性的情况。您可以建立概率模型来描述需求的不确定性,然后通过优化算法找到在不确定性条件下的最优库存策略。 不过,具体的应用和实现需要根据您的实际业务情况和数据特点进行深入研究和定制化的建模。
2025-01-06
目前最前沿的应用在游戏领域的AI技术点是什么,包括游戏开发过程中的成本降低、效率提升,包括游戏内容生成,包括游戏后期运营推广。介绍技术点的技术逻辑以及技术细节。
目前在游戏领域应用的前沿 AI 技术点主要包括以下几个方面: 1. 利用 AIGC 技术实现游戏产业的生产力革命: 降低开发成本:借助人工智能的内容创作工具,如生成新的游戏内容(地图、角色和场景)、驱动游戏中的非玩家角色(NPC)、改进游戏的图像和声音效果等,能够缩减游戏开发的成本。 缩短制作周期:例如通过程序化内容生成,包括利用人工智能生成文字、图像、音频、视频等来创作游戏剧本、人物、道具、场景、用户界面、配音、音效、配乐、动画和特效等,从而减少游戏开发时间。 提升游戏质量和带来新交互体验:AIGC 技术为游戏带来不同以往的新体验,甚至创造出新的游戏类型以及新的交互方式。 2. 游戏内容辅助生成: 生成文、生成图、生成 3D 以及生成音乐。应用场景包括游戏策划人和制作人、美术设计师等。 对于工业化的游戏公司,基于 Stable Difussion 的生成能够通过 2D 美术素材的辅助生成提高创业效率 50%,降低 20%80%的成本。 文生图:通过提示词加参数就可以形成 2D 的参考图,适配度高。 图生图:原画师或美术可以使用,用一个线稿或原画,在原画基础上加一些 Prompt 和参数,就可以形成一个效果图和二级的素材。 动画辅助渲染:用 Lora 对角色背景、关键帧进行风格渲染,例如将真人视频渲染成二次元风。 3. 游戏的智能运营: 智能 NPC 互动:保持长期记忆,保持人物个性和对话表现形式,同时满足成本平衡。 客服、攻略的问答、代码和脚本的生成。主要针对游戏的产品经理、运营经理和社区的运营经理。 游戏社区运营:如海外的 Discord,国内的 Fanbook,让更多玩家在游戏之外,在社群里面很好地互动,基于游戏的美术素材进行二创、查询攻略和使用智能客服。 这些技术的技术逻辑和技术细节如下: 1. AIGC 技术:基于大语言模型和扩散模型,通过机器学习、强化学习等先进技术进行训练,能够理解和生成各种游戏相关的内容。 2. 游戏内容辅助生成:利用深度学习算法对大量的游戏相关数据进行学习和分析,从而能够根据给定的提示或参数生成相应的游戏内容。 3. 智能运营方面:通过构建智能模型,对玩家的行为和需求进行分析和预测,从而提供个性化的服务和互动。
2024-12-22
目前最前沿的应用在游戏领域的AI技术点是什么,包括游戏开发过程中的成本降低、效率提升,包括游戏内容生成,包括游戏后期运营推广。
目前在游戏领域最前沿的 AI 技术点主要包括以下几个方面: 1. 探索将游戏环境中的成果迁移至现实世界:电子游戏作为人工智能算法的测试场,为人工智能模型的构建与训练提供了理想化的场所。但将游戏中的技术推广到现实世界应用仍面临诸多挑战。 2. 利用 AIGC 技术实现游戏产业的生产力革命: 借助人工智能的内容创作工具,降低开发成本、缩短制作周期、提升游戏质量和完成度,带来新体验,创造新游戏类型和交互方式。 应用于电子游戏开发的多个方面,如生成新的游戏内容(地图、角色和场景)、驱动游戏中的非玩家角色(NPC)、改进游戏的图像和声音效果等。 3. 为通用人工智能的孵化提供帮助:经过多个复杂游戏训练后的“玩游戏”的人工智能体。 4. 借助人工智能完成大型游戏的制作:如《微软模拟飞行》通过与 blackshark.ai 合作,利用人工智能从二维卫星图像生成无限逼真的三维世界,且模型可随时间改进。 5. 生成式人工智能模型在游戏资产中的应用:出现了用于游戏中几乎所有资产的生成式人工智能模型,包括 3D 模型、角色动画、对话和音乐等。 6. 降低游戏制作的内容成本:整合生成式 AI 可大幅降低制作游戏的时间和成本,例如为一张图片生成概念图的时间从 3 周下降到 1 小时。
2024-12-22
大模型成本趋势
大模型的成本趋势如下: 目前存在唱衰大模型的观点,认为其难以找到可商用场景,部分功能存在幻觉问题,且算力成本高,导致商业模式难以形成闭环。 但也有观点认为,关于算力成本,已有许多解决方案,如模型蒸馏、苹果的端云方案等,今年内算力成本问题有望不再是难题。 对于不同规模的模型,小模型在某些特定应用中有其优势且足够好用,但大模型会解锁新的有价值的应用程序。不过并非所有应用都能证明大模型的成本合理。 在多模态大模型方面,随着数据集和模型规模扩大,传统模型带来巨大计算量。研究人员利用现成训练好的单模态基础模型,可减少多模态训练费用、提升效率。不同模态模型分开训练,如何实现模态连接和协同推理是核心挑战。
2024-12-19
大模型成本
大模型的成本主要通过 token 数量来计算。普通常见单词使用一个 token,不常见单词可能被拆分从而消耗更多 token。一般 300 个单词约需 400 个 token,token 消耗通常比单词数多出 33%左右。 以 GPT 为例,一个成年人一小时阅读约 30000 个词,按转化率约需 40000 个 token。GPT3.5 每 1000 个 token 需 0.002 美元,供成年人阅读使用 1 小时消耗 0.08 美元(8 美分);GPT4 则需 2.4 美元。 在搭建 AI 微信聊天机器人方面,极简未来平台的费用取决于使用的大模型和调用次数,按 Token 数量计费。如使用 GPT3.5 模型每次对话大约消耗不到 20 积分,平台有签到免费领积分福利,也可充值,19 元可兑换 10000 积分,能满足日常使用好几个月。
2024-12-19
我需要制作一个低成本刷航段的规划智能体
很抱歉,目前没有关于制作低成本刷航段规划智能体的相关内容。但一般来说,要制作这样的智能体,您可能需要考虑以下几个方面: 1. 数据收集:收集有关航班、票价、航线等相关信息。 2. 算法设计:运用合适的算法来优化航段选择和成本计算。 3. 规则设定:明确刷航段的规则和限制,以确保合法合规。 4. 成本评估:准确评估各种方案的成本,包括机票价格、附加费用等。 由于缺乏具体的案例和详细信息,以上只是一些初步的建议,希望能对您有所帮助。
2024-12-07