直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

gpt4O 介绍

回答

GPT-4o 是 OpenAI 迈向更自然人机交互的重要一步:

  • 它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。
  • 能在短短 232 毫秒内响应音频输入,平均为 320 毫秒,与人类对话响应时间相似。
  • 在英语文本和代码上的 GPT-4 Turbo 性能相匹配,在非英语语言的文本上有显著改进,同时在 API 中更快且便宜 50%。
  • 在视觉和音频理解方面表现出色。

关于型号可用性:

  • GPT-4o 是突破深度学习界限的最新成果,朝着实用可用性方向发展。过去两年致力于提高堆栈各层效率,能更广泛地提供 GPT-4 级别的模型,其功能将迭代推出,从今天开始扩展红队访问。
  • GPT-4o 的文本和图像功能今天开始在 ChatGPT 中推出,在免费套餐中提供,并向 Plus 用户提供高达 5 倍的消息限制。未来几周内在 ChatGPT Plus 中推出带有 GPT-4o 的新版本语音模式。

在语言标记化方面,20 种语言被选为新分词器跨不同语言系列压缩的代表,例如英语可实现 1.1 倍更少的代币(从 27 到 24)。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

OpenAI 春季发布会:GPT-4o

GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它可以在短短232毫秒内响应音频输入,平均为320毫秒,这与对话中的人类响应时间相似。它在英语文本和代码上的GPT-4 Turbo性能相匹配,在非英语语言的文本上也有显著改进,同时在API中也更快且便宜50%。与现有模型相比,GPT-4o在视觉和音频理解方面尤其出色。

OpenAI 春季发布会:GPT-4o

GPT-4o is our latest step in pushing the boundaries of deep learning,this time in the direction of practical usability.We spent a lot of effort over the last two years working on efficiency improvements at every layer of the stack.As a first fruit of this research,we’re able to make a GPT-4 level model available much more broadly.GPT-4o’s capabilities will be rolled out iteratively(with extended red team access starting today).GPT-4o是我们突破深度学习界限的最新一步,这一次是朝着实用可用性的方向发展。在过去的两年里,我们花了很多精力来提高堆栈每一层的效率。作为这项研究的第一个成果,我们能够更广泛地提供GPT-4级别的模型。GPT-4o的功能将迭代推出(从今天开始扩展红队访问)。GPT-4o’s text and image capabilities are starting to roll out today in ChatGPT.We are making GPT-4o available in the free tier,and to Plus users with up to 5x higher message limits.We'll roll out a new version of Voice Mode with GPT-4o in alpha within ChatGPT Plus in the coming weeks.GPT-4o的文本和图像功能今天开始在ChatGPT中推出。我们将GPT-4o在免费套餐中提供,并向Plus用户提供高达5倍的消息限制。我们将在未来几周内在ChatGPT Plus中推出带有GPT-4o的新版本语音模式。

OpenAI 春季发布会:GPT-4o

这20种语言被选为新分词器跨不同语言系列压缩的代表|||<br>|-|-|<br>|English 1.1x fewer tokens(from 27 to 24)<br>中文(简体)1.1x更少的代币(从27到24)|Hello,my name is GPT-4o.I'm a new type of language model,it's nice to meet you!<br>大家好,我叫GPT-4o。我是新型语言模型,很高兴见到你!|

其他人在问
GPT4o能免费用几次
ChatGPT 4o 可以免费体验,但免费体验次数很有限。截至 2024 年 5 月 13 日,Plus 用户在 GPT4o 上每 3 小时最多发送 80 条消息。免费套餐的用户将默认使用 GPT4o,且使用 GPT4o 发送的消息数量受到限制,具体数量会根据当前的使用情况和需求而有所不同。当不可用时,免费层用户将切换回 GPT3.5。
2024-10-26
chatgpt4o免费的模型和付费的模型有什么区别
ChatGPT 免费的模型(如 GPT3.5)和付费的模型(如 GPT4o 的 PLUS 套餐)主要有以下区别: 1. 知识更新时间:ChatGPT 3.5 的知识更新到 2022 年 1 月,ChatGPT 4o 的知识更新到 2023 年 10 月,而 ChatGPT 4 更新到 2023 年 12 月。 2. 智能程度:GPT3.5 的智能程度明显低于 GPT4o。 3. 功能:GPT3.5 无法使用 DALL.E3(AI 画图功能)、GPTs 商店和高级数据分析等插件。 4. 费用:想要使用更多功能更智能的 GPT4o 需要升级到 PLUS 套餐,收费标准是 20 美金一个月。GPT4 还有团队版企业版,费用更贵,一般推荐使用 PLUS 套餐即可。 此外,ChatGPT 4o 发布后,虽称可免费体验,但免费体验次数很有限。
2024-10-26
如何连接GPT4o
以下是连接 GPT4o 的方法: 1. 对于 ChatGPT Mac 客户端: 下载地址:persistent.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg 使用 Proxyman、Charles 或您喜欢的网络代理来进行以下操作(需要有 ChatGPT 付费账号,以及网络技术基础):以 ProxyMan 为例 登录一次以触发 API 调用 对 ChatGPT 的 App 启用 SSL 代理(需要配置好 ProxyMan 证书) 再登录一次以触发 API 调用 然后右键点击 ab.chatgpt.com/v1/initialize 选择本地映射,并将所有的 false 替换为 true 再尝试一次,您就应该能顺利登录了。 详细版图文教程: 2. 对于安卓系统: 先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡 然后在区 chatgpt 里订阅 Plus,操作如下截图 完成后即可开始使用 ChatGPT 4o
2024-08-18
gpt4o mini有关的文档
以下是关于 GPT4o mini 的相关文档信息: Open AI 发布了 GPT4o mini 模型。其 MMLU 得分为 82%,碾压其他同级别小模型。价格较低,为 0.15 美元/100 万 token 输入和 0.6 美元/100 万 token 输出,比 GPT3.5 Turbo 便宜超过 60%。具有 128k 的大上下文窗口,非常适合 RAG。GPT4o mini 在 API 中支持文本和图片,未来将支持文本、图像、视频和音频输入和输出。GPT4o mini 接替 3.5 成为 ChatGPT 中的免费模型,目前还不支持多模态,而且 4o mini 的 API 一旦涉及到图片 Token 数量也会大增。
2024-08-17
我想搞一个ChatGPT4o的账号,有什么办法吗?
以下是注册 ChatGPT 4o 账号的办法: 1. 访问官方网站:打开浏览器,输入。如有账号直接登录,没有的话点击“注册”。 2. 使用建议: 苹果用户:需要 ChatGPT 账号、美区 AppleID、谷歌账号。 安卓用户:需要 ChatGPT 账号、下载 GooglePlay、谷歌账号。 国外很多软件支持谷歌账号一键登录,ChatGPT 也可以用谷歌账号登录,非常方便。目前注册谷歌账号支持国内手机号码和国内邮箱验证,过程也非常简单。 注:使用以上软件需要会科学上网,不会的可以私信。以下是详细注册流程。
2024-08-12
gpt4o跟gpt4的区别是什么
GPT4o 与 GPT4 的区别主要体现在以下方面: 1. 模型评估:在 M3Exam 基准测试中,GPT4o 在所有语言上都比 GPT4 强。对于斯瓦希里语和爪哇语的视力结果,因相关语言只有 5 个或更少的视力问题而省略。 2. 型号可用性:开发人员可在 API 中将 GPT4o 作为文本和视觉模型访问。与 GPT4 Turbo 相比,GPT4o 速度快 2 倍,价格减半,速率限制高出 5 倍。未来几周计划向 API 中的一小群受信任的合作伙伴推出 GPT4o 新的音频和视频功能支持。 3. 任务处理:有别于 GPT4,GPT4o 在处理复杂约束及追问任务时,会首先主动询问用户的背景信息,以更好地判断用户的提问意图,总体显得更聪明。
2024-08-07
ChatGLM开发者团队介绍
ChatGLM 是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关信息如下: 地址: 简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 此外,基于 ChatGLM 还有在垂直领域微调的模型,如医疗领域的 MedChatGLM,其地址为: 。
2024-10-30
介绍一下智谱清言
智谱清言是由智谱 AI 和清华大学推出的大模型产品,其基础模型为 ChatGLM 大模型。 模型特点: 工具使用排名国内第一。 在计算、逻辑推理、传统安全能力上排名国内前三。 更擅长专业能力,但代码能力有优化空间,知识百科方面与其他第一梯队模型相比稍显不足。 适合应用: 场景广泛,可优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。 在较复杂推理应用上效果不错。 广告文案、文学写作方面也是很好的选择。 访问方式: PC 端: 移动端: 小程序端:搜索【智谱清言】进入【清影】智能体 在中国 AI 领域,智谱 AI 的模型具有开创性,其背后技术源自清华大学研发团队的科研成果转化。产品设计对标 ChatGPT,在逻辑推理和处理复杂提示词方面表现出明显优势。
2024-10-30
能否介绍一下ai的历史
人工智能(Artificial Intelligence)的历史源远流长。 早在 19 世纪,查尔斯·巴贝奇发明了计算机,用于按照明确的程序进行数字运算,现代计算机虽更先进,但仍遵循相同的受控计算理念。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为神经网络奠定基础。 1950 年,计算机先驱图灵最早提出图灵测试,作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开了著名的达特茅斯会议,正式提出“人工智能”一词,并确立其为一门学科。 此后近 70 年,AI 的发展起伏不定,曾两次引发人类对其毁灭世界的恐慌,热度时高时低。 在发展过程中,对于一些任务,如根据照片判断一个人的年龄,由于无法明确解法,无法编写明确程序让计算机完成,这类任务正是 AI 所关注的。 2022 年 11 月 30 日,OpenAI 发布基于 GPT 3.5 的 ChatGPT,引发了全球的 AI 浪潮。
2024-10-27
AI基本介绍
以下是关于 AI 的基本介绍: 新手学习 AI: 了解 AI 基本概念:建议阅读「」部分,熟悉术语和基础概念,包括主要分支(如机器学习、深度学习、自然语言处理等)及它们之间的联系。浏览入门文章,了解其历史、应用和发展趋势。 开始学习之旅:在「」中有为初学者设计的课程,特别推荐李宏毅老师的课程。还可通过在线教育平台(如 Coursera、edX、Udacity)按自己节奏学习并获取证书。 选择感兴趣模块深入:AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块,掌握提示词技巧。 实践和尝试:理论学习后通过实践巩固知识,尝试使用各种产品创作,知识库中有实践作品和文章分享。 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 AI 的应用场景: 医疗保健:包括医学影像分析、药物研发、个性化医疗、机器人辅助手术等。 金融服务:涵盖风控和反欺诈、信用评估、投资分析、客户服务等。 零售和电子商务:有产品推荐、搜索和个性化、动态定价、聊天机器人等。 制造业:包含预测性维护、质量控制、供应链管理、机器人自动化等。 AI 的基础内容: AI 背景知识:包括基础理论(人工智能、机器学习、深度学习的定义及关系)、历史发展(重要里程碑)。 数学基础:统计学基础(均值、中位数、方差等)、线性代数(向量、矩阵等)、概率论(条件概率、贝叶斯定理)。 算法和模型:监督学习(线性回归、决策树、支持向量机)、无监督学习(聚类、降维)、强化学习。 评估和调优:性能评估(交叉验证、精确度、召回率)、模型调优(网格搜索优化参数)。 神经网络基础:网络结构(前馈网络、卷积神经网络、循环神经网络)、激活函数(ReLU、Sigmoid、Tanh)。
2024-10-27
你能为我介绍一些最新的AI产品吗?能涉及变现的更好~
以下为您介绍一些最新的涉及变现的 AI 产品: 在电商领域: “电商:带货本地生活”,AI 数字人上岗带货本地生活电商,一个月多赚 3 万。 “电商:婴儿的四维彩超 AI 预测”,通过 AI 工具提前还原宝宝的四维彩超模样进行变现。 “电商:小红书 AI 绘画变现”,分享小红书最火的三种 AI 绘画类商品的变现方式。 在写作方面:“Grammarly、秘塔写作猫”是 AI 智能写作助手,利用自然语言处理技术辅助用户进行高质量写作,可检查语法、拼写错误并提供改进建议,以及进行智能润色和内容创作辅助。 在商品推荐方面:“淘宝拍照搜商品”通过图像识别为用户推荐相似商品;“大众点评智能推荐”基于用户口味偏好推荐美食。 在语音助手方面:“小爱同学、Siri”可根据语音识别和自然语言理解技术为不同需求定制专属语音助手,如控制智能家居、回答问题、进行语音交互和任务处理等。 在健身领域:“Keep 智能训练计划”利用数据分析和机器学习技术,根据用户数据制定个性化健身方案。 在客服方面:“阿里小蜜等电商客服”为企业提供智能客服解决方案,可自动回答客户问题,处理订单查询等任务。
2024-10-25
midjourney最新功能介绍
Midjourney 的最新功能包括: 1. 风格参考和个性化模型混合使用: 可以混合不同的风格参考融入到混合中,最终风格的强度取决于提示中分配给每种风格的顺序。 能混合多个sref 代码,也能将风格参考图像 URL 和 sref 随机代码混合使用,还可为单个代码或 URL 加权。 能混合多个模型个性化代码,并使用相同的符号进行加权混合。 2. 编辑器更新: 图像编辑器:允许从计算机上传图像,然后进行扩展、裁剪、重绘、添加或修改场景中的元素。还推出了“图像重纹理化模式”,会估算场景的形状,然后重新应用纹理,使所有光照、材质和表面都发生变化。所有图像编辑操作都可以通过文本提示和区域选择来控制,且编辑器兼容模型个性化、风格参考、角色参考和图像提示功能。 AI 审核系统:正在测试一个更加智能、更加细致的 V2 AI 审核系统,会从整体上检查提示、图像、绘制蒙版以及生成的输出图像。 3. 使用规则:由于这些功能非常新,在第一个发布阶段,将这些功能开放给已生成至少 10,000 张图像的用户(年度会员可用)和过去 12 个月内一直是月度订阅用户的用户。
2024-10-25