Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

openAI新出的o1是什么

Answer

OpenAI 于北京时间 9 月 13 号凌晨 1 点多宣布推出模型 o1-perview 与 o1-mini(真正的 o1 版本将在后续开放),拥有 Plus 版本的用户会陆续收到新模型权限,并可在 Web 客户端中尝鲜体验。

在评估结果方面:

  • o1 在 2024 美国数学奥林匹克竞赛(AIME)资格赛中跻身美国前 500 名学生之列。
  • o1 在竞争性编程问题(Codeforces)中排名第 89 个百分位(这个版本的模型还没发布),而 o1-perview 拿到了 62 个百分位。
  • 在物理、生物和化学问题的基准(GPQA),o1 与 o1-perview 都超过了人类博士水平的准确性。

关于“超过人类博士水平”的测试,OpenAI 在新 page 中答复:“我们还在 GPQA diamond 上评估了 o1,这是一个困难的智力基准测试,用于测试化学、物理和生物学方面的专业知识。为了将模型与人类进行比较,我们招募了拥有博士学位的专家来回答 GPQA-diamond 的问题。我们发现 o1 的表现超越了这些人类专家,成为第一个在这个基准测试上做到这一点的模型。”但 OpenAI 也表示“这些结果并不意味着 o1 在所有方面都比博士更有能力——只是说明该模型在解决一些预期博士能够解决的问题上更加熟练。在其他几个机器学习基准测试上,o1 改进了最先进的水平。”

推理模型的准确率不断攀升,这意味着 AI 技术可以渗透到更多行业、更多高精尖业务中去。OpenAI 推出的新模型为整个行业注入了强心剂,带来了新的活力和希望。从 OpenAI 提出的通往 AGI(通用人工智能)的分级来看,我们正在从第一级向第二级迈进,未来可能会见证 AI 从单纯的生成工具向真正的智能体转变。此外,4o 模型和 o1 在推理方面差距较大,红色线代表 4o 的得分,绿色线代表 o1 的得分,o1 在各项得分结果上均优于 4o。

Content generated by AI large model, please carefully verify (powered by aily)

References

OpenAI:我憋了个新大招儿,它叫o1-perview/mini

凌晨2点半写的这篇稿子,行了,也顾不上睡觉了,咱们就开门见山直接说吧!这回Sam可是真不放鸽子了。北京时间9月13号凌晨1点多,OpenAI宣布推出了模型o1-perview与o1-mini(真正的o1版本将在后续开放)。而拥有Plus版本的用户会陆续收到新模型权限,同时可以直接在Web客户端中进行尝鲜体验。OpenAI最近公布的模型发布计划中提到的"推理模型"已经成为业界热点。而这两个新模型正是该计划的具体实现。再加上从"草莓哥"的炒作到Sam Altman富有深意的暗喻,都让这个"推理模型"备受关注。虽然大家对它有所耳闻,但对其实际效果可能还不太清楚。为了直观地了解这个模型的真正能力,我们不妨看看下方的评估结果。左一:o1在2024美国数学奥林匹克竞赛(AIME)资格赛中跻身美国前500名学生之列。中间:o1在竞争性编程问题(Codeforces)中排名第89个百分位(这个版本的模型还没发布),而o1-perview拿到了62个百分位。最右:在物理、生物和化学问题的基准(GPQA)o1与o1-perview都超过了人类博士水平的准确性。

OpenAI:我憋了个新大招儿,它叫o1-perview/mini

但推理模型的准确率不断攀升、甚至达到完全可信的地步确实是一件非常惊喜又恐怖的事情。之前让模型干创意的活儿,现在又能干精确的活儿,这属于全场景覆盖!这意味着AI技术可以渗透到更多行业、更多高精尖业务中去!同时,我回想起老师曾经对我说过的一句话:"不管现在的大模型处理速度多慢,操作多么繁琐,只要能保证最终结果的正确性,它就拥有无限的可能性。"我觉得老师的话不无道理,不要看现在新模型的推理速度慢,但这些都可以通过增配新硬件去解决,只要钱到位,这都不是问题。况且,这也可能是慢思考系统的一种呢?你说对吧!再者,在今年上半年,甚至是上个月,很多人还在担忧大模型的前景。但OpenAI推出的新模型无疑给这个行业注入了一剂强心剂,为整个领域带来了新的活力和希望。这是令人赞叹和振奋的。更令人兴奋的是,如果结合OpenAI提出的通往AGI(通用人工智能)的分级来看,我们正在从第一级向第二级迈进。随着模型的不断完善,甚至后面出现GPT-5,我们将可能会慢慢见证AI从单纯的生成工具向真正的智能体转变。让我们睁开眼好好看看这世界,看看这一切。未来可期。以上。附:

OpenAI:我憋了个新大招儿,它叫o1-perview/mini

而且你会发现,4o这个模型也被OpenAI当作对标狠狠地刷了一把自家的脸。看完这个评测结果后,我觉得4o和o1在推理方面,基本等于电瓶车和宾利的差距了...不信你看下方详细测试结果这里的红色线代表4o的得分,而绿色线代表o1的得分,一眼扫过去,没有哪项得分结果是4o能盖过o1的。不过等等,这里有个问题,那就是:OpenAI声称的“超过人类博士水平”是怎么测的?OpenAI在新page中也对这个做了答复:“我们还在GPQA diamond上评估了o1,这是一个困难的智力基准测试,用于测试化学、物理和生物学方面的专业知识。为了将模型与人类进行比较,我们招募了拥有博士学位的专家来回答GPQA-diamond的问题。我们发现o1的表现超越了这些人类专家,成为第一个在这个基准测试上做到这一点的模型。”这么看来,这个测试还是较为可信的,不过OpenAI在“开大”以后,也谦虚了一把,他们是这样说的:“这些结果并不意味着o1在所有方面都比博士更有能力——只是说明该模型在解决一些预期博士能够解决的问题上更加熟练。在其他几个机器学习基准测试上,o1改进了最先进的水平。”

Others are asking
最近国内外 有什么新出的AI产品
以下是国内外新出的一些 AI 产品: 图像类产品: 国内: 可灵:由快手团队开发,用于生成高质量的图像和视频,图像质量高,最初采用内测邀请制,现向所有用户开放,价格相对较高,重度用户年费可达几千元,平均每月使用成本在 400 到 600 元,也有临时或轻度使用的免费点数和较便宜包月选项。 通义万相:在中文理解和处理方面表现出色,可选择多种艺术和图像风格,生成图像质量高、细节丰富,操作界面简洁直观、用户友好度高,能与阿里其他产品和服务无缝整合,重点是现在免费,每天签到获取灵感值即可,但存在某些类型图像无法生成、处理非中文语言或国际化内容不够出色、处理多元文化内容可能存在偏差等局限性。 搜索类产品: 国内:大模型厂商推出的 ChatBot 产品(智谱清言、Kimi Chat、百小应、海螺 AI 等),搜索厂商或创业团队推出的 AI 搜索产品(360 AI 搜索、秘塔、博查 AI、Miku 等)。 海外:Perplexity、You、Phind 等。 中国公司和团队的出海产品:ThinkAny、GenSpark、Devv 等。 PPT 类产品: 国内:爱设计 PPT,背后有实力强大的团队,对市场需求有敏锐洞察力,把握住了 AI 与 PPT 结合的市场机遇,已确立市场领先地位,代表了当前国内 AI 辅助 PPT 制作的最高水平,能提高制作效率并保证高质量输出。
2025-01-06
斯坦福大学新出的AI工具storm,storm的主要功能有哪些,如何使用
STORM 是斯坦福大学开发的创新写作系统,主要功能包括: 1. 自动化编写具有维基百科深度的长篇文章。 2. 通过模拟人类写作过程中的预写、起草和修订阶段,实现自动化信息收集和大纲创建。 关于如何使用,目前提供的信息中未明确提及具体的使用方法。但您可以通过以下途径获取更多使用相关的信息: 1. 访问相关链接:https://arxiv.org/abs/2402.14207 、https://x.com/xiaohuggg/status/1762308686259929162?s=20 。 此外,还有一种用于语音增强和去发声的随机再生模型 StoRM : 1. 代码获取:https://github.com/spuhh/storm 2. 演示查看:https://www.inf.unihamburg.de/en/inst/ab/sp/publications/storm 3. 论文查阅:https://arxiv.org/abs/2212.11851 其核心在于随机再生方法,能够结合预测模型和基于扩散的生成模型的优势,生成更清晰、更自然的语音输出。在实际应用中,可从受损的语音信号中恢复出干净的语音,且通过减少逆向扩散步骤的数量和避免使用复杂的修正器,显著降低了计算负担。在实验中,其在多个标准数据集上的表现均超过了现有的预测性和生成性语音增强方法。源代码和音频示例已公开,方便研究人员和开发者进一步探索和应用。
2025-01-03
斯坦福大学新出的AI工具storm
以下是关于斯坦福大学新出的 AI 工具 STORM 的相关信息: STORM 是斯坦福大学开发的创新写作系统,能够自动化编写具有维基百科深度的长篇文章。它通过模拟人类写作过程中的预写、起草和修订阶段,实现自动化的信息收集和大纲创建。相关链接:https://arxiv.org/abs/2402.14207 ,https://x.com/xiaohuggg/status/1762308686259929162?s=20
2025-01-03
如何可以使用到chatgpto1大模型
目前 ChatGPT 没有 ChatGPT1 这个大模型。ChatGPT 有多个版本,如 ChatGPT3、ChatGPT3.5、ChatGPT4 等。您可以通过以下方式使用 ChatGPT 相关模型: 1. 访问 OpenAI 的官方网站,按照其指引进行注册和使用。 2. 部分应用和平台可能集成了 ChatGPT 的接口,您可以在这些应用中体验其功能。 需要注意的是,使用 ChatGPT 时应遵循相关的使用规则和法律法规。
2024-11-16
GPT O1强在哪里
GPT O1 的强大之处主要体现在以下几个方面: 1. 在推理方面,与 4o 相比具有显著优势,各项得分结果均超越 4o。 2. 在 GPQA diamond 这一困难的智力基准测试中,表现超越了拥有博士学位的专家,成为首个在该基准测试上达到此成就的模型。 3. 在物理、化学、生物、数学和编程等领域的挑战性任务上,表现出色,如同博士生一样优秀,甚至在 IMO 和 Codeforces 竞赛中取得高分。 4. 具有更聪明的思考方式,会花更多时间思考问题,尝试不同策略,甚至能意识到自身错误。 5. 在遵循指令方面能力较强,且在“后训练”阶段可能存在增强指令遵循能力的环节,极大增强了逻辑推理类的指令遵循数据比例,进一步加强了基座模型的逻辑推理能力。 虽然目前暂时缺少像 ChatGPT 那样的网络浏览和文件上传功能,但在复杂推理任务上已经非常强大。
2024-09-27
O1和以前的有什么区别?
O1 与以前的模型相比,有以下区别: 1. 在人类偏好测试中,文字生成方面人类更倾向于 4o 的回复,而在数据分析、编码和数学等大量推理类别中,O1preview 的回复更受评测人员青睐。 2. O1 的出色推理表现源自思维链技术,且此次的思维链相比在 4o 上有很大改进,例如通过强化学习,O1 学会了磨练思维链并改进策略、识别和纠正错误、分解棘手步骤、尝试不同方法等。 3. 作为早期模型,O1 还不具备使 ChatGPT 有用的一些功能,如浏览网页获取信息、上传文件和图像。但对于复杂推理任务是重大进步,代表了新的 AI 能力水平。 4. 在一些竞赛和基准测试中表现出色,如在 2024 美国数学奥林匹克竞赛(AIME)资格赛中跻身美国前 500 名学生之列,在竞争性编程问题(Codeforces)中 o1perview 拿到 62 个百分位,在物理、生物和化学问题的基准(GPQA)中 O1 与 O1perview 都超过了人类博士水平的准确性。
2024-09-16
OpenAI过去12天的发布会总结
以下是 OpenAI 过去 12 天发布会的总结: 自媒体记录方面: 夕小瑶科技说:o3 发布,可能影响码农工作。 孔某人的低维认知:OpenAI 圣诞 12 天总评,感谢大佬赏饭。 MAX 01Founder:一文详解 o3,虽接近 AGI 但使用成本高。 南瓜博士:使用 o3 钱包和脑子可能不够。 数字生命卡兹克:OpenAI 正式发布 o3,通往 AGI 路上已无障碍。 具体发布内容: Day12:o3 与 o3 mini 正式亮相。 Day11:ChatGPT 桌面应用,Option+空格快速唤起。 Day10:OpenAI 发布电话倾诉功能 18002428478。 Day9:o1 满血版 API 和 4o 实时语音 API 更新。 Day8:AI 搜索功能免费开放,并支持实时语音搜索。 Day7:ChatGPT 全新“项目”功能发布。 Day6:实时视频通话&圣诞老人模式正式上线。 Day5:ChatGPT 与 Apple 的深度合作。 Day4:直播“翻车”的 Canvas。 Day3:Sora 终于上线,有案例和功能详解。 Day2:微调 O1 模型,低成本高效率。 Day1:强化学习微调的实操案例。 宝玉日报 12 月 18 日: AI 架构与技术选型的 4 条原则:选主流框架、确保测试覆盖率、避免私有框架、采用模块化设计。 OpenAI 12 天发布会第 9 天:o1 API 正式版速度更快成本降低,支持多种新功能;语音交互升级,引入 WebRTC 支持,处理费用降低;新增偏好微调功能和工具包,简化 API 密钥申请流程。 易观分析报告预测了 AI 技术未来的关键发展方向,德邦证券报告对 OpenAI 十二日发布会进行深度总结,认为随着大模型能力提升和应用场景扩展,AI 应用商业价值有望实现,建议关注相关领域。
2024-12-31
openai
以下是关于 OpenAI 的相关信息: AGI 的 5 个等级: 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 推理者(Reasoners):具备人类推理水平,能解决复杂问题,如 ChatGPT,可根据上下文和文件提供详细分析和意见。 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品执行任务后仍需人类参与,尚未达到完全智能体水平。 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可预测蛋白质结构,加速科学研究和新药发现。 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 模型: GPT4(Beta):一组改进 GPT3.5 的模型,可理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,可理解并生成自然语言或代码。 DALL·E(Beta):可以在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper(Beta):可以将音频转换为文本的模型。 Embeddings:一组可以将文本转换为数字形式的模型。 Codex(Limited Beta):一组可以理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:可以检测文本是否敏感或不安全的微调模型。 GPT3:一组可以理解和生成自然语言的模型。 GPT、DALL·E、Sora 相关:Sora 的出现证明了 OpenAI 试图让计算机模拟真实物理世界的野心及对自身技术路线的坚持。从 OpenAI 发布的 Sora 的技术报告中可看到对过往大语言模型训练成功经验的复用。加州大学伯克利分校计算机科学 PHD、知乎作者 SIY.Z 从技术实现上分析了 Sora 成功的部分原因,以及从商业和技术趋势上分析了 OpenAI 能跑通全部技术栈的原因,并尝试预测了 OpenAI 下一步的进展。
2024-12-27
openai 发布的sora最新模型中,生成视频的提示词与一般问答提示词有什么区别或者注意事项?
Sora 是 OpenAI 于 2024 年 2 月发布的文本到视频的生成式 AI 模型。 生成视频的提示词与一般问答提示词的区别和注意事项如下: 1. 对于视频生成,神经网络是单射函数,拟合的是文本到视频的映射。由于视频的动态性高,值域大,因此需要丰富且复杂的提示词来扩大定义域,以学好这个函数。 2. 详细的文本提示能迫使神经网络学习文本到视频内容的映射,加强对提示词的理解和服从。 3. 和 DALL·E 3 一样,OpenAI 用内部工具(很可能基于 GPT4v)给视频详尽的描述,提升了模型服从提示词的能力以及视频的质量(包括视频中正确显示文本的能力)。但这会导致在使用时的偏差,即用户的描述相对较短。OpenAI 用 GPT 来扩充用户的描述以改善这个问题,并提高使用体验和视频生成的多样性。 4. 除了文本,Sora 也支持图像或者视频作为提示词,支持 SDEdit,并且可以向前或者向后生成视频,因此可以进行多样的视频编辑和继续创作,比如生成首尾相连重复循环的视频,甚至连接两个截然不同的视频。 以下是一些 Sora 的案例提示词,如:“小土豆国王戴着雄伟的王冠,坐在王座上,监督着他们广阔的土豆王国,里面充满了土豆臣民和土豆城堡。”“咖啡馆的小地图立体模型,装饰着室内植物。木梁在上方纵横交错,冷萃咖啡站里摆满了小瓶子和玻璃杯。”“一张写有‘SORA’的写实云朵图像。”“一群萨摩耶小狗学习成为厨师的电影预告片‘cinematic trailer for a group of samoyed puppies learning to become chefs’”
2024-12-27
openai
OpenAI 的相关信息如下: 模型: OpenAI API 由多种具有不同功能和价位的模型提供支持,还可通过微调针对特定用例对原始基本模型进行有限定制。 具体模型包括:GPT4(Beta),是一组改进 GPT3.5 的模型,能理解和生成自然语言或代码;GPT3.5,是一组改进 GPT3 的模型,能理解并生成自然语言或代码;DALL·E(Beta),能在给定自然语言提示的情况下生成和编辑图像;Whisper(Beta),能将音频转换为文本;Embeddings,能将文本转换为数字形式;Codex(Limited Beta),能理解和生成代码,包括将自然语言转换为代码;Moderation,能检测文本是否敏感或不安全的微调模型;GPT3,能理解和生成自然语言。 为何能跑通所有 AGI 技术栈: 方法论明确:通用模型能用到更多数据,减少技术栈,OpenAI 未来可能会继续走通用模型的道路,降低微调等特化的需求,继续增加模型的上下文长度。 用一个模型为另一个模型提供标注:OpenAI 的 Dall E 和 Sora 都用到了大量可能来自于 GPT vision 的数据标注,未来可能会继续加强各个模型的连接。 Transformer 架构:其在各个模态和技术栈具有优势,能复用模型参数和使用一套基础设施框架训练不同模型,新模型若要取代,需通过缩放定律的检验。 稀疏模型。
2024-12-25
openai 12天都有哪些内容
以下是 OpenAI 12 天相关的内容: 12 月 18 日: API 正式版:速度更快,成本降低 60%,支持视觉识别、函数调用、结构化输出等功能。 语音交互升级:引入 WebRTC 支持,12 行代码即可实现实时语音交互,音频处理费用降低 60%。 偏好微调功能:让 AI 回答更具个性化,企业 AI 准确率提升显著。 新增 Go 和 Java 工具包,简化 API 密钥申请流程。 12 月 12 日: 苹果设备深度集成 ChatGPT,可通过 Siri 实现文档总结、任务分配、节日创意等操作。 多平台无缝衔接:支持 iPhone、iPad 和 Mac,涵盖 Siri 集成、写作工具增强、视觉智能分析等多种应用场景。 实用场景:圣诞派对策划、PDF 总结、歌单生成、视觉智能评选毛衣创意等功能演示,体现全新交互体验。 12 月 5 日: OpenAI 近日宣布将举行为期 12 天的活动,期间每天直播展示新功能或工具。 DeepMind 发布了基础世界模型 Genie 2,可以通过一张图片生成可操作的 3D 环境,实现智能体的实时交互与行为预测。 真格基金投资副总裁 Monica 在其播客「OnBoard!」发布的最新一期对谈中,与在一线大模型机构有实际训练大语言模型(LLM)经验的研究员针对 OpenAI o1 模型进行了三个多小时的拆解与解读。强化学习如何给大语言模型带来新的逻辑推理能力?这种能力的来源、实现方式和未来潜力又是怎样的?o1 带来的「新范式」会对行业有怎样的影响?
2024-12-20
openai发布会内容
以下是关于 OpenAI 发布会的相关内容: 1. 12 月 20 日,OpenAI 发布 AI 大模型风险防范框架文件,OpenAI 董事会有权决定发布新 AI 模型,框架文件提出防范 AI 大模型灾难性风险的路线图,董事会可推翻领导团队关于 AI 模型发布的决策。相关链接:https://openai.com/safety/preparedness 2. 12 月 12 日,OpenAI 连续 12 天 AI 发布会的第五天完整视频(中英文双语字幕),亮点功能包括苹果设备深度集成 ChatGPT,可通过 Siri 实现文档总结、任务分配、节日创意等操作,多平台无缝衔接,涵盖多种应用场景,实用场景包括圣诞派对策划、PDF 总结、歌单生成、视觉智能评选毛衣创意等功能演示,体现全新交互体验。相关链接: 3. OpenAI 将在 11 月 6 日举办首次开发者大会,会上将发布重要更新,目标是让开发者能够更快捷和廉价地开发基于大模型的应用。此次更新最让人期待的部分是将推出 Stateful API,理论上可将大模型应用的开销削减为原来的二十分之一。相关链接:https://mp.weixin.qq.com/s/NPqAeSl3NQ0_wbHzsJSw
2024-12-19