以下是关于 GPT4o mini 的相关文档信息:
Open AI 发布了 GPT-4o mini 模型。其 MMLU 得分为 82%,碾压其他同级别小模型。价格较低,为 0.15 美元/100 万 token 输入和 0.6 美元/100 万 token 输出,比 GPT-3.5 Turbo 便宜超过 60%。具有 128k 的大上下文窗口,非常适合 RAG。GPT-4o mini 在 API 中支持文本和图片,未来将支持文本、图像、视频和音频输入和输出。GPT-4o mini 接替 3.5 成为 ChatGPT 中的免费模型,目前还不支持多模态,而且 4o mini 的 API 一旦涉及到图片 Token 数量也会大增。
Open AI居然还有货,发布了GPT-4o mini模型。MMLU得分为82%,碾压其他同级别小模型。价格也很低为0.15美元/100万token输入和0.6美元/100万token输出。比GPT-3.5 Turbo便宜超过60%。具有128k的大上下文窗口,非常适合RAG。GPT-4o mini在API中支持文本和图片,未来将支持文本、图像、视频和音频输入和输出。GPT-4omini接替3.5成为ChatGPT中的免费模型,目前还不支持多模态,而且4o mini的API一旦涉及到图片Token数量也会大增。
性能匹敌GPT4的模型出来了Gemini在多个领域的性能达到了最先进的水平。例如,Gemini Ultra在MMLU(大规模多任务语言理解)上的表现超过了人类专家,这是一个测试世界知识和问题解决能力的组合,包括数学、物理、历史、法律、医学和伦理等57个科目。Gemini被设计为天生的多模态模型,从一开始就在不同模态上进行预训练,然后通过额外的多模态数据进行微调,以进一步提高其有效性。这使得Gemini能够从根本上更好地理解和推理各种输入。可以先去Bard试一试Gemini Pro模型了(开美国节点)。https://bard.google.com/chat【目前开启条件存疑,我使用了美国加州IP+默认语言为英语,但是进入bard的设置里并没有模型选项可以修改】
在AI领域,这是非常重要的一周,因为OpenAI和Google都发布了重大更新。这次更新非常重要,因此我们决定与消费者合作伙伴Bryan Kim和Justine Moore一起,以一种新的形式进行解析。我们讨论了那些已经具备语音功能的多模态助手,同时也探讨了为什么不同音频之间存在差异,以及速度和个性等细微之处为何如此重要。