GPT-4o 是 OpenAI 春季发布会上推出的一款模型,具有以下特点:
GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它可以在短短232毫秒内响应音频输入,平均为320毫秒,这与对话中的人类响应时间相似。它在英语文本和代码上的GPT-4 Turbo性能相匹配,在非英语语言的文本上也有显著改进,同时在API中也更快且便宜50%。与现有模型相比,GPT-4o在视觉和音频理解方面尤其出色。
GPT-4o has safety built-in by design across modalities,through techniques such as filtering training data and refining the model’s behavior through post-training.We have also created new safety systems to provide guardrails on voice outputs.GPT-4o通过过滤训练数据和通过训练后改进模型行为等技术,在设计上具有跨模态的内置安全性。我们还创建了新的安全系统,为语音输出提供护栏。We’ve evaluated GPT-4o according to our我们根据GPT-4o评估了[Preparedness Framework](https://openai.com/preparedness)and in line with our[voluntary commitments](https://openai.com/index/moving-ai-governance-forward/)。Our evaluations of cybersecurity,CBRN,persuasion,and model autonomy show that GPT-4o does not score above Medium risk in any of these categories.This assessment involved running a suite of automated and human evaluations throughout the model training process.We tested both pre-safety-mitigation and post-safety-mitigation versions of the model,using custom fine-tuning and prompts,to better elicit model capabilities.准备框架,并符合我们的自愿承诺。我们对网络安全、CBRN、说服力和模型自主性的评估表明,GPT-4o在这些类别中的任何一个类别中的得分都不超过中等风险。该评估涉及在整个模型训练过程中运行一套自动化和人工评估。我们使用自定义微调和提示测试了模型的安全缓解前和安全缓解后版本,以更好地激发模型功能。GPT-4o has also undergone extensive external red teaming with 70+ GPT-4o也经历了广泛的外部红队,
GPT-4o完全能力比Whisper large v3更好地转录音频它可以将音频整理成会议记录可以将音频从一种语言翻译成另一种语言总结音频所有这些都是零样本/少样本学习从语音合成的角度来看,它可以:通过提示创建语音角色-它说话的速度、情感等跨语音类型合成(语音克隆)长格式和短格式语音合成跨语言合成所有这些都只需要文本/音频指导。它使用的标记数量减少了2-3倍,即更好的标记器,但当然词汇量更大。从视觉方面来看,它可以:生成更符合提示的图像总结视频创建3D资产光学字符识别等等GPT-4o API — 2倍快,半价,5倍访问限制(与GPT4-turbo对比)