目前市面上能力较强的 AI 模型来自多家公司和机构。
OpenAI 的 GPT-4 是一个表现出色的大型多模态模型,在各种专业和学术基准测试中表现出与人类相当的水平。此外,OpenAI 还带来了其他优秀的模型,如 DALL·E 3 等。
Meta 开发的 Llama 3.1 是迄今为止最大版本,其在推理、数学、多语言和长上下文任务中能够与 GPT-4 相抗衡,标志着首次开放模型缩小与专有前沿的差距。
谷歌 DeepMind 与纽约大学团队开发的 AlphaGeometry 在奥林匹克级几何问题基准测试中表现优异。
中国的 DeepSeek、零一万物、知谱 AI 和阿里巴巴等开发的模型在 LMSYS 排行榜上取得了优异的成绩,尤其在数学和编程方面表现出色,且在某些子任务上挑战了 SOTA。
Mistral 7B 是一个具有 73 亿参数的模型,在所有基准测试上超越了 Llama 2 13B,在许多基准测试上超越了 Llama 1 34B,在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。
需要注意的是,AI 模型的能力评估会因不同的任务和应用场景而有所差异,且技术在不断发展和进步,新的更强的模型可能会不断涌现。
Llama 3.1是迄今为止最大版本,其在推理、数学、多语言和长上下文任务中能够与GPT-4相抗衡。这标志首次开放模型缩小与专有前沿的差距。上图为人们关于Llama 3.1 405B与GPT,Claude的评估,win:胜Tie:平Loss:输借助AlphaGeometry,符号推理引擎得以拯救谷歌DeepMind与纽约大学团队使用符号引擎生成了数百万条合成定理和证明,利用这些数据从零开始训练了一个语言模型。AlphaGeometry在语言模型提出新构造,与符号引擎执行推理交替进行,直至找到解决方案。令人印象深刻的是,AlphaGeometry在奥林匹克级几何问题基准测试中解决了30题中的25题,接近人类国际数学奥林匹克金牌得主的表现。第二好的AI表现仅得10分。它还展示了泛化能力——例如,发现2004年国际数学奥林匹克问题中的一个具体细节对于证明并非必要“尽管受到制裁,中国LLMs在排行榜上风头正劲”由DeepSeek、零一万物、知谱AI和阿里巴巴开发的模型在LMSYS排行榜上取得了优异的成绩,尤其在数学和编程方面表现尤为出色。中国的最强模型与美国生产的第二强前沿模型竞争,同时在某些子任务上挑战了SOTA。中国模型更能优先考虑计算效率,以弥补GPU访问的限制,并学会比美国同行更有效地利用资源。中国模型各有优势。例如,DeepSeek在推理过程中通过多头隐式注意力减少内存需求,并且改进了MoE架构。同时,零一万物更加关注数据集的建设而不是建筑创新。由于在像Common Crawl这样的流行存储库中相对缺乏数据,因此它更加关注建立强大的中文数据集来弥补不足。
OpenAI今年为我们带来了两个最佳AI模型,并将它们打包成一个无与伦比的聊天机器人,很难被超越。不过,别只看到树木而忽略了森林。大模型在各个方面都取得了进步,为我们带来的AI能力是大多数人在一年前无法想象的。我们可以用一点文本生成整个网站、演示文稿和头像。我们可以创造出任何我们想象的图像。明年这个类别会有什么?更多的生成式AI?「大型行为模型」?生成式口语语言模型?AGI?GPT-4(免费可用)——与人类水平相当的LLM:GPT-4是OpenAI在深度学习规模扩大方面的最新里程碑。GPT-4是一个大型多模态模型(接受图像和文本输入,输出文本),在各种专业和学术基准测试中表现出与人类相当的水平。Midjourney v5(免费)——令人惊叹的逼真AI图像-以及五指手:Midjourney V5模型是最新、最先进的模型,具有极高的一致性,擅长以更高分辨率解释自然语言prompt,并支持像使用tile这样的重复图案等高级功能。DALL·E 3(免费可用)——轻松将想法转化为极其精准的图像:现代文本到图像系统往往会忽略单词或描述,迫使用户学习提示工程。DALL·E 3代表了我们生成完全符合文本的图像能力的一大飞跃。Mistral 7B(免费)——迄今为止最优秀的70亿参数模型,Apache 2.0:Mistral 7B是一个具有73亿参数的模型,它:•在所有基准测试上超越了Llama 2 13B•在许多基准测试上超越了Llama 1 34B•在代码任务上接近CodeLlama 7B的性能,同时在英语任务上表现良好
用户在形成一些使用习惯后,可能会发现,如果引入内嵌的AI技术,他们的体验会变得更加理想。我觉得,这种技术在文字理解方面,可能会比大多数现有技术要好。这是有道理的。比如一个绘图软件或AI,要想绘制出优秀的作品,首先需要对图像有深刻理解。那么,谁拥有最好的语言模型呢?目前看来,是OpenAI和它的GPT-4模型。因为图像生成(无论是text to image还是text to video)的核心质量,实际上是由文本控制的。去掉图片,只用文字表达,其实要求的模型复杂度会小很多,因为人类对图像的容错率相对较高。但如果一句话语法或逻辑错误,我们很容易察觉。我们的大脑在处理视觉信息时可以进行一定程度的“脑补”,但对于语言,这种补偿是有限的。所以,对于我们这些普通人来说,文字的准确性仍然非常重要。