目前 AI 仍处于不断发展的阶段,尚未完全成熟。
人类是工具的创造者,每一代都在前人的基础上创造出更强大的工具,如今 AGI 成为了人类进步的又一工具。长期以来,人类创新推动生活各方面繁荣改善,AI 也在持续快速发展。
例如,Transformer 架构早在 2017 年就已提出,但 AI 近几年才爆发,其中神经网络的规模是重要影响因素。以 GPT 模型为例,从 2018 年第一代的 1 亿左右参数量,到 2023 年第四代的万亿规模,规模越大智能程度越高,且在达到一定规模后出现“涌现”能力,智能程度飞速上升,但这种“涌现”出现的机理目前尚无统一解释。
在未来,AI 有望在多个领域取得进展,如 2024 年内,图片-超短视频的精细操控、AI 音频能力、“全真 AI 颜值网红”、游戏 AI NPC、AI 男/女朋友聊天、实时生成的内容、AI Agent 等方面会有发展;2025 - 2027 年,AI 3D 技术、全真 AI 虚拟人、AR/VR 技术、具身智能等技术可能会有明显突破。
然而,AI 立法、伦理讨论仍大规模落后于技术进展,AI 造成的 DeepFake、诈骗、网络攻击等问题开始引发担忧,且可能导致结构性失业等社会问题。
(*在此处使用AGI一词,目的是为了清晰地沟通。我们在这里使用“AGI”这个词,是为了把意思说清楚,避免断章取义的解读,并不是想借此修改或重新解读我们和微软之间现有合作关系的那些定义和流程。我们完全期望能和微软长期合作下去。)⼈类是⼯具的创造者,拥有与⽣俱来的理解和创造驱动⼒,这推动世界对我们所有⼈都越来越好。每⼀代⼈都在前⼈的发现基础上再接再厉,创造出更强⼤的⼯具⸺电⼒、晶体管、计算机、互联⽹,⽽很快就会是AGI。长期以来,⼈类创新时断时续却总体稳步向前,让⼈们的⽣活在⼏乎各⽅⾯都获得了原本难以想象的繁荣与改善。从某种意义上说,AGI只是⼈类共同搭建的这座不断增⾼的进步脚⼿架上的⼜⼀个⼯具。但从另⼀个⻆度来看,它⼜像某种开端,让⼈忍不住想说“这次不⼀样”;未来⾯临的经济增长看起来令⼈惊叹,我们可以想象⼀个世界⸺在这个世界⾥,我们可以治愈所有疾病,拥有更多的时间陪伴家⼈,并能充分发挥我们的创造潜能。⼗年后,也许地球上的每个⼈都能完成的成就将超过今天最具影响⼒的个⼈所能达到的⽔平。我们持续看到AI的快速发展。以下是关于AI经济学的三点观察:1.AI模型的智能⽔平⼤致等于⽤于训练和运⾏它的资源的对数。这些资源主要是训练计算量、数据和推理计算量。看起来只要花费⾜够多的资⾦,就能获得连续且可预测的收益;预测这⼀点的扩展定律在多个数量级上都相当准确。
2024年内图片-超短视频的精细操控:表情、细致动作、视频-文字匹配有一定操控能力的生成式短视频:风格化、动漫风最先成熟;真人稍晚AI音频能力长足进展:带感情的AI配音基本成熟“全真AI颜值网红”出现,可以稳定输出视频,可以直播带货游戏AI NPC有里程碑式进展,出现新的游戏生产方式AI男/女朋友聊天基本成熟:记忆上有明显突破,可以较好模拟人的感情,产品加入视频音频,粘性提升并开始出圈实时生成的内容开始在社交媒体内容、广告中出现AI Agent有明确进展,办公场景“AI助手”开始有良好使用体验2AI的商业模式开始有明确用例:数据合成、工程平台、模型安全等可穿戴-全天候AI硬件层出不穷,虽然大多数不会成功中国AI达到或超过GPT4水平;美国出现GPT5;世界上开始现“主权AI”华为昇腾生态开始形成,国内推理芯片开始国产替代(训练替代要稍晚)AI造成的DeepFake、诈骗、网络攻击等开始进入公众视野,并引发担忧AI立法、伦理讨论仍然大规模落后于技术进展……2025-2027AI 3D技术、物理规则成熟:正常人无法区别AI生成还是实景拍摄全真AI虚拟人成熟:包含感情的AI NPC成熟,开放世界游戏成熟;游戏中几乎无法区别真人和NPCAR/VR技术大规模商用接近AGI的技术出现人与AI配合的工作方式成为常态,很多日常决策开始由AI来执行AI生产的数据量超过全人类生产数据量,“真实”成为稀缺资源具身智能、核聚变、芯片、超导、机器人等技术有明显进展突破“人的模型”出现,出现“集中化AGI”与“个人AGI”的历史分叉AI引发的社会问题开始加重,结构性失业开始出现AGI对于地缘政治的影响开始显露……"Limit of Understanding";Yifei Gong 2024,with Dall-E
你可能注意到了,Transfomer架构在2017年就被提出了,但是AI似乎是最近几年才爆发的。那说明一定还有其它的重要因素影响了AI的发展。最重要的因素之一就是神经网络的规模。还记得我们之前说到的神经网络中每条连接的权重和每个节点的阈值是这个神经网络最重要的参数,它们事实上就是AI学习到的知识。那么,参数的大小一定程度上也体现了AI的知识多少和智慧水平。那么参数越大应该就越聪明咯?我们拿最早通过图灵测试的GPT模型为例。在2018年的时候,它的第一代模型参数量只有1个亿左右,第二代是15个亿,第三代是近两千亿,2023年的第四代模型到达了万亿规模(估计)。也正是第四代模型,才跨越了图灵测试的标准。这也是为什么现在的这一类AI又被大家成为大模型。因为“大”确实是它的一个很重要的特征。有人给GPT的模型做了一个可视化,这里每个小点都是一个数,可以从视觉上感受一下第三代的千亿模型是多么庞大的规模。目前大家使用的万亿模型已经超越了这个量级,未来可能会更多。事实上,大模型的“大”远非这么简单。在GPT3之后,人们发现了大模型的“涌现”能力。图中的图表是随着模型参数的增长在一些任务上AI完成的正确程度,也可以看作AI的智能度。可以看到,在某一个模型规模之下,即使模型参数增加了,AI的智能度始终是在非常低的水平徘徊;但是超过一个规模值之后,AI的智能程度会随着模型参数的增加飞速上升,能够到达原先无法企及的程度。这些智能就像是“涌现”出来一样。在参数量到一定规模以上,AI像是“开悟”了,会突然变得聪明很多,并且能学会“举一反三”。目前,对于这种“涌现”出现的机理,还并没有统一的解释。可以说,目前AI的发展,与其说是发明,其实更像是一种“发现”。