目前消耗大量算力的行业和企业主要包括以下方面:
对于小公司而言,直接参与基础设施建设机会较小,但为当地企业提供 AI 训练的算力支持,并配备服务团队帮助整理知识、寻找业务场景、做垂直训练和微调等,可能存在一定机会。
周鸿祎:我纠正一下,刚才那个小伙子给我挖了一个坑,我真的不是中国最懂AI的人,中国有很多懂AI的人,人家作为科学家不爱表达,不说。还有很多懂AI的人不屑于跟你们交流,还有很多懂AI的人他讲你也听不懂。我只是恰好喜欢思考,用普通老百姓的语言能够把一些东西会的由浅入深。第二,我觉得要弄AI就上我的课,我今天讲了AI认知方面的东西,先建立AI的信仰,然后要去使用一些AI的产品,建立一些基本的了解,下场我专门讲企业级AI如何做,你就参加下一节课好了。提问:我是在北京做拍卖公司的,江苏有一个数字科技公司。所以,我想问一下,做我们普通企业,对底层的基础设施还有没有什么样的一个前景?底层的基础设施和应用场景不是两个入口吗?周鸿祎:小公司肯定就不要碰基础设施了,基础设施现在要么是做云,在云端有很多显卡,智算中心的服务是非常巨大的,我不觉得会有小公司的机会。但是,如果给当地的企业做AI训练,提供一些算力支持,我觉得可能是有一定的机会。但是,你就要提供一支服务团队,因为你光有算力是不够的,当地的企业需要有人帮他整理知识,寻找业务场景,做垂直训练,做微调,最后做业务的融合,你得有一支服务的力量才能把你的算力能发挥出来,所以你应该找个合作伙伴。提问:中国互联网现在过度移动化,导致PC上,很多巨头网站,像新浪、京东,PC端网站十几年都不更新了。但是,我们看到AI也好,国外很多创新的产品也好,都是从PC端开始参与的,这个趋势在您看来是一个不好的,是未来会扭转的,还是说中国来说就是一个合理的现象?
类比电力革命,从第一个灯泡被点亮到首座发电设施被发明出来,花了十年时间,然后又花了五十多年渗透到各行各业;这一轮AI革命的起点应该是2012年的AlexNet,由神经网络驱动的人工智能再次回到历史舞台,差不多也是十年后,革命意义的ChatGPT诞生,完全证明了在有效的架构Transformer之上,叠加算力和数据就能出奇迹;这个组合就像发电站一样可以源源不断的输出智能,后面要做的事情就是扩大规模的同时降本增效,覆盖全行业。配图3.04:我们还处于AI革命的早期去年八月,Elon Musk在首次对外演示Tesla FSD12的一次Twitter Space中,提到他对算力和能源的看法:“我们90%的数据中心都变成为算力中心,提供加速计算;人类很快会变成强计算依赖,未来80-90%的能源都会用在计算上”。再回头看看我们现在的基础设施之中,用于AI算力的占比有多少?大约2%,Coatue在今年初的一份LP报告中提到了这个数据。现在正处于AI基础设施第二轮的升级浪潮之中:AI服务器的占比:9%AI在整个半导体行业的收入占比:10%AI数据中心电力消耗的占比(美国):2+%AI云计算收入的占比(Amazon&Microsoft):~3%从百分之九到百分之九十,AI数据中心的升级才刚刚开始。因此,这次智能革命,会让芯片和数据中心业务最先受益,从Nvidia的股价就能看出;另外业务用量的提升,AI云计算收入,其实主要是模型托管的收入,将成为云计算公司的主要收入。配图3.05:AI对电力消耗的预估
在边缘,拥有最佳使用场景的将胜出。中心算力:科技巨头要发展终端算力,其一,是为了缓解云端的瓶颈,未来大多数的智能任务都是简单的能在终端直接完成的;其二,云端必须承担复杂的推理任务,这是个人、企业还有科研的高级智能需求;最后一个最重要的任务就是训练模型了。Elon Musk说接下来拥有100亿美元以上的算力投入的公司,才能进入AI研发的第一梯队,所以xAI就立刻宣布了计划用十万块H100连成一个巨大的集群,称之为“Gigafactory of Compute”;不过截止到目前,根据SemiAnalysis透露的消息,Google才是真正的GPU Rich,他们自家的TPU加上Nvidia的GPU,算力多到溢出,现在训练Gemini最新版的算力规模高达~1e26 FLOPS,比OpenAI用来训练GPT-5的要大四倍左右。所以OpenAI才要拉上微软,让他出资一千亿美金打造史上最豪华的算力中心StarGate,算力能飙升到多少尚不清楚,但设计中5G瓦的电力需求,已经占到2023全美国数据中心能耗的70%了,看来投资核聚变势在必行。。在云端,拥有最多算力和最优数据的将胜出。Apple在最新的WWDC正式发布了Apple Intelligence,其中架构上最有趣的部分就是Apple’s On-Device and Server Foundation Models,边缘和远端混合的组合模型,用Private Cloud Computing技术端到端加密保证用户数据安全。在这个架构之下,每个iCloud用户都能够拥有属于自己独特的微调模型,做到基础模型跟着用户一起进化。Apple正在用自己边缘都优势弥补大语言模型的后发劣势。配图3.07 Apple Intelligence-Private Cloud Computing