以下是关于头部公司为了 AI 花费情况的一些信息:
降低期望值还有另一个原因。谷歌和其他公司多年来一直在开发和应用AI。虽然OpenAI已投入10亿美元(主要来自Musk),拥有一支由研究人员和工程师组成的王牌团队,并且肩负着崇高的使命,但它对如何实现目标毫无头绪。Altman还记得小团队聚集在Brockman公寓里的一个时刻,当时他们还没有办公室。“我当时想,我们该怎么办?”
去年,大部分企业的生成式人工智能支出毫不奇怪地来自“创新”预算和其他一次性资金池。然而,到了2024年,许多头部企业正在将这些支出重新分配到更为永久的软件预算项上;不到四分之一的人表示今年的生成式人工智能支出将来自创新预算。在较小的范围内,我们也开始看到一些头部企业将生成式人工智能预算用于节省人力成本,特别是在客户服务方面。如果这种趋势持续下去,我们认为这将是未来生成式人工智能支出显著增加的先兆。一家公司提到,他们基于LLM技术的客户服务每通电话节省了约6美元,总体节省了约90%的成本,这是增加八倍投资于生成式人工智能的原因之一。以下是参与调查的企业如何分配LLM支出的总体情况:
这就是我们常说的“一大笔钱”——尤其是对于一个新兴市场而言。其中大部分的钱都花在了三大云上:AWS、谷歌云(GCP)和微软Azure。三大云每年花费超千亿美元的资本支出以确保它们拥有最全面、最可靠、最具成本优势的云平台。尤其在生成式AI领域,三大云还受益于有限的供给,因为它们可以优先使用稀缺的硬件(如[英伟达](https://xueqiu.com/S/NVDA?from=status_stock_match)的A100和H100 GPU)。眼下,我们看见该领域的竞争也开始出现。甲骨文等挑战者已经通过巨额的资本支出和销售激励进军市场;一些提供针对大模型开发人员提供解决方案的初创公司,如Coreweave和Lambda Labs也正在快速发展,它们在成本、可用性和个性化支持上展开角逐。此外,初创公司还公开更细粒度的资源抽象(即容器),而受限于GPU虚拟化,大型云厂商只提供虚拟机实例迄今为止,生成式AI领域最大的幕后赢家,可能是运行了绝大多数AI工作负载的[英伟达](https://xueqiu.com/S/NVDA?from=status_stock_match)(NVIDIA)。