以下是近几个月中国 AI 行业的一些重要进展:
[title]翻译:AI行业分析:50个访问量最大的AI工具及流量行为[heading2]AI行业:过去12个月的流量增长在过去12个月里,人工智能行业是我们长期以来看到的最重要的技术发展之一。在我们研究的起始月份(2022年9月)期间,我们分析的工具产生了2.418亿次访问。正如您在图表中看到的,所有50个工具的总流量在研究期间增长了10.7倍。但在2023年8月的最后一个月,这些工具产生了惊人的28亿次访问量。从这个角度来看,从研究开始一个月到研究结束,流量增加了26亿。这相当于在研究的12个月内平均每月访问量增加2.363亿次。但这一切从哪里开始呢?这一飞跃真正从去年11月开始——当时ChatGPT成为有史以来最快达到100万用户的平台(仅用了5天)。在最初的繁荣之后,炒作一直持续攀升,直到2023年5月,月访问量达到峰值约41亿。这是我们第一次看到行业流量回落12亿。整个期间的平均流量为每月20亿。但有趣的是,如果我们只看最近6个月,每月平均流量为33亿。像人工智能这样的新兴技术趋势能引起如此大的兴趣是非常罕见的。即使在12亿次访问量回落和下降之后,人们的兴趣仍然巨大-行业总兴趣徘徊在上一年增长10.7倍左右。从这个角度来看,风投和投资者可以在人工智能竞赛中挑选几乎任何一匹大马,并在短短一年内安全地实现3-10倍的增长(假设兴趣反映在财务和用户基础上)。
[title]AGI万字长文(上)| 2023回顾与反思[heading1]上篇:2023,风暴的前奏[heading2]<7>国内进展与卡脖子从业内人的角度,ChatGPT和GPT4的出现时最令人惊讶的,不是它的能力,而是保密工作做的太好。2023之前国内AI行业还处在沾沾自喜,自认为和美国只有个把月差距,而且还有人口数据优势;这种论调一下子被GPT4打回了原形。OpenAI在国内完全没有预警的情况下,直接拉开2年技术差距。具体原因,可能是国内的骄傲自大,可能是被之前Google主推的T5技术路线带偏,也可能是因为AGI实在是影响过于巨大,FBI、美国国防部这些国家机关不可能没和OpenAI打过招呼。OpenAI的成功是大力出奇迹,所以23年上半年国内也笃信只要有卡有钱就可以“大炼钢铁”。那时不论是纷纷囤卡招人,研究类GPT架构的大厂们,还是讲着中国OpenAI的故事,拿着巨额融资的创业公司们,都想要第一个创造国产AGI。而到了下半年,在试验了一番发现不容易之后,又纷纷转向要做“垂直应用”、“商业化”;反而不提AGI了。这个转向是短视的,甚至是致命的。2023年,中美在AGI技术的差距并没有缩小。现在,国内最领先的模型水平大概在准ChatGPT3.5的水平,和GPT4还有不小差距;甚至还不如临时拼凑的Mistral团队的水平。大厂。大厂们无论是人才、GPU、数据,还是资金储备都是可以冲击AGI的,不过从实际效果上来看还并没有明确亮点。但与此同时,受内部短期考核压力的裹挟,大多数力量应该都放在卷新产品圈地盘和向上汇报工作上了。从另一个角度,这些模型虽然能力一般,但和业务的结合都是比较充分的。最后,大厂们同时背负了太多其他业务和政治考量:对于是否做大模型的出头鸟,很多公司都是要三思的。具体来讲,百度和阿里是大厂里比较高调:百度的“文心4.0”是当前国内能力最好的模型之一,即将发布的阿里的“通义千问
[title]2024人工智能报告|一文迅速了解今年的AI界都发生了什么?[heading2]二、2024国内VS国外AI企业,竞争达到白热化阶段**中国开源项目在今年赢得全球粉丝,并且已经成为积极开源贡献者。**其中几个模型在个别子领域中脱颖而出,成为强有力的竞争者。DeepSeek在编码任务中已成为社区的最爱,其组合了速度、轻便性和准确性而推出的deepseek-coder-v2。阿里巴巴最近发布了Qwen-2系列,社区对其视觉能力印象深刻,从具有挑战性的OCR任务到分析复杂的艺术作品,都完成的非常好。在较小的一端,清华大学的自然语言处理实验室资助了OpenBMB项目,该项目催生了MiniCPM项目。这些是可以在设备上运行的小型<2.5B参数模型。它们的2.8B视觉模型在某些指标上仅略低于GPT-4V。2024年是AI图像视频迅速发展的一年,这个赛道竞争异常激烈国外Stability AI发布的Stable Video Diffusion,是第一个能够从文本提示生成高质量、真实视频的模型之一,并且在定制化方面取得了显著的进步。并且在今年3月,他们推出了Stable Video 3D,该模型经过第三个对象数据集的微调,可以预测三维轨道。OpenAI的Sora能够生成长达一分钟的视频,同时保持三维一致性、物体持久性和高分辨率。它使用时空补丁,类似于在变压器模型中使用的令牌,但用于视觉内容,以高效地从大量视频数据集中学习。除此之外,Sora还使用了其原始大小和纵横比的视觉数据进行训练,从而消除了通常会降低质量的裁剪和缩放。Google DeepMind的Veo将文本和可选图像提示与嘈杂压缩视频输入相结合,通过编码器和潜在扩散模型处理它们,以创建独特的压缩视频表示。然后系统将此表示解码为最终的高分辨率视频。