国内大模型的发展情况较为复杂,并非简单的山寨结果。2023 年下半年以来,部分声称性能卓越的中国大模型被揭露为“套壳”产品,如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,字节跳动也被曝出在其秘密研发的大模型项目中存在违规调用 OpenAI 的 API 等问题。
大模型的建设方式大致可分为三类:
现实中,原创大模型数量最少、最具挑战性,而大多数参与者因担心风险仍追逐原创大模型,导致大量套壳和拼装大模型出现。
[title]中国大模型面临的真实问题:登顶路远,坠落一瞬[heading1]二、“你不套,有的是人套”OpenAI的反应迅速而坚决。他们立即暂停了相关账号,并表示将进行进一步调查。如果指控属实,OpenAI可能会要求字节跳动更改其做法,甚至可能终止其账户。这种严厉的态度,展现了OpenAI对其技术和知识产权的坚决保护。面对这一指控,字节跳动的回应颇具策略性。他们承认在2023年初,技术团队在大模型探索的初期确实有部分工程师将GPT的API服务应用于较小模型的实验性项目研究中。然而,他们强调这个模型仅用于测试,从未计划上线或对外使用。更重要的是,字节跳动表示,自2023年4月公司引入GPT API调用规范检查后,这种做法就已经停止了。其实,不光是这些在23年披露出来的国内事件,在24年也有更多被指“套壳”国内大模型的事件,比如说斯坦福大学AI团队主导的Llama3-V开源模型,被证实套壳抄袭国内清华与面壁智能的开源模型。这些现象其实背后都指向了大模型的建设方式。在这里,我们粗浅地将大模型的建设方式分为三类:
[title]中国大模型面临的真实问题:登顶路远,坠落一瞬[heading1]二、“你不套,有的是人套”让我们从模型本身这个问题开始剖析。2023年下半年,一个不容忽视的事实浮出水面:部分声称性能卓越的中国大模型被揭露为"套壳"产品。这些模型实际上是直接采用了国外的开源大模型,经过简单包装后就宣称具备与GPT-4相当的能力。在一些评估大模型能力的榜单上,这些"套壳"模型往往名列前茅,多项指标甚至接近GPT-4的水平。更令人深思的是,一个奇怪的现象开始显现:在这些榜单上,模型的表现越好,被证实为"套壳"的可能性就越高。稍加调整,这些模型的性能就会显著下降。然而,"套壳"问题仅仅是中国大模型产业现状的冰山一角。这个现象揭示了更深层次的问题:在追求快速结果的压力下,一些公司选择了捷径,而非踏实的技术积累。2023年11月,一个引人注目的事件震动了AI圈:李开复创办的"零一万物"被国外开发者质疑为"套壳"产品。他们指出,该模型疑似只是对开源模型Llama进行了简单的重命名。这一指控如同一颗重磅炸弹,引发了广泛的讨论和反思。面对质疑,李开复和"零一万物"团队迅速做出回应。他们承认在训练过程中确实沿用了开源架构,但强调这只是为了快速起步,进行充分的测试和对比实验。他们坚称,其发布的模型都是从零开始训练的,并进行了大量原创性的优化和突破。继“零一万物”之后,12月,一则震惊业界的消息传出:科技巨头字节跳动被曝出在其秘密研发的大模型项目中调用了OpenAI的API,并使用ChatGPT的输出数据来训练自己的模型。这一行为,恰恰触犯了OpenAI使用协议中明确禁止的条款。
[title]中国大模型面临的真实问题:登顶路远,坠落一瞬[heading1]二、“你不套,有的是人套”1.第一类是原创大模型。这类模型就像是AI世界中的"独角兽",稀少而珍贵。创造原创大模型需要强大的技术积累,同时还需要持续的高投入。然而,这条路充满风险。正如马斯克所说:"当某件事情足够重要时,即使概率对你不利,你也要去做。"原创大模型的开发者们正是秉持着这种精神,在未知的领域不断探索。但是,一旦模型未能展现出足够的竞争力,这些大规模的投入就可能付诸东流。2.第二类是套壳开源大模型。这种策略反映了一种务实的发展路径,利用现有资源快速迭代和改进。在这条“赛道”上,需要思考如何在借鉴中实现真正的突破和创新。3.第三类是拼装大模型。这种方法将过去的小模型拼接在一起,形成一个参数量看似很大的大模型。这种策略体现了一种独特的创新思维,试图通过整合已有资源来实现质的飞跃。然而,正如系统理论所示,整体的性能并不仅仅是各部分的简单相加。在这三类模型中,原创大模型的数量最少,也最具挑战性。它们需要强大的技术积累、持续的高投入,以及面对巨大风险的勇气。然而,当市场上已经出现了足够好的基础大模型时,其他公司应该转向挖掘新的价值点。比如,探索大模型在不同领域的应用,或者开发中间层服务,如训练、数据处理、算力服务等。但现实是,大多数参与者仍在追逐所谓的原创大模型,又担心风险太高,导致大量套壳和拼装大模型的出现。