直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

国内大模型爆发,是山寨的结果吗

回答

国内大模型的发展情况较为复杂,并非简单的山寨结果。2023 年下半年以来,部分声称性能卓越的中国大模型被揭露为“套壳”产品,如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,字节跳动也被曝出在其秘密研发的大模型项目中存在违规调用 OpenAI 的 API 等问题。

大模型的建设方式大致可分为三类:

  1. 原创大模型:稀少而珍贵,需要强大的技术积累、持续的高投入,充满风险,一旦模型竞争力不足,投入可能付诸东流。
  2. 套壳开源大模型:是一种务实的发展路径,利用现有资源快速迭代和改进,但需要在借鉴中实现突破和创新。
  3. 拼装大模型:将过去的小模型拼接在一起,试图通过整合资源实现质的飞跃,但整体性能并非各部分简单相加。

现实中,原创大模型数量最少、最具挑战性,而大多数参与者因担心风险仍追逐原创大模型,导致大量套壳和拼装大模型出现。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

中国大模型面临的真实问题:登顶路远,坠落一瞬

[title]中国大模型面临的真实问题:登顶路远,坠落一瞬[heading1]二、“你不套,有的是人套”OpenAI的反应迅速而坚决。他们立即暂停了相关账号,并表示将进行进一步调查。如果指控属实,OpenAI可能会要求字节跳动更改其做法,甚至可能终止其账户。这种严厉的态度,展现了OpenAI对其技术和知识产权的坚决保护。面对这一指控,字节跳动的回应颇具策略性。他们承认在2023年初,技术团队在大模型探索的初期确实有部分工程师将GPT的API服务应用于较小模型的实验性项目研究中。然而,他们强调这个模型仅用于测试,从未计划上线或对外使用。更重要的是,字节跳动表示,自2023年4月公司引入GPT API调用规范检查后,这种做法就已经停止了。其实,不光是这些在23年披露出来的国内事件,在24年也有更多被指“套壳”国内大模型的事件,比如说斯坦福大学AI团队主导的Llama3-V开源模型,被证实套壳抄袭国内清华与面壁智能的开源模型。这些现象其实背后都指向了大模型的建设方式。在这里,我们粗浅地将大模型的建设方式分为三类:

中国大模型面临的真实问题:登顶路远,坠落一瞬

[title]中国大模型面临的真实问题:登顶路远,坠落一瞬[heading1]二、“你不套,有的是人套”让我们从模型本身这个问题开始剖析。2023年下半年,一个不容忽视的事实浮出水面:部分声称性能卓越的中国大模型被揭露为"套壳"产品。这些模型实际上是直接采用了国外的开源大模型,经过简单包装后就宣称具备与GPT-4相当的能力。在一些评估大模型能力的榜单上,这些"套壳"模型往往名列前茅,多项指标甚至接近GPT-4的水平。更令人深思的是,一个奇怪的现象开始显现:在这些榜单上,模型的表现越好,被证实为"套壳"的可能性就越高。稍加调整,这些模型的性能就会显著下降。然而,"套壳"问题仅仅是中国大模型产业现状的冰山一角。这个现象揭示了更深层次的问题:在追求快速结果的压力下,一些公司选择了捷径,而非踏实的技术积累。2023年11月,一个引人注目的事件震动了AI圈:李开复创办的"零一万物"被国外开发者质疑为"套壳"产品。他们指出,该模型疑似只是对开源模型Llama进行了简单的重命名。这一指控如同一颗重磅炸弹,引发了广泛的讨论和反思。面对质疑,李开复和"零一万物"团队迅速做出回应。他们承认在训练过程中确实沿用了开源架构,但强调这只是为了快速起步,进行充分的测试和对比实验。他们坚称,其发布的模型都是从零开始训练的,并进行了大量原创性的优化和突破。继“零一万物”之后,12月,一则震惊业界的消息传出:科技巨头字节跳动被曝出在其秘密研发的大模型项目中调用了OpenAI的API,并使用ChatGPT的输出数据来训练自己的模型。这一行为,恰恰触犯了OpenAI使用协议中明确禁止的条款。

中国大模型面临的真实问题:登顶路远,坠落一瞬

[title]中国大模型面临的真实问题:登顶路远,坠落一瞬[heading1]二、“你不套,有的是人套”1.第一类是原创大模型。这类模型就像是AI世界中的"独角兽",稀少而珍贵。创造原创大模型需要强大的技术积累,同时还需要持续的高投入。然而,这条路充满风险。正如马斯克所说:"当某件事情足够重要时,即使概率对你不利,你也要去做。"原创大模型的开发者们正是秉持着这种精神,在未知的领域不断探索。但是,一旦模型未能展现出足够的竞争力,这些大规模的投入就可能付诸东流。2.第二类是套壳开源大模型。这种策略反映了一种务实的发展路径,利用现有资源快速迭代和改进。在这条“赛道”上,需要思考如何在借鉴中实现真正的突破和创新。3.第三类是拼装大模型。这种方法将过去的小模型拼接在一起,形成一个参数量看似很大的大模型。这种策略体现了一种独特的创新思维,试图通过整合已有资源来实现质的飞跃。然而,正如系统理论所示,整体的性能并不仅仅是各部分的简单相加。在这三类模型中,原创大模型的数量最少,也最具挑战性。它们需要强大的技术积累、持续的高投入,以及面对巨大风险的勇气。然而,当市场上已经出现了足够好的基础大模型时,其他公司应该转向挖掘新的价值点。比如,探索大模型在不同领域的应用,或者开发中间层服务,如训练、数据处理、算力服务等。但现实是,大多数参与者仍在追逐所谓的原创大模型,又担心风险太高,导致大量套壳和拼装大模型的出现。

其他人在问
应急大模型推荐哪个
以下为一些应急大模型的推荐及相关信息: 常用的模型网站有: 不同类型的模型安装位置: 大模型(Ckpt):放入 models\\Stablediffusion VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\\Stablediffusion 或 models\\VAE 目录,然后在 webui 的设置栏目选择。 Lora/LoHA/LoCon 模型:放入 extensions\\sdwebuiadditionalnetworks\\models\\lora,也可以在 models/Lora 目录 Embedding 模型:放入 embeddings 目录 不同照片风格对应不同大模型,例如生成真人 AI 小姐姐,可选用 chilloutmix 的大模型。生成真实场景下的字体,可选择 lofi.v2 等大模型。不同的大模型对 ControlNet 模型的控制力有不同的适应度,可能需要微调参数。
2024-11-05
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
智谱清言的开源大模型哪些种类
智谱清言的开源大模型种类包括: 多模态模型: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。代码链接:、始智社区。 CogVLM17B:强大的开源视觉语言模型(VLM),在多模态权威学术榜单上综合成绩优异。代码链接:。 Visualglm6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。代码链接:。 RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。代码链接:。 此外,智谱清言是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。智谱清言在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体来看,智谱清言更擅长专业能力,但在代码能力上还有一定优化空间,知识百科与其他第一梯队模型相比稍显不足。综合来看,智谱清言是一个很有竞争力的大模型。可应用的场景相对广泛,根据 SuperCLUE 测评结果,优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。另外在较复杂推理应用上的效果会比较不错,在广告文案、文学写作方面也是一个很好的选择。
2024-11-04
通义千问开源大模型种类
通义千问开源了多种大模型,其中 Qwen 2 模型性能超越目前所有开源模型和国内闭源模型。以下是相关信息: 性能突破:在中国大模型领域,开源模型显示出超越最强闭源模型的势头,从性能到生态都具备了媲美美国 Llama3 的能力。开源模型用实力证明其正在变得越来越强。 开源历程:2023 年 8 月,阿里云成为国内首个宣布开源自研模型的科技企业,推出通义千问第一代开源模型 Qwen;2024 年 2 月,1.5 代开源模型 Qwen1.5 发布;不到 4 个月后,Qwen2 开源。不到一年时间,通义先后开源数十款不同尺寸的模型,包括大语言模型、多模态模型、混合专家模型、代码大模型。 性能特点:Qwen 2 包括 5 种尺寸的预训练和指令调整模型,如 Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B 和 Qwen272B。除英语和中文外,还接受过另外 27 种语言的数据训练,在大量基准评估中表现出最先进的性能,代码和数学性能显著提高,全面超越 llama3,增大了上下文长度支持。相比 Qwen1.5,Qwen2 实现了整体性能的代际飞跃。在国际权威测评中,Qwen272B 获十几项世界冠军,超过美国的 Llama3。 体验和下载:Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已经上线中国大语言模型评测竞技场 Compass Arena,所有人都可以登录体验 Qwen2 的性能,或者选择 Qwen2 模型与其他大模型进行对比测评。测评地址为。Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型。 您还可以通过玉宝搞的 LLM 在线评估(https://www.llmrank.cn/)查看国内各个闭源大模型的 HUMANEVAL 测评得分,并与 QWEN2 对比。
2024-11-04
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
用户体验设计与大模型的关系
用户体验设计与大模型密切相关。 在构建基于大模型的应用方面: 开发大模型应用复杂,涉及众多步骤和环节,包括框架选择、提示词设计等。 提示词的精心设计和调试至关重要,直接影响模型输出质量和应用效果。 构建有效的大型语言模型应用需要遵循一系列要点,如进行工程化、选择合适框架、了解业务需求、设计提示词、遵守安全和伦理标准、测试迭代、持续维护更新等。 在 AI 战场的发展趋势方面: 2023 年认为训练最好的模型就能吸引用户,但 2024 年大量消费者 AI 应用将通过提供最佳用户体验而非单纯提升模型性能来竞争,大模型可作为差异化优势之一,但老式护城河仍可能决定长期赢家。 关于大模型的道德观念: 大型语言模型本身不具有真正的道德观念或意识,它们是通过大量数据训练模拟语言统计规律的。 开发者和研究人员会采取多种方法确保模型输出符合社会道德和伦理标准,如数据清洗、算法设计、制定准则、保持透明度、用户反馈、持续监控、人工干预、教育和培训等,但这仍是复杂且持续的挑战。
2024-11-04
国内可用的修改校对WORD的ai软件
以下是一些国内可用的修改校对 WORD 的 AI 软件: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体的 AI 写作助手,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于学生和写作人员的多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,可以帮助用户优化文章的语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可以根据输入生成符合要求的学术论文。 总的来说,这些 AI 工具涵盖了文章润色的各个环节,包括校对、改写、大纲生成、内容生成等,可以有效提高写作效率和质量。科研人员和学生可以根据自身需求选择合适的工具进行使用。
2024-11-04
国内综合实力最强的ai大模型是哪个
目前国内大模型的综合实力情况如下: 在 SuperCLUE 测评中,GPT4Turbo 总分 90.63 分遥遥领先,国内最好模型文心一言 4.0(API)总分 79.02 分,距离 GPT4Turbo 有 11.61 分的差距。 综合能力超过 GPT3.5 和 GeminiPro 的国内模型有 11 个,比如百度的文心一言 4.0、阿里云的通义千问 2.0 和 Qwen72BChat、OPPO 的 AndesGPT、清华&智谱 AI 的智谱清言、字节跳动的云雀大模型等都有较好表现。 国内开源模型在中文上表现要好于国外开源模型。 国内最领先的模型水平大概在准 ChatGPT3.5 的水平,和 GPT4 还有不小差距。百度的“文心 4.0”是当前国内能力较好的模型之一,即将发布的阿里的“通义千问”也备受关注。 8 月正式上线的国内大模型包括北京的百度(文心一言)、抖音(云雀大模型)、智谱 AI(GLM 大模型)、中科院(紫东太初大模型)、百川智能(百川大模型),上海的商汤(日日新大模型)、MiniMax(ABAB 大模型)、上海人工智能实验室(书生通用大模型)。
2024-11-03
国内公文写作做好的AI公认的是那个
目前在国内公文写作方面,没有被公认最好的单一 AI 工具。但在论文写作及内容仿写领域,有以下一些常用且有一定优势的 AI 工具: 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化内容。 内容仿写: 秘塔写作猫:https://xiezuocat.com/ 是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ 是智能写作助手,适用于多种文体写作,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ 是由腾讯 AI Lab 开发的智能创作助手,提升写作效率和创作体验。 需要注意的是,使用这些工具时,应结合自身写作风格和需求,选择最合适的辅助工具。同时,内容由 AI 大模型生成,请仔细甄别。
2024-11-03
为什么国内目前仍有一些人在盲目夸耀国产AI不错,有出息,等等
国内在 AI 领域的发展情况较为复杂。在 2023 年之前,国内 AI 行业曾自认为与美国差距不大且有人口数据优势,但 ChatGPT 和 GPT4 的出现打破了这种认知,直接拉开了 2 年的技术差距。上半年国内坚信靠资金和卡能发展,但试验后发现不易,下半年纷纷转向“垂直应用”“商业化”,不提 AGI,这种转向是短视且致命的。目前国内最领先的模型水平大概在准 ChatGPT3.5,与 GPT4 有差距。 国内大厂在人才、GPU、数据和资金储备上有冲击 AGI 的能力,但受内部短期考核压力等影响,实际效果不明显。具体来说,百度的“文心 4.0”和阿里的“通义千问”是比较突出的。同时,智谱一年间推出了 4 代 GLM,MiniMax 推出了新模型和“星野”APP,月之暗面在长 Token 能力上表现不错。 在图像 AI 领域,国内产品发展迅速,如快手团队开发的“可灵”能生成高质量图像和视频,但价格较高;阿里的“通义万相”在中文理解处理方面出色,操作界面友好,且目前免费,但存在一些局限性。 在硬件层,国内仍面临芯片卡脖子问题,目前没有能胜任大模型训练的芯片,在推理上虽有 Nvidia 的替代产品出现,但华为昇腾因稳定性和生态问题还需时间打磨。
2024-11-03
国内免费的AIGC平台有哪些?
以下是一些国内免费的 AIGC 平台: haiper:网址为 https://app.haiper.ai/ 。 PixVerse:网址为 https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。 Leiapix:网址为 https://www.leiapix.com/ ,可以把一张照片转动态。 如果您希望自行部署 AIGC 服务,以下云服务平台可供选择: AWS(亚马逊云服务):提供多种 AI 服务,如 SageMaker、Rekognition、Polly 等,资源丰富,灵活性强,但费用相对较高,适合需求复杂、要求高可用的企业用户。 Google Cloud Platform:推出 Vertex AI 和多款预训练模型供使用,支持多种编程语言和框架,具有领先的计算机视觉和语音识别能力。 Microsoft Azure:Azure 机器学习服务涵盖多种 AI 工作负载,与微软其他产品融合度高,提供硬件加速等优化方案。 Huawei Cloud:提供 ModelArts 等 AI 开发和推理平台,融合 Ascend AI 处理器实现硬件加速,针对本地化部署和行业应用进行了优化。 阿里云:提供 PAI 和机器学习平台等 AI 产品,支持主流深度学习框架部署,与阿里云其他产品生态集成度高。 AIGC(人工智能生成内容)是一种利用人工智能技术生成各种类型内容的应用方式,能够通过机器学习和深度学习算法,根据输入的数据和指令生成符合特定要求的内容,在内容创作、广告、媒体等领域有着广泛的应用。AIGC、UGC(用户生成内容)和 PGC(专业生成内容)都是内容生成的不同方式,主要区别在于内容的创作者和生成方式。UGC 由用户通过社交媒体等平台发布自己的内容,优势在于内容丰富多样,能反映用户真实想法和创意,适用于社交媒体等互动性强的平台。PGC 由专业人士或机构根据特定标准和流程创作高质量内容,优势在于内容质量高、专业性强,适用于新闻媒体等需要高质量内容的平台。
2024-11-01
国内有哪些可以解数学题的AI
国内可以解数学题的 AI 有以下几种: 1. 自适应学习系统:如 Khan Academy,结合 AI 技术为用户提供个性化的数学学习路径和练习题,根据能力和需求进行精准推荐。 2. 智能题库和作业辅助:如 Photomath,通过图像识别和数学推理技术为用户提供数学问题的解答和解题步骤。 3. 虚拟教学助手:如 Socratic,利用 AI 技术为用户解答数学问题、提供教学视频和答疑服务,帮助理解和掌握数学知识。 4. 交互式学习平台:如 Wolfram Alpha,利用 AI 技术进行数学建模和问题求解。 此外,还有 Mathly 等应用也能指导学生解决数学问题。
2024-11-01