直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

国产 大模型

回答

以下是关于国产大模型的相关信息:

  • Qwen 是国内唯一出现在 OpenAI 视野里、可以参与国际竞争的国产大模型。OpenAI 创始人奥特曼在 X 上转发了相关消息,Qwen 多次冲进 LMSys 榜单,其开源模型累计下载量突破 1600 万,国内外有海量开发者基于它开发模型和应用,海外开发者对其评价颇高。通义大模型用行动证明了开源开放的力量。
  • 在中文大模型基准测评 2023 年度报告的专业与技能专项基准中,GPT-4 Turbo 领先幅度较大,国内中文心一言 4.0 表现不俗,在开源模型中,阿里云的 Qwen-72B-Chat 表现可圈可点,是国内开源模型中唯一超过 60 分的模型。总体来看,国内第一梯队大模型在专业与知识能力上与国外最好模型有较大距离,但差距正在不断缩小。
  • 在语言与知识的测评中,GPT-4 Turbo 依然领先,国内大模型表现相对较好,有 14 个模型得分高于 GPT3.5,有 9 个模型得分高于 Gemini-Pro。OPPO 的 AndesGPT、阿里云的通义千问 2.0、月之暗面的 Moonshot 分列国内 1 - 3 位,较为接近 GPT4。在开源模型中,零一万物的 Yi-34B-Chat、阿里云的 Qwen-72B-Chat、百川智能的 Baichuan2-13B-Chat 取得不错成绩,均超过 50 分,分列国内模型的 1 - 3 名。总体来看,在中文语言与知识能力上,国内大模型已基本追赶上国外头部大模型,未来最可能率先形成超越。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Qwen 2开源了 模型性能超越目前所有开源模型和国内闭源模型

[title]Qwen 2开源了模型性能超越目前所有开源模型和国内闭源模型[heading1]相关参考信息可以说,Qwen是国内唯一出现在OpenAI视野里,可以参与国际竞争的国产大模型。不久前,OpenAI创始人奥特曼在X上转发了一条OpenAI研究员公布的消息,GPT-4o在测试阶段登上了Chatbot Arena(LMSys Arena)榜首位置,这个榜单是OpenAI唯一认可证明其地位的榜单,而Qwen是其中唯一上榜的国内模型。早些时候,有人做了个LMSys榜单一年动态变化视频。过去一年内,国产大模型只有Qwen多次冲进这份榜单,最早出现的是通义千问14B开源视频Qwen-14B,后来是Qwen系列的72B、110B以及通义千问闭源模型Qwen-Max,得分一个比一次高,LMSys也曾官方发推认证通义千问开源模型的实力。在顶尖模型公司的竞争中,目前为止中国模型只有通义千问真正入局,能与头部厂商一较高下。开发者用脚投票的结果,显示了Qwen系列的受欢迎程度。目前为止,Qwen系列开源模型的累计下载量突破了1600万,国内外有海量开发者都基于Qwen开发了自己的模型和应用,尤其是企业级的模型和应用。Qwen的很多忠实拥趸是海外开发者,他们时常在社交平台发表“我们为什么没有这种模型”的溢美之词(配图详见附件)。可以说,通义大模型用行动证明了开源开放的力量。七、为什么大模型的生态建设如此重要?AI大模型是全球数字技术体系的竞争,这个体系包括芯片、云计算、闭源模型、开源模型、开源生态等等。中国信息化百人会执委、阿里云副总裁安筱鹏指出,全球AI大模型竞争的制高点是AI基础大模型,因为基础大模型决定了产业智能化的天花板,商业闭环的可能性,应用生态的繁荣以及产业竞争的格局。与此同时,开源生态在整个技术体系的竞争中也有着至关重要的作用。

2023年度中文大模型基准测评报告.pdf

[title]中文大模型基准测评2023年度报告[heading1]专项基准[heading1]SuperCLUE基准-专业与技能测评表现测评分析专业与技能,考察模型的能力包括:计算、逻辑与推理、代码。在专业技能与知识的测评中,GPT-4 Turbo领先幅度较大,总分97分是唯一过90分且接近满分的大模型。国内大模型中文心一言4.0表现不俗,取得79.62的高分。较GPT4的API版本仅低1.53分,是国内模型中唯一接近80分的大模型。仅随其后的是通义千问2.0、Moonshot等模型。其中有11个大模型有超过GPT3.5的表现。在开源模型中,阿里云的Qwen-72B-Chat表现可圈可点,是国内开源模型中唯一超过60分的模型。总体来看,在专业与知识能力上,国内第一梯队大模型与国外最好模型依然有较大距离,但可以看到的是差距正在不断缩小。

2023年度中文大模型基准测评报告.pdf

[title]中文大模型基准测评2023年度报告[heading1]专项基准[heading1]SuperCLUE基准-语言与知识测评表现测评分析语言与知识,考察模型的能力包括:1.生成与创作;2.语言理解与抽取;3.上下文对话;4.角色扮演;5.知识与百科。在语言与知识的测评中,GPT-4 Turbo依然领先,是唯一超过90分的大模型。国内大模型也表现相对较好,有14个模型的得分高于GPT3.5,有9个模型的得分高于Gemini-Pro。其中OPPO的AndesGPT、阿里云的通义千问2.0、月之暗面的Moonsho t分列国内1-3位,较为接近GPT4。在开源模型中,零一万物的Yi-34B-Chat、阿里云的Qwen-72B-Chat、百川智能的Baichuan2-13B-Chat取得了不错的成绩,均超过了50分,分列国内模型的1-3名。总体来看,在中文语言与知识能力上,国内大模型已基本追赶上国外头部大模型,在未来也最可能成为率先形成超越的维度之一。

其他人在问
有哪些生成音乐的国产AI产品
以下是一些生成音乐的国产 AI 产品: 1. 海绵音乐:https://www.haimian.com/featured 2. MusicFX:https://aitestkitchen.withgoogle.com/zh/tools/musicfx 3. 剪映 4. TikTok 5. Mubert 6. 唱鸭 7. 网易天音 此外,还有一些国际上知名的 AI 音乐生成工具,如: 1. Suno:https://suno.com/ ,通过先进的深度学习技术,能将用户输入转化为富有情感且高质量的音乐作品。 2. Udio:https://www.udio.com/ ,由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。 另外,还有一些其他相关的产品: 1. 由 AI 驱动的软件引擎,可以生成音乐,能对手势、动作、代码或其他声音作出反应。 2. 全球最大的音乐教育平台。 3. 用于创作歌曲和音频录制的应用程序。 4. 提供无缝录音室体验的一体化在线协作平台。 5. 专业音频、语音、声音和音乐的扩展服务。 6. 视频编辑的音频解决方案。 7. 由 AI 驱动的音乐工作室。 8. 通过直观的软件/硬件生态系统为音乐演奏者提供世界级声音的民主化访问。 9. AI 音频插件和社区,弥合 AI 研究与创意之间的差距。 10. 为音乐人、制作人和内容创作者提供 AI 驱动的混音服务。 11. 为创作者提供的在线音乐软件:音乐母带处理、数字音乐发行、分期付款插件、免费样本包和协作工具。 12. (被 Meta 收购) 为创作者提供的音频和视频编辑软件。 13. 音乐人的应用程序。 14. (前身为 Tonz) 实时神经信号处理。 15. 奥地利制造的音频软硬件。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-14
有没有类似MS Copilot的国产AI
以下是一些类似 MS Copilot 的国产 AI: 目前存在能联网检索的国产 AI。例如,虽然没有直接类似于 MS Copilot 的完全相同的产品,但有一些具有类似功能特点的,如通过连接互联网实时搜索、筛选并整合所需数据,以提供更精准和个性化信息的 AI 工具。 不过需要注意的是,具体的产品和其功能特点可能会随着时间和技术发展而有所变化。
2024-09-29
国产AI排行榜
以下是国产 AI 的月度排行榜: |排名|产品|特性|分类|应用名称|下载量(万)|环比变化|所属公司| ||||||||| |A87+1|Molica AI|原生|图片生成|Molica AI|<10|0.3888| | |A88+1|创客贴AI|功能|平面设计|创客贴设计海报、宣传广告图片制作软件|<10|0.3037|艺源酷科技| |A89+1|脸猫|原生|图片生成|脸猫AI绘画,AI写真,智能换装特效视频一键制作|<10|0.6221| | |A90+1|AiU|原生|小说生成|AiUAI互动小说&虚拟恋人陪伴|<10|0.3845|聆心智能| |A91+1|AI Genie|原生|情感陪伴|AI Genie虚拟社交元宇宙|<10|0.1167|卡瓦科技| |A92+1|Chat Bot|原生|聊天机器人|ChatBot:AI4.0 人工智能绘画写小说 sora 视频|<10|0.131| | |A93+1|图趣 AI|原生|图片生成|图趣AI 绘画图生图软件|<10|0.6398| | |A38+1|秘塔写作猫|原生|写作软件|秘塔写作猫|14|0.3975|秘塔网络| |A39+1|冒泡鸭|原生|情感陪伴|冒泡鸭在 AI 开放世界探索角色故事|14|0.2724|阶跃星辰| |A40+1|秘塔 AI 搜索|原生|智慧搜索|秘塔 AI 搜索|14|0.0981|秘塔网络| |A41+1|开拍|功能|视频生成|开拍提词器·口播神器·高清画质|14|1.7319|美图公司| |A42+1|TalkAI 练口语|原生|教育|TalkAI 练口语AI 视频、对话背单词|13|0.4406|惊叹科技| |A43+1|造梦次元|原生|情感陪伴|造梦次元|13|0.4417|想法流科技| |A44+1|美图设计室|功能|图片生成|美图设计室电商人必备的 AI 设计工具|12|1.4848|美图公司| |A74+1|无界 AI|原生|图片生成|无界 AI二次元 AI 生成艺术 创作无限以致涌现 AI 绘画工具|<10|0.464|杭州超节点| |A75+1|美趣 AI|原生|图片生成|美趣 AIAI 绘画&视频&写作生成神器|<10|0.3573|兴利和| |A76+1|万卷|原生|个人助理|万卷你的智能助理|<10|0.6724|MiniMax| |A77+1|虚拟恋人 AI|原生|情感陪伴|虚拟恋人 AI|<10|0.3173| | |A78+1|MJ 中文极速版|原生|图片生成|MJ 中文极速版全能 AI 绘画创作工具|<10|0.1119| | |A79+1|AI 写作鱼|原生|写作软件|AI 写作鱼智能写作&伪原创改写|<10| | | |A80+1|AI 智能写作|原生|写作软件|AI 智能写作|<10|0.6026|汉酷网络|
2024-09-24
推荐三个最好的国产ai
以下为您推荐三个国产 AI: 1. Kimi 智能助手:它是 ChatGPT 的国产平替,具有以下优点: 无需科学上网、不用付费、支持实时联网。 是国内最早支持 20 万字无损上下文的 AI,也是目前对长文理解做得最好的 AI 产品。 能一次搜索几十个数据来源,无广告,能定向指定搜索源。 PC 端: 移动端(Android/ios): 2. 智谱清言:在中国 AI 领域具有开创性,其模型源自清华大学研发团队的科研成果转化。在产品设计方面对标 ChatGPT,努力打造类似的用户体验。在逻辑推理和处理复杂提示词方面表现出色,尤其在处理需要深度思考和分析的任务时优势明显。 3. 秘塔 AI:是搜索神器。
2024-09-16
哪个国产ai对英文的理解最正确
目前国产 AI 中,在对英文的理解方面,以下两款产品具有一定特点: 1. 通义万相:在中文理解和处理方面表现出色,是阿里生态系统的一部分,可与其他产品和服务无缝整合。但在处理非中文语言或国际化内容方面可能不如一些国际 AI 图像生成工具出色,由于模型训练数据可能主要基于中文环境,在处理多元文化内容时可能存在偏差。 2. Kimi 智能助手:是 ChatGPT 的国产平替,不用科学上网、不用付费、支持实时联网,是国内最早支持 20 万字无损上下文的 AI,也是目前对长文理解做的最好的 AI 产品,能一次搜索几十个数据来源,无广告,能定向指定搜索源。
2024-09-16
有没有国产ai,可以将文字转视频,且免费
以下是一些国产的可以将文字转视频且免费或有免费额度的 AI 工具: 1. 可灵:https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文,文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸,默认生成 5s 的视频。 2. Hidreamai:https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 此外,更多的文生视频的网站可以查看这里: 。 需要注意的是,以上信息由 AI 大模型生成,请仔细甄别。
2024-09-10
推荐一下国内可以通过对话微调的预训练模型
以下是为您推荐的国内可以通过对话微调的预训练模型相关信息: 为优化 Llama2 的中文能力,可使用以下数据: 网络数据:互联网上公开的网络数据,包括百科、书籍、博客、新闻、公告、小说等高质量长文本数据。 :中文 Wikipedia 的数据。 :中文悟道开源的 200G 数据。 :Clue 开放的中文预训练数据,经过清洗后的高质量中文长文本数据。 竞赛数据集:近年来中文自然语言处理多任务竞赛数据集,约 150 个。 :MNBVC 中清洗出来的部分数据集。 社区提供预训练版本 Atom7B 和基于 Atom7B 进行对话微调的模型参数供开放下载,关于模型的进展详见社区官网 https://llama.family。 另外,关于会话补全(Chat completions): gpt3.5turbo 和 textdavinci003 两个模型能力相似,但前者价格只是后者的十分之一,在大部分情况下更推荐使用 gpt3.5turbo。 gpt3.5turbo 模型不支持微调。从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。有关如何使用微调模型的更多细节,请参阅微调指南。 从 2023 年 3 月 1 日起,OpenAI 会将您通过 API 发送的数据保留 30 天但不会使用这些数据来提升模型。 关于安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent(国内版): 目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为 3 轮,可修改区间是 0 到 30,具体轮数可根据业务需求决定。 在 Bot 编排页面的“技能”区域,可为 Bot 配置所需技能。不懂插件时,可选择区域右上角的“优化”按钮让 AI Bot 根据提示词自动选择插件。也可自定义添加所需插件,点击插件区域的“+”号选择加入具体插件。 在 Bot 编排页面的“预览与调试”区域,可测试 Bot 是否按预期工作,可清除对话记录以开始新的测试,确保 Bot 能理解用户输入并给出正确回应。
2024-10-18
推荐一下个人可以使用的通过对话微调的模型
以下是一些个人可以使用的通过对话微调的模型相关信息: 会话补全(Chat completions): GPT3.5 系列中,gpt3.5turbo 和 textdavinci003 有相似能力,但 gpt3.5turbo 价格仅为 textdavinci003 的十分之一,在多数情况下更推荐使用 gpt3.5turbo。不过,gpt3.5turbo 不支持微调,从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。 微调(Finetuning): 案例研究: 客户支持聊天机器人:通常包含相关上下文、对话摘要及最近消息,可能需要几千个示例处理不同请求和客户问题,建议审查对话样本确保代理消息质量,可使用单独文本转换微调模型生成摘要。 基于技术属性列表的产品描述:将输入数据转换为自然语言很重要,确保完成基于所提供描述,若常查阅外部内容,自动添加此类内容可提高性能,若描述基于图像,提取图像文本描述可能有帮助。 模型(Models): GPT3.5 模型可理解和生成自然语言或代码,其中功能最强大、最具成本效益且针对聊天优化的型号是 gpt3.5turbo,建议使用它而非其他 GPT3.5 模型,因其成本更低。 gpt3.5turbo:功能强大,针对聊天优化,成本低,会使用最新模型迭代更新,最大 Token 数 4096,训练数据截至 2021 年 9 月。 gpt3.5turbo0301:2023 年 3 月 1 日的快照,不会更新,仅在 2023 年 6 月 1 日结束的三个月内提供支持,最大 Token 数 4096,训练数据截至 2021 年 9 月。 textdavinci003:能完成任何语言任务,支持文本中插入补全,最大 Token 数 4097,训练数据截至 2021 年 6 月。 textdavinci002:与 textdavinci003 类似,使用监督微调而非强化学习训练,最大 Token 数 4097,训练数据截至 2021 年 6 月。 codedavinci002:针对代码完成任务优化,最大 Token 数 8001,训练数据截至 2021 年 6 月。 请注意,OpenAI 模型具有不确定性,相同输入可能产生不同输出,将温度设置为 0 可使输出大部分具有确定性,但可能仍有少量可变性。
2024-10-18
个人使用可以通过对话微调的大模型
大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适的算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:完成就业指导后,进行如翻译、问答等工作,在大模型里称为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,能代表单个字符、单词、子单词等,具体取决于分词方法。将输入分词时会数字化形成词汇表。 个人动手实验方面: macOS 系统可采用 GGML 量化后的模型。有名的项目如 ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ ,首先编译,利用 Metal 的 GPU 用相应命令编译,然后去下载模型,还提供了 WebUI,启动 server 后默认监听 8080 端口,打开浏览器可对话。 Whisper 与 llama 类似,用 make 命令编译,去指定地址下载量化好的模型,转换音频,目前只接受 wav 格式,可用 ffmpeg 转化。 张梦飞的教程《用聊天记录克隆自己的 AI 分身》全程本地操作,目标是把微信聊天记录导出,用其微调模型,最终接入微信替你回复消息。
2024-10-18
国内能通过对话微调的语言大模型
以下是国内一些能通过对话微调的语言大模型: 教育领域:桃李(Taoli) 地址: 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。 数学领域:chatglmmaths 地址: 简介:基于 chatglm6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。 文化领域:Firefly 地址: 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。 金融领域: Cornucopia(聚宝盆) 地址: 简介:开源了经过中文金融知识指令精调/指令微调的 LLaMA7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱金融上进一步扩充高质量的指令数据集。 BBTFinCUGEApplications 地址: 简介:开源了中文金融领域开源语料库 BBTFinCorpus,中文金融领域知识增强型预训练语言模型 BBTFinT5 及中文金融领域自然语言处理评测基准 CFLEB。 XuanYuan(轩辕) 地址: 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
2024-10-18
我的app应用想要对接大语言模型,结合APP用户自身的数据,实现更精准的对话,是否有行业比较成功的案例可以借鉴
以下是一些在 APP 应用对接大语言模型方面比较成功的案例,可供您借鉴: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Perplexity.ai: 本质是个可联网的搜索引擎,完全免费,支持网页版、APP(目前支持 iOS,安卓即将推出)、Chrome 插件。 网页版能力全面,能够根据提问从互联网上搜寻信息并给出总结后的答案。 很多 Chat GPT 中调用插件才能解决的事情(联网查询、旅行、住宿、商品推荐)靠 Perplexity 就可以解决。 能给出信息来源网址,并根据搜索内容给出继续对话的问题建议。 最新推出的 Copilot 能力支持根据搜索内容进行信息补充,每 4h 内使用 5 次,调用 GPT4。 支持分享聊天内容到多渠道。 首页推荐当下流行的新闻、搜索内容。 支持筛选 Academic(包含不同领域的学术研究论文)、Wolfram|Alpha(包含数学、科学、经济学、语言学、工程学、社会科学、文化等领域的知识库)、Wikipedia(维基百科)、Youtube、Reddit(娱乐、社交和新闻网站)、News 进行搜索。 Chrome 插件可针对当前页面给出即时摘要。 访问地址:
2024-10-18
大模型合规
大模型的安全问题包括以下方面: 1. 对齐保障:通过对齐(指令调优),如 ChatGPT 从 GPT3 经过对齐而来,使其更好地理解人类意图,增加安全保障,确保不输出有害内容。对齐任务可拆解为监督微调及获取奖励模型和进行强化学习来调整输出分布。例如 LLAMA2 使用安全有监督微调确保安全,强化学习能让模型根据人类反馈更细粒度思考答案的安全性,面对训练分布外数据也能拒绝不当回答。 2. 数据过滤:在预训练阶段对数据进行过滤,如 baichuan2 采用此技术减少有害输出,但因数据关联性,仅靠此方法可能不够,模型仍可能从关联中学到有害内容,且面对不良信息时可能因缺少知识而处理不当。 3. 越狱问题:用户可能通过越狱(Jailbreak)使模型的对齐失效,重新回答各种问题。 大模型的特点包括: 1. 架构:分为 encoderonly、encoderdecoder、decoderonly 三类,目前熟知的 AI 助手多为 decoderonly 架构,由 transformer 衍生而来。 2. 规模:预训练数据量大,来自互联网的多种来源,且参数众多,如 GPT3 已达 170B 的参数。 GPT3 与 ChatGPT 相比,除形式不同外,安全性也有差别。
2024-10-18