Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

中文大模型

Answer

以下是关于中文大模型的相关信息:

  • 中文大模型基准测评 2023 年度报告中的测评模型列表:
    • 9. Qwen-72B-Chat:阿里巴巴开源的 72B 的 Chat 版本
      1. 讯飞星火 V3.0:科大讯飞官方发布的 V3.0 版本的 API
      1. 序列猴子:出门问问官方发布的 API 版本
      1. Minimax(应事):稀宇科技官方网页版产品【应事】
      1. Yi-34B-Chat:零一万物开源的 34B 的 Chat 版本
      1. ChatGLM3-6B:清华&智谱 AI 开源的第三代 6B 版本
      1. PCI-TransGPT:佳都科技小范围内测 API 版本
      1. Chinese-Alpaca2-13B:yiming cui(个人开发者)个人开源的基于 Llama2 的汉化版中文模型
      1. 360GPT_Pro:360 360 智脑的 API 升级版本 Pro
      1. Llama_2_13B_Chat:Meta 官方开源的 2 代 13B 的 Chat 版本。本次测评数据选取了 SuperCLUE-12 月测评结果,模型选取了国内外有代表性的 26 个大模型在 12 月份的版本。
  • 专项基准中的 SuperCLUE 基准-专业与技能:
    • 测评表现:在专业技能与知识的测评中,GPT-4 Turbo 领先幅度较大,总分 97 分是唯一过 90 分且接近满分的大模型。国内大模型中文心一言 4.0 表现不俗,取得 79.62 的高分。较 GPT4 的 API 版本仅低 1.53 分,是国内模型中唯一接近 80 分的大模型。仅随其后的是通义千问 2.0、Moonshot 等模型。其中有 11 个大模型有超过 GPT3.5 的表现。
    • 开源模型中,阿里云的 Qwen-72B-Chat 表现可圈可点,是国内开源模型中唯一超过 60 分的模型。总体来看,在专业与知识能力上,国内第一梯队大模型与国外最好模型依然有较大距离,但差距正在不断缩小。
  • Llama 中文大模型:
    • 已经基于大规模中文数据,从预训练开始对 Llama2 模型进行中文能力的持续迭代升级。
    • 相关链接:
      • Llama 中文大模型:https://github.com/LlamaFamily/Llama-Chinese
      • 在线体验:https://llama.family
      • 基于 Llama2 的开源中文预训练大模型 Atom-7B:https://huggingface.co/FlagAlpha/Atom-7B-Chat
Content generated by AI large model, please carefully verify (powered by aily)

References

2023年度中文大模型基准测评报告.pdf

9.Qwen-72B-Chat阿里巴巴开源的72B的Chat版本22.讯飞星火V3.0科大讯飞官方发布的V3.0版本的API10.序列猴子出门问问官方发布的API版本23.Minimax(应事)稀宇科技官方网页版产品【应事】11.Yi-34B-Chat零一万物开源的34B的Chat版本24.ChatGLM3-6B清华&智谱AI开源的第三代6B版本12.PCI-TransGPT佳都科技小范围内测API版本25.Chinese-Alpaca2-13B yiming cui(个人开发者)个人开源的基于Llama2的汉化版中文模型13.360GPT_Pro 360 360智脑的API升级版本Pro26.Llama_2_13B_Chat Meta官方开源的2代13B的Chat版本本次测评数据选取了SuperCLUE-12月测评结果,模型选取了国内外有代表性的26个大模型在12月份的版本。SuperCLUE模型象限

2023年度中文大模型基准测评报告.pdf

测评表现测评分析专业与技能,考察模型的能力包括:计算、逻辑与推理、代码。在专业技能与知识的测评中,GPT-4 Turbo领先幅度较大,总分97分是唯一过90分且接近满分的大模型。国内大模型中文心一言4.0表现不俗,取得79.62的高分。较GPT4的API版本仅低1.53分,是国内模型中唯一接近80分的大模型。仅随其后的是通义千问2.0、Moonshot等模型。其中有11个大模型有超过GPT3.5的表现。在开源模型中,阿里云的Qwen-72B-Chat表现可圈可点,是国内开源模型中唯一超过60分的模型。总体来看,在专业与知识能力上,国内第一梯队大模型与国外最好模型依然有较大距离,但可以看到的是差距正在不断缩小。

Llama 介绍

欢迎来到Llama中文大模型:已经基于大规模中文数据,从预训练开始对Llama2模型进行中文能力的持续迭代升级。Llama中文大模型:https://github.com/LlamaFamily/Llama-Chinese在线体验:https://llama.family基于Llama2的开源中文预训练大模型Atom-7B:https://huggingface.co/FlagAlpha/Atom-7B-Chat

Others are asking
AI 修正中文错字和排版优化
以下是关于 AI 修正中文错字和排版优化的相关内容: 在文章排版方面,若想利用 AI 提效,可参考以下方法: 对于需要加粗的内容,可向 GPT 说明选择,待其输出排版后的文章,点击「复制代码」并粘贴到微信 Markdown 排版器中。 一些流行的 AI 文章排版工具包括: Grammarly:不仅能检查语法和拼写,还提供排版功能,可改进文档风格和流畅性。 QuillBot:能改进文本清晰度和流畅性,同时保持原意。 Latex:虽不是纯粹的 AI 工具,但在学术论文排版中广泛使用,有许多 AI 辅助的编辑器和插件。 PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 Wordtune:AI 写作助手,可重新表述和改进文本。 Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 受欢迎;一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。 使用特定的 AI 排版方法时,如利用 ChatGPT4o 进行 Markdown 排版,需注意:若不熟悉 ChatGPT4o 或 Markdown 语法,或自身有加粗重点句子的习惯,可不采用此方法,应追求高效而非刻意使用 AI。首先打开 GPTs https://chatgpt.com/g/gauDv1yCnbwenzhangmarkdownpaibandashi ,若无法打开可跳过。接着将从迅捷 Markdown 编辑器复制的文章内容发送给 GPTs,GPT 会先分析原文并列出需加粗和引用的句子让您确认。 需注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-29
能直接把中文word转化成英文word的ai
目前暂时没有直接将中文 Word 文档转化为英文 Word 文档的通用 AI 工具。但有一些在线翻译平台和软件可以帮助您实现这个需求,例如谷歌翻译、百度翻译等。您可以将中文 Word 中的内容复制粘贴到这些翻译工具中进行翻译,然后再整理到新的 Word 文档中。
2024-12-28
2024年度中文大模型基准测评报告
以下是关于 2024 年度中文大模型基准测评报告的相关信息: 2024 年 7 月 10 日: 《SuperCLUE:中文大模型基准测评 2024 年上半年报告》指出,2024 年上半年中文大模型技术取得显著进展,国内外模型差距缩小至 5%以内。国内开源模型如 Qwen272B 表现优异,超越众多闭源模型。端侧小模型发展迅速,落地可行性大幅提升。该报告通过多维度、多层次测评体系,全面评估了大模型的通用能力和专项能力,为行业发展提供了客观数据支持。同时也指出,尽管大模型在多领域展现潜力,但仍面临技术挑战和应用落地问题。 2024 年 11 月 8 日: SuperCLUE 团队发布的新一期《SuperCLUE:中文大模型基准测评 2024 年 10 月报告》中有四点核心发现:1)OpenAI 发布 o1 后,全球大模型竞争加剧;2)国内大模型第一梯队竞争激烈,持续迭代表现不俗;3)国内外大模型在不同任务上表现各有优势;4)端侧小模型表现惊艳。 此外,Sora:大型视觉模型的背景、技术、局限性和机遇综述【官方论文】的参考文献包括: T.Shen,R.Jin,Y.Huang,C.Liu,W.Dong,Z.Guo,X.Wu,Y.Liu,和 D.Xiong,“大型语言模型对齐:一项调查”,arXiv 预印本 arXiv:2309.15025,2023 年。 X.Liu,X.Lei,S.Wang,Y.Huang,Z.Feng,B.Wen,J.Cheng,P.Ke,Y.Xu,W.L.Tam,X.Zhang,L.Sun,H.Wang,J.Zhang,M.Huang,Y.Dong,和 J.Tang,“Alignbench:大型语言模型中文对齐的基准测试”,2023 年。 P.Christiano,J.Leike,T.B.Brown,M.Martic,S.Legg,和 D.Amodei,“基于人类偏好的深度强化学习”,2023 年。 T.Yu,Y.Yao,H.Zhang,T.He,Y.Han,G.Cui,J.Hu,Z.Liu,H.T.Zheng,M.Sun,和 T.S.Chua,“RLHFV:通过细粒度校正人类反馈实现可信赖的 MLLMs 行为对齐”,2023 年。 M.S.Jahan 和 M.Oussalah,“使用自然语言处理进行仇恨言论自动检测的系统综述。”,《神经计算》,第 126232 页,2023 年。 OpenAI,“Sora 安全。”https://openai.com/sorasafety,2024 年。
2024-12-27
有什么可以把pdf直接翻译成中文的
以下是一些可以将 PDF 直接翻译成中文的方法和工具: 1. DeepL(网站): ,点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件): ,安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. calibre(电子书管理应用): ,下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页): ,使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页): ,点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 8. 浏览器自带的翻译功能:如果一些 PDF 太大,翻译工具不支持,除了将 PDF 压缩或者切分外,还可以转成 HTML 格式,然后使用浏览器自带的网页翻译功能。
2024-12-25
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
中文播客生成
以下是关于中文播客生成的相关信息: NotebookLM 中文版平替:输入 url,生成中文播客,可一键发布小宇宙,开源地址为 https://github.com/lihuithe/podlmpublic 。 NotebookLlama:Meta 的播客生成教程,使用 Llama 模型从 PDF 中提取文本生成干净的.txt 文件,转化文本为播客转录创造富有创意的内容,对转录进行戏剧化处理提高互动性和吸引力,最终将文本转换为播客音频,支持多种 TTS 模型。详细介绍:https://xiaohu.ai/p/15036 ,GitHub:https://github.com/metallama/llamarecipes/tree/main/recipes/quickstart/NotebookLlama 。 此外,播客一词于 2004 年提出,由“iPod”“broadcast”两个词合并而成,多数围绕音乐、电台。AI 播客降低了播客的制作门槛,增加了内容的多样性,但也可能造成劣币驱逐良币和信息茧房效应加剧。综合来看,播客和短视频都属于泛娱乐类,区别在于注意力和知识密度体系。
2024-12-12
什么是大模型
大模型通俗来讲,是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练。 2. 确定教材:大模型需要大量的数据量,几千亿序列(Token)的输入基本是标配。 3. 找老师:即选择合适的算法讲述“书本”中的内容,让大模型更好理解Token之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在LLM中,Token被视为模型处理和生成的文本单位,会被分割并生成词汇表,数字化便于计算机处理。为让计算机理解Token之间的联系,还需把Token表示成稠密矩阵向量,这个过程称为embedding,常见算法有基于统计的Word2Vec、GloVe,基于深度网络的CNN、RNN/LSTM,基于神经网络的BERT、Doc2Vec等。以Transform为代表的大模型采用自注意力(Selfattention)机制来学习不同token之间的依赖关系,生成高质量embedding。 大模型的“大”指用于表达token之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如GPT3拥有1750亿参数。 所谓的大模型,简而言之,是拥有庞大参数数量的模型,通过处理和理解海量数据,能够胜任一系列复杂的任务。大模型强大的原因在于庞大的参数数量和大量的数据。这些参数帮助模型更深入地理解和生成数据,大量的数据是大模型学习的基础,使其能够掌握丰富的知识和技能。
2024-12-30
全世界最先进的模型是什么
目前全世界较为先进的模型包括: Meta 发布的 Meta Movie Gen 文生视频模型,Meta 称其为“迄今为止最先进的媒体基础模型(Media Foundation Models)”,但模型未公开上线。相关链接:https://ai.meta.com/research/moviegen/ 媒体报道:量子位:Meta 版 Sora 无预警来袭!抛弃扩散模型,音视频生成/画面编辑全包,92 页论文无保留公开 https://mp.weixin.qq.com/s/rs7JQigqHO9yT_0wbF6cTg 歸藏的 AI 工具:Meta 发布视频生成和编辑模型,来看看项目负责人的论文导读 https://mp.weixin.qq.com/s/BLXNgCW0vAHNZtHgd4623g OpenAI 的 GPT4 是其最新和最强大的模型,GPT3.5Turbo 是为 ChatGPT 提供支持的模型,此模型专为对话模式进行了优化。相关链接:https://platform.openai.com/docs/quickstart Llama 3.1 是迄今为止最大版本,其在推理、数学、多语言和长上下文任务中能够与 GPT4 相抗衡。这标志首次开放模型缩小与专有前沿的差距。 此外,由 DeepSeek、零一万物、知谱 AI 和阿里巴巴开发的模型在 LMSYS 排行榜上取得了优异的成绩,尤其在数学和编程方面表现尤为出色。中国的最强模型与美国生产的第二强前沿模型竞争,同时在某些子任务上挑战了 SOTA。中国模型更能优先考虑计算效率,以弥补 GPU 访问的限制,并学会比美国同行更有效地利用资源。中国模型各有优势。例如,DeepSeek 在推理过程中通过多头隐式注意力减少内存需求,并且改进了 MoE 架构。同时,零一万物更加关注数据集的建设而不是建筑创新。由于在像 Common Crawl 这样的流行存储库中相对缺乏数据,因此它更加关注建立强大的中文数据集来弥补不足。
2024-12-30
目前主流的AI大模型有哪些
目前主流的 AI 大模型主要有以下几种: 1. GPT 系列:例如 GPT3 等,其基于 Transformer 算法,擅长自然语言生成任务。 2. BERT:属于 encoderonly 模型,通常适用于自然语言理解任务,如分类和情感分析。 3. T5:是 encoderdecoder 模型,可用于翻译和摘要等任务。 4. ChatGPT:用户通过像和人类一样对话即可完成任务。 大模型具有以下特点: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,通常用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型的应用场景广泛,包括: 1. 文本生成和内容创作,如撰写文章、生成新闻报道、创作诗歌和故事等。 2. 聊天机器人和虚拟助手,提供客户服务、日常任务提醒和信息咨询等服务。 3. 编程和代码辅助,用于代码自动补全、bug 修复和代码解释。 4. 翻译和跨语言通信,促进不同语言背景用户之间的沟通和信息共享。 5. 情感分析和意见挖掘,为市场研究和产品改进提供数据支持。 6. 教育和学习辅助,创建个性化学习材料、自动回答学生问题和提供语言学习支持。 7. 图像和视频生成,如 DALLE 等模型可根据文本描述生成相应图像。 8. 游戏开发和互动体验,创建游戏中的角色对话、故事情节生成和增强玩家沉浸式体验。 9. 医疗和健康咨询,理解和回答医疗相关问题,提供初步健康建议和医疗信息查询服务。 10. 法律和合规咨询,帮助解读法律文件,提供合规建议。
2024-12-30
为什么大模型在往智能体的方向发展
大模型之所以往智能体的方向发展,主要有以下原因: 1. 决策模块的需求:决策模块是具身智能系统的核心,早期的决策方式存在局限,大模型的出现极大地增强了具身智能体的智能程度,大幅提高了环境感知、语音交互和任务决策的能力。 2. 能力提升:随着大模型技术的成熟和规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,进一步提升应用能力,广泛应用于多个行业和领域。 3. 特点优势:基于大模型的智能体具有强大的学习能力、灵活性和泛化能力,能够适应不同任务和环境,解决新的类似问题。 4. 应用拓展:在多模态的视觉语言模型基础上,具身智能的大模型的发展方向是视觉语言动作模型和视觉语言导航模型,实现从自然语言指令到可执行动作指令的直接转换。
2024-12-30
我在哪里能看到吴恩达的大模型通识课?
以下是一些可以看到吴恩达大模型通识课的途径: 1. 中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,地址: 2. 目录:吴恩达讲 Prompt,地址:https://github.com/zard1152/deepLearningAI/wiki ; 3. 2023 年 8 月 24 日,吴恩达最新的《》短课程上线。
2024-12-30
哪些模型可以提供论文参考文献
以下是一些可以提供论文参考文献的模型相关内容: Sora 大型视觉模型的相关论文中,参考文献包括: A.Awasthi 等人的“用于凋亡预测的视频扩散模型”,2023 年。 A.Bozorgpour 等人的“Dermosegdiff:用于皮肤病变勾画的边界感知分割扩散模型”,2023 年。 A.Flaborea 等人的“多模态运动条件扩散模型用于基于骨架的视频异常检测”,2023 年。 J.Wu 等人的“Medsegdiffv2:基于扩散的医学图像分割与变压器”,2023 年。 G.J.Chowdary 和 Z.Yin 的“用于医学图像分割的扩散变换器 UNet”,2023 年。 I.Kapelyukh 等人的“Dallebot:将网络规模扩散模型引入机器人技术”,2023 年。 OpenAI 的“Chatgpt:获取即时答案,寻找创意灵感,学习新事物。”,2022 年。 OpenAI 的“Gpt4 技术报告”,2023 年。 OpenAI 的“Sora:从文本创建视频。”,2024 年。 W.Peebles 和 S.Xie 的“使用变压器的可扩展扩散模型”,2023 年。 A.A.Efros 和 T.K.Leung 的“通过非参数采样的纹理合成”,1999 年。 P.S.Heckbert 的“纹理映射概述”,1986 年。 I.J.Goodfellow 等人的“生成对抗网络”,2014 年。 D.P.Kingma 和 M.Welling 的“自动编码变分贝叶斯”,2013 年。 L.Dinh 等人的“Nice:非线性独立成分估计”,2014 年。 Y.Song 和 S.Ermon 的“通过估计数据分布的梯度进行生成建模”,2019 年。 解读 GPT4V《多模态的新时代》的相关内容中,参考文献可通过以下链接查看: https://arxiv.org/pdf/2309.17421.pdf https://cdn.openai.com/papers/GPTV_System_Card.pdf
2024-12-29