Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

国内外大预言模型对比

Answer

以下是国内外大语言模型的对比情况:

  1. 工具使用能力:
    • 在工具使用的测评中,GPT-4 Turbo 取得满分。
    • 国内大模型中智谱清言表现不俗,取得 83.78 的高分,排名国内第一。文心一言 4.0(API)、通义千问 2.0、Yi-34B-Chat、AndesGPT 均有超过 70 分的表现。超过 GPT3.5 的国内模型有 12 个。
    • 开源模型中,Baichuan2-13B-Chat、Xverse-13B-2-Caht 表现可圈可点,均超过 GPT3.5 以及众多闭源模型。总体来看,国内大模型在工具使用能力上表现优异,这与国内大模型厂商积极落地应用密不可分。
  2. 主观和客观对比:
    • 通过对比模型在主观简答题 OPEN 和客观选择题 OPT 上的不同表现,国内大模型多数擅长做选择题,普遍选择题分数高于简答题分数。文心一言 4.0 和智谱清言表现相对稳定。
    • GPT-4 Turbo 的表现最为稳定。
    • 客观题相对主观题更容易通过题库形式进行训练和提升,同时由于客观题中包含中文特性问题,中文模型有一定优势,应综合来看模型的评测效果。
    • 在本次测评中,国外的代表性大模型如 GPT4 的不同版本、Claude2、Llama2 都有很好的稳定性表现,值得国内大模型进一步分析研究。
  3. 总体表现:
    • GPT 4 Turbo 总分 90.63 分遥遥领先,高于其他国内大模型及国外大模型。国内最好模型文心一言 4.0(API)总分 79.02 分,距离 GPT4-Turbo 有 11.61 分,距离 GPT4(网页)有 4.9 分的差距。
    • 过去 1 年国内大模型有长足进步,综合能力超过 GPT 3.5 和 Gemini-Pro 的模型有 11 个。
    • 在 SuperCLUE 测评中,国外模型的平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距在 4 分左右。国内外的平均水平差距在缩小,11 月差距在 10 分左右。
    • 国内开源模型在中文上表现好于国外开源模型,如百川智能的 Baichuan2-13B-Chat、阿里云的 Qwen-72B、Yi -34B-Cha t 均优于 Llama2-13B-Chat。
Content generated by AI large model, please carefully verify (powered by aily)

References

2023年度中文大模型基准测评报告.pdf

测评表现测评分析工具使用,考察模型的能力包括:检索API、调用API、规划API、通用工具使用。在工具使用的测评中,GPT-4 Turbo取得了满分。国内大模型中智谱清言表现不俗,取得了83.78的高分,排名国内模型第一。仅随其后的是文心一言4.0(API)、通义千问2.0、Yi-34B-Chat、AndesGPT均有超过70分的表现。其他国内模型同样有不错的表现,超过GPT3.5的模型有12个。在开源模型中,Baichuan2-13B-Chat、Xverse-13B-2-Caht的表现可圈可点,均超过GPT3.5以及众多闭源模型。总体来看,在工具使用能力上,国内大模型的表现优异,与国内大模型厂商积极落地应用密不可分。

2023年度中文大模型基准测评报告.pdf

测评表现测评分析通过对比模型在主观简答题OPEN和客观选择题OPT上的不同表现,可以发现,国内大模型多数擅长做选择题。普遍选择题的分数会高于简答题的分数。其中,文心一言4.0和智谱清言表现相对稳定,分别为(13.38)和(-14.01)。GPT-4 Turbo的表现最为稳定,差值仅有0.86。SuperCLUE认为,客观题相对主观题更容易通过题库形式进行训练和提升;同时也由于客观题中包含中文特性问题,中文模型自然有一定的优势,所以应该综合来看模型的评测效果。值得关注的是,在本次测评中,国外的代表性大模型如GPT4的不同版本、Claude2、Llama2都很好的稳定性表现,值得国内大模型进一步分析研究。注:计算分值为模型的OPEN分与OPT分值的差值,用以观察模型在主观题和客观题上的不同表现。[heading1]开源竞争格局[content]开源现状开源模型对比国外代表模型

2023年度中文大模型基准测评报告.pdf

国内外差距依然明显。GP T 4 T u r b o总分[heading1]国外模型平均成绩VS国内模型平均成绩[content]90.63分遥遥领先,高于其他国内大模型及国外大模型。其中国内最好模型文心一言4.0(API)总分79.02分,距离GPT4-Turbo有11.61分,距离GPT4(网页)有4.9分的差距。必须看到的是,过去1年国内大模型已经有了长足的进步。综合能力超过G P T 3.5和Gemini-Pro的模型有11个,比如百度的文心一言4.0、阿里云的通义千问2.0和Qw e n 72B-Chat、OPPO的AndesGPT、清华&智谱AI的智谱清言、字节跳动的云雀大模型等都有比较好的表现。•在SuperCLUE测评中,国外模型的平均成绩为69.42分,国内模型平均成绩为65.95分,差距在4分左右。另外国内开源模型在中文上表现要好于国外开源模型,如百川智能的Baichuan2-13B-Chat、•可以看出,国内外的平均水平差距在缩小,11月差距在10分左右。阿里云的Qwen-72B、Yi -34B-Cha t均优于Llama2-13B-Chat。

Others are asking
国内大预言模型能力对比
以下是关于国内大语言模型能力对比的相关信息: 小七姐的测评: 测评机制:以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对智谱清言、文心一言 4.0、KimiChat 进行测评。 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:共五轮,分别针对上述不同能力进行不同任务和模型的测试。 中文大模型基准测评 2023 年度报告: 国内大模型历月前三甲:在工具使用的测评中,GPT4 Turbo 取得满分,国内智谱清言排名第一,文心一言 4.0等也有不错表现。 国内外大模型发展趋势:国内外差距依然明显,GPT 4 Turbo 总分遥遥领先,国内最好的文心一言 4.0与 GPT4Turbo 有一定差距,但过去 1 年国内大模型有长足进步,综合能力超过 GPT 3.5 的模型有多个。在 SuperCLUE 测评中,国外模型平均成绩高于国内模型,但差距在缩小,国内开源模型在中文上表现好于国外开源模型。
2025-01-07
整合多家大预言模型的工具
以下为整合多家大语言模型的工具介绍: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验,但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可在两个模型中都问一遍提升信息准确性。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导能够启发用户,支持 Explore Chatbot,但丰富度不如后续要介绍的 Character,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小,以满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 用户可通过简单步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 下载安装地址:https://ollama.com/download/ ,安装完后,在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动,可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。 3. 未来还会不断丰富大模型的外延能力,例如知识库检索、计算工具、WolframAlpha、操作软件等。首先集成了 LangChain 框架,可更方便地基于 Llama2 开发文档检索、问答机器人和智能体应用等。针对 LangChain 框架封装的 Llama2 LLM 类见,简单的调用代码示例如下。
2024-11-15
可以调用不同大预言模型的整合工具推荐
以下是为您推荐的可以调用不同大语言模型的整合工具: 1. Poe:由 Quora 开发,有 APP 版本,支持跨端使用。集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。访问地址: 。Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验(但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可以尝试在两个模型中都问一遍提升信息准确性)。此外支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 2. 国内的一些模型,如智谱和文心,在文生图方面有一定能力。 另外,大模型工具可根据自身条件准备,推荐顺序为:1. chatGPT 4.0 2. kimichat 3. 智谱清言 4 。
2024-11-12
你知道有支持个性化训练的大预言模型么
以下是一些支持个性化训练的大语言模型: 1. Character.ai:更注重人格属性,试图满足社交、情感、陪伴等需求,与 ChatGPT 侧重不同,后者注重提高效率和解放生产力。 2. Midjourney:今天发布了模型个性化 Personalization 或 'p'的早期测试版本。模型个性化会学习用户的喜好,以便更可能用用户的口味来填补空白。其要求包括目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。使用时只需在提示后输入 'p',或使用提示栏中的设置按钮为所有提示启用个性化功能,还可以使用 's 100'控制个性化效果的强度。但需注意个性化目前不是一个稳定的功能,会随着进行更多的成对排名而变化,且可能会在接下来的几周内推出算法更新。
2024-10-18
大模型讲解
大模型是指输入大量语料,使计算机获得类似人类“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 3. 找老师:选择合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,会被数字化形成词汇表,便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”在于用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias)。 从整体分层的角度来看,大模型整体架构分为以下几层: 1. 基础层:为大模型提供硬件支撑、数据支持,如 A100、数据服务器等。 2. 数据层:包括静态的知识库和动态的三方数据集。 3. 模型层:有 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)或多模态模型(如文生图、图生图等模型,训练数据与 llm 不同,用图文或声音等多模态数据集)。 4. 平台层:如大模型的评测体系、langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:即应用层,是用户实际看到的地方。
2025-02-20
生成3d模型可以让模型动起来吗?
生成 3D 模型后是可以让模型动起来的。例如,通过以下工具和流程可以实现: 工具链:Midjourney(生成等距图像)→Trellis(图像转 3D 模型)→Browser Lab(浏览器内 3D 编辑器)。 步骤: 使用 Midjourney 生成等距 3D 场景,提示词示例:3D isometric bedroom with a bed and desk。(DALLE 3 也可测试) 用 Trellis 工具将图像转为 3D 模型(支持 Tripo 3D 等其他工具)。工具地址: 下载生成的 3D 模型(GLB 文件或高斯分布文件),然后导入 Browser Lab 编辑器中进一步编辑。编辑器地址: 结合可灵 AI、Hailuo AI、Runway 等工具可让场景中的人物动起来。 对于文物雕塑上色,可使用 runway 让固有想法的物体变得动态,runway gen3 的 V2V 可以让物体重新建模、重新上色,再把背景上个色,传到剪映,加上 BGM。 先上传图片,运用提示词,只要让物体动起来就行,一次可能不成功,可以多次抽卡(分够的话)。 生成好的视频的左下方,点击“Reuse”,再点击上方出现的“Video to Video”,视频就会跳转到我们的工作台。 再在下方输入提示词“3D modeling with vibrant colors”等待生成。 再重复上面一个步骤,把提示词换成“Changing the background to the universe,the body emits light”。 最后导入剪映,按照自己喜欢的风格,剪成一个小短片。 另外,可以用即梦 S2.0(或其他可以动效的工具)出动态视频,在剪映提前转成 9:16 或 16:9 的大小,否则 runway 会裁剪尺寸。
2025-02-20
你用的是什么ai模型
以下是关于所使用的 AI 模型的相关信息: 我使用的是 GPT4,其他模型的效果不太好。如果您使用 GPT4 总结的内容质量不行,可以点击“重试”按钮让其重新总结。 默认情况下,Cursor Chat 将 OpenAI 的 GPT4(具体为 GPT4Turbo 实例)用于其 AI 模型,您可以通过选择喜欢的 AI 模型,且为 Chat 选择的模型会保存供未来使用。 有实例中使用的是阿里千问模型。
2025-02-20
你是基于什么模型?
我调用的是抖音集团的云雀大模型。 Gemini 模型是基于 Transformer 解码器构建的,对模型结构进行了优化,主要为大规模稳定训练及在 Google 的 TPU 上推理优化。它能适应与各种音频和视觉输入交织的文本输入,并生成文本和图像输出,经过训练支持 32k 的上下文长度,采用高效的注意机制。 麦橘超然 MajicFlus 是一款基于 flux.dev 微调融合的模型,专注于高质量人像生成,尤其擅长亚洲女性,有卓越人像生成能力、广泛适用性、简单易用等特点。多位社区成员基于模型制作的 LoRA 一同发布,扩展了功能与表现力,但它对社区大部分的 lora 不完美兼容,需降低权重至 0.5 以下。
2025-02-20
模型微调是怎么实现的
模型微调是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练的模型,已学会一些基本模式和结构,然后在特定任务数据上继续训练以适应新任务。 以下是关于模型微调的具体实现步骤: 1. 准备和上传训练数据。 2. 训练新的微调模型: LoRA 微调: 脚本见:。 具体实现代码见。 单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调: 脚本见:。 具体实现代码见。 3. 加载微调模型: LoRA 微调:基于 LoRA 微调的模型参数见基于 Llama2 的中文微调模型,LoRA 参数需和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数。 全量参数微调:调用方式同模型调用代码示例,只需修改其中的模型名称或保存路径。 微调的优点包括: 1. 比即时设计更高质量的结果。 2. 能够训练比提示中更多的例子。 3. 由于更短的提示而节省了 Token。 4. 更低的延迟请求。 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。 以下是两个帮助理解微调概念的例子: 1. 情感分类:先使用大量语料库预训练模型,使其学会基本语法和单词语义,再收集标注过的电影评论(积极或消极)继续训练模型,使其学会判断评论情感。 2. 图像分类:先使用大量图片(如 ImageNet 数据集)预训练模型,使其学会识别图片中的基本形状和纹理,再收集标注过的猫和狗的图片继续训练模型,使其学会区分猫和狗。
2025-02-19
汇总一下现在的大语言模型都有哪些,国外和国内的模型分别列出来
以下是国内外的大语言模型汇总: 国外大语言模型: GPT4(OpenAI):目前最先进的自然语言生成模型,可用于回答问题、撰写文章等。 Gemini Ultra(Google):多模态人工智能模型,采用神经网络架构,对标 GPT4,可用于回答问题、生成代码、处理文本等。 Claude 3 Opus(Anthropic):多模态模型,能处理超过 1 百万 token 的输入,具有实时聊天、数据处理、分析预测等功能;实现了接近完美的召回率。 国内大语言模型: 文心一言(百度):大语言模型,可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。 讯飞星火:目前体验效果较好。 悟道・天鹰(北京智源人工智能研究院):首个具备中英文双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。 清华 ChatGLM 。 此外,国内还有通用模型如通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。
2025-02-19
AI安全治理这个方向的国内外的团队和人
以下是 AI 安全治理方向的国内外团队和人员相关信息: 美国:拜登签署了 AI 行政命令,美国政府已就 AI 治理框架与多国进行了广泛协商,包括澳大利亚、巴西、加拿大、智利、欧盟、法国、德国、印度、以色列、意大利、日本、肯尼亚、墨西哥、荷兰、新西兰、尼日利亚、菲律宾、新加坡、韩国、阿联酋和英国等。此外,美国迅速跟进世界首个人工智能安全研究所 AISA,美国能源部也一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。 英国:创建了世界上第一个人工智能安全研究所 AISA,AISA 有在部署前对高级模型进行评估、建立国家能力并开展研究、协调国际合作伙伴等三个核心功能,还发布了用于 LLM 安全评估的框架 Inspect。英国通过其高级研究与发明机构(ARIA)花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险,还计划设立“AI 安全研究实验室”。 OpenAI:OpenAI LP 约有 100 名员工,分为技术能力(推动 AI 系统功能发展)、安全保障(确保系统符合人类价值观)和政策治理(确保适当治理系统)三个主要方向。
2025-02-20
调研一下AI安全治理这个方向的国内外的团队和人。包括AI安全治理的子方向,每一个子方向国内外有哪些科研院所的哪些团队在做相关方向的工作,以及这些团队有哪些骨干成员,他们有哪些观点。以及这个团队有哪些治理成果,尽量详细
以下是关于 AI 安全治理方向的国内外团队和人的相关调研: 国外团队和人员: OpenAI:首席科学家 Ilya 对模型安全较为关注,提出了通过“指令层次结构”来修复“忽略所有先前指令“攻击的方法,并已在 GPT40 Mini 中得到部署。 Anthropic:在多重越狱方面的工作表明了“警告防御”的潜力,在前面和后面添加警告文本,以警示模型不要被越狱。 Gray Swan AI 的安全专家:试用“断路器”,专注于重新映射有害表示,效果比标准拒绝训练更好。 图灵奖得主 Hinton:支持对 AI 监管,认为大模型及其驱动的 AI 必须引入安全性监管,防止其失控或对人类造成伤害,并在网上签署了联名公开信。 英国:创建了世界上第一个人工智能安全研究所 AISA,具有在部署前对高级模型进行评估、建立国家能力并开展研究、协调国际合作伙伴等核心功能,还发布了 Inspect 框架用于 LLM 安全评估,并宣布与美国等效机构签署谅解备忘录,计划在美国旧金山设立办事处。 国内团队和人员:目前调研内容中未提及国内相关团队和人员的具体信息。 在观点方面,Bengio、Hinton、姚期智等著名研究者认为大模型及其驱动的 AI 必须引入安全性监管,确保大模型是 Safety 的,防止其失控或对人类造成伤害,并签署了联名公开信表达对于 AI 失控的担忧,呼吁学术界和工业界对大模型进行监管。吴恩达和 Lecun 则认为模型的能力不足以使其脱离人类的限制。 治理成果方面,英国通过其高级研究与发明机构(ARIA)花费 5900 万英镑开发“守门员”,负责了解和减少在能源、医疗保健和电信等关键领域中其他人工智能代理的风险。英国政府还计划设立一个“AI 安全研究实验室”。美国能源部一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。LLM 测试初创公司 Haize Labs 与 Hugging Face 合作创建了首个红队抵抗组织基准,汇编了常用的红队数据集并根据模型评估它们的成功率。Scale 根据私人评估推出了自己的稳健性排行榜。
2025-02-20
国内外财经大事件哪些AI能归纳
目前尚未有专门针对国内外财经大事件进行归纳的成熟 AI 应用。但一些智能新闻分析工具和金融数据处理平台可能会在一定程度上对相关信息进行整合和分析。不过,其效果和准确性可能会受到数据来源、算法模型等多种因素的影响。
2025-01-15
我想用AI制作一个帮助自己及时获得某细分工业领域国内外信息的工具,应该如何开始?
以下是使用 AI 制作帮助自己及时获得某细分工业领域国内外信息工具的步骤: 1. 让 AI 阅读学习一篇您认为优秀的行业调研报告,总结其中的方法论,输出一份“行业调研报告”的研究方法和操作框架。 2. 询问 AI 该文章在收集行业数据时使用了哪些一手数据和二手数据,并请其推荐一些靠谱的行业资料收集网站。 3. 要求 AI 参考上述内容,为您写一份“XXX 行业调研报告”,并请其作为“行业调研报告撰写专家”,推荐 10 个“XXX 行业”信息网站和 5 个“XXX 行业”研究微信公众号,然后输出一份“XXX 行业调研报告”框架。 4. 要求 AI 针对上述“XXX 行业调研报告”框架,丰富每一章节内容,每章内容字数大于 200 字。 5. 完成以上 4 个步骤后,AI 会为您写出一个“XXX 行业调研报告”的初稿。接下来,您可以根据自己的需求,让 AI 进一步完善每一个章节的内容。然后结合您自己的独特经验和知识,对文章内容进行润色和调整。 需要注意的是,要使调研报告有深度,可以通过以下两个路径: 1. 自己对行业比较了解,整理深度洞察和见解。 2. 一步一步深度咨询 AI,借助 AI 的海量知识,一边学习、一边研究、一边洞察总结。(通过借助 AI,可以加速我们的学习和研究能力) 操作示例如下:获取“kimi 对话原文”链接: 欢迎与 JessieZTalk 交流,在 AIGC 的路上共同进步!
2025-01-07
最近国内外 有什么新出的AI产品
以下是国内外新出的一些 AI 产品: 图像类产品: 国内: 可灵:由快手团队开发,用于生成高质量的图像和视频,图像质量高,最初采用内测邀请制,现向所有用户开放,价格相对较高,重度用户年费可达几千元,平均每月使用成本在 400 到 600 元,也有临时或轻度使用的免费点数和较便宜包月选项。 通义万相:在中文理解和处理方面表现出色,可选择多种艺术和图像风格,生成图像质量高、细节丰富,操作界面简洁直观、用户友好度高,能与阿里其他产品和服务无缝整合,重点是现在免费,每天签到获取灵感值即可,但存在某些类型图像无法生成、处理非中文语言或国际化内容不够出色、处理多元文化内容可能存在偏差等局限性。 搜索类产品: 国内:大模型厂商推出的 ChatBot 产品(智谱清言、Kimi Chat、百小应、海螺 AI 等),搜索厂商或创业团队推出的 AI 搜索产品(360 AI 搜索、秘塔、博查 AI、Miku 等)。 海外:Perplexity、You、Phind 等。 中国公司和团队的出海产品:ThinkAny、GenSpark、Devv 等。 PPT 类产品: 国内:爱设计 PPT,背后有实力强大的团队,对市场需求有敏锐洞察力,把握住了 AI 与 PPT 结合的市场机遇,已确立市场领先地位,代表了当前国内 AI 辅助 PPT 制作的最高水平,能提高制作效率并保证高质量输出。
2025-01-06
国内外最好的来源大模型有哪些 对比介绍一下
以下是国内外一些较好的大模型及其对比介绍: 国外大模型: GPT4 Turbo 总分 90.63 分遥遥领先,在各项能力上表现出色。 国内大模型: 文心一言 4.0(API)总分 79.02 分,过去 1 年有长足进步。 通义千问 2.0(阿里云):在代码、上下文对话基础能力上排名国内第一,各项能力较为均衡,位于国内大模型第一梯队,适合应用于金融、医疗、汽车等垂直专业场景及代码生成与纠错等场景。 AndesGPT(OPPO):在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。 百川智能的 Baichuan213BChat:是中文开源模型的主导力量,在中文上表现优于国外开源模型。 在 SuperCLUE 测评中,国外模型的平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距在 4 分左右,但国内外的平均水平差距在缩小。另外,国内开源模型在中文上表现要好于国外开源模型。
2024-12-28