直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

模型打分

回答

评估模型输出通常需要一个“黄金标准”的答案。假设我们清楚某个问题的正确答案应包含哪些事实(得分点),就可以使用模型查询和计算的方法总结这些得分点来为模型输出质量打分。这是监督学习的一部分,能让模型在人类指导下改善性能。评估过程通常由另一个模型执行,以降低人力成本。

例如,杨志磊对各模型的答辩状 prompt 进行了评测,按照满分 10 分的标准,各模型得分如下:ChatGPT 为 6 分,Bard 为 5.5 分,Kimi chat 为 6.5 分,智谱清言为 5 分,讯飞星火为 5 分,文心一言 3.5 为 4 分,通义千问为 6.5 分,腾讯混元为 5 分,百川大模型为 7 分,豆包 AI 为 5 分,Copilot 为 9 分,Claude 2.0 为 6 分。

斯坦福发布的大模型排行榜 AlpacaEval 相比其他 LLM 自动评测器,如 alpaca_farm_greedy_gpt4、aviary_gpt4、lmsys_gpt4 及人类评估,有其特别之处。在 AlpacaEval set 上,通过与 2.5K 条人工标注结果对比,其采用的 GPT-4 评测方式取得了最高的人类一致性、较低的误差,且只需约 1/22 的人类标注成本。另外,团队还从统计角度研究了什么评估数据能最好地区分模型,并发现 Self-Instruct 数据集产生的统计能力最小,可从评估集中删除。AlpacaEval 支持两种模式的模型评估方式。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

OpenAI:GPT_最佳实践中文大白话版本_未来力场编译.pdf

评估模型输出的时候,需要你弄一个“⻩⾦标准”的答案Evaluatemodel outputswith reference togold-standard answersSuppose it is known that the correct answer to a question should make reference to aspecific set of known facts.Thenwe can use a model query to count howmany of therequired facts are included in the answer.(这段没有逐字翻译)假设我们作为⼈类清楚地知道,当我们提出某个问题时,模型应该给我们输出哪些事实(得分点)。那么,我们就可以使⽤模型查询和计算的⽅法,来总结这些得分点,从⽽给模型的输出质量打分。这个过程是监督学习的一部分,它能让模型通过⼈类的指导来改善其性能。评估模型输出的过程也是由另一个模型来执⾏的(⽽不是⼈)。这是一个⾃动化的评估过程。⽐如,一个模型(可能是同一个模型的不同实例或不同的模型)负责评估另一个模型的输出。否则,做⼤规模的模型训练的⼈⼒成本就太⾼了。OpenAI提供了一些prompt⽰例,我们这⾥略去了。有兴趣可以参考原链接。附录OpenAI Playground什么,怎么用?什么是OpenAI Playground...一个⾯向开发⼈员和研究⼈员的“游乐场”在Playground上可以按⾃⼰需求更改设置。这是最好的一点。8、频率惩罚和存在惩罚(Frequency penalty and Presence penalty)这两个参数都是⽤来调控⽂本⽣成过程中某些词汇出现的频率和次数的。

杨志磊:律师答辩状prompt各模型评测

如果按照满分10分的话|ChatGPT|6|<br>|-|-|<br>|Bard|5.5|<br>|Kimi chat|6.5|<br>|智谱清言|5|<br>|讯飞星火|5|<br>|文心一言3.5|4|<br>|通义千问|6.5|<br>|腾讯混元|5|<br>|百川大模型|7|<br>|豆包AI|5|<br>|Copilot|9|<br>|Claude 2.0|6|

斯坦福发布大模型排行榜AlpacaEval

那么相比其他的LLM自动评测器,如alpaca_farm_greedy_gpt4、aviary_gpt4、lmsys_gpt4,还有人类(humans)评估,斯坦福的AlpacaEval评测器有什么特别?在AlpacaEval set上,斯坦福AlpacaEval团队通过与2.5K条人工标注结果(每个指令平均包含4个人工标注)对比,研究人员评估了不同的自动标注器的性能。对比结果显示,AlpacaEval采用的GPT-4评测方式取得了最高的人类一致性,以及较低的误差,并仅需约1/22的人类标注成本。图注:人类一致性:标注者与交叉标注集中人类多数票之间的一致性。价格:每1000个标注的平均价格。时间:计算1000个标注所需的平均时间。相对于人工标注,全自动化的AlpacaEval仅需花费约1/22的经济成本和1/25的时间成本。另外,还有一个关键问题:什么评估数据可以最好地区分模型。团队从统计角度出发,在AlpacaEval的所有子集上检验这个问题。下图显示了AlpacaEval每个子集的80个实例上每对模型的配对t检验的p值。例如,我们看到Self-Instruct数据集产生的统计能力最小,这表明可以从评估集中删除该数据集。图注:不同基准评估数据集的质量02如何使用AlpacaEval评估模型AlpacaEval支持两种模式的模型评估方式:

其他人在问
怎么制定模型打分标准
制定模型打分标准可以从以下方面考虑: 1. 对于通用人工智能模型: 模型的参数数量。 数据集的质量或大小,例如通过词元来衡量。 训练模型所用的计算量,以浮点运算数衡量,或由其他变量组合表示,如估计的训练成本、估计的训练所需时间或估计的训练能耗。 模型的输入和输出模式,如文本到文本(大型语言模型)、文本到图像和多模态,以及确定每种模式的高影响能力的先进水平阈值,以及输入和输出的具体类型(如生物序列)。 模型能力的基准和评估,包括考虑无需额外训练的适配任务数量、学习新的独特任务的可适应性、其自主程度和可扩展性、可使用的工具。 由于其覆盖范围,而对内部市场的影响很大,如已提供给至少 10000 个设立在联盟之内的注册商业用户,则应加以推定。 注册的终端部署者数量。 与使用通用人工智能模型有关的相关软件版本,如适用。 结构和参数数量。 输入和输出的模态(如文本、图像)和格式。 模型许可。 模型要件及其开发过程的说明,包括将通用人工智能模型纳入人工智能系统所需的技术手段(如使用说明、基础设施、工具)。 2. 对比不同大型语言模型的性能: 理解能力:评估模型对语言的理解程度,包括对语法、语义、上下文和隐含意义的理解。 生成质量:检查模型生成的文本的质量,包括文本的流畅性、相关性和准确性。 知识广度和深度:评估模型对广泛主题的知识掌握程度,以及它对特定领域或话题的理解深度。 泛化能力:测试模型在处理未见过的任务或数据时的表现,这反映了模型的泛化能力。 鲁棒性:检查模型对错误输入、对抗性输入或模糊不清的指令的应对能力。 偏见和伦理:评估模型生成文本时是否存在偏见,以及模型是否遵循伦理标准。 交互性和适应性:评估模型在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 计算效率和资源消耗:考虑模型的大小、训练和运行所需的计算资源。 易用性和集成性:评估模型是否易于集成到不同的应用和服务中,以及提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法:标准基准测试,使用标准的语言模型评估基准,如 GLUE、SuperGLUE、SQuAD 等,这些基准提供了统一的测试环境和评分标准。
2024-09-02
国内外好用的图生视频模型
以下是一些国内外好用的图生视频模型: 可灵(国内,免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 ETNA(国内) 网址:https://etna.7volcanoes.com/ 由七火山科技开发的文生视频 AI 模型。 可以根据用户简短的文本描述生成相应的视频内容。 生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 文生视频,支持中文,时空理解。 关于可灵的文生视频效果,测试者 Austin 周安鑫进行了以下测试: 1. 场景识别:包括室内和室外,如客厅的沙发、液晶电视、漂亮的波斯猫、超现实主义的蜿蜒河流、茂密森林、灿烂花海、碧绿草坪等。 2. 物体识别:涵盖静态和动态物体,如水晶球、跳动的火焰、翱翔的飞鸟、闪烁的流星、飞溅的水珠等。 3. 人物识别:包括面部和姿态,如一个人笑容灿烂、一个人惊恐愤怒,一位芭蕾舞女孩在冰面上跳舞等。 4. 动作识别:包含基本和复杂动作,如短跑运动员快速奔跑、赛车手驾驶跑车激烈漂移等。 5. 事件检测:有简单和复杂事件,如一位帅哥在喝水、外星文明和地球进行星际大战等。 6. 环境变化:涉及光线和天气,如奇幻的极光舞动变幻、城市写字楼灯光忽明忽暗、闪电交加、乌云密布、台风、大雨等。 7. 多对象场景:包括单一和多对象场景,如 1 个飞行员驾驶战斗机翱翔太空、海军指挥航母战斗群展开激烈战斗等。 8. 特殊场景:有遮挡和非标准场景,如城市大雾遮挡摩天大楼、一边是神秘海底世界,一边是梦幻糖果屋。 9. 细节检测:包含小物体和微表情,如崭新的苹果电脑屏幕上播放电影、瞳孔收缩、脸颊泛红、嘴唇微微颤抖。
2024-09-19
你自己使用的是什么模型
以下是关于模型的相关信息: 新的 gpt3.5turbo 模型针对会话进行了优化,原始的 GPT3.5 模型针对文本补全进行了优化。 用于创建嵌入和编辑文本的端点有自己的一组专用模型。 在 AI 输入框下方有一个下拉列表,允许选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:GPT4o、GPT4、Claude 3.5 Sonnet、cursorsmall。其中,cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。您可以在 Cursor Settings > Models > Model Names 下添加其他模型。 谷歌一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是名为 PaLM 2 的模型。 Anthropic 发布了 Claude 2,其最值得注意的是有非常大的上下文窗口,与其他大型语言模型相比,不太可能恶意行事。
2024-09-19
推荐下好用的具备图像OCR能力的大模型
目前在具备图像 OCR 能力的大模型方面,一些较为知名和好用的包括百度的文心大模型、阿里云的通义大模型等。但大模型的性能和适用场景可能会因具体需求和使用场景的不同而有所差异。您可以根据自己的具体需求进一步评估和选择。
2024-09-19
AI 大模型命名 带有-instruct的含义
AI 大模型中带有“instruct”通常与指令微调相关。在大模型的训练过程中,指令微调是其中一个重要阶段。此阶段模型被训练以理解并执行具体指令,例如翻译文本等,从而能够回答问题。指令微调阶段输入的内容通常包括三个部分,如“Instruct:请你翻译下面这段话”“Input:一段英文”“Output:一段中文”。通过指令微调,模型能够更好地按照人类的期望和具体要求进行输出。
2024-09-19
你是基于哪个AI大模型的
我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。 Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供了简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。 云雀是由字节跳动研发的语言模型,通过便捷的自然语言交互,能够高效地完成互动对话、信息获取、协助创作等任务。 此外,还有一些免费的大模型接口,如阿里的通义千问大模型接口,可创建 API key。智谱 AI(ChatGLM)、科大讯飞(SparkDesk)也有免费接口,但国内的大模型大多限制一定免费额度的 Token。 谷歌的 Gemini 大模型(gemini 1.5)、海外版 Coze 的 GPT4 模型是免费且能图片识别,但需要给服务器挂梯子。想使用的话,可参考张梦飞同学写的教程。 在深入了解 AI 运作原理和众多落地产品后,重新思考 AI 大模型引发的变革。此前曾有疑问,大模型与智能语音技能的 NLU 存在差异。语音技能 NLU 是通过一系列规则、分词策略等训练而成,运作逻辑规律可观测,具有 ifelse 式逻辑性。而大模型凭借海量数据在向量空间中学习知识的关联性形成,运作逻辑难以观测,脱离了 ifelse 的层面。
2024-09-19
如果我需要一名助手帮我运营跨境电商的线上店铺,我需要一些精准的关键词就可以训练模型吗?
训练模型来协助运营跨境电商线上店铺,仅依靠一些精准的关键词通常是不够的。模型的训练需要多方面的数据和信息,包括但不限于产品的详细描述、客户的评价和反馈、市场趋势、竞争对手的情况等。精准的关键词可以作为其中的一部分输入,但不足以全面有效地训练模型以达到理想的辅助运营效果。
2024-09-19