Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型评估

Answer

大模型评估是当前热门领域,以下是一些常见的评估方法和相关资源:

  • 测试问题类型:
    • 检索和归纳。
    • 推理性。
    • 有日期相关历史事件等。
  • 专业测评网站:
    • https://lmsys.org/blog/2023-05-03-arena/ (系统自带翻译不太友好,可点进去仔细阅读)。
    • 中文语言理解测评基准(CLUE):https://www.cluebenchmarks.com/index.html ,介绍:https://mp.weixin.qq.com/s/6CDnyvMsEXtmsJ9CEUn2Vw 。
    • 斯坦福团队的 AlpacaEval:项目链接:https://github.com/tatsu-lab/alpaca_eval ,排行榜链接:https://tatsu-lab.github.io/alpaca_eval/ 。
    • FlagEval(天秤)大模型评测体系及开放平台:地址:https://github.com/FlagOpen/FlagEval ,简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。FlagEval(天秤)创新构建了“能力-任务-指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。
    • C-Eval:地址:https://github.com/SJTU-LIT/ceval ,简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。
    • SuperCLUElyb:地址:https://github.com/CLUEbenchmark/SuperCLUElyb ,简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。
  • 对比不同大语言模型性能的方法:
    • 自定义任务:根据特定需求设计任务,以评估模型在特定领域的表现。
    • 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。
    • A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。
    • 性能指标:使用包括准确率、召回率、F1 分数、BLEU 分数等在内的性能指标来量化比较。

请注意,以上内容由 AI 大模型生成,请仔细甄别。

Content generated by AI large model, please carefully verify (powered by aily)
Others are asking
AI应用于教育行业在评估和认证机制的改革方面的问题
AI 应用于教育行业在评估和认证机制的改革方面存在以下问题: 1. 教育体系具有惯性,课程设置、教师资格认证、学术评价体制等均有深厚传统根基,更新和调整需要时间,资源重新配置无法一蹴而就,大规模改革提案的决策流程涉及多方利益博弈,是长期议程。 2. 现有的教育体系追求稳定性和标准化,而非灵活性和快速响应,抵制变动,本质上较为保守,与 AI 引领的教育创新所需的快速试错和持续迭代能力脱节。 3. 教育政策更新滞后,政策制定者对新兴技术理解不足,无法充分预见技术对教育的长远影响,政策调整受预算限制、法规约束和政治周期影响,过程缓慢。 4. 技术与政策的脱节体现在教师的培训和招聘上,多数教师未接受相关培训,不仅要掌握工具操作,还需了解如何与教学目标结合,当前教师培训和专业发展项目在数量和质量上与需求存在差距。 5. 现有评估和认证机制侧重于传统学习方法和结果,学校和教师受其约束,创新的教育实践难以得到认可,甚至可能因偏离既定评价标准而遭质疑。
2025-02-10
AI可行性评估报告
以下是为您提供的关于 AI 可行性评估报告的相关内容: 一、关于 AI 责任和新技术的提案 1. 该提案建立在 4 年的分析和利益相关者(包括学者、企业、消费者协会、成员国和公民)的密切参与基础上。 2. 准备工作始于 2018 年,成立了责任和新技术专家组。专家组于 2019 年 11 月发布报告,评估了 AI 的某些特征对国家民事责任规则构成的挑战。 3. 专家组报告的输入得到了三项额外外部研究的补充: 基于欧洲侵权法对关键 AI 相关问题的比较法律研究。 关于责任制度有针对性调整对消费者决策(特别是他们对采用 AI 支持的产品和服务的信任和意愿)影响的行为经济学研究。 涵盖一系列问题的经济研究,包括 AI 应用的受害者与非 AI 设备的受害者在试图获得损失赔偿时面临的挑战;企业对当前责任规则在其涉及 AI 的业务中的应用是否不确定以及不确定程度;法律不确定性的影响是否会阻碍对 AI 的投资;国家责任法的进一步碎片化是否会降低 AI 应用和服务的内部市场的有效性,以及通过欧盟立法协调国家民事责任的某些方面是否会减少这些问题并促进欧盟公司对 AI 技术的总体采用。 二、AI 相关的其他内容 1. 让 Claude 3.5 摆脱循环的提示技巧:在模型陷入重复或逻辑僵局时,可使用“退后一步”提示词,让其先进行多步、多角度思考,输出十段左右分析,再转化为代码实现。优势是避免错误方向的持续生成,促使模型输出新的思考过程。但如果模型输出内容已过于冗杂,建议修改原始提示词。 2. AI 对程序员工作的影响分析:AI 可代替代码生成、补全、分析问题和数据提取、辅助架构设计文档等部分;无法代替需求分析、复杂项目拆分、线上问题排查、调试及安全性保障。专业程序员可通过 AI 提升效率,但非专业人士难以依赖 AI 完成复杂任务,需注重自身技能提升和架构设计能力。 3. AI 应用场景:可从“自相矛盾”“时间线”“常识性冲突”角度,分析访谈内容的内部一致性,并结合常识推测可能存在夸大或不实之处。适合验证新闻、访谈或声明的真实性,发现潜在问题。 三、关于 AI 的创新方法 1. 政府已通过发布相关内容支持工具的开发。 2. 提出关于非监管工具对组织嵌入可信 AI 的帮助。 3. 包括长期规划,如交付确保框架有效的核心功能的首次迭代、与关键监管机构合作、发布草案咨询、开发监管沙盒或试验台、发布监测和评估报告、更新 AI 监管路线图等。
2025-01-22
请写一份基于人工智能的智能家居安防系统建设方案,包括项目介绍、商业模式、、竞品分析、行业分析、经营规划、风险评估、融资规划等。
以下是为您生成的基于人工智能的智能家居安防系统建设方案: 项目介绍: 智能家居安防系统是利用人工智能技术,对家居环境进行实时监控和安全防护的系统。它融合了智能硬件、智能软件、智能网联和服务平台等技术,旨在提升家居安防的效率和可靠性。 商业模式: 可以采用设备销售与服务订阅相结合的模式。销售智能安防设备获取收入,同时提供定期的维护和升级服务,用户按需订阅。 竞品分析: 目前市场上的竞品主要包括传统安防企业的智能化产品和新兴科技公司的创新方案。传统企业可能在硬件制造和渠道方面有优势,新兴公司则在技术创新和用户体验上有所突破。 行业分析: 智能家居安防市场正处于快速发展阶段。随着人们对生活品质和安全的重视,需求不断增长。同时,技术的进步也为行业发展提供了有力支持。 经营规划: 1. 产品研发:不断优化智能安防设备的性能和功能。 2. 市场推广:通过线上线下多种渠道进行宣传和推广。 3. 客户服务:建立完善的售后服务体系,提高用户满意度。 风险评估: 1. 技术风险:如技术更新换代快,需要持续投入研发。 2. 市场风险:竞争激烈,市场份额可能受到挤压。 3. 法律风险:需符合相关法律法规和标准。 融资规划: 根据项目的发展阶段和资金需求,制定合理的融资计划。可以考虑天使投资、风险投资、银行贷款等多种融资渠道。 需要注意的是,以上方案仅为初步框架,具体内容还需要进一步深入调研和细化。
2024-12-11
AI 评估 GPU 大模型的性能指标,包括输入 token 和输出 token 能力的区分。
以下是关于 AI 评估 GPU 大模型性能指标中输入 token 和输出 token 能力区分的相关内容: 大模型是通过输入大量语料进行训练,从而获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。在大模型的训练和使用过程中: 1. 训练需要大量计算,GPU 更合适,只有具备大量 GPU 的才有资本训练大模型。 2. 大模型需要大量数据量,几千亿序列(Token)的输入基本是标配。 3. 要用合适的算法让大模型更好理解 Token 之间的关系。 4. 为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 完成上述步骤后,大模型就可以进行如翻译、问答等推导(infer)工作。 Token 是大模型语言体系中的最小单元,人类语言发送给大模型时,会先转换为其自身语言,推理生成答案后再翻译输出。不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 在评估 GPU 大模型性能时,显卡的常规指标很重要。大部分模型默认采用 FP16 的加载方式,因此显卡的性能指标主要关注 FP16 的算力和显存大小。算力影响推理速度,包括输入数据处理和持续吐出数据的速度,会体现在从提示词输入后到第一个输出的 token 的等待时间间隔,以及流式输出下每秒吐字的字数,通常每秒 10 token 以上能获得较好的用户体验。显存大小影响能否装载模型,可通过“参数大小乘 2”简化判断所需显存大小,但实际显存需求还会受其他因素影响。
2024-12-05
如何对rag进行评估
对 RAG 进行评估可以从以下几个方面入手: 1. 使用 RAG 三角形的评估方法: 在 LangChain 中创建 RAG 对象,使用 RAGPromptTemplate 作为提示模板,指定检索系统和知识库的参数。 在 TruLens 中创建 TruChain 对象,包装 RAG 对象,指定反馈函数和应用 ID。反馈函数可使用 TruLens 提供的 f_context_relevance、f_groundness、f_answer_relevance,也可自定义。 使用 with 语句运行 RAG 对象,记录反馈数据,包括输入问题、得到的回答以及检索出的文档。 查看和分析反馈数据,根据 RAG 三角形的评估指标评价 RAG 的表现。 2. 建立评估框架将检索性能与整个 LLM 应用程序隔离开来,从以下角度评估: 模型角度(generation): 回答真实性:模型结果的真实性高低(减少模型幻觉)。 回答相关度:结果和问题的相关程度,避免南辕北辙。 检索角度(retrieval): 召回率(recall):相关信息在返回的检索内容中的包含程度,越全越好。 准确率(precision):返回的检索内容中有用信息的占比,越多越好。 3. 考虑以下评估方法和指标: 生成质量评估:常用自动评估指标(如 BLEU、ROUGE 等)、人工评估和事实验证,衡量生成文本的流畅性、准确性和相关性。 检索效果评估:包括检索的准确性、召回率和效率,其好坏直接影响生成文本的质量。 用户满意度评估:通过用户调查、用户反馈和用户交互数据了解用户对 RAG 系统的满意度和体验。 多模态评估:对于生成多模态内容的 RAG 系统,评估不同模态之间的一致性和相关性,可通过多模态评估指标实现。 实时性评估:对于需要实时更新的 RAG 任务,考虑信息更新的及时性和效率。 基准测试集:使用基准测试集进行实验和比较不同的 RAG 系统,涵盖多样化的任务和查询,以适应不同的应用场景。 评估方法和指标的选择取决于具体的任务和应用场景,综合使用多种评估方法可更全面地了解 RAG 系统的性能和效果,评估结果能指导系统的改进和优化,满足用户需求。此外,RAGAS 是一个用于 RAG 评估的知名开源库,可参考使用: 。需要注意的是,RAG 适合打造专才,不适合打造通才,且存在一定局限性,如在提供通用领域知识方面表现不佳,可能影响模型的风格或结构输出、增加 token 消耗等,部分问题需使用微调技术解决。
2024-11-13
怎么评估提示词的效果?
评估提示词的效果可以从以下几个方面进行: 1. 模型的准确率:观察模型生成的回答与预期结果的匹配程度。 2. 流畅度:检查生成的文本在语言表达上是否通顺、自然。 3. 相关性:判断生成的内容与提示词所表达的意图和需求的关联程度。 提示词工程师在评估提示词效果时,通常会采取以下步骤和方法: 1. 设计提示:根据用户需求和模型能力,精心考虑提示的长度、结构、措辞和信息量等因素,以清晰传达用户意图。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式,不断改进提示。 3. 实际测试:包括对基础提示词模板的测试,确保其能兼容国内外各种模型,并生成拟人化的提示词,然后将其应用于不同模型中评估实际应用效果和适应性。 此外,提示工程有几项核心原则: 1. 编写清晰的指令。 2. 将复杂任务分解为简单任务。 3. 给模型一定的时间空间思考。 4. 系统地测试性能变化。 要提高提示技巧,应多学习和实践。同时,可以参考大模型厂商的提示工程指南,以及 LangGPT 结构化提示词知识库中的相关资料,如:
2024-10-15
测绘地理信息可以使用的大模型有哪些?
以下是一些测绘地理信息可能使用到的大模型获取途径和相关信息: 1. 常用的模型网站有: 2. 关于 SDXL 大模型: SDXL 的大模型分为两个部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化以生成细节更丰富的图片。此外,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。然后将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 3. 模型下载和分辨: 在 Civitai 网站下载模型时,可通过科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint = 大模型、LoRA = Lora。感兴趣的模型可点击“Download”下载保存到电脑本地。 模型下载保存地址:大模型可存放在 SD 根目录(即下载 SD 时存放的文件夹);Lora 和 VAE 也有相应的存放位置。 若不知道下载的模型类型及应存放的文件夹,可使用秋叶的模型解析工具 https://spell.novelai.dev/,将模型拖动到空白处查看模型信息。
2025-02-15
配置“DeepSeek-R1”模型的 API key:基础 URL 为 https://ark.cn-beijing.volces.com/api/v3,填好之后点击保存,关掉提醒弹窗。请对于这一步进行细节说明
以下是配置“DeepSeekR1”模型的 API key 的详细步骤: 1. 注册并登录火山引擎,点击立即体验进入控制台:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台)。 2. 创建一个接入点:点击在线推理创建推理接入点。 3. 为接入点命名为“DeepSeekR1”。如果出现“该模型未开通,开通后可创建推理接入点”的提示,点击“立即开通”,勾选全部模型和协议,一路点击开通(免费)。如果无提示则直接到第 5 步,点击确认接入。 4. 确认以下无误后,点击“确认接入”按钮。 5. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”,复制这个推理点的 ID 放到微信里保存。 6. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。如果已经有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】,复制好之后,放到微信里保存。 7. 也可以使用其他插件,下面为举例示意使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 8. 打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 9. 基础 URL 填写:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 10. 配置完成。
2025-02-15
Deepseek老是“服务器繁忙,请稍后再试”,没有办法提升,比如说把模型部署到本地等等
如果您遇到 DeepSeek 老是显示“服务器繁忙,请稍后再试”且无法提升的情况,可以尝试以下方法: 1. 使用网页聊天: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接安装浏览器插件并添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL 为 https://ark.cnbeijing.volces.com/api/v3,填好之后点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 2. 完成上述操作后,您就可以愉快玩耍,无需担心“服务器繁忙”了,打开联网功能,还可以支持联网搜索使用 R1。
2025-02-15
有没有大模型测评网站
以下是一些大模型测评网站: 玉宝搞过的 LLM 在线评估网站:https://www.llmrank.cn/ ,可看到国内各个闭源大模型的 HUMANEVAL 测评得分,并能与 QWEN2 对比。 Compass Arena:由上海人工智能实验室和魔搭社区联合推出,集齐了国内主流的 20 多款大模型,包括阿里通义千问、百度文心一言、腾讯混元、讯飞星火、字节跳动豆包、智谱 AI、百川智能、零一万物、月之暗面等,用户可在平台选择大模型的两两“对战”,实名或匿名对战皆可。测评地址:https://opencompass.org.cn/arena 。 中文大模型评测收集与调研相关网站: InfoQ + 极客帮:https://www.guotaixia.com/post/5124.html GAOKAOBench:https://github.com/OpenLMLab/GAOKAOBench ,是以中国高考题目为数据集,测评大模型语言理解能力、逻辑推理能力的测评框架。 清华安全大模型测评:http://115.182.62.166:18000 ,清华收集的一个评测集,涵盖了仇恨言论、偏见歧视言论、犯罪违法、隐私、伦理道德等八大类别,包括细粒度划分的 40 余个二级安全类别。 JioNLP 个人测评:评测数据集:https://github.com/dongrixinyu/JioNLP/wiki/LLM 评测数据集 ,考察 LLM 模型对人类用户的帮助效果、辅助能力,可否达到一个【智能助手】的水平。 EduTEP:华东师范大学计算机科学与技术学院 EduNLP 团队组建智能教育算法测评小组,开发智能教育可信评测平台(EduTEP)。EduTEP 对比多种大模型在教育领域中的综合性能,针对 K12 教育发布首个 CALMEDU 评测框架与 CALMEDU001 评测报告。 娱乐资本论:从实用角度出发,分析大模型在各种文本应用场景,如小红书带货文案、抖音直播文案、知乎问答、小说创作、公关信写作、歌词生成、淘宝商品详情页文案、广告宣传片文案、剧本创意策划等方面的综合表现。 全面的模型测评网站:https://lmsys.org/blog/20230503arena/
2025-02-15
我的工作是财务会计,经常需要对账,输入是2个Excel表格,但格式内容都有不少差异,哪些大模型或者工具可以帮我快速完成这个工作?
以下是一些可能有助于您快速完成对账工作的大模型或工具: 1. Coze 记账管家:它能通过大语言模型将用户输入的非结构化数据转变为结构化数据存入数据库。工作流程包括定义提示词,让大模型拆解并识别记账事项、发生时间、变动金额等,然后将这些数据存入数据库。 2. GLM4AllTools:可用于统计平台月度账单,例如您可以从平台导出月度明细数据,上传账单给沙盒,让模型统计账单数据和用量,还能分析账单数据波动。 3. 生成式 AI:在金融服务领域,它能帮助改进内部流程,如预测编写 Excel、SQL 和 BI 工具中的公式和查询,自动创建报告的文本、图表、图形等内容,为会计和税务团队提供税法和扣除项的可能答案,以及帮助采购和应付账款团队自动生成和调整合同、采购订单和发票等。
2025-02-15
AI发展的方式除了大模型,还有什么
AI 的发展方式除了大模型,还包括以下方面: 1. 算法:算法的不断优化和创新推动着人工智能的发展。 2. 算力:强大的算力支持是实现复杂人工智能任务的基础。 3. 数据:优质的数据集对于人工智能学习算法的发展至关重要,被称为“AI 时代的石油”。 4. 深度神经网络:通过简单细胞检测特征、复杂细胞汇总信息产生结果等方式实现识别、判断和行动等功能。 5. 端侧模型:端侧模型并非越小越好,而是要够用、好用,设备算力决定最优模型规模,多模态能力是突破通用计算的关键。 6. 端侧 Agents:在终端设备上自主运行的智能代理程序,具备感知、决策、执行的闭环能力,是连接模型与应用的关键。 7. 预训练:包括对编程语言、维基百科、新闻常识、网络社区、各类书籍等内容的预训练,但由于版权和费用问题,不包括期刊论文数据库。 8. 开源生态:促进了 AI 技术的交流和发展。
2025-02-15