Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

如何调优大模型

Answer

以下是关于调优大模型的一些方法:

  1. 更换大模型:比如从 ChatGLM2-6B 替换成 baichuan2-13b,针对特定场景,后者性能可能提升一倍左右。
  2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3e-base 替换为 bge-large-zh,后者可能更优。
  3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。
  4. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,同时在构建时勾选【开启中文标题加强】选项。重命名文件对结果提升不明显,但勾选该选项后,回答的无关信息减少,效果有所提升。
  5. Prompt 阶段:需要一定的 prompt 工程,选择最合适的 prompt 模板。根据相关论文,把 query 放到头部和尾部,同时把相似度大的文档放到 context 的两端,能提升回答效果。
  6. LLM 生成答案:大模型本身的性能是最大影响因素。选择大模型时要在成本和收益间找最佳平衡点,有条件还可对模型进行微调以更匹配自身场景。
Content generated by AI large model, please carefully verify (powered by aily)

References

开发:产品视角的大模型 RAG 应用

开发:产品视角的大模型RAG应用[heading1]调优实践[content]基于以上的分析,我们先选取了实现成本最小的方式进行调优,结果如下:1、更换大模型:从ChatGLM2-6B替换成baichuan2-13b,发现针对我们的场景,后者的性能可以提升一倍左右。2、更换embedding模型:将embedding模型从LangChain Chatchat默认的m3e-base替换为bge-large-zh,发现后者优于前者3、测试不同Top k的值:比较Top 5、Top 10、Top 15的结果,发现Top 10时效果最优。4、对文档名称进行处理:由于原来的政策文件,在导出时文件名会进行简化,如too_long_发展行动方案。因此,人工对文件进行重命名,上传相同文件构建知识库,同时在构建知识库时勾选【开启中文标题加强】选项,发现重命名文件对结果的提升效果不明显,但勾选【开启中文标题加强】选项后,回答的无关信息减少,效果有所提升。目前来看,尽管效果有所提升,但仍未达到可用水平,后续我们也将尝试其他的调优策略。

开发:产品视角的大模型 RAG 应用

开发:产品视角的大模型RAG应用[heading1]如何调优[heading3]5、Prompt阶段[content]匹配出与问句向量最相似的top k个chunk之后,会将匹配出的文本和问句,一起添加到配置好的prompt中,提交给LLM。在这个阶段,可能需要一定的prompt工程,选择最合适的prompt模板。根据论文《Lost in the Middle:How Language Models Use Long Contexts》,大模型对上下文中间位置的知识点提取较差,因此在prompt中,把query放到头部和尾部,同时根据相似度,把相似度大的文档放到context的两端,能提升回答效果。[heading3]6、LLM生成答案[content]prompt提交给LLM后,LLM将生成回答,返回给用户。此时最大的影响因素就是大语言模型本身的性能。选择大模型时,也需要在成本和收益之间找到最佳平衡点,有些场景可能不需要最好的大模型,就可以实现还不错的效果。有条件的还可以对模型进行微调,使模型能力更加匹配自身的场景。

大模型入门指南

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|

Others are asking
2024年度中文大模型基准测评报告
以下是关于 2024 年度中文大模型基准测评报告的相关信息: 2024 年 7 月 10 日: 《SuperCLUE:中文大模型基准测评 2024 年上半年报告》指出,2024 年上半年中文大模型技术取得显著进展,国内外模型差距缩小至 5%以内。国内开源模型如 Qwen272B 表现优异,超越众多闭源模型。端侧小模型发展迅速,落地可行性大幅提升。该报告通过多维度、多层次测评体系,全面评估了大模型的通用能力和专项能力,为行业发展提供了客观数据支持。同时也指出,尽管大模型在多领域展现潜力,但仍面临技术挑战和应用落地问题。 2024 年 11 月 8 日: SuperCLUE 团队发布的新一期《SuperCLUE:中文大模型基准测评 2024 年 10 月报告》中有四点核心发现:1)OpenAI 发布 o1 后,全球大模型竞争加剧;2)国内大模型第一梯队竞争激烈,持续迭代表现不俗;3)国内外大模型在不同任务上表现各有优势;4)端侧小模型表现惊艳。 此外,Sora:大型视觉模型的背景、技术、局限性和机遇综述【官方论文】的参考文献包括: T.Shen,R.Jin,Y.Huang,C.Liu,W.Dong,Z.Guo,X.Wu,Y.Liu,和 D.Xiong,“大型语言模型对齐:一项调查”,arXiv 预印本 arXiv:2309.15025,2023 年。 X.Liu,X.Lei,S.Wang,Y.Huang,Z.Feng,B.Wen,J.Cheng,P.Ke,Y.Xu,W.L.Tam,X.Zhang,L.Sun,H.Wang,J.Zhang,M.Huang,Y.Dong,和 J.Tang,“Alignbench:大型语言模型中文对齐的基准测试”,2023 年。 P.Christiano,J.Leike,T.B.Brown,M.Martic,S.Legg,和 D.Amodei,“基于人类偏好的深度强化学习”,2023 年。 T.Yu,Y.Yao,H.Zhang,T.He,Y.Han,G.Cui,J.Hu,Z.Liu,H.T.Zheng,M.Sun,和 T.S.Chua,“RLHFV:通过细粒度校正人类反馈实现可信赖的 MLLMs 行为对齐”,2023 年。 M.S.Jahan 和 M.Oussalah,“使用自然语言处理进行仇恨言论自动检测的系统综述。”,《神经计算》,第 126232 页,2023 年。 OpenAI,“Sora 安全。”https://openai.com/sorasafety,2024 年。
2024-12-27
帮我查一下这四家主流大模型的应用能力评测报告吧,通用能力和单项能力都可,数据需要权威一些文心一言 文心一格 通义千问 通义万相 讯飞星火 ai小科 智谱
以下是为您找到的关于主流大模型应用能力评测的相关报告: 小七姐的测评: 测评机制:以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对智谱清言、文心一言 4.0、Kimi Chat 进行测评。 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:共分为五轮,分别针对不同的任务和模型进行多次测试。 中文大模型基准测评 2023 年度报告: 优秀模型:文心一言 4.0 API(百度)。 模型特点:在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一,在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且水平较高。 适合应用:能力栈广泛,可应用于查询搜索知识应用、任务拆解规划 Agent、文案写作、代码编写及纠错等方面,在逻辑推理方面表现不俗,可关注在科学研究、教育、工业方面的落地能力。 观点文章中的测评: 目前体验效果比较好的有科大星火模型、清华 ChatGLM、百度文心一言。 星火目前感觉最接近 GPT3.5(0301 版本)的 80%90%,但 GPT3.5 进化到 6 月版本效果更强。 对大模型的评估可从基础能力、职场能力、探索对话三个方面判断,基础能力包括语言(文本)生成和语言理解,如常识类问题和分词类问题。
2024-12-27
什么是基座模型
基座模型是在自然语言处理领域中具有重要地位的模型。 例如,GLM(General Language Model)是清华提出的基座模型,属于Prefix LM方式。其出发点是希望能同时在3种NLP任务上达到最优,同时不想引入原始encoderdecoder成倍的计算量代价。具体做法是先用双向网络encoder对题干(prompt)审题,然后通过decoderonly的方式把题干中位置做展开作答。 此外,还有一些开源的基座模型,如: 1. CPMBee:一个完全开源、允许商用的百亿参数中英文基座模型。采用Transformer自回归架构,在超万亿高质量语料上进行预训练,拥有强大的基础能力。 2. TigerBot:一个多语言多任务的大规模语言模型,开源了包括模型:TigerBot7B、TigerBot7Bbase、TigerBot180B,基本训练和推理代码,100G预训练数据,涵盖金融、法律、百科的领域数据以及API等。 3. 书生·浦语:由商汤科技、上海AI实验室联合香港中文大学、复旦大学和上海交通大学发布的千亿级参数大语言模型,具有1040亿参数,基于“包含1.6万亿token的多语种高质量数据集”训练而成。 在一些应用中,如Kolors,会选择直接使用大语言模型如ChatGLM6BBase作为文本编码的基座模型。
2024-12-27
评测模型生图好坏的标准
评测模型生图好坏的标准主要包括以下几个方面: 1. 模型选择: 基础模型(Checkpoint):生图必需,不同模型适用于不同主题。 Lora:低阶自适应模型,可用于精细控制面部、材质、物品等细节。 ControlNet:控制图片中特定图像,如人物姿态、生成特定文字等。 VAE:类似于滤镜,可调整生图饱和度。 2. 提示词设置: 正向提示词(Prompt):描述想要 AI 生成的内容。 负向提示词(Negative Prompt):描述想要 AI 避免产生的内容。 3. 图片视觉质量: 自然度和美观度是关键指标。 可从数据和训练方法两方面提升,如使用特定的网络结构。 4. 文字生成能力: 目前未有模型具有良好的中文文字生成能力。 提升中文文字生成能力需从多方面准备数据。 需要注意的是,模型生图的效果并非完全由这些标准决定,还可能受到其他因素的影响,需要不断尝试和学习以获得更好的生图效果。
2024-12-26
ocr大模型的原理
OCR 大模型的原理如下: 1. 生成式:大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,一开始给定提示词,大模型结合自身存储的知识进行计算推理,算出下一个单词的概率并输出,新的输出与过去的输入一起成为新的输入来计算下一个词,直到计算出的概率最大时结束输出。 2. 预训练:大模型“脑袋”里存储的知识都是预先学习好的,这个预先学习并把对知识的理解存储记忆在“脑袋”里的过程称为预训练。预训练需要花费大量时间和算力资源,且在没有其他外部帮助的情况下,大模型所知道的知识信息可能不完备和滞后。 3. 规模效应:参数规模的增加使得大模型实现了量变到质变的突破,最终“涌现”出惊人的“智能”。就像人类自身,无论是物种进化还是个体学习成长,都有类似“涌现”的结构。
2024-12-26
目前字节有哪些可以运用到安全审核业务的大模型?
字节在安全审核业务中可能运用到的大模型包括: 1. Claude2100k 模型,其上下文上限是 100k Tokens,即 100000 个 token。 2. ChatGPT16k 模型,其上下文上限是 16k Tokens,即 16000 个 token。 3. ChatGPT432k 模型,其上下文上限是 32k Tokens,即 32000 个 token。 大模型的相关知识: 1. 大模型中的数字化便于计算机处理,为让计算机理解 Token 之间的联系,需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。 2. 以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”指用于表达 token 之间关系的参数多,例如 GPT3 拥有 1750 亿参数。 3. 大模型的架构包括 encoderonly(适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT)、encoderdecoder(同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 google 的 T5)、decoderonly(更擅长自然语言生成任务,典型使用包括故事写作和博客生成,众多 AI 助手基本都来自此架构)。大模型的特点包括预训练数据非常大(往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级数据进行预训练)、参数非常多(如 Open 在 2020 年发布的 GPT3 已达到 170B 的参数)。
2024-12-25