直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型优化有哪些方式

回答

大模型优化的方式主要包括以下几种:

  1. 模型压缩:由于大模型的参数众多,内存需求巨大,在实际部署时会进行压缩。例如使用内存占用更小的数据类型,如 16 位的浮点数,其中英伟达在其最新一代硬件中引入了对 bfloat16 的支持。
  2. 上下文优化:如果模型缺失必知信息,如内部业务数据、流程等,可通过将相关信息提供给模型进行优化。例如采用 RAG 技术,先在知识库检索相关内容,然后与提示词组装后提供给大模型作为输入。
  3. 大模型优化:在进行足够的 prompt 工程后,如果模型在垂直领域表现不足或输出内容的格式风格稳定性不及预期,可以考虑微调。但微调也要与良好的 prompt 工程结合。
  4. 更换大模型:例如从 ChatGLM2-6B 替换成 baichuan2-13b,可能提升性能。
  5. 更换 embedding 模型:如将 embedding 模型从 LangChain Chatchat 默认的 m3e-base 替换为 bge-large-zh。
  6. 测试不同 Top k 的值:比较不同的 Top k 值(如 Top 5、Top 10、Top 15),找到最优效果的值。
  7. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,并勾选【开启中文标题加强】选项,可减少无关信息,提升效果。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

大模型入门指南

在LLM中,Token是输入的基本单元由于在大模型的参数非常多,比如在GPT-2中,有1.5B参数,每个参数用float32表示,那么需要的内存大小为4 bytes * 1,500,000,000 = 6GB,更先进的模型如LLAMA有65B参数,那么需要的内存就需要260G,这还是在不考虑词汇表的情况下。因此在进行模型实际部署时,会进行模型的压缩。而且,在训练LLM中,CPU与内存之间的传输速度往往是系统的瓶颈,核心数反而不是大问题,因此减小内存使用是首要优化点。使用内存占用更小的数据类型是一种直接的方式,比如16位的浮点数就可以直接将内存使用减倍。目前有几种相互竞争的16位标准,但英伟达在其最新一代硬件中引入了对bfloat16的支持,|Format|Significand|Exponent|<br>|-|-|-|<br>|bfloat16|8 bits|8 bits|<br>|float16|11 bits|5 bits|<br>|float32|24 bits|8 bits|

3. 如何让 LLM 应用性能登峰造极

如图所示,主要从下面两个维度考虑问题:Context optimization(上下文优化):模型是否缺失必知信息?如内部业务数据,流程等。LLM optimization(大模型优化):模型是否准确率不足,输出内容未能很好的遵循特定风格或格式?1.Context optimization(上下文优化)所创建的LLM应用如果需要了解特定的数据、系统和流程,而这是预训练LLM中不存在(或者有缺失)的知识和信息,则需要进行所谓上下文优化,将依赖的这部分信息提供给模型。如企业内部智能问答机器人,针对企业内部员工提供内部知识服务,需要了解企业知识库、规章制度、系统流程、甚至部分业务数据。而这些信息正是大模型所不知道的知识,无法通过单纯的prompt工程解决,应该考虑将相关知识提供给大模型。RAG就是很好的解决该问题的技术,首先在知识库检索相关内容,然后将内容和提示词组装起来一起提供给大模型作为输入,得到理想的输出。1.LLM optimization(大模型优化)在进行了足够的prompt工程后,如果所创建的LLM应用如果在垂直领域的表现仍然不足,或者我们希望其输出内容保持特定的格式风格等的稳定性依然不及预期,可以考虑进行大模型优化。这里所说的大模型优化通常是指微调。需要注意的是,即使用微调,也要和良好的prompt工程结合起来才能更有效的发挥作用,所以前期基于prompt工程打好地基很重要。下文中我们还会进一步说明。

开发:产品视角的大模型 RAG 应用

开发:产品视角的大模型RAG应用[heading1]调优实践[content]基于以上的分析,我们先选取了实现成本最小的方式进行调优,结果如下:1、更换大模型:从ChatGLM2-6B替换成baichuan2-13b,发现针对我们的场景,后者的性能可以提升一倍左右。2、更换embedding模型:将embedding模型从LangChain Chatchat默认的m3e-base替换为bge-large-zh,发现后者优于前者3、测试不同Top k的值:比较Top 5、Top 10、Top 15的结果,发现Top 10时效果最优。4、对文档名称进行处理:由于原来的政策文件,在导出时文件名会进行简化,如too_long_发展行动方案。因此,人工对文件进行重命名,上传相同文件构建知识库,同时在构建知识库时勾选【开启中文标题加强】选项,发现重命名文件对结果的提升效果不明显,但勾选【开启中文标题加强】选项后,回答的无关信息减少,效果有所提升。目前来看,尽管效果有所提升,但仍未达到可用水平,后续我们也将尝试其他的调优策略。

其他人在问
哪些AI软件可以设计提示词和优化提示词
以下是一些可以设计和优化提示词的 AI 软件: 1. 星流一站式 AI 设计工具: 在 prompt 输入框中可输入提示词,使用图生图功能辅助创作。 支持自然语言和单个词组输入,中英文均可。 启用提示词优化后可扩展提示词,更生动描述画面内容。 写好提示词的方法包括使用预设词组、保证内容准确(包含人物主体、风格、场景特点、环境光照、画面构图、画质等)、调整负面提示词、利用“加权重”功能突出重点内容,还有翻译、删除所有提示词、会员加速等辅助功能。 2. Prompt 网站精选: :AI 艺术提示词生成器。 :通过玩游戏练习 Prompt 书写。 NovelAI tag 生成器:设计类 Prompt 提词生成器,地址为。 魔咒百科词典:简单易用的 AI 绘画 tag 生成器,地址为。 KREA:设计 AI 的 Prompt 集合站,create better prompts,网址为。 Public Prompts:免费的 prompt 合集,收集高质量的提示词,网址为。 AcceleratorI Prompt:AI 词汇加速器,加速 Prompt 书写,通过按钮帮助优化和填充提示词,网址为。 3. OpenAI API: 设计提示词本质上是对模型进行“编程”,通常通过提供指令或示例完成。 模型通过将文本分解为标记(Token)来理解和处理文本,可通过分词器工具了解更多。 需要注意的是,在给定的 API 请求中处理的 Token 数量取决于输入和输出长度,文本提示词和生成的补全合起来不能超过模型的最大上下文长度(对于大多数模型,约为 2048 个 Token 或 1500 个单词)。
2024-11-22
根据Python实验内容(包括实验场景和实验内容)和参考资料链接,如何优化prompt,以完成程序?
以下是一些优化 prompt 以完成程序的建议: 1. 对于算术推理相关的程序,若思维链(及生成的方程式)存在正确但模型执行算术运算错误的情况,可添加一个 Python 程序作为外部计算器(使用 Python 的 eval 函数)处理生成的思维链中的所有方程式。当思维链中包含多个方程式时,通过字符串匹配将外部计算器的结果从一个方程式传递到下一个方程式,以提高思维链提示在大多数任务上的性能。 2. 在涉及迷宫生成的程序中,若生成的迷宫存在边未封好等问题,可调整提示词。若对复杂度不满意,也可提出并进行调整。 3. 在涉及图像生成的程序中,对于提示词编写,应遵循不改变梗图、虚构角色起源、未出现人物等的原则,保持原始提示的意图并优先保证质量。不创建任何具有冒犯性的图像。对于可能存在偏见的场景,确保如性别和种族等关键特征以无偏见的方式指定。对于包含特定人物或名人的提示词,需进行适当修改,以通用描述替代,除非其作为图像中的文本出现。提示词应详细、客观地描述图像的每个部分,思考描述的最终目标并进行推断以生成满意的图像。
2024-11-22
coze工作流中提示词优化节点有吗?
在 Coze 工作流中存在提示词优化节点。这个节点比较容易理解,如果觉得提示词需要优化,可加入该节点进行处理。其参数很简单,只有一个要优化的提示词。例如,用一开始就在用的文生图提示词“1 girl in real world”进行试用。优化后添加了很多具体信息,如在带着好奇心看书,环境中有阳光,色彩搭配的特点等。但修改后的提示词在控制图片生成真实照片的感觉方面,“in real world”控制真实图片生成的效果比“realistic”好。
2024-11-16
coze中提示词优化节点怎么加
在 Coze 中添加提示词优化节点的方法如下: 这个节点比较容易理解,如果觉得提示词需要优化,可以加入它进行优化。其参数很简单,只有一个要优化的提示词。 通常这类节点很好用。例如用一开始就在用的文生图提示词“1 girl in real world”来试试。优化前和优化后都生成一张图做效果对比,它会为我们添加很多具体信息,比如在带着好奇心看书,环境中有阳光,色彩搭配的特点。但修改后的提示词在控制图片为真实照片的感觉上,测试结果中文生图模型中“in real world”来控制更真实的图片生成效果比“realistic”效果好。(喜欢哪个见仁见智,不过也有抽卡因素,至少右边的打光感觉不错。)
2024-11-16
coze中提示词优化节点怎么加
在 Coze 中添加提示词优化节点的方法如下: 这个节点比较容易理解,如果觉得提示词需要优化,可以加入它进行优化。 参数很简单,只有一个要优化的提示词。 例如,用一开始就在用的文生图提示词“1 girl in real world”来试用。优化后会为提示词添加很多具体信息,比如在带着好奇心看书,环境中有阳光,色彩搭配的特点。但修改后的提示词在控制图片生成真实照片的感觉方面,“in real world”来控制比“realistic”效果好。
2024-11-16
coze中的提示词优化节点在哪里
在 Coze 中,提示词优化节点的相关信息如下: 这个节点比较容易理解,如果觉得提示词需要优化,可以加入它进行优化。参数很简单,只有一个要优化的提示词。 以文生图提示词“1 girl in real world”为例进行试用,优化后添加了很多具体信息,如在带着好奇心看书、环境中有阳光、色彩搭配的特点。但修改后的提示词在控制图片生成真实照片的感觉方面,“in real world”控制效果比“realistic”好。 此外,Coze 还涉及其他节点,如智能抠图、画质提升等。在复刻吴恩达开源的 AI 翻译项目时,工作流分为新建工作流、导入核心流程、设置节点等步骤,包括选择翻译的源语言和目标语言、选择大模型、配置反思优化的提示词等。
2024-11-16
现在哪几家的大模型支持通过手机视频多模态实时交流?
以下几家的大模型支持通过手机视频多模态实时交流: 1. PandaGPT:能够理解不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 2. VideoLLaMA:引入了多分支跨模式 PT 框架,使语言模型能够在与人类对话的同时处理给定视频的视觉和音频内容。 3. 视频聊天 GPT:专门为视频对话设计,能够通过集成时空视觉表示来生成有关视频的讨论。 4. NExTGPT:端到端、通用的 anytoany 多模态语言模型,支持图像、视频、音频、文本的自由输入输出。
2024-11-22
siri是不是使用大模型技术
Siri 目前并非使用大模型技术。苹果公司的 Siri 概念虽好,但由于技术限制,其表现未达到人工智能的水平,常被称为“人工智障”。不过,随着技术发展,未来可能会用大模型重新改造 Siri,将手机上的所有功能控制起来,使其成为真正的智能助理。例如,苹果公司在手机算力的芯片发展到能够支撑大模型上手机的情况下,可能会推出大模型的小数据量、专业的版本来替代 Siri。同时,苹果公司若 All in 手机,其大模型可能会是本地化的,以重视个人数据保护和隐私。
2024-11-21
sairi是不是使用大模型技术
Sora 是使用大模型技术的。周鸿祎认为 Open AI 训练这个模型会阅读大量视频,大模型加上 Diffusion 技术需要对世界进一步了解,学习样本以视频和摄像头捕捉到的画面为主。Sora 在训练数据上采用在原始尺寸上进行训练的策略,避免了传统 AI 对人为抽象的依赖。此外,Sora 还采用了一些数据预处理技术,如将视觉图块压缩成低维潜在表示,并将其排列成序列,注入噪声后输入扩散变换器的输入层,同时采用时空分块化来降低后续对时间信息建模的复杂性。这种对原始视频和图像特征的细腻处理标志着生成模型领域的重大进步。
2024-11-21
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
企业做自己的小模型,需要用到的工具及工具背后的公司都有哪些?
企业做自己的小模型,可能会用到以下工具及背后的公司: 1. 在编排(Orchestration)方面,涉及的公司如 DUST、FIAVIE、LangChain 等,其提供的工具可帮助管理和协调各部分及任务,确保系统流畅运行。 2. 部署、可扩展性和预训练(Deployment, Scalability, & PreTraining)类别中,像 UWA mosaicm、NMAREL、anyscale 等公司提供的工具,有助于部署模型、保证可扩展性及进行预训练。 3. 处理上下文和嵌入(Context & Embeddings)的工具,相关公司有 TRUDO、Llamalndex、BerriAI 等,能帮助模型处理和理解语言上下文,并将词语和句子转化为计算机可理解的形式。 4. 质量保证和可观察性(QA & Observability)方面,例如 Pinecone、drant、Vald 等公司提供的工具,可确保模型表现并监控其性能和状态。 此外,还有以下工具和相关公司: 1. 图片生成 3D 建模工具,如 Tripo AI(由 VAST 发布)、Meshy、CSM AI(Common Sense Machines)、Sudo AI、VoxCraft(由生数科技推出)等。 企业还可能涉及具身智能、3D 眼镜、AI 绘本、AI 图书、学习机、飞书的多维表格、蚂蚁的智能体、Coze 的智能体、Zeabur 等云平台、0 编码平台、大模型(通义、智谱、kimi、deepseek 等)、编程辅助、文生图(可灵、即梦等)等方面,可能需要相应资质。
2024-11-20
你认为目前最好用的大模型有哪些?
目前最好用的大模型包括: 1. OpenAI 的 GPT4:是最先进和广泛使用的大型语言模型之一,在多种任务上表现卓越,如文本生成、理解、翻译及各种专业和创意写作任务,能通过大量数据学习理解和生成人类语言,处理复杂问题和理解上下文能力出色。 2. Anthropic 公司的 Claude 3。 3. 谷歌的 Gemini。 4. 百度的文心一言。 5. 阿里巴巴的通义大模型。 大型模型主要分为两类: 1. 大型语言模型:专注于处理和生成文本信息。 2. 大型多模态模型:能够处理包括文本、图片、音频等多种类型的信息。 大型多模态模型与大型语言模型的不同点: 1. 处理的信息类型不同:大型语言模型专注于文本,大型多模态模型能处理多种类型信息。 2. 应用场景不同:大型语言模型主要用于自然语言处理任务,大型多模态模型应用领域更广泛。 3. 数据需求不同:大型语言模型依赖大量文本数据训练,大型多模态模型需要多种类型数据训练。 此外,如果想了解国内的大模型效果,可以参考第三方基准评测报告: 。需注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-19
我需要用知识库与通用大模型结合的方式满足博物馆的导览助手,请提出完整的实施方案。
目前知识库中没有关于用知识库与通用大模型结合来满足博物馆导览助手的完整实施方案。但以下是为您初步构思的一个可能的方案: 首先,需要对博物馆的展品、历史背景、文化内涵等相关信息进行全面而系统的梳理和整理,形成详细准确的知识库。 然后,选择适合的通用大模型,例如具备强大语言理解和生成能力的模型。 接下来,通过技术手段将知识库与通用大模型进行有效连接和融合。这可能涉及到数据的预处理、模型的训练与优化,以确保模型能够准确理解和运用知识库中的信息。 在实际应用中,为导览助手设计友好的用户界面,方便游客进行交互。例如,可以是语音交互、触摸屏操作等方式。 同时,要不断对导览助手进行测试和改进,根据游客的反馈和实际使用情况,优化知识库和模型的性能,提升导览助手的服务质量和用户体验。
2024-11-08
有几十个角色台词的语音文件,用什么方式克隆他的声音质量更好?
很抱歉,您提供的内容中并未包含关于克隆几十个角色台词语音文件以获得更好声音质量的具体方法和相关信息。但一般来说,要提高语音克隆的质量,可以考虑以下几个方面: 1. 选择高质量的原始语音文件,确保其清晰、无噪音。 2. 利用先进的语音克隆技术和工具,例如一些专业的语音处理软件。 3. 对语音特征进行精细的分析和提取,以准确捕捉原始声音的特点。 4. 进行适当的参数调整和优化,以适应不同的角色和场景需求。
2024-11-01
我想做一个短视频文案,需要什么样的提示词和提问方式
以下是关于制作短视频文案的提示词和提问方式的相关建议: 角色扮演方面: 明确角色,如写作助手,能为您提供写作方面的帮助,包括修改语法错误、优化句子结构、提高文本的连贯性和可读性等。 示例:“请帮我修改一下这段文章的语法和句子结构”“请给我一些关于如何提高文本连贯性和可读性的建议”“请修改这篇文章中的被动语态,使得它更加生动和有趣” 询问策略:若需对原文修改,会提示用户是否同意,同时询问用户需求和期望。 文本类方面: 例如“中餐管家,帮你安排一周餐饮”,作为角色要先简短介绍,热情鼓励用户做好晚餐。 对于食材信息,分点准确、专业、有数字顺序地指导用户回答,以快速准确获得肉类和耐放食材等信息,用于生成菜谱。 结构化框架方面: 如果需要可复用、不限使用者能力、一次性输入能稳定生成较好结果的提示词,结构化是萃取方法论的好工具,便于传播。 若自身逻辑思维和书面表达能力强,在与模型连续对话中能准确提问并得到想要回答,且不担心问答次数,可采用灵活方式随时提问,更利于激发创意。 结构化不是套格式的八股文,而是一种思维和写作框架,可理解为作文本上的格子,而非作文本身。
2024-10-27
总结一下,快速学ai的方式
以下是快速学习 AI 的方式: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括主要分支(如机器学习、深度学习、自然语言处理等)及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始 AI 学习之旅: 在「」中找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程按自己节奏学习,有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习,尤其要掌握提示词技巧。 4. 实践和尝试: 理论学习后进行实践巩固知识,尝试使用各种产品创作作品。 在知识库分享实践成果。 5. 体验 AI 产品: 与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式,获取实际应用体验。 此外,有人从去年 3 月开始使用 ChatGPT,在接触大量零散的 AIGC 信息后,总结了“AIGC 学习三步法”: 1. 系统深入学习和调研 AIGC,参加相关线下活动和在社群交流。 2. 梳理 AIGC 知识脉络。 3. 总结适合自己的学习方法并分享。
2024-10-25
我想让AI帮我润色两句话,让其符合科研论文的用语习惯,并且有逻辑,可以适当改变语序、及表达方式,也允许添加或删除部分内容,该怎么下指令
以下是关于让 AI 润色两句话使其符合科研论文用语习惯且有逻辑的指令建议: 首先,明确您要润色的两句话的具体内容,并清晰地向 AI 描述您的需求。例如:“请将以下两句话按照科研论文的用语习惯进行润色,使其逻辑清晰、表达准确。句子 1:。” 在指令中,可以强调一些具体的要求,比如:“适当调整语序和表达方式,在不改变原意的基础上,优化句子结构,使其更具学术性和专业性。” 同时,您还可以补充一些相关的背景信息或特定的学科领域,以便 AI 更好地理解您的需求并进行更精准的润色。 常见的适合文章润色的 AI 工具包括: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体的 AI 写作助手,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于学生和写作人员的多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,可以帮助用户优化文章的语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可以根据输入生成符合要求的学术论文。 总的来说,这些 AI 工具涵盖了文章润色的各个环节,包括校对、改写、大纲生成、内容生成等,可以有效提高写作效率和质量。科研人员和学生可以根据自身需求选择合适的工具进行使用。
2024-10-20
有没有把资料信息存放到知识库,通过问答方式得到答案的案例
以下是把资料信息存放到知识库,通过问答方式得到答案的案例: 安仔在开源 AI 社区中,基于 RAG 机制实现了知识库问答功能。首先创建一个包含大量社区 AI 相关文章和资料的知识库,例如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传栏目所有文章内容,然后陆续将社区其他板块的文章和资料导入。在设计 Bot 时,添加这个知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地利用知识库返回的内容进行结合回答。 在阅读书籍、论文的互动式问答场景中,对应的关键词库包括书籍、报告、文件、详细信息、查询、主题、作者、出版日期、出版社、问题、方面、原则、方法、概括、主要观点、解释。需要注意的是,ChatGPT 的知识库截止于 2021 年 9 月,对于更新的数据或最新出版的书籍、报告和文件,它无法提供答案。如果有现成的 PDF,建议通过 CHATDOC 网站进行互动式问答。
2024-09-29