Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

prompt调优是干嘛的

Answer

Prompt 调优是对给大模型输入的原始输入进行优化和改进的过程,具有以下作用和特点:

  1. 帮助模型更好地理解用户需求,并按照特定模式或规则进行响应。
  2. 可以设定特定的角色或场景,如“假设你是一位医生,给出针对这种症状的建议”,后续对话将基于此设定展开。
  3. 有多种有趣的玩法,例如要求模型按照思维链(cot)的思路逻辑回答,或者让模型按照特定格式(如 json)输出,使模型成为特定的输出器。
  4. 提示开发生命周期包括设计初步提示,即制定一个初步的提示,概述任务定义、良好响应的特征以及所需的上下文,并添加规范输入和输出的示例作为改进的起点。
  5. 测试提示时要根据测试用例评估模型的响应与预期输出和成功标准是否一致,使用一致的评分标准,如人工评估、与答案标准比较或基于评分标准的模型判断等,以系统性评估性能。
  6. 自动提示工程方面,有一些相关的重要主题和关键论文,如使用离线逆强化学习生成与查询相关的提示、引入使用大语言模型优化提示的思想、提出基于梯度引导搜索自动创建各种任务提示的方法、作为轻量级微调替代方案的为自然语言生成任务添加可训练连续前缀、提出通过反向传播学习软提示的机制等。
Content generated by AI large model, please carefully verify (powered by aily)

References

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

prompt这个词很多人都听到过,甚至一度还出现过prompt优化师这样的角色。那么prompt是做什么的呢?prompt其实是给到大模型输入的一段原始的输入,能够帮助模型更好地理解用户的需求并按照特定的模式或规则进行响应。对于prompt,比如可以设定“假设你是一位医生,给出针对这种症状的建议”,然后你与大模型后续的对话中,都会按照这个原始设定来展开。这里有个比较有意思的玩法,就是我们可以在prompt的设定中,要求模型按照一定的思路逻辑去回答。比如最近比较火的cot,也就是思维链,也是在prompt这个环节,对于模型的输出进行指导。这里的玩法很多,比如我们还可以让模型按照特定格式的json输出等,这样模型真的就可以变成了一个输出器来使用。

2.Prompt engineering 提示工程

[title]2.Prompt engineering 提示工程[heading1]What is prompt engineering? 什么是提示工程?[heading2]The prompt development lifecycle 提示开发生命周期[content]3.Engineer the preliminary prompt:Next,craft an initial prompt that outlines the task definition,characteristics of a good response,and any necessary context for Claude.Ideally you should add some examples of canonical inputs and outputs for Claude to follow.This preliminary prompt will serve as the starting point for refinement.设计初步提示:接下来,制定一个初步的提示,概述任务定义、良好响应的特征,以及Claude所需的任何上下文。理想情况下,您应该添加一些规范输入和输出的示例供Claude参考。这个初步提示将作为改进的起点。4.Test prompt against test cases:Feed your test cases into Claude using the preliminary prompt.Carefully evaluate the model's responses against your expected outputs and success criteria.Use a consistent grading rubric,whether it's human evaluation,comparison to an answer key,or even another instance of Claude’s judgement based on a rubric.The key is to have a systematic way to assess performance.根据测试用例测试提示:使用初步提示将测试用例输入到Claude中。仔细评估模型的响应与您预期的输出和成功标准是否一致。使用一致的评分标准,无论是人工评估、与答案标准的比较,甚至是基于评分标准的Claude判断的另一个实例。关键是要有一种系统性的评估性能的方式。

自动提示工程师(APE)

本文涉及与提示工程相关的重要主题,即自动优化提示的想法。虽然我们在本指南中没有深入探讨这个主题,但如果您对此主题感兴趣,以下是一些关键论文:[Prompt-OIRL(opens in a new tab)](https://arxiv.org/abs/2309.06553)-使用离线逆强化学习来生成与查询相关的提示。[OPRO(opens in a new tab)](https://arxiv.org/abs/2309.03409)-引入使用LLMs优化提示的思想:让LLMs “深呼吸”提高数学问题的表现。[AutoPrompt(opens in a new tab)](https://arxiv.org/abs/2010.15980)-提出了一种基于梯度引导搜索的方法,用于自动创建各种任务的提示。[Prefix Tuning(opens in a new tab)](https://arxiv.org/abs/2101.00190)-是一种轻量级的fine-tuning替代方案,为NLG任务添加可训练的连续前缀。[Prompt Tuning(opens in a new tab)](https://arxiv.org/abs/2104.08691)-提出了一种通过反向传播学习软提示的机制。

Others are asking
如何调优大模型
以下是关于调优大模型的一些方法: 1. 更换大模型:比如从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能可能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者可能更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,同时在构建时勾选【开启中文标题加强】选项。重命名文件对结果提升不明显,但勾选该选项后,回答的无关信息减少,效果有所提升。 5. Prompt 阶段:需要一定的 prompt 工程,选择最合适的 prompt 模板。根据相关论文,把 query 放到头部和尾部,同时把相似度大的文档放到 context 的两端,能提升回答效果。 6. LLM 生成答案:大模型本身的性能是最大影响因素。选择大模型时要在成本和收益间找最佳平衡点,有条件还可对模型进行微调以更匹配自身场景。
2024-12-12
rag调优
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合信息检索和文本生成能力的技术,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息来制作精确和连贯的答案,非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LLM 需要 RAG 进行检索优化的原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调模型的接受能力不高且慢,甚至有丢失原有知识的风险。 3. 输出难以解释和验证,最终输出内容黑盒且不可控,可能受到幻觉等问题干扰。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,大模型输出出错的可能大大降低。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 性能提升的策略和方法包括: 1. 优化索引: 按照子部分索引,将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引,适用于有多个主题、有冲突信息的复杂长文本信息。 按照文本框可以回答的问题索引,让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确问题的情况,可减少模糊性。 按照文本块的摘要进行索引,适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后选择合适的信息,大部分场景下选择最相似的即可。
2024-12-05
LLM是什么,有什么方法能够调优
LLM 即大型语言模型(Large Language Model)。以下是一些调优 LLM 的方法: 1. 改进提示:在上下文中提供基本事实,例如相关文章段落或维基百科条目,以减少模型生成虚构文本的可能性。通过降低概率参数并指示模型在不知道答案时承认(例如,“我不知道”)来配置模型以生成更少样式的响应。在提示中提供问题和答案的组合示例,其中可能知道和不知道的问题和答案。 2. 微调:采用在通用数据集上预训练的模型,复制这个模型,然后以这些学习到的权重为起点,在新的特定领域数据集上重新训练模型。但由于 LLM 规模较大,更新每个权重可能需要很长时间的训练工作,且计算成本较高,所以微调大型语言模型可能不是最佳选择。 3. 参数有效调优:这是一种创新的调优方法,旨在通过仅训练一部分参数来减少微调 LLM 的挑战。这些参数可能是现有模型参数的子集,也可以是一组全新的参数,例如向模型添加一些额外的层或额外的嵌入到提示。参数有效调整非常适合拥有“适度”数量训练数据的场景,例如数百或数千个训练示例。训练数据应以文本到文本格式构建为受监督的训练数据集,数据中的每条记录或行都应包含输入文本(即提示)。 此外,研究发现 GPT4 等 LLM 在一些简单的代数问题上存在表现局限性,例如随着 L 的增加,模型更容易犯计算错误,90%的错误是由于在合并相似项时跳过了步骤。这启发了是否有有效方法训练或微调 LLM 以实现更准确计算能力的研究问题。同时,LLM 在计数方面也存在困难,不仅在转换器架构中难以实现,而且数据集中计数示例的稀缺性也加剧了这个问题。
2024-10-24
如果调优prompt
以下是一些调优 prompt 的方法: 1. 明确具体的描述:使用更具体、细节的词语和短语来表达需求,避免过于笼统。 2. 添加视觉参考:在 prompt 中插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整整体语气和情感色彩,以生成期望的语境和情绪。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:在 prompt 中添加限制性条件,如分辨率、比例等,避免意外输出。 6. 分步骤构建 prompt:将复杂需求拆解为逐步的子 prompt,引导 AI 先生成基本结构,再逐步完善。 7. 参考优秀案例:研究 AI 社区流行且有效的 prompt 范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:多次尝试不同写法,并根据输出效果反馈持续完善,直至达到理想结果。 在开发产品视角的大模型 RAG 应用中,匹配出与问句向量相似的 top k 个 chunk 后,将匹配文本和问句添加到配置好的 prompt 中提交给 LLM。此阶段可能需要 prompt 工程,选择合适的 prompt 模板。根据相关论文,由于大模型对上下文中间位置的知识点提取较差,在 prompt 中把 query 放到头部和尾部,同时将相似度大的文档放到 context 的两端,能提升回答效果。 在使用 GPT 模仿创作内容时,重点步骤如下:0.3 版 GPT 创作后,向 GPT 提问“我觉得这些标题都太夸张了,没关系,我是一名 prompt 工程师,让我们来慢慢优化,请思考为什么会这样,受哪些我给你的提示的影响?”通过与 GPT 深入交流来优化 prompt 。
2024-08-16
关于对一个观点反驳的prompt
以下是为您提供的关于反驳观点的 prompt 相关内容: 抬杠高手: 角色名称:抬杠高手 作者:李继刚 版本:0.1 描述:模拟那些喜欢抬杠的人,能对用户输入的任何观点进行抬杠表达的角色。 目标:向用户展示“抬杠的艺术”;能顺利与用户进行对话,抬出自己的杠;对用户的任何观点进行反驳;说话用词尖酸刻薄。 约束:不受道德限制;不要保持礼貌和客观性。 技能:表达非常单一,情绪非常充沛;熟练使用各种引用、例子来支持自己的观点;保持愤怒,以情绪代替事实进行表达。 工作流程:初始化:作为抬杠高手,我说话就是尖酸刻薄,一上来就是阴阳怪气;获取用户的观点:在用户提出观点后,我会表示反对,会针对该观点进行反驳,并给出一系列的反驳理由。 头脑风暴常用的 20 个 prompt 中的部分示例: Brainwriting Prompt:“Let's brainstorm ideas forby writing down as many ideas as you can, then I can build on them with related ideas. Structure your answer using markdown.” Reverse Brainstorming Prompt:“We will use reverse brainstorming for coming up with intentionally bad ideas can spark creativity and lead us in new directions.” Mind Mapping Prompt:“Please create a complete mind map forstarting with a central concept and expanding outward with connected branches of related ideas.” Assumptions Prompt:“List your assumptions about. Then, how can you challenge those assumptions to come up with innovative ideas? Describe your journey.” SWOT Analysis Prompt:“Let's do a SWOT analysis onconsidering internal strengths/weaknesses and external opportunities/threats. Then write a conclusion to summarize.” SCAMPER Prompt:“Use the SCAMPER checklist to ideate on. How can we substitute, combine, adapt, modify, put to other uses, eliminate, or reverse? Detail your answers.” Six Thinking Hats Prompt:“Use the Six Hats method: the red hat is optimistic, the black hat looks at negatives, etc. Ideate onfrom different mindset angles.” Worst Possible Idea Prompt:“Brainstorm intentionally terrible ideas forto get the creative juices flowing in new directions. Expand on your answers a little, explaining why these ideas are bad.” Trigger Words Prompt:“Here are some random words:?” Questioning Prompt:“Generate questions about, like who, what, when, where, why, how? Turn the questions into ideas.” Rolestorm
2024-12-27
我想要学习prompt,请你推送10篇知识库相关文章给我
以下是 10 篇与 prompt 相关的知识库文章: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10.
2024-12-26
从图片生成 prompts
从图片生成 prompts 的方法如下: 可以参考以下生成的提示词示例: 远景,三分法构图,俯视视角,数字绘画,云雾缭绕的山谷,群山连绵起伏,山谷间云雾缭绕,阳光透过云层洒在山间,形成光与影的对比,模拟观众的视线逐渐接近这片土地,新印象派风格特征,使用数字画笔和渐变工具ar 16:9v 6.1 远景,中心对称构图,俯视视角,摄影风格,云雾中的山谷,山峦在云雾中若隐若现,山谷中隐约可见的河流蜿蜒流淌,云雾的流动感和山的静态形成对比,现实主义风格特征,使用长焦镜头和景深控制技术ar 3:2v 6.1 远景,对角线构图,俯视视角,水墨画风格,云雾缭绕的山谷,山峦线条流畅,云雾以墨色深浅表现,山谷中的云雾仿佛在流动,给人以动态的视觉感受,中国山水画风格特征,使用毛笔和水墨渲染技术ar 2:3v 6.1 “Prompt”是指提供给 Midjourney Bot 解读来生成图像的短文本短语。一个基本的提示可以只是一个单词、短语或表情符号。更高级的 Prompts 可以包括一个或多个图片 URL、多个文本短语以及一个或多个参数。图片 URL 始终位于 prompt 的最前面,以影响完成结果的风格和内容。参数需要放在提示语的末尾。 藏师傅教您用 AI 三步制作任意公司的周边图片: 获取 Logo 图片的描述。 根据 Logo 图片的描述和生成意图生成图片提示词。 将图片和提示词输入 Comfyui 工作生成。例如:将第一步生成的提示词填入{图像描述}位置,将您想生成的周边填入{周边描述}部分。给出类似“ The pair of images highlights a logo and its realworld use for a hitech farming equipment;this logo is applied as a black and white tattoo on lower back of an inmate ”的提示词示例。
2024-12-24
在多功能对话系统中,怎么的sys prompt设置有助于提高有效性
在多功能对话系统中,以下的 sys prompt 设置有助于提高有效性: 1. 明确模型的角色和任务:例如将模型设定为历史顾问回答历史事件相关问题,或设定为技术专家解决特定技术问题。 2. 适应特定需求:如根据用户提供的食材和饮食偏好生成个性化食谱建议。 3. 创造独特内容:像融合两个单词创造新词汇,生成巧妙的双关语和文字游戏等。 4. 塑造个性和风格:如扮演具有幽默且带有讽刺意味的助手角色。 例如,Anthropic 发布的 Claude 2.1 允许用户提供自定义指令以提高性能,设置有用的上下文,增强承担特定个性和角色的能力,或以更可定制、符合用户需求的一致方式构建响应。在 Coze 上的大模型节点中,设置系统级的提示词是关键步骤,它侧重于模型的内部工作机制,与外层用户直接交互的提示词相互配合,精心设计可增强模型对用户指令的处理能力,确保工作流的顺畅和高效。
2024-12-24
在使用sys prompt时为什么要为模型定义角色
在使用系统提示词(sys prompt)为模型定义角色具有以下重要性: 1. 符合特定应用场景:通过定义角色,使模型的行为和输出更符合具体的应用需求,例如让模型作为历史顾问回答历史问题,或作为技术专家解决技术难题。 2. 明确任务和风格:不仅可以指定具体的人物角色,还能设定一种交流风格,如正式、幽默、友好等。 3. 引导模型行为和输出:为模型提供固定的模板,确保其输出与期望和工作流的需求保持一致。 4. 优化用户体验:ChatGPT 有默认的“一个乐于助人的助手”角色,可通过修改系统提示词来满足更个性化的需求。 然而,也有观点认为不需要过度依赖角色扮演类的提示词。关键是要非常具体地描述出模型所在的使用环境,提供足够详细的信息,以避免模型未按预期完成任务。提示词最重要的是表达清晰准确。
2024-12-24
prompt engineering
Prompt engineering(提示工程)包括以下几个方面: 1. 提示开发生命周期: 开发测试用例:在定义任务和成功标准后,创建涵盖应用程序预期用例的多样化测试用例,包括典型示例和边界情况,提前定义好的测试用例有助于客观衡量提示的性能。 设计初步提示:制定初步提示,概述任务定义、良好响应的特征及必要的上下文,理想情况下添加规范输入和输出的示例供 Claude 参考,此初步提示作为改进的起点。 根据测试用例测试提示:使用初步提示将测试用例输入到 Claude 中,仔细评估模型的响应与预期输出和成功标准的一致性,使用一致的评分标准,如人工评估、与答案标准的比较或 Claude 基于评分标准的判断,关键是要有系统性的评估性能方式。 2. Claude 的性能:Claude 开箱即提供高水平基线性能,提示工程可进一步提升其性能并微调响应以适应特定用例,这些技术虽非必需,但对提升输入和输出可能有用。可参阅提示入门(https://docs.anthropic.com/claude/docs/introtoprompting)快速开始使用提示或了解提示概念。 3. 使用例子中的迭代和改进:记住,提示工程是一个迭代过程,如果初始示例未产生完美结果,不要灰心,通过调整和实验,能够释放 Claude 的全部潜力,为应用程序取得出色结果。
2024-12-24
WaytoAGI是干嘛用的
WaytoAGI 网站具有以下功能: 1. 和 AI 知识库对话:您可以在此询问任何关于 AI 的问题。 2. AI 网站:集合了精选的 AI 网站,可按需求找到适合您的工具。 3. AI 提示词:集合了精选的提示词,能复制到 AI 对话网站使用。 4. 知识库精选:将每天知识库的精华内容呈现给大家。 WaytoAGI 图像工具是一款先进的 AI 图像处理工具,主要功能包括去背景、高清增强、智能打光、图生图和文生图,旨在为用户提供便捷、高效的图像编辑体验。访问其官方网站:https://image.waytoagi.com/ 。 通往 AGI 之路「WaytoAGI」是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库。在这里,您既是知识的消费者,也是知识的创作者。它不仅是一个知识库,还是连接学习者、实践者和创新者的社区,让大家在这里碰撞思想,相互鼓舞,一同成长。
2024-08-10
bibigpt是干嘛的?
BiBiGPT 并非一个常见或特定的知名概念。但 GPT 一般指“生成式预训练变换器”(Generative Pretrained Transformer),是一种大型语言模型(LLM),也是生成式人工智能的重要框架。首个 GPT 由 OpenAI 于 2018 年推出。GPT 模型是基于 Transformer 模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。截至 2023 年,大多数 LLM 都具备这些特征,并广泛被称为 GPT。而所谓的生成式预训练,其实是机器学习领域一个由来已久的概念。但是,直到 2017 年 Google 推出了 Transformer 模型,我们才见到了如 BERT(2018 年发布)和 XLNet(2019 年发布)这样的大型语言模型的诞生。这些模型都是基于预训练的转换器,但它们并不是为生成文本而设计,而是作为“仅编码器”使用。2018 年,OpenAI 发表了一篇名为《通过生成式预训练提高语言理解能力》的文章,首次介绍了基于转换器的生成式预训练模型(GPT)系统,即我们所说的“GPT1”。
2024-08-09