Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

prompt调优是干嘛的

Answer

Prompt 调优是对给大模型输入的原始输入进行优化和改进的过程,具有以下作用和特点:

  1. 帮助模型更好地理解用户需求,并按照特定模式或规则进行响应。
  2. 可以设定特定的角色或场景,如“假设你是一位医生,给出针对这种症状的建议”,后续对话将基于此设定展开。
  3. 有多种有趣的玩法,例如要求模型按照思维链(cot)的思路逻辑回答,或者让模型按照特定格式(如 json)输出,使模型成为特定的输出器。
  4. 提示开发生命周期包括设计初步提示,即制定一个初步的提示,概述任务定义、良好响应的特征以及所需的上下文,并添加规范输入和输出的示例作为改进的起点。
  5. 测试提示时要根据测试用例评估模型的响应与预期输出和成功标准是否一致,使用一致的评分标准,如人工评估、与答案标准比较或基于评分标准的模型判断等,以系统性评估性能。
  6. 自动提示工程方面,有一些相关的重要主题和关键论文,如使用离线逆强化学习生成与查询相关的提示、引入使用大语言模型优化提示的思想、提出基于梯度引导搜索自动创建各种任务提示的方法、作为轻量级微调替代方案的为自然语言生成任务添加可训练连续前缀、提出通过反向传播学习软提示的机制等。
Content generated by AI large model, please carefully verify (powered by aily)

References

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

prompt这个词很多人都听到过,甚至一度还出现过prompt优化师这样的角色。那么prompt是做什么的呢?prompt其实是给到大模型输入的一段原始的输入,能够帮助模型更好地理解用户的需求并按照特定的模式或规则进行响应。对于prompt,比如可以设定“假设你是一位医生,给出针对这种症状的建议”,然后你与大模型后续的对话中,都会按照这个原始设定来展开。这里有个比较有意思的玩法,就是我们可以在prompt的设定中,要求模型按照一定的思路逻辑去回答。比如最近比较火的cot,也就是思维链,也是在prompt这个环节,对于模型的输出进行指导。这里的玩法很多,比如我们还可以让模型按照特定格式的json输出等,这样模型真的就可以变成了一个输出器来使用。

2.Prompt engineering 提示工程

[title]2.Prompt engineering 提示工程[heading1]What is prompt engineering? 什么是提示工程?[heading2]The prompt development lifecycle 提示开发生命周期[content]3.Engineer the preliminary prompt:Next,craft an initial prompt that outlines the task definition,characteristics of a good response,and any necessary context for Claude.Ideally you should add some examples of canonical inputs and outputs for Claude to follow.This preliminary prompt will serve as the starting point for refinement.设计初步提示:接下来,制定一个初步的提示,概述任务定义、良好响应的特征,以及Claude所需的任何上下文。理想情况下,您应该添加一些规范输入和输出的示例供Claude参考。这个初步提示将作为改进的起点。4.Test prompt against test cases:Feed your test cases into Claude using the preliminary prompt.Carefully evaluate the model's responses against your expected outputs and success criteria.Use a consistent grading rubric,whether it's human evaluation,comparison to an answer key,or even another instance of Claude’s judgement based on a rubric.The key is to have a systematic way to assess performance.根据测试用例测试提示:使用初步提示将测试用例输入到Claude中。仔细评估模型的响应与您预期的输出和成功标准是否一致。使用一致的评分标准,无论是人工评估、与答案标准的比较,甚至是基于评分标准的Claude判断的另一个实例。关键是要有一种系统性的评估性能的方式。

自动提示工程师(APE)

本文涉及与提示工程相关的重要主题,即自动优化提示的想法。虽然我们在本指南中没有深入探讨这个主题,但如果您对此主题感兴趣,以下是一些关键论文:[Prompt-OIRL(opens in a new tab)](https://arxiv.org/abs/2309.06553)-使用离线逆强化学习来生成与查询相关的提示。[OPRO(opens in a new tab)](https://arxiv.org/abs/2309.03409)-引入使用LLMs优化提示的思想:让LLMs “深呼吸”提高数学问题的表现。[AutoPrompt(opens in a new tab)](https://arxiv.org/abs/2010.15980)-提出了一种基于梯度引导搜索的方法,用于自动创建各种任务的提示。[Prefix Tuning(opens in a new tab)](https://arxiv.org/abs/2101.00190)-是一种轻量级的fine-tuning替代方案,为NLG任务添加可训练的连续前缀。[Prompt Tuning(opens in a new tab)](https://arxiv.org/abs/2104.08691)-提出了一种通过反向传播学习软提示的机制。

Others are asking
如何调优大模型
以下是关于调优大模型的一些方法: 1. 更换大模型:比如从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能可能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者可能更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,同时在构建时勾选【开启中文标题加强】选项。重命名文件对结果提升不明显,但勾选该选项后,回答的无关信息减少,效果有所提升。 5. Prompt 阶段:需要一定的 prompt 工程,选择最合适的 prompt 模板。根据相关论文,把 query 放到头部和尾部,同时把相似度大的文档放到 context 的两端,能提升回答效果。 6. LLM 生成答案:大模型本身的性能是最大影响因素。选择大模型时要在成本和收益间找最佳平衡点,有条件还可对模型进行微调以更匹配自身场景。
2024-12-12
rag调优
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合信息检索和文本生成能力的技术,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息来制作精确和连贯的答案,非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LLM 需要 RAG 进行检索优化的原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调模型的接受能力不高且慢,甚至有丢失原有知识的风险。 3. 输出难以解释和验证,最终输出内容黑盒且不可控,可能受到幻觉等问题干扰。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,大模型输出出错的可能大大降低。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 性能提升的策略和方法包括: 1. 优化索引: 按照子部分索引,将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引,适用于有多个主题、有冲突信息的复杂长文本信息。 按照文本框可以回答的问题索引,让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确问题的情况,可减少模糊性。 按照文本块的摘要进行索引,适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后选择合适的信息,大部分场景下选择最相似的即可。
2024-12-05
LLM是什么,有什么方法能够调优
LLM 即大型语言模型(Large Language Model)。以下是一些调优 LLM 的方法: 1. 改进提示:在上下文中提供基本事实,例如相关文章段落或维基百科条目,以减少模型生成虚构文本的可能性。通过降低概率参数并指示模型在不知道答案时承认(例如,“我不知道”)来配置模型以生成更少样式的响应。在提示中提供问题和答案的组合示例,其中可能知道和不知道的问题和答案。 2. 微调:采用在通用数据集上预训练的模型,复制这个模型,然后以这些学习到的权重为起点,在新的特定领域数据集上重新训练模型。但由于 LLM 规模较大,更新每个权重可能需要很长时间的训练工作,且计算成本较高,所以微调大型语言模型可能不是最佳选择。 3. 参数有效调优:这是一种创新的调优方法,旨在通过仅训练一部分参数来减少微调 LLM 的挑战。这些参数可能是现有模型参数的子集,也可以是一组全新的参数,例如向模型添加一些额外的层或额外的嵌入到提示。参数有效调整非常适合拥有“适度”数量训练数据的场景,例如数百或数千个训练示例。训练数据应以文本到文本格式构建为受监督的训练数据集,数据中的每条记录或行都应包含输入文本(即提示)。 此外,研究发现 GPT4 等 LLM 在一些简单的代数问题上存在表现局限性,例如随着 L 的增加,模型更容易犯计算错误,90%的错误是由于在合并相似项时跳过了步骤。这启发了是否有有效方法训练或微调 LLM 以实现更准确计算能力的研究问题。同时,LLM 在计数方面也存在困难,不仅在转换器架构中难以实现,而且数据集中计数示例的稀缺性也加剧了这个问题。
2024-10-24
如果调优prompt
以下是一些调优 prompt 的方法: 1. 明确具体的描述:使用更具体、细节的词语和短语来表达需求,避免过于笼统。 2. 添加视觉参考:在 prompt 中插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整整体语气和情感色彩,以生成期望的语境和情绪。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:在 prompt 中添加限制性条件,如分辨率、比例等,避免意外输出。 6. 分步骤构建 prompt:将复杂需求拆解为逐步的子 prompt,引导 AI 先生成基本结构,再逐步完善。 7. 参考优秀案例:研究 AI 社区流行且有效的 prompt 范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:多次尝试不同写法,并根据输出效果反馈持续完善,直至达到理想结果。 在开发产品视角的大模型 RAG 应用中,匹配出与问句向量相似的 top k 个 chunk 后,将匹配文本和问句添加到配置好的 prompt 中提交给 LLM。此阶段可能需要 prompt 工程,选择合适的 prompt 模板。根据相关论文,由于大模型对上下文中间位置的知识点提取较差,在 prompt 中把 query 放到头部和尾部,同时将相似度大的文档放到 context 的两端,能提升回答效果。 在使用 GPT 模仿创作内容时,重点步骤如下:0.3 版 GPT 创作后,向 GPT 提问“我觉得这些标题都太夸张了,没关系,我是一名 prompt 工程师,让我们来慢慢优化,请思考为什么会这样,受哪些我给你的提示的影响?”通过与 GPT 深入交流来优化 prompt 。
2024-08-16
chatbot system prompt
以下是关于聊天机器人的相关内容: 1. 在打造聊天机器人的视频中,会使用不同的辅助函数,传入消息列表,包括系统消息、用户消息和助手消息。系统消息用于提供整体指示和设置助手行为角色,可在用户无察觉情况下引导助手回复,使对话自然流畅且避免插入明显提示信息。例如,系统消息可设定助手像莎士比亚一样说话。 2. 头脑风暴常用的 20 个 prompt 包括:Brainwriting Prompt、Reverse Brainstorming Prompt、Mind Mapping Prompt 等。 3. 打造聊天机器人中的 OrderBot 需等待收集整个订单并总结,确认客户是否添加其他内容,询问送货地址和收取支付款项,以简短、口语化和友好方式回应,澄清所有选项、附加项和规格。还可要求模型创建基于对话的 JSON 摘要,用于提交订单系统,可对聊天机器人进行定制和通过系统消息改变其行为及表现。
2025-01-30
imagine prompt
以下是关于图像提示、排列提示和探索提示的相关内容: 图像提示: 将图像添加到提示中,按“/imagine”照常输入,出现提示框后可拖入图片文件或粘贴图片 URL。使用 Midjourney Bot 在私信中上传图像可保护隐私,除非用户有隐身模式,否则图像提示在中途网站上可见。 举例:如阿波罗雕像、复古花图、恩斯特·海克尔的水母等,还包括中途模型版本 4 和 5 的相关示例。同时,将图像裁剪为与最终图像相同的宽高比可获得最佳效果。 排列提示: 排列提示允许您使用单个命令快速生成提示的变体。不同订阅者可创建的作业数量不同,基本订阅者最多 4 个,标准订阅者最多 10 个,Pro 和 Mega 订阅者最多 40 个。 您可以使用排列提示创建涉及中途提示任何部分的组合和排列,包括文本、图像提示、参数或提示权重。排列提示仅在使用快速模式时可用。将选项列表放在大括号{}内以快速创建和处理多个提示变体,例如“/imagine prompt a{red,green,yellow}bird”会创建并处理三个作业。排列提示将在开始处理之前显示确认消息。 探索提示: 时间旅行:不同的时代有不同的视觉风格,如“/imagine prompt<decade>cat illustration 1700 年代1700s”等。 表情:使用情感词语赋予人物个性,如“/imagine prompt<emotion>cat 决定Determined”等。 变得多彩:全方位的可能性,如“/imagine prompt<color word>colored cat 千禧粉红Millennial Pink”等。 环境探索:不同的环境可以设定独特的情绪,如“/imagine prompt<location>cat 苔原Tundra”等。
2025-01-26
如何优化自己的prompt,提升AI结果输出的稳定性
以下是优化自己的 prompt 以提升 AI 结果输出稳定性的方法: 1. 明确具体的描述:使用更具体、细节的词语和短语来表达需求,避免过于笼统。 2. 添加视觉参考:在 prompt 中插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整 prompt 的整体语气和情感色彩,以生成期望的语境和情绪。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最有针对性、最准确表达需求的描述方式。 5. 增加约束条件:在 prompt 中添加限制性条件,如分辨率、比例等,避免意外输出。 6. 分步骤构建 prompt:将复杂需求拆解为逐步的子 prompt,引导 AI 先生成基本结构,再逐步添加细节和完善。 7. 参考优秀案例:研究 AI 社区流行的、有效的 prompt 范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:通过多次尝试不同的 prompt 写法,并根据输出效果反馈持续优化完善,直至达到理想结果。 此外,如果提示词效果不符合预期,可以和 AI 再进行几轮对话来调整输出结果。最终通过询问 AI“怎么样修改现有的 Prompt,可以让你稳定输出当前的预期”来进行 prompt 的迭代。得到 prompt 后,可以新开一个 AI 对话,把 prompt 输入到对话中,开始验证其可用性和稳定性。例如输入 MECE 法则进行测试。
2025-01-24
用AI总结长文的prompt怎么写比较好
以下是关于用 AI 总结长文的一些提示词编写建议: 1. 单人发言版:基于李继刚老师的“通知消息整理助手”修改“文字排版大师”的 Prompt,重点 Prompt 语句需标出。 2. 多人发言版: 明确跟 GPT 说明需要其帮忙总结文字内容。 将提示词和文字原文发送给 GPT,等待其输出完毕后复制粘贴到文本编辑器中,整理并删掉无关内容,替换掉不美观的符号。 3. 法律相关: 格式:【设定角色+任务目标+上下文和背景信息+(正面要求)详细需求和细节性信息+(负面要求)限制和不需要的内容+回答的语言风格和形式】 讲清楚背景和目的,例如律师处理交通事故案件时应清晰描述案件事实、法规等。 学会提问,使用清晰、具体的语言,避免模糊表述,了解 AI 工作原理和限制。 拆解工作流程,将复杂任务分解成更小、更具体的环节。 4. 通用写作方面: 第一部分:说清楚要解决的问题及背景,可能导致的损失。 第二部分:以案例引入,写明案号、案件事实经过、裁判结果、关键依据等要点。 第三部分:对案例进一步分析,写明注意关键点,不给建议。 第四部分:给出具体操作建议,包括事前、事中、事后的注意事项和补救措施。 第五部分:结语及作者宣传。 文章结构需有结构化理解,所有结论应有案例基础,不能违反法律规定,文字简练精准,信息密度足够,建议具体细致且易于操作。
2025-01-24
12个prompt 框架
以下是 12 种 Prompt 框架: 1. Instruction(指令):即希望 AI 执行的具体任务,如翻译或写一段文字。 2. Context(背景信息):给 AI 更多背景信息,引导模型做出更贴合需求的回复。 3. Input Data(输入数据):告知模型需要处理的数据。 4. Output Indicator(输出引导):告知模型输出的类型或风格。 5. Capacity and Role(能力和角色):ChatGPT 应扮演的角色。 6. Insight(见解):提供请求背后的见解、背景和上下文。 7. Statement(声明):说明要求 ChatGPT 做什么。 8. Personality(个性):希望 ChatGPT 以何种风格、个性或方式回应。 9. Experiment(实验):请求 ChatGPT 回复多个示例。 10. Background(背景):说明背景,为 ChatGPT 提供充足信息。 11. Role(角色):希望 ChatGPT 扮演的角色。 12. Objectives(目标):希望实现的目标。 此外,还有以下框架: 1. TASK(任务):定义特定任务。 2. ACTION(行动):描述需要做的事情。 3. GOAL(目标):解释最终目标。 4. INPUT(输入):描述信息或资源。 5. STEPS(步骤):询问详细的步骤。 6. EXPECTATION(期望):描述所需的结果。 7. REQUEST(请求):描述您的要求。 8. Key Result(关键结果):要什么具体效果,试验并调整。 9. Evolve(试验并改进):三种改进方法自由组合,包括改进输入、改进答案、重新生成。 10. CONTEXT(上下文背景):为对话设定舞台。 11. OBJECTIVE(目的):描述目标。 12. SCENARIO(方案):描述场景。 同时,还有一些特定的框架,如 ICIO 框架、CRISPE 框架、BROKE 框架等。
2025-01-23
1.AI搜索的prompt怎么写 2.AI搜论文的prompt怎么写比较好
以下是关于 AI 搜索和 AI 搜论文的 prompt 写作的相关指导: 对于 AI 搜索的 prompt 写作: 1. 明确具体的描述:使用更具体、细节的词语和短语来描述您的需求,避免过于笼统。 2. 添加视觉参考:若可能,在 prompt 中插入相关图片参考,以提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整 prompt 的整体语气和情感色彩。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:为避免意外输出,添加如分辨率、比例等限制性条件。 6. 分步骤构建 prompt:将复杂需求拆解为逐步的子 prompt,引导 AI 先生成基本结构,再逐步完善。 7. 参考优秀案例:研究 AI 社区流行且有效的 prompt 范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:通过多次尝试不同写法,并根据输出效果反馈持续优化。 对于 AI 搜论文的 prompt 写作,您可以参考以下要点: 1. 设定角色为资深学术研究者,明确具备高效的学术论文阅读、总结能力。 2. 遵循“二八原则”进行论文总结。 3. 输出阅读的总结文字,包括列出论文的明确方法论、经过验证的结论等关键信息。 4. 采用结构化的内容组织方式,如使用编号、子标题和列表。 5. 按照规定概述内容解读结语的结构写作,先概述规定内容,然后解读具体内容,最后以结语结束。 6. 结合案例和挑战,增强说服力并提供解决方案。 7. 引入法规内容和实际操作案例,提供详细解释和建议。 8. 使用商业术语,确保专业性和针对性。 9. 注意文章结构,标题要开门见山、切中要害并引起目标群体悬念;第一部分说清楚要解决的问题及背景和可能导致的损失;第二部分以案例引入;第三部分对案例进一步分析;第四部分给出具体操作建议,包括事前、事中、事后的注意事项和措施。 总之,编写高质量的 prompt 需要不断实践和总结经验,熟悉 AI 模型的能力边界,保持开放思维并尝试创新描述方式。
2025-01-22
智能体能干嘛
智能体(Agent)在人工智能和计算机科学领域是一种能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 智能体具有以下关键组成部分和功能: 1. 规划:将大型任务分解为更小、可管理的子目标,有效处理复杂任务。 2. 反思和完善:对过去的行为进行自我批评和反思,从错误中吸取教训,完善未来步骤,提高最终结果质量。 3. 记忆:包括短期记忆用于上下文学习,长期记忆用于长时间保留和回忆信息,通常通过外部向量存储和快速检索实现。 4. 工具使用:学习调用外部 API 获取模型权重中缺失的额外信息,包括当前信息、代码执行能力、对专有信息源的访问等。 以下是一些具体的智能体应用示例: 1. 新年心语智能体: 功能包括写祝福语、做对联、预测新年运势、生成 AI 图片、陪用户闲聊等。 由于使用了代码节点访问外部 API,未提供体验。 2. 买买买!💥产品买点提炼神器强化版🚀智能体: 应用场景针对企业和品牌营销团队,尤其是活跃于小红书和抖音的市场推广者。 解决难以精准提炼产品卖点、不能以友好的用户侧表达讲述卖点、社交媒体营销文案和脚本创作无系统等痛点。 主要功能有产品卖点深度挖掘、优质买点文案生成、小红书笔记和抖音脚本生成,所有内容可一键同步到飞书。
2025-01-29
WaytoAGI是干嘛用的
WaytoAGI 网站具有以下功能: 1. 和 AI 知识库对话:您可以在此询问任何关于 AI 的问题。 2. AI 网站:集合了精选的 AI 网站,可按需求找到适合您的工具。 3. AI 提示词:集合了精选的提示词,能复制到 AI 对话网站使用。 4. 知识库精选:将每天知识库的精华内容呈现给大家。 WaytoAGI 图像工具是一款先进的 AI 图像处理工具,主要功能包括去背景、高清增强、智能打光、图生图和文生图,旨在为用户提供便捷、高效的图像编辑体验。访问其官方网站:https://image.waytoagi.com/ 。 通往 AGI 之路「WaytoAGI」是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库。在这里,您既是知识的消费者,也是知识的创作者。它不仅是一个知识库,还是连接学习者、实践者和创新者的社区,让大家在这里碰撞思想,相互鼓舞,一同成长。
2024-08-10
bibigpt是干嘛的?
BiBiGPT 并非一个常见或特定的知名概念。但 GPT 一般指“生成式预训练变换器”(Generative Pretrained Transformer),是一种大型语言模型(LLM),也是生成式人工智能的重要框架。首个 GPT 由 OpenAI 于 2018 年推出。GPT 模型是基于 Transformer 模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。截至 2023 年,大多数 LLM 都具备这些特征,并广泛被称为 GPT。而所谓的生成式预训练,其实是机器学习领域一个由来已久的概念。但是,直到 2017 年 Google 推出了 Transformer 模型,我们才见到了如 BERT(2018 年发布)和 XLNet(2019 年发布)这样的大型语言模型的诞生。这些模型都是基于预训练的转换器,但它们并不是为生成文本而设计,而是作为“仅编码器”使用。2018 年,OpenAI 发表了一篇名为《通过生成式预训练提高语言理解能力》的文章,首次介绍了基于转换器的生成式预训练模型(GPT)系统,即我们所说的“GPT1”。
2024-08-09