以下是关于让提示词具有追问能力的方法和相关知识:
让提示词具有追问能力可以通过以下方式实现:
给予模型思考时间
了解提示词的概念和作用
结合大语言模型和知识库
通过以上方法,允许模型有更多时间推理和处理信息,可提高回答的准确性和可靠性,使模型应用更高效和精准。同时,要了解大模型的特性,具备清晰表述需求和任务的能力,才能用好提示词这个工具。
美国康奈尔大学有一份研究报告显示,在提示词中让大模型“深呼吸(take a deep breath)”,从而让大模型“慢些思考”、“不着急回复”,可以在一定程度上提升大模型的回复质量。Take a deep breath and work on this problem step-by-stepLet’s think step by step,也是一个非常有用的提示词口令。给模型思考的时间,这就像在解答数学问题时,我们可能不会立即知道17乘以28的结果,但给予时间可以计算出来一样,模型在尝试立即回答时也容易犯更多的推理错误,而不是花时间去计算答案。在答案之前要求一个“思考链(CoT,ChAIn-of-Thought Prompting)”可以帮助模型更可靠地推理出正确答案。实施技巧:技巧1:指导模型在匆忙下结论之前先找出自己的解决方案示例1:在解答有关中国五千年历史的复杂问题之前,请先分阶段梳理历史线索。示例2:在对’一带一路’倡议的经济影响进行分析之前,请先详细考察相关的经济数据和政策背景。技巧2:使用内部独白或一系列查询来隐藏模型的推理过程示例1:在分析古诗词的意境和语言特色之前,请先逐句解读其含义。示例2:在预测明年的股市走势之前,请先回顾并总结过去一年的重大财经事件。技巧3:询问模型是否在之前的尝试中遗漏了什么示例1:在列出适合春节期间旅游的目的地之后,请检查是否有遗漏的重要景点或考虑因素。示例2:在分析一部电影的主题和风格之后,请回顾是否有未涉及的重要镜头或细节。这种策略的优点在于,通过允许模型有更多的时间来推理和处理信息,可以提高回答的准确性和可靠性。这对于处理复杂或需要深入分析的问题尤为重要。通过细化问题,并鼓励模型逐步推理,我们可以使得GPT模型的应用更加高效和精准。
提示词(Prompt)是给大语言模型(以下简称模型)的输入文本,用于指定模型应该执行什么样的任务并生成什么样的输出。提示词发挥了“提示”模型应该做什么的作用。设计高质量的提示词需要根据目标任务和模型能力进行精心设计,良好的提示词可以让模型正确理解人类需求并给出符合预期的结果。我们来看一些示例,以便更准确的理解提示词的实际使用:[heading3]直接提问型:[heading3]策略建议型:[heading3]翻译型[heading3]算数型[heading3]概念解释型:[heading2]二、为什么提示词需要学习?[content]首先了解大模型的特性,了解它能做到什么,不擅长做什么,完全无法做什么。随后要求写好brief的能力,也就是清晰表述自己的需求和任务的能力。两者兼具,才能用好这个工具。
大语言模型:是一个学习过无数本书、拥有无穷智慧的人。他读过无数的书、看过无数的段子,因此对公共知识、学识技能、日常聊天十分擅长。然而,在工作场景下,只会聊天侃大山可不行,你想让他帮你干活。这个时候,就需要“提示词”出场了,提示词:是你告诉这个全知全能的人,他是一个什么样的角色、他要专注于哪些技能,让他能够按照你的想法,变成一个你需要的“员工”。知识库:相当于你给这个“聪明”员工的发放了一本工作手册。即使是看过再多的书、浏览过再多的文字,也不会准确的知道见到老板娘过来吃饭要打三折,张梦飞过去吃饭要打骨折。而知识库,就是把这些内容写在了工作手册上。让这个聪明的员工,见到有人来的时候,就翻一翻手册,然后再做出反应。我的设定:AI模型:这里使用的是阿里千问模型。提示词:这里设定的角色是“美嘉”,是按照美嘉的人设、背景和对话风格做的设定。知识库:这里放的是《爱情公寓》全季的剧情,让“美嘉”拥有了自己过往的“记忆”,知道自己做过什么、好朋友是谁等等。图中右侧是一个十分简单的问答,我问:“你是谁?你和子乔在台球厅吵架那次是为了什么吵架?”她的回复是:“我是陈美嘉,那次在台球厅和吕子乔吵架是因为他约会被人撞见,我讽刺他脸大影响信号,他还反击我。后来谈到过去的事情,我指责他忘恩负义,他就说我平。最后,我伤心地说要分手,因为他之前甩过我。”