提示词的设计需要遵循以下要点和准则:
使用他人写好的 prompt 时,要深入揣摩背后思路,理解编写方式的原因和逻辑,关键在于养成充分利用模型、不断迭代、深度交流和思考的习惯。
我们的模型可以完成从生成原始故事到执行复杂文本分析的所有任务。因为它们可以完成许多事情,所以你必须明确描述你想要的内容。显示,而不是仅仅告诉,通常是一个好提示的秘诀。创建提示的三个基本准则如下:展示和告诉。通过说明、示例或两者的结合清楚地表明你想要什么。如果你想让模型按字母顺序对一系列项目进行排名,或者将段落按情感进行分类,请向它展示你想要的内容。提供高质量数据。如果你试图构建分类器或让模型遵循某种模式,请确保有足够的示例。一定要校对你的示例——模型通常足够聪明,可以看穿基本的拼写错误并给出回答,但它也可能认为这是有意的,从而影响回答。检查你的设置。温度和top_p设置控制模型在生成响应时的确定性。如果你要求它生成只有一个正确答案的响应,那么你应该将这些设置较低。如果你想要更多样化的响应,那么你可能需要将它们设置得更高。人们在使用这些设置时犯的第一个错误是认为它们是“聪明度”或“创造力”控制。[heading2]故障排除[content]如果您无法如预期一般让API正常工作,请遵循以下清单:1.是否清楚生成的预期结果?2.是否提供足够的示例?3.您是否检查示例中是否有错误?(API不会直接告诉您)4.您是否正确使用温度和top_p?
让代理明确任务从而提高表现,需要采用合理的提示词结构并写出清晰的指令。在提示词工程方面,参考了openai文档中关于[获得更好结果的六种策略](https://platform.openai.com/docs/guides/prompt-engineering/six-strategies-for-getting-better-results):[https://platform.openai.com/docs/guides/prompt-engineering](https://platform.openai.com/docs/guides/prompt-engineering),在游戏中,我为不同代理设置了不同的指令结构。3.2.1小机器人艾科比如艾柯的指令结构包括角色预设【要求模型采用角色】,回复要求【提供参考文本】+提供示例【举例说明】,和需要让LLM掌握的知识【提供参考文本】。这里以艾柯的提示词为例,在角色预设分别输入世界观,任务,回复的要求,设置身份。而掌握的知识就是环境的信息,使之能够与环境交互。chatgpt也有针对指示词生成的优化,这里我让gpt帮我一起生成和优化指示词,毕竟让模型自己生成的指示来指示模型可能效果好一些,同时也能够节省许多微调的时间。chatgpt4.0有一个插件叫做PromptPerfect,也可以用来优化和生成指示词,但我目前还没有尝试过。指令预设如下:
对本文的方法论的一个概括总结:数据准备→模型选择→提示词设计→测试与迭代1.数据准备。收集高质量的案例数据作为后续分析的基础。2.模型选择。根据具体创作目的,选择合适的大语言模型。3.提示词设计。结合案例数据,设计初版提示词;注意角色设置、背景描述、目标定义、约束条件等要点。4.测试与迭代。将提示词输入GPT进行测试,分析结果;通过追问、深度交流、指出问题等方式与GPT进行交流,获取优化建议。5.修正提示词。根据GPT提供的反馈,调整提示词的各个部分,强化有效因素,消除无效因素。6.重复测试。输入经修正的提示词重新测试,比较结果,继续追问GPT并调整提示词。7.循环迭代。重复上述测试-交流-修正过程,直到结果满意为止。8.总结提炼。归纳提示词优化过程中获得的宝贵经验,形成设计提示词的最佳实践。9.应用拓展。将掌握的方法论应用到其他创意内容的设计中,不断丰富提示词设计的技能。当我们在使用别人写好的prompt时,不能仅满足于表面的应用。我们要深入地揣摩和推理背后的思路,去探索为什么作者会选择这样的方式进行编写。每一个prompt的背后,都蕴藏着作者的思考和考量,理解这其中的原因和逻辑对于我们更好地掌握和运用AI将是非常有益的。真正值得大家注意的不仅仅是prompt本身,更为关键的是背后的充分利用GPT、不断迭代、深度交流、思考的习惯。这种方法论和习惯或许是真正能赋能我们更高效使用AI的关键。