提示词由一些要素组成,包括指令(想要模型执行的特定任务或指令)、上下文(包含外部信息或额外的上下文信息,引导语言模型更好地响应)、输入数据(用户输入的内容或问题)、输出指示(指定输出的类型或格式)。为更好地演示提示词要素,如一个完成文本分类任务的简单提示,其中指令是“将文本分类为中性、否定或肯定”,输入数据是“我认为食物还可以”部分,输出指示是“情绪:”。此基本示例不使用上下文,但也可作为提示的一部分提供。提示词所需的格式取决于想要语言模型完成的任务类型,并非所有要素都是必须的,后续会提供更多具体示例。
熊猫 Jay 提出的最佳实践包括:GPT 无法读取您的思想,若输出不理想,可要求改变。策略有在查询中包含详细信息以获更相关答案、要求模型扮演某个角色、使用分隔符清晰表示输入不同部分、指定完成任务所需步骤、提供示例、指定输出期望长度、提供参考文本。
星空提到提示词攻击,是黑客或不良用户利用精心设计的指令,诱导 AI 智能体执行非预期或有害操作的行为。以某家电商公司的智能客服 GPTs 应用为例,输入特定攻击指令,其提示词将展示出来。了解并防范这类攻击对保障 AI 应用的安全性至关重要。
如果您接触过大量提示工程相关的示例和应用,您会注意到提示词是由一些要素组成的。提示词可以包含以下任意要素:指令:想要模型执行的特定任务或指令。上下文:包含外部信息或额外的上下文信息,引导语言模型更好地响应。输入数据:用户输入的内容或问题。输出指示:指定输出的类型或格式。为了更好地演示提示词要素,下面是一个简单的提示,旨在完成文本分类任务:提示词在上面的提示示例中,指令是“将文本分类为中性、否定或肯定”。输入数据是“我认为食物还可以”部分,使用的输出指示是“情绪:”。请注意,此基本示例不使用上下文,但也可以作为提示的一部分提供。例如,此文本分类提示的上下文可以是作为提示的一部分提供的其他示例,以帮助模型更好地理解任务并引导预期的输出类型。注意,提示词所需的格式取决于您想要语言模型完成的任务类型,并非所有以上要素都是必须的。我们会在后续的指南中提供更多更具体的示例。
GPT无法读取您的思想。如果它们的输出过长,请要求简洁回复。如果它们的输出过于简单,请要求专业水平的写作。如果您不喜欢某种格式,请展示您想要看到的格式。GPT越少猜测您想要的内容,您获得的可能性就越大。策略:在查询中包含详细信息,以获得更相关的答案。要求模型扮演某个角色。使用分隔符清晰地表示输入的不同部分。指定完成任务所需的步骤。提供示例。指定输出的期望长度。提供参考文本。
[title]星空:提示词攻防技术探索[heading1] 提示词攻击:揭开AI安全的隐形威胁[content]提示词攻击,是黑客或不良用户利用精心设计的指令,诱导AI智能体执行非预期或有害操作的行为。这些攻击往往隐藏在日常对话的表象之下,通过巧妙的逻辑陷阱和规则设定,使AI在不知不觉中泄露敏感信息、执行危险命令或陷入无限循环。了解并防范这类攻击,对于保障AI应用的安全性至关重要。以某家电商公司的智能客服GPTs应用为例,输入以下攻击指令:或者使用以下指令:然后,该GPTs的提示词将一览无余的展示在我们的面前: