CO-STAR 框架是一个获奖的提示词框架,由 Sheila Teo 开发。在新加坡首届 GPT-4 Prompt Engineering 大赛中使用该框架并获得冠军。
CO-STAR 框架涵盖以下要素:
其中:(C)上下文(Context)也就是Background,讨论的背景信息,让大语言模型聚焦在我们讨论的具体场景下。避免偏离主线瞎扯。如:公司正在研发一个新产品,为公司会议准备简报(O)目标(Objective)希望大语言模型要做的事,清晰明确的目标,传统的SMART原则能帮我们梳理。如:生成一份关于市场趋势的报告(S)风格(Style)大语言模型的语言风格。它有点像其他框架中的角色(Role),希望激发那个角色的训练数据。如:希望资深商业顾问的风格写(T)语气(Tone)指定大语言模型回复时的态度。符合我们期望的情绪和情感,比如严肃的,言简意赅的等如:正式且严谨(A)受众(Audience)指定目标受众。可以理解为对上面上下文的一个补充。我们希望大语言模型给出,我们能听懂的行话。如:企业高管(R)答复/回应(Response)返回的格式,列表形式,会话形式,Markdown格式等等。如生成一份包含图表和数据的报告结构化提示词,帮我们更好梳理需要大语言模型解决的问题。随着学习的深入,掌握了提示词的基本技巧以后,我们开始思考,如何把它们应用在更复杂的分析决策中。
CO-STAR是一个获奖的提示词框架,由**Sheila Teo**开发**。**作者在新加坡首届GPT-4 Prompt Engineering大赛中使用CO-STAR框架,获得冠军。新加坡首届GPT-4提示工程(Prompt Engineering)大赛,由新加坡政府科技署(GovTech**)组织,汇聚了超过400位优秀的参与者。CO-STAR框架涵盖以下要素:**Context(上下文)、Objective(目标)、Style(风格)、Tone(语气)、Audience(受众)、Response(回复)**。Context(上下文)定义:提供必要的背景信息,帮助大型语言模型(LLM)理解对话或请求的环境和条件。重要性:没有足够的上下文,LLM可能会误解问题或给出不相关的信息。明确的上下文有助于确保LLM的回答既准确又相关。示例:如果文章是为一个特定的行业会议撰写,那么上下文中应该包含会议的主题、参与者的背景信息以及任何相关的行业趋势。Objective(目标)定义:明确说明希望从LLM那里得到的具体结果或行动。重要性:清晰的目标可以帮助LLM集中精力解决问题,并减少无关的回答。示例:如果目标是撰写一篇文章,那么应具体说明文章的目的(比如介绍新技术、分析市场趋势等)以及期望达到的效果(比如提高品牌知名度、激发行业讨论等)。Style(风格)
定义:指明文本的整体风格,包括使用的词汇选择、句式结构以及可能的参照对象。重要性:不同的风格适合不同的场合。例如,一种风格可能适合学术论文,而另一种则更适合社交媒体帖子。示例:对于一篇科学论文,可能需要使用正式的语言和客观的语气;而对于博客文章,则可以采用更轻松、更具个人色彩的写作风格。Tone(语气)定义:设定文本的情感基调,确保它符合预期的氛围。重要性:正确的语气可以帮助建立与读者之间的联系,并传达出适当的态度。示例:在撰写一篇面向潜在投资者的商业计划书时,可能需要采用正式、专业且具有说服力的语气;而在写一篇面向年轻人的产品评测时,则可能采用更加轻松和幽默的语气。Audience(受众)定义:明确回答或文本的目标读者是谁。重要性:了解受众有助于调整语言复杂度、术语使用以及整体信息传递的方式。示例:如果目标读者是专业人士,可以使用行业术语和复杂的概念;如果是面向大众,就需要简化语言并避免过于专业化的术语。Response(回复)定义:指定最终输出的形式和结构。重要性:正确的格式可以使信息更容易被理解和消化。示例:如果需要一份详细的分析报告,可能需要按照标准报告格式来组织信息,包括摘要、方法论、数据、结论等部分;而如果是一个简单的问答,直接以列表形式呈现答案即可。