Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

costar 框架

Answer

CO-STAR 框架是一个获奖的提示词框架,由 Sheila Teo 开发。作者在新加坡首届 GPT-4 Prompt Engineering 大赛中使用该框架并获得冠军。此框架由新加坡政府科技署(GovTech)组织的大赛中产生,汇聚了超过 400 位优秀的参与者。

CO-STAR 框架涵盖以下要素:

  1. Context(上下文):提供必要的背景信息,帮助大型语言模型(LLM)理解对话或请求的环境和条件。没有足够的上下文,LLM 可能会误解问题或给出不相关的信息。明确的上下文有助于确保 LLM 的回答既准确又相关。例如,如果文章是为一个特定的行业会议撰写,那么上下文中应该包含会议的主题、参与者的背景信息以及任何相关的行业趋势。
  2. Objective(目标):明确说明希望从 LLM 那里得到的具体结果或行动。清晰的目标可以帮助 LLM 集中精力解决问题,并减少无关的回答。例如,如果目标是撰写一篇文章,那么应具体说明文章的目的(比如介绍新技术、分析市场趋势等)以及期望达到的效果(比如提高品牌知名度、激发行业讨论等)。
  3. Style(风格):明确您期望的写作风格。您可以指定一个特定的著名人物或某个行业专家的写作风格,如商业分析师或 CEO。这将指导 LLM 以一种符合您需求的方式和词汇选择进行回应。
  4. Tone(语气):设置回应的情感调。设定适当的语气,确保 LLM 的回应能够与预期的情感或情绪背景相协调。可能的语气包括正式、幽默、富有同情心等。
  5. Audience(受众):识别目标受众。针对特定受众定制 LLM 的回应,无论是领域内的专家、初学者还是儿童,都能确保内容在特定上下文中适当且容易理解。
  6. Response(回复):规定输出的格式。确定输出格式是为了确保 LLM 按照您的具体需求进行输出,便于执行下游任务。常见的格式包括列表、JSON 格式的数据、专业报告等。对于大部分需要程序化处理 LLM 输出的应用来说,JSON 格式是理想的选择。

在使用大语言模型时,有效的提示构建至关重要。CO-STAR 框架,由新加坡政府科技局数据科学与 AI 团队创立,是一个实用的提示构建工具。它考虑了所有影响大语言模型响应效果和相关性的关键因素,帮助您获得更优的反馈。

应用 CO-STAR 框架时:

  1. (C)上下文:为任务提供背景信息。通过为大语言模型(LLM)提供详细的背景信息,可以帮助它精确理解讨论的具体场景,确保提供的反馈具有相关性。
  2. (O)目标:明确您要求大语言模型完成的任务。清晰地界定任务目标,可以使大语言模型更专注地调整其回应,以实现这一具体目标。
  3. (S)风格:明确您期望的写作风格。您可以指定一个特定的著名人物或某个行业专家的写作风格,如商业分析师或 CEO。
  4. (T)语气:设置回应的情感调。设定适当的语气,确保大语言模型的回应能够与预期的情感或情绪背景相协调。
  5. (A)受众:识别目标受众。针对特定受众定制大语言模型的回应,无论是领域内的专家、初学者还是儿童,都能确保内容在特定上下文中适当且容易理解。
  6. (R)响应:规定输出的格式。确定输出格式是为了确保大语言模型按照您的具体需求进行输出,便于执行下游任务。常见的格式包括列表、JSON 格式的数据、专业报告等。对于大部分需要程序化处理大语言模型输出的应用来说,JSON 格式是理想的选择。
Content generated by AI large model, please carefully verify (powered by aily)

References

安迪:写给职场人的 AI 办公手册——如何与 AI 高效对话

CO-STAR是一个获奖的提示词框架,由**Sheila Teo**开发**。**作者在新加坡首届GPT-4 Prompt Engineering大赛中使用CO-STAR框架,获得冠军。新加坡首届GPT-4提示工程(Prompt Engineering)大赛,由新加坡政府科技署(GovTech**)组织,汇聚了超过400位优秀的参与者。CO-STAR框架涵盖以下要素:**Context(上下文)、Objective(目标)、Style(风格)、Tone(语气)、Audience(受众)、Response(回复)**。Context(上下文)定义:提供必要的背景信息,帮助大型语言模型(LLM)理解对话或请求的环境和条件。重要性:没有足够的上下文,LLM可能会误解问题或给出不相关的信息。明确的上下文有助于确保LLM的回答既准确又相关。示例:如果文章是为一个特定的行业会议撰写,那么上下文中应该包含会议的主题、参与者的背景信息以及任何相关的行业趋势。Objective(目标)定义:明确说明希望从LLM那里得到的具体结果或行动。重要性:清晰的目标可以帮助LLM集中精力解决问题,并减少无关的回答。示例:如果目标是撰写一篇文章,那么应具体说明文章的目的(比如介绍新技术、分析市场趋势等)以及期望达到的效果(比如提高品牌知名度、激发行业讨论等)。Style(风格)

我如何夺冠新加坡首届 GPT-4 提示工程大赛-翻译自宝玉

在使用大语言模型时,有效的提示构建至关重要。CO-STAR框架,由新加坡政府科技局数据科学与AI团队创立,是一个实用的提示构建工具。它考虑了所有影响大语言模型响应效果和相关性的关键因素,帮助你获得更优的反馈。[heading3]如何应用CO-STAR框架:[content](C)上下文:为任务提供背景信息通过为大语言模型(LLM)提供详细的背景信息,可以帮助它精确理解讨论的具体场景,确保提供的反馈具有相关性。(O)目标:明确你要求大语言模型完成的任务清晰地界定任务目标,可以使大语言模型更专注地调整其回应,以实现这一具体目标。(S)风格:明确你期望的写作风格你可以指定一个特定的著名人物或某个行业专家的写作风格,如商业分析师或CEO。这将指导大语言模型以一种符合你需求的方式和词汇选择进行回应。(T)语气:设置回应的情感调设定适当的语气,确保大语言模型的回应能够与预期的情感或情绪背景相协调。可能的语气包括正式、幽默、富有同情心等。(A)受众:识别目标受众针对特定受众定制大语言模型的回应,无论是领域内的专家、初学者还是儿童,都能确保内容在特定上下文中适当且容易理解。(R)响应:规定输出的格式确定输出格式是为了确保大语言模型按照你的具体需求进行输出,便于执行下游任务。常见的格式包括列表、JSON格式的数据、专业报告等。对于大部分需要程序化处理大语言模型输出的应用来说,JSON格式是理想的选择。

4、调度器、采样器介绍 副本

采样器决定了如何从潜在空间中选择和处理噪声,以生成最终图像。ComfyUI支持多种采样器,每种都有其特点:基础采样器:如Euler,Heun,DDIM等。DPM系列:包括各种DPM(Denoising Diffusion Probabilistic Models)变体。Karras变体:许多采样器都有对应的Karras版本,通常能产生更清晰的结果。SDE(Stochastic Differential Equation)变体:如DPM++ SDE,适合生成精细纹理。Exponential变体:如Euler Exponential,在采样过程中使用指数噪声调度。特殊用途采样器:如LCM(Latent Consistency Model),Restart,Dynamic Thresholding等。[heading2]1、基础采样器[heading3]Euler[content]特点:一种常见的梯度下降方法,提供平衡的质量和速度。生成效果较为稳定,适合广泛的图像生成任务。推荐场景:适合新手和实验性生成,尤其在需要平衡速度和质量时。[heading3]Euler a[content]特点:增强版的Euler方法,进一步提高了生成质量或效率。更适合需要更高质量输出的场景。推荐场景:适合创意性更强或需要更细节图像的任务。[heading3]Euler Exponential[content]特点:结合了指数衰减的Euler采样器,生成图像可能更平滑。推荐场景:在生成过程中需要更平滑过渡和结果的场景。

Others are asking
提供几篇讲解AI 相关的基本概念、知识框架的文章
以下是为您提供的讲解 AI 相关的基本概念、知识框架的文章: 1. 新手学习 AI 方面: 建议阅读「」部分,熟悉 AI 的术语和基础概念,了解人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习,并获得证书。 2. 书籍推荐方面: 《认知神经学科:关于心智的生物学》(作者:Michael S.Gazzaniga;Richard B.Lvry;George R.Mangun):世界权威的认知神经科学教材,认知神经科学之父经典力作,系统了解认知神经科学的发展历史、细胞机制与认知、神经解剖与发展、研究方法、感觉知觉、物体识别、运动控制、学习与记忆、情绪、语言、大脑半球特异化、注意与意识、认知控制、社会认知和进化的观点等。 《神经科学原理》(作者:Eric R.Kandel;James H.Schwartz):让您系统神经元的细胞和分子生物学、突触传递、认知的神经基础、感觉、运动、神经信息的加工、发育及行为的出现、语言、思想、感动与学习。 《神经生物学:从神经元到脑》(作者:John G.Nicholls 等著):神经生物学领域内的一本世界级名著,涵盖了神经科学的方方面面,系统介绍了神经生物徐的基本概念、神经系统的功能及细胞和分子机制。 3. 相关文章方面: 《》:这是公众号琢磨事翻译的领英工程师的一篇文章,分享了在领英开发 AI 驱动产品的经验,重点探讨了生成式 AI 的相关内容。 《麻省理工科技评论》发布的《》:万字长文探讨了人工智能的定义和发展,详细阐述了人工智能的基本概念、技术背景及其在各个领域的应用,分析了当前的技术挑战和未来的发展方向,还讨论了人工智能对社会、经济和伦理的影响。
2025-02-06
12 个精选 prompt 框架
以下是 12 个精选的 prompt 框架: 1. ICIO 框架: 指令:执行的具体任务。 背景信息:提供执行任务的背景信息、上下文内容,以便大模型更好地回答。 输入信息:大模型需要用到的一些信息。 输出信息:明确输出的具体信息的要求,比如字数、风格、格式。 2. BROKE 框架:通过 GPT 的设计提示,提升整体反馈的效率。 背景:提供足够背景信息,让大模型理解问题的上下文。 角色设定:特定的角色,让 GPT 根据特定的角色能力和特点来形成响应。 目标:明确任务的目标,让大模型知道您想让它做什么。 结果定义:明确可以衡量的结果,让大模型清楚自己做的情况。 调整:根据具体的情况,调整具体的结果。 3. CRISPIE 框架: 能力和角色:您期望大模型扮演的角色洞察,提供幕后洞察力、背景信息和上下文。 声明:简洁明了地说明希望完成的任务。 个性:回应的风格、个性或者方式。 实验:提供多个回答的示例。 4. 课件中的 Prompt 之术“三板斧”: 分配角色。 给出示例(fewshots)。 思维链(ChainofThought)。
2025-02-06
语言框架有哪些
以下为您介绍一种常用的语言框架——LangChain: LangChain 是一个为简化大模型应用开发而设计的开源框架。它通过提供一套模块化的工具和库,允许开发者轻松集成和操作多种大模型,让开发者能将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具有良好的可扩展性,能适应不断变化的业务需求。作为一个得到社区广泛支持的开源项目,LangChain 拥有活跃的贡献者和持续的更新,同时提供了全面的文档和示例代码帮助新用户快速掌握。此外,LangChain 在设计时充分考虑了应用的安全性和用户数据的隐私保护,是一个多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-01-31
COZE 是基于什么框架
Coze 基于以下框架构成: 1. 提示词:使用了结构化提示词的框架,通过提示要求大模型根据不同的行为调用不同的工作流。 2. 数据库:能够记录不同用户历史记账记录,工作流里会用到。 3. 工作流:增加记账调用 add_accounting_record 工作流;查询账户余额调用 query_accounting_balance 工作流;删除所有记账记录调用 init_accounting_records 。 此外,还有关于 Coze 的其他信息: Coze 是由字节跳动推出的 AI 聊天机器人和应用程序编辑开发平台,专为开发下一代 AI 聊天机器人而设计。 具有多语言模型支持、插件系统、知识库功能、数据库和记忆能力、工作流设计、多代理模式等特点。 目前对用户完全免费,且易于发布和分享。
2025-01-26
12个prompt 框架
以下是 12 种 Prompt 框架: 1. Instruction(指令):即希望 AI 执行的具体任务,如翻译或写一段文字。 2. Context(背景信息):给 AI 更多背景信息,引导模型做出更贴合需求的回复。 3. Input Data(输入数据):告知模型需要处理的数据。 4. Output Indicator(输出引导):告知模型输出的类型或风格。 5. Capacity and Role(能力和角色):ChatGPT 应扮演的角色。 6. Insight(见解):提供请求背后的见解、背景和上下文。 7. Statement(声明):说明要求 ChatGPT 做什么。 8. Personality(个性):希望 ChatGPT 以何种风格、个性或方式回应。 9. Experiment(实验):请求 ChatGPT 回复多个示例。 10. Background(背景):说明背景,为 ChatGPT 提供充足信息。 11. Role(角色):希望 ChatGPT 扮演的角色。 12. Objectives(目标):希望实现的目标。 此外,还有以下框架: 1. TASK(任务):定义特定任务。 2. ACTION(行动):描述需要做的事情。 3. GOAL(目标):解释最终目标。 4. INPUT(输入):描述信息或资源。 5. STEPS(步骤):询问详细的步骤。 6. EXPECTATION(期望):描述所需的结果。 7. REQUEST(请求):描述您的要求。 8. Key Result(关键结果):要什么具体效果,试验并调整。 9. Evolve(试验并改进):三种改进方法自由组合,包括改进输入、改进答案、重新生成。 10. CONTEXT(上下文背景):为对话设定舞台。 11. OBJECTIVE(目的):描述目标。 12. SCENARIO(方案):描述场景。 同时,还有一些特定的框架,如 ICIO 框架、CRISPE 框架、BROKE 框架等。
2025-01-23
dify编排框架是什么意思
Dify 编排框架是一种在 AI 领域中应用的可视化编排框架,例如在 workflow 可视化编排页面中使用(框架:React Flow)。它具有以下特点和优势: 1. 集各家所长,在用户体验方面表现出色。 2. 可以人为编排 Workflow 里的子任务,与 AutoGPT 由大模型编排任务的方式不同,这种手动编排方式带来了明显的优化,如在流程中加入人类 Knowhow 以补足模型知识的不足,通过专家测试试跑减少生产环境中的反复无效反思,引入图的概念灵活组织节点、连接各类工具等。 3. 加入图的概念后,workflow 的天花板变得非常高,可以在流程中任意增加节点和各种类型的节点,不仅能套工具、套其它 agent,还能写代码用硬逻辑处理或接大模型进行判断,能力上限很大程度取决于想象力。 4. 对于个人开发者构建高质量的 AI 数字人很有帮助,有大量开源工作者维护,集成了各种主流的模型供应商、工具以及算法实现等,可以通过它快速编排出自己的 AI Agent,赋予数字人灵魂。利用其编排和可视化交互能任意修改流程,构造不同的 AI Agent,并实现相对复杂的功能,如知识库搭建、工具使用等,无需任何编码和重新部署工作。同时,Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于这两个接口可将数字人的语音识别和语音生成都交由 Dify 控制。如果有更加高度定制的模型,也可以在 Dify 中接入 XInference 等模型管理平台进行部署。此外,数字人 GUI 工程中仍保留了多个模块,能保持更好的扩展。 在使用 Dify 接口时,需要注意必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,可自行选择方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。
2025-01-21