直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

知识库都有哪些提示词框架

回答

以下是一些常见的提示词框架:

  • ICIO 框架:包括 Instruction(指令)、Context(背景信息)、Input Data(输入数据)、Output Indicator(输出引导)。
  • CRISPE 框架:涵盖 Capacity and Role(能力和角色)、Insight(见解)、Statement(声明)、Personality(个性)、Experiment(实验)。
  • BROKE 框架:包含 Background(背景)、Role(角色)、Objectives(目标)、Key Result(关键结果)。
  • TRACE 框架:有 TASK(任务)、REQUEST(请求)、ACTION(行动)、CONTEXT(上下文)、EXAMPLE(示例)。
  • ERA 框架:包括 EXPECTATION(期望)、ROLE(角色)、ACTION(行动)。
  • CARE 框架:由 CONTEXT(上下文)、ACTION(行动)、RESULT(结果)、EXAMPLE(示例)组成。
  • ROSES 框架:包含 ROLE(角色)、OBJECTIVE(目的)、SCENARIO(方案)。
  • Evolve 框架:包括试验并改进,通过改进输入、改进答案、重新生成等方法。
  • APE 框架。
  • COAST 框架:包含 CONTEXT(上下文背景)、OBJECTIVE(目的)、ACTION(行动)、SCENARIO(方案)、TASK(任务)。
  • TAG 框架:包括 TASK(任务)、ACTION(行动)、GOAL(目标)。
  • RISE 框架。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Prompts(提示词)

|框架|说明|例子|附件|父记录|<br>|-|-|-|-|-|<br>|框架集合|右侧附件做成了海报||||<br>|ICIO框架|||||<br>|Instruction:指令|即你希望AI执行的具体任务|比如翻译或者写一段什么文字|||<br>|Context:背景信息|给AI更多的背景信息引导模型做出更贴合需求的回复||||<br>|Input Data:输入数据|告知模型需要处理的数据||||<br>|Output Indicator:输出引导|告知模型我们要输出的类型或风格||||<br>|CRISPE框架|||||<br>|Capacity and Role:能力和角色|ChatGPT应扮演什么角色||||<br>| Insight:见解|提供你请求的背后见解、背景和上下文||||<br>|Statement:声明|你要求ChatGPT做什么||||<br>|Personality:个性|你希望ChatGPT以何种风格、个性或方式回应||||<br>|Experiment:实验|请求ChatGPT为你回复多个示例||||<br>|BROKE框架--提出者:陈财猫|||||<br>|Background:背景|说明背景,为ChatGPT提供充足信息||||<br>|Role:角色|我希望ChatGPT扮演的角色||||<br>|Objectives:目标|我们希望实现什么||||<br>|Key Result:关键结果|我要什么具体效果试验并调整||||

Prompts(提示词)

|框架|说明|例子|附件|父记录|<br>|-|-|-|-|-|<br>|ROLE角色|指定ChatGPT的角色||||<br>|INPUT输入|描述信息或资源||||<br>|STEPS步骤|询问详细的步骤||||<br>|EXPECTATION期望|描述所需的结果||||<br>|TRACE框架|||||<br>|TASK任务|定义特定任务||||<br>|REQUEST请求|描述您的要求||||<br>|ACTION行动|说明您需要的操作||||<br>|CONTEXT上下文|提供上下文或情况||||<br>|EXAMPLE示例|举一个例子来说明您的观点||||<br>|ERA框架|||||<br>|EXPECTATION期望|描述所需的结果||||<br>|ROLE角色|指定ChatGPT的角色||||<br>|ACTION行动|指定需要采取哪些操作||||<br>|CARE框架|||||<br>|CONTEXT上下文|为讨论设置阶段或上下文||||<br>|ACTION行动|描述您想做什么||||<br>|RESULT结果|描述所需的结果||||<br>|EXAMPLE示例|举一个例子来说明您的观点||||<br>|ROSES框架|||||<br>|ROLE角色|指定ChatGPT的角色||||<br>|OBJECTIVE目的|陈述目标或目标||||<br>|SCENARIO方案|描述情况||||

Prompts(提示词)

|框架|说明|例子|附件|父记录|<br>|-|-|-|-|-|<br>|Evolve:试验并改进|三种改进方法自由组合    <br> a.改进输入:从答案的不足之处着手改进背景B,目标O与关键结果R    <br> b.改进答案:在后续对话中指正chatGPT答案缺点    <br> c.重新生成:尝试在Prompt不变的情况下多次生成结果,优中选优||||<br>|APE框架|||||<br>|COAST框架|||||<br>|CONTEXT上下文背景|为对话设定舞台||||<br>|OBJECTIVE目的|描述目标||||<br>|ACTION行动|解释所需的动作||||<br>|SCENARIO方案|描述场景||||<br>|TASK任务|描述任务||||<br>|ICIO框架|[https://github.com/dair-ai/Prompt-Engineering-Guide/blob/main/guides/prompts-intro.md](https://github.com/dair-ai/Prompt-Engineering-Guide/blob/main/guides/prompts-intro.md)||||<br>|CRISPE框架|[https://github.com/mattnigh/ChatGPT3-Free-Prompt-List](https://github.com/mattnigh/ChatGPT3-Free-Prompt-List)||||<br>|BROKE框架|作者:陈财猫,[https://web.okjike.com/originalPost/644fd53e263968405b6d5bfd](https://web.okjike.com/originalPost/644fd53e263968405b6d5bfd)||||<br>|ACTION:行动|定义要完成的工作或活动||||<br>|PURPOSE:目的|讨论意图或目标||||<br>|EXPECTATION:期望|陈述预期的结果。||||<br>|TAG框架|||||<br>|TASK任务|定义特定任务||||<br>|ACTION行动|描述需要做的事情||||<br>|GOAL目标|解释最终目标||||<br>|RISE框架|||||

其他人在问
你的知识库来源于哪里
我的知识库来源较为广泛,包括以下方面: 符号人工智能的早期成就之一——专家系统,其基于从人类专家提取的知识库,并包含推理引擎进行推理。专家系统包含问题记忆、知识库、推理引擎等部分。 “通往 AGI 之路「WaytoAGI」,这是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库。 扣子的知识库,功能强大,可上传和存储外部知识内容,并提供多种查找知识的方法,能解决大模型的某些问题,使其回复更准确。
2024-11-13
什么是知识库,以及他的运作原理是什么,请用小白也能理解的语言进行说明
知识库可以用比较通俗的方式来理解: 想象一个大语言模型就像一个非常聪明、读过无数书的人,但对于一些特定的工作场景中的细节,比如见到老板娘过来吃饭要打三折,张梦飞过去吃饭要打骨折,它可能并不清楚。这时候,知识库就像是给这个聪明的人发的一本工作手册。 从更专业的角度来说,知识库的运作原理通常包括以下几个步骤: 1. 文档加载:从各种不同的来源,比如 PDF、SQL 数据、代码等加载相关的文档。 2. 文本分割:把加载的文档分割成指定大小的块,称为“文档块”或“文档片”。 3. 存储:这包括两个环节,一是将分割好的文档块进行嵌入,转换成向量的形式;二是将这些向量数据存储到向量数据库中。 4. 检索:当需要使用数据时,通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给大语言模型,大语言模型会根据问题和检索出来的提示一起生成更合理的答案。 以车型数据为例,每个知识库的分段中保存了一种车型的基础数据。当用户问宝马 X3 的售价是多少时,就能匹配到对应车型的分段,然后从其中获取到售价信息。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2024-11-13
我没有知识库,如何让AI就某一问题穷尽搜索
要让 AI 就某一问题进行穷尽搜索,一般会涉及以下步骤: 1. 文档向量化:知识库中的文档需要被转换成向量形式,以便在数值级别上与问题向量进行比较。使用知识库工具上传文档时,会完成文档的向量化,这依靠 Embedding Model 实现。 2. 知识库检索: 相似性计算:使用相似性度量方法(如余弦相似性)计算问题向量和各个文档向量之间的相似度,以找出与问题内容最接近的文档。 排序与选择:根据相似性得分对所有文档进行排序,通常会选择得分最高的几个文档,认为这些文档与问题最相关。 信息抽取:从选定的高相关性文档中抽取具体的信息片段或答案,可能涉及进一步的文本处理技术,如命名实体识别、关键短语提取等。 3. 信息整合阶段:将检索到的全部信息连同用户问题和系统预设整合成一个全新的上下文环境,为生成回答提供基础。 此外,像生物进化中通过自然选择的方式,从特定规则开始逐步改变(可能随机),在每一步保留最有效的规则并丢弃其他,这种方法不是我们通常定义的“人工智能”(更像是“遗传算法”),但在高维规则空间中往往比低维规则空间效果更好,因为维度越多,陷入局部最小值的可能性越小。 同时,给 AI 配备随时更新的“活字典”即知识库是一个好方法。知识库就像 AI 随时可查阅的百科全书,当 AI 遇到不确定问题时,可从知识库中检索相关信息给出更准确回答。比如建立包含最新新闻、科技发展、法律法规等内容的知识库,或者利用整个互联网的实时数据作为知识库,通过搜索引擎获取最新信息。
2024-11-13
你的知识库是怎么部署的
部署个人知识库需要考虑硬件配置和相关技术原理。 硬件方面: 生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型)。 生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。 生成音频大模型,最低配置为 8G VRAM,建议配置为 24G VRAM。 技术原理方面: 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 RAG 应用包括文档加载、文本分割、存储、检索和输出这 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入(投喂)定制化的知识。GPT3.5 一次交互(输入和输出)只支持最高 4096 个 Token。为了处理大量领域知识,OpenAI 提供了 embedding API 解决方案。embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度。
2024-11-11
搭建个人知识库,请推荐的免费人工智能软件
以下为您推荐一些可用于搭建个人知识库的免费人工智能软件: 1. AnythingLLM:包含所有 Open WebUI 的能力,额外支持选择文本嵌入模型和向量数据库。安装地址:https://useanything.com/download 。安装完成后需进行配置,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在 AnythingLLM 中可创建独有的 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式会综合给出答案,Query 模式仅依靠文档数据给出答案),配置完成后可进行测试对话。 2. Coze 或 FastGPT 等工具可搭建知识库,但当下其 RAG 能力仅对问答场景友好,复杂企业级知识库场景可能需要专业团队,收费几万到几十万不等。若想使用专门搭建个人知识库的软件,可参考文章 ,忽略本地部署大模型环节,直接看其中推荐的软件。 此外,还有一些相关工具和方法: 用通义听悟整理录音笔记:https://tingwu.aliyun.com 用 React 实现选中即解释 定义提示语提取有用信息:https://memo.ac/zh/ 开源免费屏幕录制工具 OBS,下载地址:https://obsproject.com/ Mac 用 Downie,Windows 推荐 IDM 淘宝数码荔枝店购买 用 losslessCut 快速切块:https://github.com/mifi/losslesscut 希望这些信息对您有所帮助。
2024-11-11
飞书和notion,在搭建个人知识库方面,各自的优点和缺点是什么
飞书在搭建个人知识库方面的优点: 可以方便地分类和整理知识,例如个人搭建某一领域知识库或企业搭建产品资料知识库。 有相关的分享和直播,能帮助用户轻松打造知识管理体系。 缺点: 随着知识库中信息增多,如果分类不合理,很难找到所需文章。 问题答案可能在文章某一段落,每次都需重新阅读文章才能找到答案。 Notion 在搭建个人知识库方面的优点: 是功能强大的知识管理和项目管理工具,可将各种信息 all in one place。 数据库可定制性高,接近关系型数据库,适合有相关需求的用户。 数据库的每一条记录都是一个页面,页面包含可自定义的属性和丰富内容。 支持的块类型非常丰富。 缺点:暂未提及。 此外,Notion 在创建知识库并上传文本内容方面,有特定的操作步骤,如在文本格式页签下选择 Notion 并进行授权,还可选择自动分段与清洗或自定义分段等方式。
2024-11-11
利用 AI 生成培训框架
以下是为您生成的培训框架相关内容: 一、AI 在教育培训中的应用 1. 数字教师 借助大型语言模型,人工智能生成的角色可以作为数字教师,如让牛顿亲自授课《牛顿运动定律》,让白居易为您讲述《长恨歌》背后的故事。 数字教师可以实现一对一辅导,不受情绪左右,提高学生参与感。 能够根据学生的学习情况、兴趣和偏好提供定制化的学习计划和资源,实现因材施教,提高学习效率和成果,缓解教育资源不平等问题。 2. 数字陪伴 人工智能生成的虚拟角色可以作为孩子的玩伴,来自他人的赞美等社会奖励,促进儿童成长,提高学习成绩。 二、AI 相关技术原理与概念 1. 概念 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词 AI:人工智能。 机器学习:电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习:参照人脑有神经网络和神经元,因有很多层所以叫深度,神经网络可用于多种学习方式。 生成式 AI:可以生成文本、图片、音频、视频等内容形式。 LLM:大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 3. 技术里程碑 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性。
2024-10-29
我计划编写一本关于生成式人工智能的书籍,但是在开始前,我需要确定一个合适的大纲框架来组织我的思路。这个框架应该包括那些部分,以及如何将各个部分连接起来,以便读者能够理解掌握AIGC的概念和应用
以下是为您编写关于生成式人工智能书籍提供的大纲框架建议: 一、引言 介绍编写本书的目的和背景,引导读者进入生成式人工智能的世界。 二、基础概念 1. 什么是生成式人工智能(AIGC) 定义和特点 与传统人工智能的区别 2. 相关技术名词 AI(人工智能) 机器学习(包括监督学习、无监督学习、强化学习) 深度学习(神经网络、神经元) 生成式 AI(可生成文本、图片、音频、视频等内容形式) LLM(大语言模型) 三、AIGC 的应用领域 1. 文字生成(如使用大型语言模型生成文章、故事、对话等) 2. 图像生成(如使用 Stable Diffusion、DALLE 等模型生成艺术作品、照片等) 3. 视频生成(如使用 Runway、KLING 等模型生成动画、短视频等) 四、AIGC 与其他内容生成方式的关系 1. AIGC 与 UGC(用户生成内容) 区别与联系 各自的优势和适用场景 2. AIGC 与 PGC(专业生成内容) 区别与联系 相互的影响和融合 五、技术原理 1. Transformer 模型 自注意力机制 处理序列数据的优势 2. 技术里程碑(如谷歌团队发表的《Attention is All You Need》论文) 六、实际案例分析 展示不同领域中成功的 AIGC 应用案例,分析其实现过程和效果。 七、挑战与展望 1. 面临的挑战(如数据隐私、伦理问题等) 2. 未来发展趋势和前景 八、结论 总结全书重点内容,对 AIGC 的未来发展进行展望。 各个部分之间可以通过逻辑递进、案例引用、对比分析等方式进行连接,使读者能够逐步深入理解掌握 AIGC 的概念和应用。
2024-10-23
什么是LangGPT框架
LangGPT 是由云中江树开发的一款开源提示词框架。它旨在解决传统提示词在系统性、灵活性和用户友好性方面的不足,更好地挖掘和利用大模型的潜力。 随着 GPT4 等新一代模型的发布,提示词的重要性日益凸显,其编写过程逐渐成为 AI 时代的一种编程语言,而 LangGPT 提示词框架就是为了应对高效编写高质量提示词这一需求而研发的。 云中江树早在 2023 年 3 月就提出了结构化构建提示词的方法,并于 5.4 青年节开源发布,很快收藏破千,成为 GitHub 开源社区全球趋势热榜前十项目,还撰写了学术论文开源发表。 LangGPT 提出的结构化提示词已被百度、智谱、字节、华为等国内主流大模型智能体平台使用,当前已发展成为国内最具影响力的高质量提示词工程师学习交流社群。其愿景是让人人都能写出高质量提示词,为大众提供一套可操作、可复现的提示词方法论、工具和交流社群。 使用框架时,可以换着不同的预设角度去描述同样一个物体。例如,去年有人用 LangGPT 的框架,模拟一个能以善解人意的方式讲解任何学科概念的老师进行输出。
2024-10-21
12种Prompt框架
以下是 12 种 Prompt 框架: 1. Key Result(关键结果):说明想要的具体效果,试验并调整。包括改进输入(从答案不足之处着手改进背景、目标与关键结果)、改进答案(在后续对话中指正 ChatGPT 答案缺点)、重新生成(在 Prompt 不变情况下多次生成结果,优中选优)。 2. Evolve(试验并改进):三种改进方法自由组合。 3. APE 框架:未提供具体说明。 4. COAST 框架:未提供具体说明。 5. CONTEXT(上下文背景):为对话设定舞台。 6. OBJECTIVE(目的):描述目标。 7. ACTION(行动):解释所需的动作。 8. SCENARIO(方案):描述场景。 9. TASK(任务):描述任务。 10. ICIO 框架:相关链接 。 11. CRISPE 框架:相关链接 。 12. BROKE 框架:作者陈财猫,相关链接 。 此外还有: 1. 框架集合:右侧附件做成了海报。 2. Instruction(指令):即希望 AI 执行的具体任务,比如翻译或者写一段文字。 3. Context(背景信息):给 AI 更多背景信息引导模型做出更贴合需求的回复。 4. Input Data(输入数据):告知模型需要处理的数据。 5. Output Indicator(输出引导):告知模型要输出的类型或风格。 6. Capacity and Role(能力和角色):ChatGPT 应扮演的角色。 7. Insight(见解):提供请求的背后见解、背景和上下文。 8. Statement(声明):要求 ChatGPT 做什么。 9. Personality(个性):希望 ChatGPT 以何种风格、个性或方式回应。 10. Experiment(实验):请求 ChatGPT 为您回复多个示例。 其他框架: 1. ACTION(行动):描述想做什么。 2. RESULT(结果):描述所需的结果。 3. EXAMPLE(示例):举一个例子来说明观点。 4. ROSES 框架:未提供具体说明。 5. ROLE(角色):指定 ChatGPT 的角色。 6. OBJECTIVE(目的):陈述目标或目标。 7. SCENARIO(方案):描述情况。 8. EXPECTED SOLUTION(解决方案):定义所需的结果。 9. STEPS(步骤):要求达到解决方案所需的措施。 10. RACE 框架:未提供具体说明。 11. PATFU 泡芙提示词框架:作者口袋君。 12. Problem(问题):清晰地表述需要解决的问题。 13. Aera(领域):问题所在领域以及需要扮演的角色。 14. Task(任务):解决问题需要执行的具体任务。
2024-10-21
BORE框架
BORE 框架是由自动驾驶行业的产品经理陈财猫提出的一套 ChatGPT 方法论。 BORE 框架的产生过程如下:陈财猫是 ChatGPT 的第一批用户,最初与 ChatGPT 的交互主要是找乐子,后来发现其在工作中能发挥重要作用,从而形成了这套可操作、可重复的方法论。 BORE 框架中,四个字母分别代表四个单词的首字母: 1. B 代表 Background(背景):阐述任务的宏观背景和微观场景,让 ChatGPT 获得充分信息。 2. O 代表 Objectives(目标):明确任务目标,告知 ChatGPT 需生成的内容。 3. R 代表 key Results(关键结果):列出完成任务所需达成的关键结果,包括具体要求和指标,可根据实际需求定制。 4. E 代表 Evolve(改进):通过试验并调整,灵活组合以下三种改进方法以获得满意答案: 从答案的不足之处着手,更新并迭代 prompt。 在后续对话中指正 ChatGPT 答案缺点。 在 prompt 不变的情况下多次生成结果。 此外,作为产品经理,还可以将 ChatGPT 的能力与外部工具结合,放大其能力,例如为业务画时序图、流程图,用生动的图像和数据分析支撑需求改动,以增加需求通过产品评审会的可能性。 相关文章原文链接:https://mp.weixin.qq.com/s/AGdTBGn9vQrApZwPrAmxtQ
2024-10-16
crispe框架
CRISPE 框架是一个在设计提示词时常用的框架,包含以下几个方面: 1. CR:Capacity and Role(能力与角色),即明确您希望 AI 扮演的角色。 2. I:Insight(洞察),提供背景信息和上下文。 3. S:(陈述),清晰说明您希望 AI 做什么。 4. P:Personality(个性),确定您希望 AI 以何种风格或方式回答您。 5. E:Experiment(实验),要求 AI 为您提供多个答案。 此外,提示词工程师已经发展出了多种提示词框架,CRISPE 框架只是其中之一。例如,还有 ICIO 框架、BROKE 框架等。CRISPE 框架也有不同的表述,有的将其分为涵盖上下文(Context)、角色(Role)、说明(Instruction)、主题(Subject)、预设(Preset)和例外(Exception)这六个部分。
2024-10-16
如何学习提示词
学习提示词可以参考以下步骤和方法: 1. 基础概念学习 了解相关模型(如 Stable Diffusion)的工作原理和架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分,如主题词、修饰词、反面词等。 2. 研究官方资料 通读官方文档,了解提示词相关指南。 研究开发团队和专家的教程、技巧分享。 3. 学习常见术语和范例 熟悉相关领域(如 UI、艺术、摄影)的专业术语和概念。 研究优秀的图像标题和描述作为范例。 4. 掌握关键技巧 学会组合多个词条精确描述想要的效果。 掌握使用特定符号(如“()”、“”)控制生成权重。 学会处理抽象概念、情感等无形事物的描述。 5. 实践与反馈 用不同提示词生成各种风格和主题的图像。 对比结果,分析原因,总结经验。 在社区分享,请教高手获取反馈建议。 6. 创建提示词库 按主题、风格等维度建立自己的词库。 记录成功案例和总结,方便复用。 7. 持续跟进前沿 关注模型的最新更新和社区动态。 掌握提示词的新技术、新范式、新趋势。 此外,还需注意: 1. 理解提示词的作用,它为模型提供上下文和指示,影响输出质量。 2. 学习构建技巧,明确任务目标,用简洁准确语言描述,提供背景信息和示例,使用清晰指令,明确特殊要求。 3. 参考优秀案例,可在领域社区、Github 等资源中寻找。 4. 多实践、迭代、优化,尝试变体并分析输出差异。 5. 活用提示工程工具,如 Anthropic 的 Constitutional AI。 6. 跟上前沿研究,提示工程是前沿领域,持续关注最新成果和方法论。 精心设计的提示词能最大程度发挥语言模型的潜力,多实践、多学习、多总结才能掌握窍门。
2024-11-13
如何学习提示词
学习提示词可以按照以下步骤和方法进行: 1. 基本概念的学习: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分,如主题词、修饰词、反面词等。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,提示词在现代大型语言模型中极其重要,掌握其运用技巧能最大限度发挥模型潜能。具体包括: 1. 理解提示词的作用:提示词向模型提供上下文和指示,其质量直接影响模型输出质量。 2. 学习提示词的构建技巧:明确任务目标,用简洁准确的语言描述;给予足够背景信息和示例,帮助模型理解语境;使用清晰指令,如“解释”“总结”“创作”等;对特殊要求应给予明确指示,如输出格式、字数限制等。 3. 参考优秀案例:研究和学习已有的优秀提示词案例,了解行之有效的模式和技巧。 4. 实践、迭代、优化:多与语言模型互动,根据输出提高提示词质量。尝试各种变体,比较分析输出差异,持续优化提示词构建。 5. 活用提示工程工具:目前已有一些提示工程工具可供使用。 6. 跟上前沿研究:提示工程是当前前沿研究领域之一,持续关注最新研究成果和方法论。 提示词是给大语言模型的输入文本,用于指定模型执行任务和生成输出,发挥“提示”模型的作用。设计高质量提示词需根据目标任务和模型能力精心设计。学习提示词需要先了解大模型特性,具备清晰表述需求和任务的能力。
2024-11-13
suno提示词怎么写
以下是关于 Suno 提示词的写法: 在创作“离谱村”时,先收到台词素材和配音,构思出“童趣”“欢乐”等词,让 AJ 提出活泼、离谱搞笑的方向。然后把台词和想到的形容词投喂给 GPT4 生成音乐脚本,再将脚本输入给 SunoBeats 生成提示词。但最初生成的提示词太长,之后参考论坛网友分享的格式,即通过调式变化加上情节描述,使用和弦进展推动故事情节发展,让 SunoBeats 模仿这种格式生成提示词,测试发现这种格式的提示词质量更好、利用率更高。 推荐的写法可参考详细教程,如。 Suno 创作音乐的小技巧:如果想参考现有歌曲的节奏,可以在(引子)来更好地告诉 AI 这段歌词应该怎么唱。
2024-11-13
给图片写提示词
以下是关于给图片写提示词的相关内容: 在 SD 文生图中,提示词的一些规则如下: 括号和“:1.2”等用于增加权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。 反向提示词可以告诉 AI 不要的内容,例如:NSFw,等。 描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。 可以利用一些辅助网站来写提示词,如 http://www.atoolbox.net/ ,通过选项卡方式快速填写关键词信息;https://ai.dawnmark.cn/ ,每种参数有缩略图参考;还可以在 C 站(https://civitai.com/)抄作业,复制图的参数粘贴到正向提示词栏。但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会不同。也可以选取部分好的描述词,如人物描写、背景描述、小元素或画面质感等。 给自己做卡通头像时的提示词操作: 在聊天窗口输入/imainge 找到/imagine prompt,放入链接,加提示词,以英文逗号分隔,再加上设置参数。 设置参数包括:“iw 1.5”设置参考图片的权重,数值越高与参考图片越接近,默认 0.5,最大 2;“s 500”设置风格强度,数字越大越有创造力和想象力,可设 0 1000 间任意整数;“v 5”指用 midjourney 的第 5 代版本,需订阅付费,不想付费可用“v 4”;“no glasses”指不戴眼镜。 例如完整提示词:simple avatar,Disney boy,3d rendering,iw 1.5 s 500 v 5 。若不满意可调整“s”和“iw”的值多次尝试。
2024-11-13
请你帮我写一段提示词,内容是:给AI 工具赋予一个身份,精通5why分析方法。
以下是为您生成的提示词,赋予 AI 工具精通 5why 分析方法的身份: Role: 5Why 分析专家 Profile: 我是一位精通 5Why 分析方法的专家,能够深入挖掘问题的根本原因。 Goals: 运用 5Why 分析方法,为您准确剖析问题,找出深层次的根源。 Constrains: 严格遵循 5Why 分析的逻辑和步骤,不随意跳跃或省略。 对于复杂问题,保持耐心和专注,确保分析的全面性和准确性。 Skills: 熟练掌握 5Why 分析的技巧和方法。 具备敏锐的洞察力,能够从表象中发现关键线索。 善于引导您一同参与分析过程,帮助您理解问题的本质。 Workflows: 首先,清晰了解问题的表象和您提供的相关信息。 然后,按照 5Why 的原则,逐步深入提问,直至找到根本原因。 最后,以清晰、简洁的方式向您呈现分析结果和解决方案。
2024-11-13
我已经写出了一段提示词,在向AI工具提问时,如何向其发问
以下是关于向 AI 工具发问的一些方法和要点: 1. 逻辑思维推理能力比提示词更重要。 2. 提问时需要包含固定要素,如思考问题所需的前置信息、主要解决的主客体及关系、对回答的要求、有无类似问题的参考样例,并编辑问题模板,如相似问题的问题与答案(不一定需要)+问题主体+前置条件+回答要求。 3. 学会使用追问技巧,如 StepBack Prompting,提问者应知道如何追问,例如对“巴以冲突的原因,要求从地理、历史和参与方几个方面进行分析和回答”,然后根据回答进一步追问。 4. 可以运用举例法,举个例子让 AI 模仿写,并变更主题。 5. 一个好的问题往往比一个好的答案更有价值,写好提示词很关键,比如可以采用提问的几要素、举例法、思维链法、守规矩法、左右手互博法、激情碰撞法、剥削 AI 法等技巧。
2024-11-13