Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

给我flux的提示词结构的知识库我以他作为知识库

Answer

以下是关于 Flux 提示词结构的相关知识:

大语言模型就像一个学过无数知识、拥有无穷智慧的人,但在工作场景中,需要通过提示词来设定其角色和专注的技能,使其成为满足需求的“员工”。知识库则相当于给“员工”发放的工作手册,提供特定的信息。

提示词可以设定 Bot 的身份及其目标和技能,例如产品问答助手、新闻播报员、翻译助理等,决定 Bot 与用户的互动方式。详情可参考编写提示

学习提示词可以分为五个维度,从高到低依次是思维框架、方法论、语句、工具和场景。但舒适的学习顺序应反过来,先从场景切入,直接了解在不同场景下提示词的使用及效果对比;然后使用提示词工具,如 Meta Prompt、Al 角色定制等;接着学习有效的提示语句,包括经典论文中的相关语句;再学习有效的方法论,将有效语句及其背后的原理整合成稳定可控的方法;最后掌握思维框架。

此外,还可以通过插件、工作流、记忆库等功能定制 AI Bot。插件可通过 API 连接集成各种平台和服务扩展 Bot 能力,详情参考插件介绍;工作流用于规划和实现复杂功能逻辑,详情参考工作流介绍;记忆库功能可保留和理解对话细节,并支持添加外部知识库给模型补充知识,知识库支持上传本地或线上内容并分割成知识分片,详情参考知识库介绍,数据库可用来存储和管理结构化数据,详情参考数据库

Content generated by AI large model, please carefully verify (powered by aily)

References

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

大语言模型:是一个学习过无数本书、拥有无穷智慧的人。他读过无数的书、看过无数的段子,因此对公共知识、学识技能、日常聊天十分擅长。然而,在工作场景下,只会聊天侃大山可不行,你想让他帮你干活。这个时候,就需要“提示词”出场了,提示词:是你告诉这个全知全能的人,他是一个什么样的角色、他要专注于哪些技能,让他能够按照你的想法,变成一个你需要的“员工”。知识库:相当于你给这个“聪明”员工的发放了一本工作手册。即使是看过再多的书、浏览过再多的文字,也不会准确的知道见到老板娘过来吃饭要打三折,张梦飞过去吃饭要打骨折。而知识库,就是把这些内容写在了工作手册上。让这个聪明的员工,见到有人来的时候,就翻一翻手册,然后再做出反应。我的设定:AI模型:这里使用的是阿里千问模型。提示词:这里设定的角色是“美嘉”,是按照美嘉的人设、背景和对话风格做的设定。知识库:这里放的是《爱情公寓》全季的剧情,让“美嘉”拥有了自己过往的“记忆”,知道自己做过什么、好朋友是谁等等。图中右侧是一个十分简单的问答,我问:“你是谁?你和子乔在台球厅吵架那次是为了什么吵架?”她的回复是:“我是陈美嘉,那次在台球厅和吕子乔吵架是因为他约会被人撞见,我讽刺他脸大影响信号,他还反击我。后来谈到过去的事情,我指责他忘恩负义,他就说我平。最后,我伤心地说要分手,因为他之前甩过我。”

功能概述

你可以使用扣子提供的以下功能,定制你的AI Bot:提示词(人设与回复逻辑功能)设定Bot的身份及其目标和技能,例如产品问答助手、新闻播报员、翻译助理等等。Bot的提示词决定了Bot如何与你的用户进行互动。详情请参考[编写提示](https://www.coze.cn/docs/guides/prompt)。插件通过API连接集成各种平台和服务,扩展Bot能力。扣子平台内置丰富的插件供你直接调用,你也可以创建自定义插件,将你所需要的API集成在扣子内作为插件来使用。详情请参考[插件介绍](https://www.coze.cn/docs/guides/create_plugin)。工作流一种用于规划和实现复杂功能逻辑的工具。你可以通过拖拽不同的任务节点来设计复杂的多步骤任务,提升Bot处理复杂任务的效率。详情请参考[工作流介绍](https://www.coze.cn/docs/guides/workflow)。记忆库扣子的记忆库功能可以保留和理解对话细节,并支持添加外部知识库给模型补充知识,使Bot与用户的互动更加有针对性和个性化。你可以通过以下方式来存储和管理外部知识。知识库:支持上传本地或线上内容,然后将这些内容分割成知识分片,通过语义匹配给模型补充知识。详情请参考[知识库介绍](https://www.coze.cn/docs/guides/knowledge)。数据库:用来存储和管理结构化数据,并支持用户通过自然语言方式对数据库中的数据进行增删改查。详情请参考[数据库](https://www.coze.cn/docs/guides/database)。

小七姐:提示词思考总结

我自己把提示词学习分成五个维度,从高到低依次是:思维框架,方法论,语句,工具和场景。这是经过近一年的探索和教学总结的框架,我也把这套框架完全融入了我的提示词学习课程。很多人学习的时候或者是被教授课程的时候,由于知识的诅咒和信息整合的问题,通常也是按照由高到低的顺序去了解和接触提示词的,但这样其实并不符合初学者的认知过程,大部分人会感到困难。舒适的学习顺序应当是反过来的:[heading3]场景:[content]不管那些艰深的理论和学术的东西,直接切入提示词的场景去学,比如在什么场景下,可以如何使用提示词,用特定提示词以及不用它们的效果对比。[heading3]工具:[content]然后去使用一些现成的、方便的提示词工具,包括一些Meta Prompt、一些Al角色定制等,也包括别人写好的成型的提示词,作为工具来体验和尝试,这都属于提示词工具的实践。[heading3]有效语句:[content]接下来要学的才是有效的提示语句,这包括大量的经典论文中明确提出的提示词语句。最典型的就是早期的think it step by step[heading3]方法论:[content]第四个维度是学习有效的方法论,这里就要把这些有效语句及其背后的原理整合成了比较稳定可控的一整套的方法,可以去自动编写一些稳定的提示词。例如think it step by step背后的原理是COT,但掌握了COT方法就不会只用一句think it step by step

Others are asking
如何搭建自己的知识库
搭建自己的知识库可以参考以下步骤: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片提交给 LLM 生成答案。 2. 文本加载器:将用户提供的文本加载到内存中,便于后续处理。 3. 基于 GPT API 搭建: 涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限。 OpenAI 提供了 embedding API 解决方案,embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。 4. 本地知识库进阶: 可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力,并支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建 Workspace 构建本地知识库,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案),最后进行测试对话。 总之,搭建知识库需要不断实践和探索,“看十遍不如实操一遍,实操十遍不如分享一遍”。
2025-02-20
DeepSeek搭建 个人知识库
以下是关于 DeepSeek 搭建的相关知识: 对于个人知识库的搭建,您可以参考以下内容: 章节“三.使用 DeepSeek R1 给老外起中文名”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareDyEMdmCPOo98S6xbPfNcsuEOnuh 知识点“Node.JS 安装”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcsharePVnndBSV5oWOukx38tKcw2CPnub 申请“DeepSeek R1 API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareTrXednqLAoH3VLxrUiYc1Pb9nhf 网页接入“DeepSeek API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareUK5xdzhiaoo9RkxHR5bcs30pnV8 章节“一.Trae 的介绍/安装/疑难杂症”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareR4GvdgOzeoC9mOxd1hScuql6nVY Python 安装:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareKcojdhid9oWJPjxAvEOczRt0nkg 一个提示词让 DeepSeek 的能力更上一层楼的相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,视频链接: 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手 五津:DeepSeek+扣子:1 分钟生成小红书爆款单词视频: 先观察此类视频规律,如先问这是什么→再揭晓结果,反复多次。 拆解视频模板的制作流程,逐个轨道分析,注意各轨道上的元素时间对应关系。 涉及的知识点可用于用扣子工作流来搭建。
2025-02-20
现在有哪些个人知识库软件可以用,请推荐。
以下是为您推荐的个人知识库软件: 1. Coze:如果您想使用专门搭建个人知识库的软件,可以参考文章,忽略本地部署大模型环节,直接看其中推荐的软件。但使用该软件可能需要对接一些额外的 API,建议先了解 RAG 的原理再使用。 2. AnythingLLM:包含所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型和向量数据库。安装地址:https://useanything.com/download 。安装完成后,配置页面主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在 AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式),配置完成后即可进行对话测试。 此外,还有通过 GPT 打造个人知识库的方法,比如将文本转换成向量节省空间,拆分成小文本块并通过 embeddings API 转换成 embeddings 向量,在向量储存库中保存这些向量和文本块作为问答的知识库。当用户提问时,将问题转换成向量与库中向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API 。
2025-02-19
waytoagi的知识库基于哪个LLM创建的
目前没有明确的信息表明 waytoagi 的知识库基于哪个 LLM 创建。但以下信息可能对您有所帮助: AnythingLLM 包含了所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型、选择向量数据库等。安装地址为:https://useanything.com/download 。安装完成后配置主要分为三步,包括选择大模型、选择文本嵌入模型、选择向量数据库。AnythingLLM 中有 Workspace 的概念,可创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式)等。 GitHubDaily 开源项目列表中提到了 AnythingLLM,它是一个可打造成企业内部知识库的私人专属 GPT,可以将任何文档、资源或内容转换为大语言模型(LLM)知识库。
2025-02-19
用飞书搭建知识库并进行AI问答
以下是关于用飞书搭建知识库并进行 AI 问答的相关内容: 知识库问答是机器人的基础功能,可根据用户问题从知识库中找到最佳答案,这利用了大模型的 RAG 机制。RAG 机制全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术,结合了检索和生成两种主要的人工智能技术,以提高机器对话和信息处理的能力。 简单来说,RAG 机制先从大型数据集中检索与问题相关的信息,然后利用这些信息生成更准确、相关的回答。可以想象成当问复杂问题时,RAG 机制先在巨大图书馆里找相关书籍,再基于这些书籍信息给出详细回答。这种方法结合大量背景信息和先进语言模型能力,使生成内容更精确,提升对话 AI 的理解力和回答质量。 基于 RAG 机制实现知识库问答功能,首先要创建包含大量社区 AI 相关文章和资料的知识库,比如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传栏目所有文章内容,陆续将社区其他板块文章和资料导入。在设计 Bot 时,添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地利用知识库返回内容结合回答。 另外,全程白嫖拥有一个 AI 大模型的微信助手的搭建步骤如下: 1. 搭建,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,并获取白嫖大模型接口的方法。 2. 搭建,这是个知识库问答系统,放入知识文件,接入上面的大模型作为分析知识库的大脑来回答问题。若不想接入微信,搭建到此即可使用,它有问答界面。 3. 搭建,其中的 cow 插件能进行文件总结、MJ 绘画。
2025-02-19
有哪些比较好的AI知识库学习网站
以下是一些比较好的 AI 知识库学习网站及相关学习建议: 通往 AGI 之路知识库: 提供了全面系统的 AI 学习路径,帮助您了解从 AI 常见名词到 AI 应用等各方面知识。 包含关于 AI 知识库使用及 AIPO 活动的介绍、AIPO 线下活动及 AI 相关探讨、way to AGI 社区活动与知识库介绍等内容。 信息来源有赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等,推荐大家订阅获取最新信息并投稿。 有社区共创项目,如 AIPU、CONFIUI 生态大会,每月有切磋大会等活动,还发起了新活动 AIPO。 学习路径方面,有李弘毅老师的生成式 AI 导论等高质量学习内容,可系统化学习或通过社区共创活动反推学习,鼓励整理学习笔记并分享交流。 有经典必读文章,如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。 初学者入门推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 有历史脉络类资料,整理了 open AI 的发展时间线和万字长文回顾等。 网站:ytoAGI.com 相关渠道:公众号“通往 AGI 之路”、 在线教育平台:如 Coursera、edX、Udacity 等,上面有一系列为初学者设计的课程,您可以按照自己的节奏学习,并有机会获得证书。 对于新手学习 AI,建议: 了解 AI 基本概念:阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。掌握提示词的技巧,它上手容易且很有用。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 体验 AI 产品:与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。
2025-02-18
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置不限,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程。下载完成后会提示是否下载 hunyuan 模型,选择“n”不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。建议提前将图片和标签打包成 zip 上传,Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集。返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 6. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择您的 Lora 和调节参数。
2025-02-17
Flux炼丹,炼丹物品如何打标
在 Flux 炼丹中,炼丹物品的打标步骤如下: 1. 选择一个基础大模型,如“麦橘写实”,并填写一个 lora 的名字。 2. 将照片导入到丹炉,选择适合的分辨率,可勾选“脸部加强训练”,然后点击“预处理”。手动裁剪照片,预处理后会出现脸部和整体的文件夹,且每张照片会自动打好 tag 标签。 3. 可以给整体添加统一的标签,也可单独给每一张修改标签。标签的作用是帮助 AI 理解图片内容,若想让某些特征成为人物的固定效果,则不填写相关关键词。打标过程需仔细检查每张图片,打标的好坏会影响人物 lora 的泛化性,若想让人物有更多变化,应尽量描述详细。 在打标过程中还需注意以下几点: 1. 注册为开发者,按照流程填写信息,获取 AppID 和密钥,并填入相关位置,开启双语 TAG,检查每幅图的 tag,删除不正确的,新增需要的。 2. 打标要用自然语言,语句精简,选好触发词和打标模型,推荐短标并检查。
2025-02-12
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. 也可以将 depth lora 模型存放到 ComfyUI/models/loras 文件夹中。 depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora 3. 百度网盘中也有相关模型: 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2025-02-05
flux inpainting 是怎么基于diffusersion train的inpainting
Flux inpainting 基于 diffusion train 的 inpainting 通常涉及以下方面: 训练扩散模型在特定的表示上,能够在降低复杂度和保留细节之间达到最优平衡点,显著提高视觉保真度。在模型架构中引入交叉注意力层,使其成为强大且灵活的生成器,能够处理诸如文本和边界框等一般条件输入,实现基于高分辨率卷积的合成。 关于 Midjourney 的训练 prompt 方面: Midjourney 会定期发布新的模型版本以提高效率、连贯性和质量。最新模型是默认的,但也可以通过 version 或 v 参数或使用 /settings 命令选择其他模型版本。不同模型在不同类型的图像上表现出色。Midjourney V5 模型是最新且最先进的模型,于 2023 年 3 月 15 日发布。使用该模型可在 prompt 末尾添加 v 5 参数,或通过 /settings 命令选择 MJ Version 5。该模型具有很高的连贯性,擅长解释自然语言 prompt,分辨率更高,并支持诸如 tile 等高级功能。V5 基础模型具有更广泛的风格范围、对 prompt 响应更灵敏、图像质量更高(分辨率提高 2 倍)、动态范围改进、图像细节更丰富且更准确、文本干扰更少等新特点,还支持 tile 参数实现无缝平铺(实验性)、支持大于 2:1 的 ar 宽高比(实验性)、支持 iw 权衡图像 prompt 与文本 prompt 以及特定的风格和 prompt 方式。
2025-01-22
FLUX模型训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 1. 模型准备: 下载所需模型,包括 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时模型存放位置不限,但要知晓路径;训练时建议使用 flux1dev.safetensors 和 t5xxl_fp16.safetensors 版本。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 数据集准备: 建议使用自然语言,与之前 SDXL 的训练类似。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 。 若未准备数据集,此路径中有试验数据集可直接使用。 4. 运行训练:约 1 2 小时即可完成训练。 5. 验证和 lora 跑图:若有 comfyUI 基础,在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点,自行选择 Lora 并调节参数。 6. 修改脚本路径和参数: 若显卡为 16G,右键 16G 的 train_flux_16GLora 文件;若显卡为 24G 或更高,右键 24G 的 train_flux_24GLora 文件。 用代码编辑器打开,理论上只需修改红色部分,包括底模路径、VAE 路径、数据集路径、clip 路径和 T5xxl 路径。注意路径格式,避免错误。蓝色部分为备注名称,可改可不改。建议经验丰富后再修改其他深入参数,并做好备份管理。
2025-01-20
flux提示词示例
以下是一些关于 flux 提示词的示例: 在不同主题方面,如文本概括(https://www.promptingguide.ai/zh/introduction/examples%E6%96%87%E6%9C%AC%E6%A6%82%E6%8B%AC)、信息提取(https://www.promptingguide.ai/zh/introduction/examples%E4%BF%A1%E6%81%AF%E6%8F%90%E5%8F%96)、问答(https://www.promptingguide.ai/zh/introduction/examples%E9%97%AE%E7%AD%94)、文本分类(https://www.promptingguide.ai/zh/introduction/examples%E6%96%87%E6%9C%AC%E5%88%86%E7%B1%BB)、对话(https://www.promptingguide.ai/zh/introduction/examples%E5%AF%B9%E8%AF%9D)、代码生成(https://www.promptingguide.ai/zh/introduction/examples%E4%BB%A3%E7%A0%81%E7%94%9F%E6%88%90)、推理(https://www.promptingguide.ai/zh/introduction/examples%E6%8E%A8%E7%90%86),通过示例介绍说明如何使用精细的提示词来执行不同类型的任务。 在 Claude2 中文精读中,构建提示词时可以添加示例(可选)。您可以通过在提示词中加入一些示例,让 Claude 更好地了解如何正确执行任务。提供示例的方式可以是以先前对话的形式,用不同的对话分隔符,例如用“我”代替“Human:”,用“你”代替“Assistant:”;也可以直接提供例子。决定哪种方法更有效取决于具体任务,建议尝试两种方法以确定更好的结果。 在市场营销类中,如赛博佛祖(Kyle)的示例,其角色设定为熟悉佛教经典、境界很高的佛学大师,能为对人生感到迷茫的人指引方向。具体设定包括引用相关佛教经典语录并解释含义,提供有效建议等,并给出了详细的约束条件和链接地址()。
2025-01-20
提示词如何写
写提示词(prompt)是一个关键步骤,决定了 AI 模型如何理解并生成文本。以下是一些编写提示词的要点和方法: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,提供足够信息。 3. 使用清晰语言:用简单、清晰的语言描述,避免模糊或歧义词汇。 4. 给出具体要求:如有格式或风格要求,在提示词中明确指出。 5. 使用示例:提供期望结果的示例,帮助 AI 理解需求。 6. 保持简洁:简洁明了,避免过多信息导致模型困惑。 7. 使用关键词和标签:有助于模型理解任务主题和类型。 8. 测试和调整:生成文本后检查结果,根据需要调整提示词,可能需多次迭代。 在文生图方面,例如在 SD 中,括号和特定符号(如:1.2)可用来增加权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。同时,还可增加反向提示词告知 AI 不要的内容。 对于星流一站式 AI 设计工具: 提示词用于描绘画面,输入语言支持中英文,不同基础模型对输入形式有要求。 写好提示词要做到内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。 可调整负面提示词,帮助 AI 理解不想生成的内容。 利用“加权重”功能让 AI 明白重点内容,还能对已有提示词权重进行编辑。 有翻译、删除所有提示词、会员加速等辅助功能。
2025-02-20
DeepSeek提示词
以下是关于 DeepSeek 提示词的相关内容: 生成小红书爆款单词视频: 开始:输入单词主题、图片风格、单词数量。 生成单词数组:选择 deepseekr1 模型,输入单词主题、单词数量,为用户输出指定数量的单词,并以数组方式输出,包括单词、中文、美式音标、英文句子及其中文翻译。提示词中角色设定为专业的单词生成助手,技能是输出关联英语单词,限制为仅围绕用户输入主题输出相关内容,且输出必须为符合要求的数组形式。 Deepseek 时代提示词之关键诉求: 观察发现完整的提示词可能不如片段有效,甚至干扰模型思考流程,过长提示会带来 Token 浪费和上下文污染,在多轮对话中,用户只需在关键点进行引导,让模型自主发挥,“关键诉求直通车”模式是新一代 LLM 的正确打开方式。新旧提示法对比,传统方法像唠叨家长,新型技巧像对聪明助理打暗号。 集合·DeepSeek 提示词方法论: 核心原理认知:包括 AI 特性定位(多模态理解、动态上下文、任务适应性)和系统响应机制(采用意图识别+内容生成双通道,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重、符号强调敏感)。 基础指令框架:如果不知道如何表达,可套用框架指令,包括四要素模板、格式控制语法(强制结构、占位符标记、优先级符号)。 进阶控制技巧:包括思维链引导(分步标记法、苏格拉底式追问)、知识库调用(领域限定指令、文献引用模式)、多模态输出。
2025-02-20
有什么提示词教程
以下是一些提示词相关的教程和资源: 提示词模板相关网站: 操作指南和提示词教程示例: prompt:甄嬛眉庄跨屏拥抱、小猫张大嘴,脸上是困惑表情,很多问号、图中的小猫带上了眼镜,叫了一声、图中的小人眨眨眼睛,旁边的爱心在动,画风保持原图一致、女子的泪从脸上流下来,眼神中是震撼、不解与绝望、图中的蜡笔小新眨眨眼睛,表情小委屈,旁边的星星在转动、画中鸡踩着滑板飞快的滑行着等。 视频:等。 小七姐的提示词教程:
2025-02-20
画ICON的提示词
以下是一些画 ICON 的提示词相关内容: 视角:LowAngle(仰视) 介质:abstract expressionist art style(抽象表现主义艺术风格) 镜头:superresolution microscopy(超分辨率显微镜) 灯光:ambient lighting(环境照明) 颜色:white(白色的) 描述:classical realism(古典现实主义) 艺术家:抽象主义 1940 1950 电影:2001 A Space Odyssey(2001 太空漫游)、The Prestige(威望) 游戏:Age of Empires(帝国时代)、Gears of War(战争机器) 其他相关词汇:icon(图标)、decorative papercraft(装饰纸艺)、camouflage(伪装)、Gian Lorenzo Bernini(吉安·洛伦佐·贝尔尼尼)、Jurassic Park(侏罗纪公园)、Rust(锈)、lightpurple(浅紫色)、gradient color(渐变色)、torch light(手电筒灯) 此外,DALL·E 自动优化提示词中提到: 绘画:提及绘画种类、画布纹理和笔触形状/纹理(列表) 数字:注明使用的软件、阴影技术和多媒体方法(列表) 生成图像基于详细提示词使用 DALL E 3。 总是通过大胆和有趣的选择使每个提示元素生动起来。 始终遵循提示指南 建议四个全新的想法。 这些应该是简单的概念,不是完整的提示词。 尝试从给出的最后一个建议中获取灵感,而不是完整的提示词。 默认设置(除非另有指定/暗示): 默认纵横比:使用正方形纵横比(1:1)。 默认风格:照片。包括相机设置、摄影类型和设备。 总是生成四张图像并建议四个新想法。 重要:避免违反服务条款的单词或概念。不侵犯任何人的版权;在提示词中不使用暗示性或明确的图像。不强调或暗示任何不符合 G 级的元素。
2025-02-19
提示词框架是什么意思
提示词框架是为构建有效提示词提供的一种高度概括和结构化的方法,可看作是构建提示词的方法论或“元结构”。 目前,提示词工程师已发展出多种提示词框架,例如: ICIP 框架:包括指令(Instruction,必须)、背景信息(Context,选填)、输入数据(Input Data,选填)和输出指示器(Output Indicator,选填)四个部分。 BROKE 框架:着重于背景(Background)、角色定义(Role)、目标设定(Objectives)、关键成果展示(Key Result)以及持续的试验与优化(Evolve)五个方面。 CRISPE 框架:分为上下文(Context)、角色(Role)、说明(Instruction)、主题(Subject)、预设(Preset)和例外(Exception)六个部分。 此外,还有一些标识符和属性词用于标识标题、变量、控制内容层级和标识语义结构。结构化提示词框架在行业内应用广泛且成熟度较高,您可以在很多平台看到优秀的案例。如果您对结构化提示词的理论感兴趣,还可以阅读李继刚和云中江树的相关详细理论原文。
2025-02-19
帮助产品经理根据产品原型截图写产品需求文档的AI工具和提示词有哪些
以下是一些帮助产品经理根据产品原型截图写产品需求文档的 AI 工具和提示词: AI 工具: 1. 产品管理工具:如 Aha!、ProductPlan 等,帮助管理整个产品生命周期。 2. 协作工具:如 Google Docs、Microsoft Office 365,支持团队协作和文档共享。 3. 项目管理软件:如 JIRA、Trello,用于任务分配和进度跟踪。 4. 市场研究工具:如 Google Trends、SEMrush,分析市场趋势和用户行为。 5. 用户调研工具:如 SurveyMonkey、Typeform,收集用户反馈和需求。 6. 数据分析工具:如 Tableau、Power BI,对市场数据进行可视化分析。 7. 思维导图软件:如 MindMeister、XMind,帮助组织思路和概念。 8. 流程图软件:如 Lucidchart、Visio,绘制产品功能和流程图。 提示词: 1. 行业洞察分析:对行业现状、趋势和未来发展方向进行深入研究和预测。 2. 方法论专家:精通各类管理和研发方法论,能根据具体情况选择和应用最佳方法。 3. 头脑风暴:团队成员自由提出各种想法和见解,快速产出创意解决方案。 4. 需求文档设计:根据产品特性和用户需求,设计产品需求文档。 5. 功能价值分析:评估产品各项功能的重要性和价值,辅助优化资源配置。 6. 竞品分析报告:对竞争对手的产品进行全面的分析比较,找出优劣势。 7. 流程图/图表设计:直观地呈现业务流程、组织结构或统计数据。 8. 思维导图设计:以树状图形式展示思路和知识框架。 9. 解决方案专家:根据问题分析,提供切实可行的解决方案。 10. 周报生成器:自动化生成工作周报,提高工作效率。 学习 Prompt 提示词可以参考这份文档:https://www.promptingguide.ai/zh 。 在写提示词时,要注意以下几点: 1. 提示词内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 2. 调整负面提示词,帮助 AI 理解不想生成的内容,比如:不好的质量、低像素、模糊、水印。 3. 利用“加权重”功能,让 AI 明白重点内容,可在功能框增加提示词,并进行加权重调节,权重数值越大,更优先。 4. 对于星流一站式 AI 设计工具,其提示词用于描绘画面,支持中英文输入,启用提示词优化后能更生动地描述画面内容,小白用户可以点击提示词上方官方预设词组进行生图。 使用这些提示词和工具,可以帮助产品经理更高效地撰写产品需求文档,确保文档全面覆盖了市场和产品的关键方面。同时,它们也有助于提高团队之间的沟通效率和文档的可管理性。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-02-19
怎么让AI识别对话,并生成结构化数据存储到我的软件系统里
要让 AI 识别对话并生成结构化数据存储到软件系统里,可以参考以下方法: 1. 基于结构化数据来 RAG:如果原始数据本身就是结构化、标签化的,不必将这部分数据做向量化。结构化数据的特点是特征和属性明确,可用有限标签集描述,能用标准查询语言检索。以餐饮生活助手为例,流程包括用户提问、LLM 提取核心信息并形成标准查询、查询结构化数据、LLM 整合回复。 2. 利用 Coze 平台设计 AI 机器人:创建好 Bot 后,从“个人空间”入口找到机器人,进行“编排”设计。Coze 平台常用的概念和功能包括提示词(设定 Bot 身份和目标)、插件(通过 API 连接集成服务)、工作流(设计多步骤任务)、触发器(创建定时任务)、记忆库(保留对话细节,支持外部知识库)、变量(保存用户个人信息)、数据库(存储和管理结构化数据)、长期记忆(总结聊天对话内容)。设计 Bot 时要先确定目的,比如“AI 前线”Bot 的目的是作为 AI 学习助手,帮助职场专业人士提升在人工智能领域的知识和技能,并提供高效站内信息检索服务。 注:Coze 官方使用指南见链接:https://www.coze.cn/docs/guides/welcome ,遇到疑问也可查阅该指南。
2025-02-18
生成一个完整的结构化提示词
以下是为您生成的关于结构化提示词的相关内容: 为 AI 视频生成设计的结构化提示词模板包含镜头语言、主体、细节、氛围等要素,适合生成具有电影感的大场景视频。完整提示词结构示例为:主题风格+镜头运动+主体描述+动态细节+背景环境+光影色调+情绪氛围(可附加技术参数:如时长、运镜速度、镜头焦距等) 样例驱动的渐进式引导法是让 AI 主动读懂您的想法。以 1 2 个正向样例作为起点,通过与 AI 的多轮对话,引导 AI 从样例中提炼隐含的生成要求,逐步完善提示词。例如教 AI 仿写爆文时,只需提供优秀样例,AI 会自动分析理解精髓并生成符合自身运作方式的指令。 其核心步骤包括: 1. 构建初始样例:创建符合期望输出的具体例子。 2. 评估样例,尝试提炼模板:让 AI 分析理解样例的结构和关键元素,并以专家视角优化样例。 3. 固定模板,强化要求说明:基于对初始样例的理解,让 AI 提出通用模板,通过测试 Prompt 验证可靠性。 4. 生成结构化提示词:将优化后的模板转化为结构化的提示词,用户适当调整并确认后投入使用。 在这个过程中,用户的角色主要是: 1. 提供尽可能与自己预期一致的初始样例。 2. 判断 AI 的输出质量。 3. 反馈改进建议,提供行动引导。 这种方法的优势在于简化了提示词设计过程,让非专业用户也能创建高质量的 Prompt。通过引导 AI 进行分析和优化,用户可以专注于判断输出质量和提供反馈,而不需要深入理解复杂的 Prompt 工程技巧。接下来,将通过一个实战案例“知识闪卡 AI”来逐步分享运用过程,帮助您直观了解如何使用该方法设计高质量的提示词。
2025-02-18
请把机器学习相关和大模型相关的知识点形成一个结构化的知识树,包括但是不限于算法、框架、工具、注意力机制等
以下是一个关于机器学习和大模型的结构化知识树: 一、基础数学知识 1. 线性代数 2. 概率论 3. 优化理论 二、机器学习基础 1. 监督学习 分类 回归 2. 无监督学习 聚类 3. 强化学习 三、深度学习 1. 神经网络 卷积网络 递归网络 注意力机制 2. Transformer 模型 四、自然语言处理 1. 语言模型 2. 文本分类 3. 机器翻译 五、计算机视觉 1. 图像分类 2. 目标检测 3. 语义分割 六、前沿领域 1. 大模型 2. 多模态 AI 3. 自监督学习 4. 小样本学习 七、工具与框架 1. TensorFlow 2. PyTorch 八、应用领域 1. 自然语言处理 2. 计算机视觉 3. 推荐系统 九、数据处理 1. 数据采集 2. 数据清洗 3. 特征工程 十、模型部署 1. 模型优化 2. 模型服务 十一、科研实践 1. 论文阅读 2. 模型实现 3. 实验设计 十二、行业实践 1. 项目实战 2. 案例分析
2025-02-11
AI提示词结构化和普通的提示词相比好处是什么
AI 提示词结构化与普通提示词相比具有以下好处: 1. 降低沟通难度:使与模型的交互更加清晰和易于理解。 2. 提高结果准确度:能够更精准地引导模型生成符合预期的输出。 3. 增强可读性和组织性:基于 Markdown 语法和角色法框架的结构化提示词,让复杂任务的分解更加直观。 然而,结构化提示词也存在一定的局限性,比如限制了更多可能性,不太适合解决过于主观、个人情绪的问题,也未必能完全搞定所有需求。在提示词的发展过程中,经历了从依赖 OpenAI 官方的基本技巧,到各种提示词框架的出现,再到明确任务目标、采用角色扮演方法、进行结构化提示词编写、测试和迭代,以及封装为智能体等阶段。
2025-02-10
未来类似deepseek这种推理大模型普及,结构化提示词是不是会成为过时的知识
未来类似 DeepSeek 这种推理大模型普及,结构化提示词不会成为过时的知识。 虽然未来模型可能在某些情况下无需提示词,仅通过简单对话就能理解用户意图,但基础的如何与模型对话的认知仍需具备,这就涉及提示词。例如李继刚老师的结构化提示词能让模型给出更优质、完整的答案。操作过程中有很多有意思的提示词,如“酷老师”“抬杠高手”等,近期提示词有升级,李继刚老师将其玩到新高度,cloud 等大语言模型可直接显示编译结果内容。输入特定提示词可生成卡片,小创业项目可利用并改变提示词形成独到见解或小应用。 从工程视角看,AI 提示词在游戏创作及优化中也有应用。此外,提示工程的本质是提供足够的信息来明确指定要求,即使模型在理解上下文方面变得更好,能够清晰地陈述目标始终很重要,仍需要明确预期结果的能力和技巧。未来可能会更多地利用提示工程来让模型为我们生成、调整提示词,对于没有太多提示工程经验的人来说,提示词生成器可以帮助他们。未来的提示可能更像是一种自省,模型会尝试理解用户真正在思考什么、需要什么。 在 R1 时代,使用 AI 提示词的关键在于提供足够的背景信息,而非复杂的结构。简单大白话仍然有效,但信息量不足则难以得到理想结果。示例和框架可帮助理清思路,但最终影响在于用户的思考和表达。利用乔哈里视窗分析信息需求,避免过度指令化,让 AI 自由思考,从而激发更高的创意和效果。“有用的不是技巧,而是你的思考!”
2025-02-07
我在一周前的文章[1]里说对 DeepSeek-R1 只需要说大白话,但在三天前的文章[2]里又用了看起来还挺复杂的结构化提示词。有伙伴问我到底咋回事。这就来解释下喽。
以下是关于 DeepSeekR1 提示词的相关信息: 历史更新: 字节跳动推出新技术 OmniHuman,利用单张图片和音频生成生动视频。 DeepSeek 的出现标志着算力效率拐点显现,其优化算法架构提升算力利用效率,AI 基础大模型参数量迎来拐点,2025 年是算法变革元年,其训练过程聚焦强化学习提升推理能力。 提示词方法论: 核心原理认知:包括多模态理解、动态上下文、任务适应性等 AI 特性定位,以及采用意图识别+内容生成双通道处理等系统响应机制。 基础指令框架:包括四要素模板、格式控制语法等。 进阶控制技巧:如思维链引导、知识库调用、多模态输出。 高级调试策略:包括模糊指令优化、迭代优化法。 行业应用案例:涵盖技术开发场景、商业分析场景。 异常处理方案:如处理信息幻觉、格式偏离、深度不足等情况。 效能监测指标:包括首次响应准确率、多轮对话效率、复杂任务分解等。 在 R1 时代,使用 AI 提示词关键在于提供足够背景信息,简单大白话有效但信息量不足难达理想结果,示例和框架可助理清思路,最终影响在于思考和表达,利用乔哈里视窗分析信息需求,避免过度指令化,让 AI 自由思考以激发更高创意和效果。
2025-02-07