在 Coze 中添加提示词优化节点的方法如下:
这个节点还是比较容易理解的,如果我们觉得自己提示词需要优化,加入它进行优化。参数也很简单,就一个要优化的提示词。[heading3]试用效果[content]通常这一类的节点很好用。我们用一开始就在用的文生图提示词:1 girl in real world来试试。这里我们用优化前和优化后都生成一张图,也做个效果对比:它给我把提示词优化成以下内容:它为我们添加了很多具体的信息,比如在带着好奇心看书,环境中有阳光,色彩搭配的特点。来看下实际文生图效果对比:---修改后的提示词貌似很难把图片控制在真实照片的感觉,测试结果中它的文生图模型中“in real world”来控制更真实的图片生成效果比“realistic”效果好的多。(😂喜欢哪个见仁见智了,不过也有抽卡的因素在。至少右边的打光的感觉不错。)[heading1]智能抠图[heading3]节点参数[content]参数只有一个,就是要抠的图片,如果是前一个节点连线进来,只要引用输出的图片即可。[heading3]试用效果[content]如果是随便生一张图,会发现抠图效果一般,因为头发的关系,抠的边缘没有到极致:💡小技巧:如果用生成的图,可以在提示词里要求背景是和图中主体呈现大对比度的纯色,比如“背景是白色”:💡小技巧:如果是自己上传的图,尽量选择边缘比较平整,背景和主体有明显对比的图。[heading1]画质提升[heading3]节点参数[content]也是很简单的一个节点,就一个参数是要改的图。[heading3]试用效果[content]嗯,效果有一点,图片分辨率变大了,文件大小也变大了,从25k的图变成了1.5m
首先,我们在Coze上新建一个工作流,逐步导入吴恩达项目的核心流程。整个工作流分为若干个节点,每个节点完成一个特定的任务。通过将这些节点组合起来,就形成了一个完整的翻译流程。我们先来看看导入后的整体工作流,以及它的测试效果。我们可以看到,工作流被分为了初始翻译、反思优化、结果输出几个主要部分,每一部分都对应了若干个节点。当我们运行测试的时候,可以清晰地看到每个节点的执行过程和结果。给大家展示一下测试的效果,我们输入一段英文,让工作流自动翻译成中文。这样一对比,优化后的翻译感觉就好多了,语句通顺了很多,用词也更加准确贴切,整体的翻译质量有了不少的提升。接下来,我就对每个节点的配置做一个核心讲解,让大家学会如何根据自己的需求来定制翻译流程。1.首先是开始节点,在这里我们需要选择翻译的源语言和目标语言,比如英语到中文。我们还可以设置一些其他参数,比如翻译的语言特色等,这个参数会影响翻译的效果和效率,不过我将其作为可选选项,建议根据实际情况进行调整。1.接下来是初步的翻译大模型节点,这里我们需要选择一个大模型,来对源语言文本进行初始翻译,这样才好对比并且以此作为进一步的反思优化。Coze平台提供了多种AI大模型选择,这里我直接选了MiniMax,然后提示词我们就直接参考吴恩达教授的相关内容即可。提示词:1.接下来就是选择器节点,因为我们需要判断用户填写的要求中有没有需要特别的语言翻译特色或者口音,如下图:
就可以生成这样一个节点,可以选择我们安装好的大模型,并且后面还有三个连接点,可以指向下一个模块。我们按住clip后面的点进行拖拽,点击【CLIPTextEncode】,得到一个提示词输入框。同理,我们可以再加一个提示词框,形成了一个正向提示词和一个负向提示的架构。为了后面更方便使用,我们还可以点击右键,给节点添加颜色。比如,正向提示词为绿色,负向提示词为红色。为了方便管理,我们可以再添加一个组,放在组里的节点可以一起移动,方便了我们后面做一些模组管理。接下来,我们需要使用采样器来给提示词内容添加噪声。从提示词节点后面再次拉出一根线,选择【KSampler】。这里面可以看到我们熟悉的参数:种子数、迭代步数、CFG、采样器等等。我就不做过多解释了,学过webUI的理解起来都很容易。这时,我们就可以将模型和负向提示词全部连上了。接下来,设置输出图片尺寸,从【latent image】中拉出一个节点,选择【EmptyLatentImage】。我们就可以在这个节点里面填写想要输出的尺寸,和一次性生成的数量。接下来,我们要使用VAE来对之前的噪声进行解码,从【LATENT】中拉出一个节点,选择【VAEDecode】。建立好之后,将最开始的VAE节点与之相连。