以下是关于 Coze 的 API 流式输出的 Python 代码编写的大致步骤:
另外,在配置输出节点时:
Glif虽好,但我们更熟悉Coze,那就把Glif的功能通过API方式接过来,Coze版【[Ai宠昵名](https://www.coze.cn/store/bot/7385145130602479655)】一,先要创建一个插件:1.填入插件名,插件描述。2.创建方式选择云侧插件。3.IDE运行时选择Python。点击【在IDE中创建工具】。创建工具面板里:1.填入工具名称。2.填入工具介绍。Glif是允许通过API调用平台上的应用,API接入:https://docs.glif.app/api/getting-started去[注册Token页面](https://glif.app/settings/api-tokens)创建一个新的Token并复制备用。将自己发布的glif链接上的id复制备用。在Coze的IDE中引入依赖和编写handler方法。代码中对应的数据字段在元数据Tab中设置:1.填写入参字段和描述,对完整链接要写清楚。2.填写出参字段。左侧的依赖包添加【requests】。填入测试数据运行,测试通过后即可发布。创建一个Bot,挂载新创建的插件即可,在Prompt中做一些对入参的校验和约束。最后,测试从Coze调用Glif功能跑通,发布Coze,大功告成~以上就是大致的思路了。通过这种插件的方式取长补短,可以将Glif作为Coze工作流中的一环,有效弥补图像流较弱影响整体效果~
首先进入Coze,点击「个人空间-工作流-创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建,可以看到整个编辑视图与功能如下:其中,左侧「选择节点」模块中,根据我们的子任务需要,实际用上的有:1.插件:提供一系列能力工具,拓展Agent的能力边界。本案例涉及的思维导图、英文音频,因为无法通过LLM生成,就需要依赖插件来实现。2.大模型:调用LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。3.代码:支持编写简单的Python、JS脚本,对数据进行处理。而编辑面板中的开始节点、结束节点,则分别对应1.2分解子任务流程图中的原文输入和结果输出环节。接下来,按照流程图,在编辑面板中拖入对应的LLM大模型、插件、代码节点,即可完成工作流框架的搭建。
好了,恭喜,到这一步,每个子任务的节点都已经配置验证完毕,现在我们只需要把这些内容像“乐高”一样拼装起来。1.因为我们需要按照固定的格式,直接生成结构化的长文,而不仅仅是返回字段数据,所以需要选择回答模式为“使用设定的内容直接回答”1.由于最终输出结果的呈现是在外层bot中,以对话的形式给出。我们的精读结果往往很长,“流式输出”能够像码字一样,逐步展示内容,有更好的使用体验。1.整理回答中需要使用的变量,在「输出变量」区域中全部引用1.根据最终输出预期,按照Markdown格式的写法,引用「输出变量」区域的参数名,在「回答内容」中输入回答内容模板:最终,我们就能获得这样的回答内容:这些文本,在外层bot中,就会以Markdown格式完成渲染,分别区分显示标题、引用、正文、列表、图片、链接等格式。现在,整个工作流Agent的核心功能,均已经被实现验证,干的漂亮!