要接入大模型,以下是相关步骤:
百炼首页:https://bailian.console.aliyun.com/1、当我们在COW中,去直接调用千问的某一个大模型时,只需要更改key和model即可。以调用“qwen-max”模型为例,在/root/chatgpt-on-wechat/文件夹下,打开config.json文件:需要更改"model",和添加"dashscope_api_key"。那么如何去获取key呢:视频教程:[模型调用教程.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/EB8Xbv8wXoiXHCxhEWkcfUVQnFf?allow_redirect=1)图文教程:以下是参考配置:示意图:注意:需要“实名认证”后,这些key才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明你没有实名认证,点击去[实名认证](https://account.console.aliyun.com/v2?spm=5176.28508143.J_4VYgf18xNlTAyFFbOuOQe.13.38a9154amP8978#/authc/types),或查看自己是否已认证。
首先进入Coze,点击「个人空间-工作流-创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建,可以看到整个编辑视图与功能如下:其中,左侧「选择节点」模块中,根据我们的子任务需要,实际用上的有:1.插件:提供一系列能力工具,拓展Agent的能力边界。本案例涉及的思维导图、英文音频,因为无法通过LLM生成,就需要依赖插件来实现。2.大模型:调用LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。3.代码:支持编写简单的Python、JS脚本,对数据进行处理。而编辑面板中的开始节点、结束节点,则分别对应1.2分解子任务流程图中的原文输入和结果输出环节。接下来,按照流程图,在编辑面板中拖入对应的LLM大模型、插件、代码节点,即可完成工作流框架的搭建。
首先进入Coze,点击「个人空间-工作流-创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建,可以看到整个编辑视图与功能如下:其中,左侧「选择节点」模块中,根据我们的子任务需要,实际用上的有:1.插件:提供一系列能力工具,拓展Agent的能力边界。本案例涉及的思维导图、英文音频,因为无法通过LLM生成,就需要依赖插件来实现。2.大模型:调用LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。3.代码:支持编写简单的Python、JS脚本,对数据进行处理。而编辑面板中的开始节点、结束节点,则分别对应1.2分解子任务流程图中的原文输入和结果输出环节。接下来,按照流程图,在编辑面板中拖入对应的LLM大模型、插件、代码节点,即可完成工作流框架的搭建。