Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

coze搭建工作流老是报错

Answer

搭建 Coze 工作流老是报错可能有以下原因和解决方法:

  • 循环查询文章是否推送过:
    • 循环体内部的数据库节点:用于在数据库中查询文章是否推送过,输入项为文章的 url 和用户的唯一标识 suid。SQL 语句可直接复制。记得设置输出项“combined_output”。同时,Coze 平台要求使用数据库功能时,需在 bot 中设置相同名称和数据结构的数据库进行绑定,具体设置方法参见“相关资源”。
    • 循环体内容的选择器:判断数据库查询内容是否为空,若为空则使用“文本处理”节点拼接文章完整信息。右下方的“文本处理”节点主要是为处理数据库查询到已推送情况的占位项,否则工作流会报错。设置循环节点输出项,选择循环体中“输出新文章内容”拼接后的字符串。
  • 外层 bot 封装与调试:
    • 封装过程包括创建 Bot、填写 Bot 介绍、切换 Bot 模式为“单 Agent(工作流模式)”、添加配置好的工作流、填写开场白并关闭开场白预置问题。
    • 完成封装后在“预览与调试”区进行最终体验与调试。目前外层 bot 可能存在未知 bug,同一段 USER_INPUT 在工作流编辑面板中试运行正常,但在外层 bot 运行时容易报错,暂时无法确定原因,猜测可能是外层 bot 的并发不够稳定,可直接在工作流编辑面板中获取精度结果。若自行实验时多次报错且无法定位原因,不要急于责怪自己,相关 bug 已提交给 Coze 团队等待优化。
Content generated by AI large model, please carefully verify (powered by aily)

References

【拔刀刘】自动总结公众号内容,定时推送到微信(附完整实操教程)

循环体内部——数据库节点数据库节点:用来在数据库中查询是否已经推送过该篇文章,输入项为上一步中的url和开始节点的key(也就是server酱的sendkey,这里我们重命名为suid了)因为这个Bot最开始设计的时候,就考虑到可能有多个用户会同时使用这个Bot设置公众号推送内容,每个用户设置的公众号内容可能不一样,每个用户的要推送的微信号肯定也不一样,所以这里使用server酱的sendkey作为了用户的唯一标识,重命名为了suid所以这里查询数据库需要两个值,文章url和用户的suid,来判断这名用户的这篇文章是否推送过SQL语句是AI写的,直接复制就成记得设置一下输出项「combined_output」这步是必须项:Coze平台的逻辑是数据库是与bot绑定的,所有如果要使用数据库功能,需要在bot中设置一个相同名称和数据结构的数据库进行绑定,具体设置方法参见「相关资源」循环体内容——选择器判断数据库查询的内容是否为空,如果是空,证明数据库中没有查到,这篇文章没有给这名用户推送过,使用「文本处理」节点,拼接这篇文章的完整信息,保证信息一致性string1:开始节点的key,也就是server酱的sendkey,用来识别用户string2:循环节点item值中的urlstring3:循环节点item值中的titlestring4:循环节点item值中的author拼接为如下格式,方便输出,并让后边节点使用右下方的「文本处理」节点没有实际作用,输入项随便写,主要是为了处理数据库查询到已经给这名用户推送过这篇文章情况下的占位项,否则工作流会报错设置循环节点输出项,选择循环体中「输出新文章内容」拼接后的字符串

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

在点击「发布」,发布工作流后,我们就需要创建一个bot,进行最终的工作流封装。封装过程如下:1.创建Bot2.填写Bot介绍3.切换Bot模式为“单Agent(工作流模式)”:因为这个Agent,我们只需要每次输入英文文章的时候,返回精读结果,所以不需要用外层bot对输入进行其他任务理解,直接调用工作流即可。4.把我们刚才配置好的工作流,添加到Bot中5.填写开场白,引导用户使用:附开场白文案⬇️6.关闭开场白预置问题:因为使用流程里用不到,所以直接关掉。[heading3]外层bot调试[content]完成封装后,即可在「预览与调试」区进行最终体验与调试:——如果一切正常,你就能获得这样的成功结果,yes~Btw:在笔者发布文章时,外层bot仍存在一定的未知bug,同一段USER_INPUT,在工作流编辑面板中试运行完全ok,但到了外层bot进行运行时,就容易出现报错。暂时无法确定原因,猜测可能是外层bot的并发做的不够稳定,不如直接在工作流编辑面板中获取精度结果。如果自行实验时,发现多次报错且无法定位问题原因,就不要急着怪自己啦🤣。笔者也已经把相关bug提交给了Coze团队,希望能加紧优化吧。

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

在点击「发布」,发布工作流后,我们就需要创建一个bot,进行最终的工作流封装。封装过程如下:1.创建Bot2.填写Bot介绍3.切换Bot模式为“单Agent(工作流模式)”:因为这个Agent,我们只需要每次输入英文文章的时候,返回精读结果,所以不需要用外层bot对输入进行其他任务理解,直接调用工作流即可。4.把我们刚才配置好的工作流,添加到Bot中5.填写开场白,引导用户使用:附开场白文案⬇️6.关闭开场白预置问题:因为使用流程里用不到,所以直接关掉。[heading3]外层bot调试[content]完成封装后,即可在「预览与调试」区进行最终体验与调试:——如果一切正常,你就能获得这样的成功结果,yes~Btw:在笔者发布文章时,外层bot仍存在一定的未知bug,同一段USER_INPUT,在工作流编辑面板中试运行完全ok,但到了外层bot进行运行时,就容易出现报错。暂时无法确定原因,猜测可能是外层bot的并发做的不够稳定,不如直接在工作流编辑面板中获取精度结果。如果自行实验时,发现多次报错且无法定位问题原因,就不要急着怪自己啦🤣。笔者也已经把相关bug提交给了Coze团队,希望能加紧优化吧。

Others are asking
用cursor做网页采集文章插件总是报错怎么办
当使用 Cursor 做网页采集文章插件总是报错时,您可以参考以下内容: 1. 技术架构方面: 采用前后端分离架构,后端基于 Coze 工作流构建业务逻辑,前端为 Chrome 浏览器插件,提供轻量级交互界面。 2. 工作流搭建方面: 配置核心组件,包括插件大模型、工作流总览、大模型节点提示词、输出节点 markdown 排版(注意 markdown 里图片的渲染格式),注意输出图片的变量用的是 contentUrl。 3. 可视化界面和 chrome 插件开发方面: 使用 Cursor 开发时,要有架构思维,懂得如何向 AI 描述想要的东西,在实践中学习。 对于 Coze 关键数据,要获取授权令牌(Token),掌握工作流调用方法。查看 Coze 的 api 开发文档,查看执行工作流的实例,需要两个关键参数,即令牌密钥和工作流开发代码。在工作流界面获取工作流 id,让 Cursor 根据相关内容写一个调用 Coze 工作流的服务,注意声明入参为 article_url 以及让 Cursor 注意中文编码。 4. 报错处理方面: 如果报错、解析结果不对,可以点击 Raw Response,查看报错或者返回值,再根据返回值调整配置输出参数。 希望以上内容对您有所帮助。
2025-02-06
K采样器报错
在 ComfyUI 中处理 K 采样器报错问题,您可以参考以下步骤: 1. 首先,在“K 采样器”处点击“右键”“新建节点”“采样器”,选择“K 采样器(高级)”。因为 SDXL 需要用到 base 和 refiner 两套模型,所以要将模型节点和采样器节点分别复制一份。 2. 为第一个 base 模型的采样器设置参数:添加噪波为 enable,确保打开以添加噪声;步数设置为 30,即迭代的总步数;结束降噪步数设为 20,表示前面 20 步将采用 base 模型进行运算;返回噪波设为 enable,以便将剩下的噪声传递给下一个 refiner 模型。 3. 将这个 base 的采样器传递到下一个 refiner 的采样器,并设置参数:添加噪波为 disable,因为是继承上一个采样器,所以不需要再添加噪声;运行后操作为 fixed,相当于锁定随机种子;步数同样设为 30;开始降噪步数设为 20;结束降噪步数设为 30,也可保持默认;返回噪波设为 disable,到这一步已结束。
2025-02-02
注意Cursor 相关报错原因,如重复安装依赖项、重新创建文件
以下是关于 Cursor 相关报错原因及实践的一些内容: 报错原因: 重复安装依赖项。 重新创建文件。 导入的路径不对。 错误导入已经废弃的文件。 突破 AI 记忆的东西。 Cursor 缓存未更新。 实践经验: 前期描述好需求,在设置里注意 Rules for AI 的提示词。 按照功能模块单独建立实现文档,包括深入理解需求、技术实现、测试等。 学会看代码,了解每一步文件的作用,有助于提升技术理解。 分阶段实现需求,效率更高,只考虑本阶段需求。 主动思考,大语言模型有局限性,如在 Cursor 中可能出现报错排查指引错误的情况,需要人工强介入。 注意细节操作,每次修改完代码要保存再运行,整体修改慎用,新增功能可新开对话,每个项目新建文件夹并将相关文件放在里面,代码中多带日志方便报错调试。 进行单元测试时可能遇到安装缺失库进度慢、Cursor 工作位置错误导致关键文档放错位置和创建垃圾文件等问题。
2025-01-16
instant-id预处理报错
以下是关于 InstantID 预处理报错的一些常见问题及解决方法: 1. 安装后出现报错问题:请查看。 2. 如果是 MacBook Pro M1 出现 InstantID 依赖的 onnxruntimegpu 无法安装的情况,因为 M1 没有 GPU,不能用 onnxruntimegpu 版本,silicon 是适配 M1 的加速版本。在文件路径 ComfyUI/custom_nodes/ComfyUI_InstantID 的 requirements.txt 文件中,把 onnxruntimegpu 替换为 onnxruntimesilicon 即可。双击用文本编辑器打开,替换保存。 3. 如果出现 Import failed:ComfyUIergouzinodes 的情况,在终端中输入 pip3 install colorama 即可。colorama 是一个用于在命令行界面中生成彩色文本和格式化输出的 Python 库。 4. 如果出现 Import failed:LayerMask:SegmentAnythingUltra V2 的情况,可在 GitHub 上给作者提,说明硬件和软件环境,按照作者回复下载最新的包重新安装。 5. 如果是在 macOS 系统中,二狗子的工作流 json 文件中用的文件路径分隔符是反斜杠\\,macOS 系统无法识别,需要全部替换为正斜杠/,不然无法调用模型。
2025-01-01
instantid预处理报错
以下是关于 InstantID 预处理报错的一些常见问题及解决办法: 1. 安装后出现报错问题:请查看。 2. 如果是 MacBook Pro M1 出现 InstantID 依赖的 onnxruntimegpu 无法安装的情况,由于 M1 没有 GPU,不能用 onnxruntimegpu 版本,silicon 是适配 M1 的加速版本。在文件路径 ComfyUI/custom_nodes/ComfyUI_InstantID 的 requirements.txt 文件中,把 onnxruntimegpu 替换为 onnxruntimesilicon 即可。双击用文本编辑器打开,替换保存。 3. 如果出现 Import failed:ComfyUIergouzinodes 的情况,在终端中输入 pip3 install colorama 即可。colorama 是一个用于在命令行界面中生成彩色文本和格式化输出的 Python 库。 4. 如果出现 Import failed:LayerMask:SegmentAnythingUltra V2 的情况,可在 GitHub 上给作者提,说明硬件和软件环境,按照作者回复下载最新的包重新安装。 5. 在 windows 系统和 macOS 系统中,二狗子的工作流 json 文件中,用的文件路径分隔符是反斜杠\\,macOS 系统无法识别,需要全部替换为正斜杠/,不然无法调用模型。
2025-01-01
那为什么使用from matplotlib报错
很抱歉,目前没有关于“使用 from matplotlib 报错”的相关内容。可能导致这种报错的原因有很多,比如 matplotlib 库未正确安装、版本不兼容、代码中其他部分的冲突等。您可以检查一下 matplotlib 库的安装情况,确认是否与您当前使用的环境和其他依赖项相匹配。同时,查看报错信息中的具体提示,这通常能为您找到问题的线索。
2024-12-05
coze智能体开发
以下是关于 Coze 智能体开发的相关内容: 1. 创建 Bot:打开 Coze 官网 https://www.coze.cn/home 。 2. 图像工作流:创建图像工作流,图像流分为智能生成、智能编辑、基础编辑三类,Coze 的图像流比 ComfyUI 更普世化且简单易上手。 3. 空间风格化插件:其参数包括 image_url(毛坯房的图片地址)、Strength(提示词强度,即提示词对效果图的影响度)、Style(生成效果的风格,如新中式、日式、美式、欧式、法式等)、user_prompt(用户输入的 Promot 提示词)。 4. 工作流流程:按照构架配置工作流,调试工作流,毛坯房测试用例:https://tgi1.jia.com/129/589/29589741.jpg 。 5. 开始节点解析:开始节点对应配置三项内容,进行提示词优化。 6. 人设和回复逻辑:技能 1 中 3 项中的编译数字来源,然后点击右上角发布,机器人就可以出图。 此外,还有以下相关信息: 1. Code AI 应用开发教学:Code AI 应用背景为智能体开发从最初的 chatbot 只有对话框,到有了更多交互方式,因用户需求扣子推出了 AI 应用,其低代码或零代码的工作流等场景做得较好。但 AI CODING 虽强,目前适用于小场景和产品的第一个版本,复杂应用可能导致需求理解错误从而使产品出错。以证件照为例,说明以前实现成本高,现在有客户端需求并做了相关智能体和交互。创建 AI 应用,需学习操作界面、业务逻辑和用户界面,包括布局、搭建工作流、用户界面及调试发布,重点熟悉桌面网页版的用户界面。 2. 搭建工作流驱动的 Agent,简单情况可分为 3 个步骤: 规划:制定任务的关键方法,总结任务目标与执行形式,将任务分解为可管理的子任务,确立逻辑顺序和依赖关系,设计每个子任务的执行方法。 实施:在 Coze 上搭建工作流框架,设定每个节点的逻辑关系,详细配置子任务节点,并验证每个子任务的可用性。 完善:整体试运行 Agent,识别功能和性能的卡点,通过反复测试和迭代,优化至达到预期水平。
2025-02-23
用coze分解短视频分镜
以下是关于用 Coze 分解短视频分镜的详细内容: 一、Coze 智能体创建 1. “开始”节点 共有 4 个输入变量,分别为: idea_txt:主题观点 left_to_txt:画面左上角的文字 right_to_txt:画面右上角的文字 img_prmpot:画面中间图片生成提示词 注意:这 4 个变量名称要和智能体中提示词的变量对应一致,方便接收用户传入的参数。 2. “大模型”节点 使用目前大家公认的 DeepSeek R1 模型。 提示词要求不复杂,只要说出需求即可,格式可用大白话说出来。 3. “文本”节点 为了将文案分句,每一句要生图、配音。 选择按“句号”分句,具体可根据文案格式选择不同方式。 4. “图像生成”节点 使用官方插件,模型选“LOGO 设计”。 若要生成全景图,此插件效果欠佳,建议选其它插件。 5. “抠图节点” 将上个节点生成的图片进行抠图。 二、概述 基于其他博主开源的视频生成工作流,做了一些功能优化,实现视频全自动创建。感谢开源的力量,现写一篇教程供大家参考。 三、先看效果 四、功能 通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 五、涉及工具 1. Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成) 2. 飞书(消息) 3. 飞书多维表格(字段捷径、自动化流程) 六、大体路径 1. 通过 Coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 2. 发布 Coze 智能体到飞书多维表格。 3. 在多维表格中使用字段捷径,引用该智能体。 4. 在多维表格中创建自动化流程,推送消息给指定飞书用户。
2025-02-23
COZE对话流
以下是关于 Coze 的相关内容: 多 Agent 模式的实现机制: 图 12 中,用户输入“完成”触发执行流程,跳转到【AI 玩家发言】,调用该 Agent 的对话模型,获取所有 AI 玩家的发言。此节点跳转判断时机是“模型回复后”,在执行完工作流之后触发第三次 LLM 调用。 第三次 LLM 调用输入给跳转模型的提示词,由于对话记录变长,需用 GPT4o 这样的强力模型。模型输出“1”,选择【人类玩家投票】节点,然后调用【人类玩家投票】的对话模型,即第四次 LLM 调用。第四次调用的对话模型回复消息引导人类玩家进行投票。 用 Coze 搓乞丐版的秘塔搜索: 工作流是核心,需先梳理清楚。秘塔搜索的主要能力包括使用搜索引擎进行搜索、对搜索内容整理成答案、给出答案中的引用。 Coze 海外版多 discord 账号配置方法: 1. 在 discord 中已配置好的 cozebot 服务器上右键选“邀请其他人”,复制邀请链接备用。 2. 注册新谷歌账号或使用多余的谷歌账号。 3. 用新谷歌账号在未登录过 discord 的浏览器或谷歌无痕浏览器中注册新 discord 账号。 4. 复制邀请链接到新浏览器中,将新账号拉入 cozebot 服务器,如需多个账号则重复以上步骤,注意不要解除前边账号的登陆状态。 5. 按 F12,新账号在对话框中发言,复制新账号的“USER_AUTHORIZATION”值,多个账号依次操作。 6. 在宝塔的/data/cozediscordproxy/dockercompose.yml 文档中,粘贴多个“USER_AUTHORIZATION”值,以逗号分开,然后 dockercompose up d 重启 cdp。 7. 重新扫码后 coze 对话轮次增多。 8. 验证成功的方法:手机下载 discord 登录后打开通知,每条消息发送账号不同则成功;每轮对话会在 discord 以临时聊天框形式存在,也能看到不同账号参与。 Q&A:要保证之前账号的登陆状态,因为账号登出后“USER_AUTHORIZATION”值会变,需重新取用,很多人发现突然登不上去就是因为登出后值变化了。
2025-02-23
Coze制作智能体如何设置拍照按钮
以下是关于在 Coze 制作智能体中设置拍照按钮的相关信息: 搭建证件照应用页面:创建应用并设置第一个 div 容器,页面分为上中下三块或左右两块,进行组件设置调整,包括容器的高度、宽度、排列方向,文本组件的字体、颜色、加粗等属性,处理图片上传,对左侧图片进行数据绑定等。 前端页面搭建技巧:在 DIV10 中选择子容器、复制搭建元素,调整表单组件的尺寸、按钮文案和上传文件类型等设置。 业务逻辑流程设计:包括用户上传照片、图片理解、图像生成、智能换脸、背景修改等步骤,还提及了各步骤中的参数设置、提示词调整和测试方法。 一键改图工作流的设置:工作流未用大模型,每次生成结果唯一,无种子概念,无法保存特定结果。调好后可配东北大花袄等背景,修改名字便于排查问题。添加立即生成事件,表单有多种事件,可设置提交时调用工作流,限制上传文件数量,表单提交时可设置禁用态。进行数据绑定与效果查看,工作流数据绑定要先清空,避免手动输入变量,选工作流时要注意准确。图片生成方式可调好第一张图片后复制成三张,根据背景颜色区分,通过连接节点选择对应图片输出。预览调试方法在用户界面不发布也可调试,有预览功能。识别图片特征有误时需在工作流里优化提示词,可考虑使用视频模型。
2025-02-22
coze的进阶教程有哪些,我需要有整个的搭建过程教程的,可以是共学活动里面的
以下是一些 Coze 的进阶教程和搭建过程的资源: 5 月 7 号():大聪明分享,主题为“Agent 的前世今生”,每个分享人分享最初接触 Coze 的经历以及现在用 Coze 做什么。流程为 20:00@🌈AJ 主持开场,20:00 21:00 大聪明分享,21:00 21:30 关于 Coze 随便聊聊。 5 月 8 号():大圣分享,主题为“我眼中的 AI Agent 以及通过搭建知识库实例入门 Coze”,20:00 21:20 大圣分享。 5 月 9 号():艾木分享,主题为“Agent 系统的核心构成:Workflow 和 Multiagent Flow(以‘Dr.Know’和‘卧底’为例),线上答疑。流程为 20:00 21:00 艾木分享,21:00 21:30 线上答疑。 5 月 10 号():罗文分享,主题为“一个方法解锁 COEZ 所有插件的用法+如何自动化解锁每天抓取 X 内容+改写+发布到飞书”,20:00 21:00 罗文分享。 5 月 11 号():Itao 分享,主题为“和 AI 成为搭子”,线上答疑。流程为 20:00 21:00 Itao 分享,21:00 21:30 线上答疑。 此外,还有以下案例合集和教程:
2025-02-22
coze知识库是否稳定且保密
Coze 知识库目前存在一些不稳定的情况。例如,在国内版中,某些官方和第三方插件的 API 调用及返回结果不太稳定,可能导致部分信息无法完全显示。但对于以问答为主的客服场景,其表现相对稳定。同时,目前存在不稳定版本,需要不断调试完善。关于保密方面,文中未提及相关内容。
2025-02-22
想要搭建属于自己的知识库应该用什么软件
以下是一些可用于搭建个人知识库的软件及相关信息: 1. Coze 或 FastGPT 等工具:在当下技术条件下,其 RAG 能力对问答场景较友好,其他场景效果一般。若需企业级复杂知识库场景,可能需找专业团队,收费几万到几十万不等。 2. 推荐文章《手把手教你本地部署大模型以及搭建个人知识库》中提到的 AnythingLLM 软件: 包含所有 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 该软件中有 Workspace 的概念,可创建独有 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式),配置完成后可进行对话测试。 3. 基于 GPT API 搭建定制化知识库:涉及给 GPT 输入定制化知识,因 GPT3.5 交互容量有限,OpenAI 提供了 embedding API 解决方案,可参考 OpenAI embedding documents 理解 embeddings 相关知识。
2025-02-23
如何搭建自己的知识库
搭建自己的知识库可以参考以下步骤: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片提交给 LLM 生成答案。 2. 文本加载器:将用户提供的文本加载到内存中,便于后续处理。 3. 基于 GPT API 搭建: 涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限。 OpenAI 提供了 embedding API 解决方案,embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。 4. 本地知识库进阶: 可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力,并支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建 Workspace 构建本地知识库,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案),最后进行测试对话。 总之,搭建知识库需要不断实践和探索,“看十遍不如实操一遍,实操十遍不如分享一遍”。
2025-02-20
DeepSeek搭建 个人知识库
以下是关于 DeepSeek 搭建的相关知识: 对于个人知识库的搭建,您可以参考以下内容: 章节“三.使用 DeepSeek R1 给老外起中文名”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareDyEMdmCPOo98S6xbPfNcsuEOnuh 知识点“Node.JS 安装”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcsharePVnndBSV5oWOukx38tKcw2CPnub 申请“DeepSeek R1 API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareTrXednqLAoH3VLxrUiYc1Pb9nhf 网页接入“DeepSeek API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareUK5xdzhiaoo9RkxHR5bcs30pnV8 章节“一.Trae 的介绍/安装/疑难杂症”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareR4GvdgOzeoC9mOxd1hScuql6nVY Python 安装:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareKcojdhid9oWJPjxAvEOczRt0nkg 一个提示词让 DeepSeek 的能力更上一层楼的相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,视频链接: 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手 五津:DeepSeek+扣子:1 分钟生成小红书爆款单词视频: 先观察此类视频规律,如先问这是什么→再揭晓结果,反复多次。 拆解视频模板的制作流程,逐个轨道分析,注意各轨道上的元素时间对应关系。 涉及的知识点可用于用扣子工作流来搭建。
2025-02-20
怎么用AI搭建工作流
搭建 AI 工作流可以参考以下步骤: 1. 搭建 AI 工作流的三种能力: 熟悉各种 AI 工具:了解多个不同 AI 工具的特点和用途,根据具体细分任务选择合适的工具。例如,写标题可用 ChatGPT,写文章可用 Claude,检查文本中的错别字和病句可用秘塔写作猫的 AI 纠错功能。 编写提示词:搭建起人与 AI 之间的“沟通桥梁”,用 AI 能听懂的语言清晰说明需求、任务内容和步骤。 搭建 AI 智能体。 2. 搭建 AI 工作流的工作流: 找到一个工作场景:选择熟悉的工作场景,如写文章、做 PPT 等。 拆解工作流程:将工作拆解成几个小步骤,如写文章可拆分为选题、写稿、改稿、写标题等。 给每一个步骤嵌入工具:针对每个小步骤,思考有无 AI 工具可帮忙,若想不到可参考他人做法,注意灵活选择最优解,目的是提高工作效率而非增加工作的含 AI 量。 此外,在搭建工作流时还需注意: 打开 Comfyui 界面后,右键点击界面,可找到 Comfyui LLM party 的目录,学习手动连接节点实现最简单的 AI 女友工作流,或直接将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 从 ollama 的 github 仓库找到对应版本并下载,启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 若 ollama 连接不上,可能是代理服务器的问题,需将 127.0.0.1:11434 添加到不使用代理服务器的列表中。
2025-02-20
多智能体应用搭建
多智能体是由多个自主、独立的智能体组成的系统,每个智能体都能感知环境、决策并执行任务,且相互间能信息共享、任务协调与协同行动以实现整体目标。 随着大型语言模型的出现,以其为核心构建的 Agent 系统受广泛关注。单 Agent 核心在于语言模型与工具的协同配合,可能需与用户多轮交互。而多 Agent 为不同 Agent 分配角色并通过协作完成复杂任务,与用户交互可能减少。 构建多 Agent 框架的主要组成部分包括: 1. 环境:所有 Agent 处于同一环境,包含全局状态信息,且 Agent 与环境有信息交互与更新。 2. 阶段:通常采用 SOP 思想将复杂任务分解为多个子任务。 3. 控制器:可以是语言模型或预先定义好的规则,负责环境在不同 Agent 和阶段间切换。 4. 记忆:因 Agent 数量增多,消息数量及相关字段记录更复杂。 创建智能体时,输入人设等信息并配置工作流,配置完成后可测试,但注意工作流中某些插件的 api_token 不能直接发布,可作为输入让用户购买后输入使用再发布。 OpenAI 官方开源的多智能体框架「Swarm」受欢迎,其在多智能体通信方面表现出色,解决了不同智能体之间传递信息及传递哪些信息等核心难题。例如构建客服多智能体,只需准备普通接线客服和宽带客服两个 Agent,「Swarm」的「Handoffs」处理了交接逻辑。
2025-02-20