Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

coze搭建工作流老是报错

Answer

搭建 Coze 工作流老是报错可能有以下原因和解决方法:

  • 循环查询文章是否推送过:
    • 循环体内部的数据库节点:用于在数据库中查询文章是否推送过,输入项为文章的 url 和用户的唯一标识 suid。SQL 语句可直接复制。记得设置输出项“combined_output”。同时,Coze 平台要求使用数据库功能时,需在 bot 中设置相同名称和数据结构的数据库进行绑定,具体设置方法参见“相关资源”。
    • 循环体内容的选择器:判断数据库查询内容是否为空,若为空则使用“文本处理”节点拼接文章完整信息。右下方的“文本处理”节点主要是为处理数据库查询到已推送情况的占位项,否则工作流会报错。设置循环节点输出项,选择循环体中“输出新文章内容”拼接后的字符串。
  • 外层 bot 封装与调试:
    • 封装过程包括创建 Bot、填写 Bot 介绍、切换 Bot 模式为“单 Agent(工作流模式)”、添加配置好的工作流、填写开场白并关闭开场白预置问题。
    • 完成封装后在“预览与调试”区进行最终体验与调试。目前外层 bot 可能存在未知 bug,同一段 USER_INPUT 在工作流编辑面板中试运行正常,但在外层 bot 运行时容易报错,暂时无法确定原因,猜测可能是外层 bot 的并发不够稳定,可直接在工作流编辑面板中获取精度结果。若自行实验时多次报错且无法定位原因,不要急于责怪自己,相关 bug 已提交给 Coze 团队等待优化。
Content generated by AI large model, please carefully verify (powered by aily)

References

【拔刀刘】自动总结公众号内容,定时推送到微信(附完整实操教程)

循环体内部——数据库节点数据库节点:用来在数据库中查询是否已经推送过该篇文章,输入项为上一步中的url和开始节点的key(也就是server酱的sendkey,这里我们重命名为suid了)因为这个Bot最开始设计的时候,就考虑到可能有多个用户会同时使用这个Bot设置公众号推送内容,每个用户设置的公众号内容可能不一样,每个用户的要推送的微信号肯定也不一样,所以这里使用server酱的sendkey作为了用户的唯一标识,重命名为了suid所以这里查询数据库需要两个值,文章url和用户的suid,来判断这名用户的这篇文章是否推送过SQL语句是AI写的,直接复制就成记得设置一下输出项「combined_output」这步是必须项:Coze平台的逻辑是数据库是与bot绑定的,所有如果要使用数据库功能,需要在bot中设置一个相同名称和数据结构的数据库进行绑定,具体设置方法参见「相关资源」循环体内容——选择器判断数据库查询的内容是否为空,如果是空,证明数据库中没有查到,这篇文章没有给这名用户推送过,使用「文本处理」节点,拼接这篇文章的完整信息,保证信息一致性string1:开始节点的key,也就是server酱的sendkey,用来识别用户string2:循环节点item值中的urlstring3:循环节点item值中的titlestring4:循环节点item值中的author拼接为如下格式,方便输出,并让后边节点使用右下方的「文本处理」节点没有实际作用,输入项随便写,主要是为了处理数据库查询到已经给这名用户推送过这篇文章情况下的占位项,否则工作流会报错设置循环节点输出项,选择循环体中「输出新文章内容」拼接后的字符串

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

在点击「发布」,发布工作流后,我们就需要创建一个bot,进行最终的工作流封装。封装过程如下:1.创建Bot2.填写Bot介绍3.切换Bot模式为“单Agent(工作流模式)”:因为这个Agent,我们只需要每次输入英文文章的时候,返回精读结果,所以不需要用外层bot对输入进行其他任务理解,直接调用工作流即可。4.把我们刚才配置好的工作流,添加到Bot中5.填写开场白,引导用户使用:附开场白文案⬇️6.关闭开场白预置问题:因为使用流程里用不到,所以直接关掉。[heading3]外层bot调试[content]完成封装后,即可在「预览与调试」区进行最终体验与调试:——如果一切正常,你就能获得这样的成功结果,yes~Btw:在笔者发布文章时,外层bot仍存在一定的未知bug,同一段USER_INPUT,在工作流编辑面板中试运行完全ok,但到了外层bot进行运行时,就容易出现报错。暂时无法确定原因,猜测可能是外层bot的并发做的不够稳定,不如直接在工作流编辑面板中获取精度结果。如果自行实验时,发现多次报错且无法定位问题原因,就不要急着怪自己啦🤣。笔者也已经把相关bug提交给了Coze团队,希望能加紧优化吧。

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

在点击「发布」,发布工作流后,我们就需要创建一个bot,进行最终的工作流封装。封装过程如下:1.创建Bot2.填写Bot介绍3.切换Bot模式为“单Agent(工作流模式)”:因为这个Agent,我们只需要每次输入英文文章的时候,返回精读结果,所以不需要用外层bot对输入进行其他任务理解,直接调用工作流即可。4.把我们刚才配置好的工作流,添加到Bot中5.填写开场白,引导用户使用:附开场白文案⬇️6.关闭开场白预置问题:因为使用流程里用不到,所以直接关掉。[heading3]外层bot调试[content]完成封装后,即可在「预览与调试」区进行最终体验与调试:——如果一切正常,你就能获得这样的成功结果,yes~Btw:在笔者发布文章时,外层bot仍存在一定的未知bug,同一段USER_INPUT,在工作流编辑面板中试运行完全ok,但到了外层bot进行运行时,就容易出现报错。暂时无法确定原因,猜测可能是外层bot的并发做的不够稳定,不如直接在工作流编辑面板中获取精度结果。如果自行实验时,发现多次报错且无法定位问题原因,就不要急着怪自己啦🤣。笔者也已经把相关bug提交给了Coze团队,希望能加紧优化吧。

Others are asking
注意Cursor 相关报错原因,如重复安装依赖项、重新创建文件
以下是关于 Cursor 相关报错原因及实践的一些内容: 报错原因: 重复安装依赖项。 重新创建文件。 导入的路径不对。 错误导入已经废弃的文件。 突破 AI 记忆的东西。 Cursor 缓存未更新。 实践经验: 前期描述好需求,在设置里注意 Rules for AI 的提示词。 按照功能模块单独建立实现文档,包括深入理解需求、技术实现、测试等。 学会看代码,了解每一步文件的作用,有助于提升技术理解。 分阶段实现需求,效率更高,只考虑本阶段需求。 主动思考,大语言模型有局限性,如在 Cursor 中可能出现报错排查指引错误的情况,需要人工强介入。 注意细节操作,每次修改完代码要保存再运行,整体修改慎用,新增功能可新开对话,每个项目新建文件夹并将相关文件放在里面,代码中多带日志方便报错调试。 进行单元测试时可能遇到安装缺失库进度慢、Cursor 工作位置错误导致关键文档放错位置和创建垃圾文件等问题。
2025-01-16
instant-id预处理报错
以下是关于 InstantID 预处理报错的一些常见问题及解决方法: 1. 安装后出现报错问题:请查看。 2. 如果是 MacBook Pro M1 出现 InstantID 依赖的 onnxruntimegpu 无法安装的情况,因为 M1 没有 GPU,不能用 onnxruntimegpu 版本,silicon 是适配 M1 的加速版本。在文件路径 ComfyUI/custom_nodes/ComfyUI_InstantID 的 requirements.txt 文件中,把 onnxruntimegpu 替换为 onnxruntimesilicon 即可。双击用文本编辑器打开,替换保存。 3. 如果出现 Import failed:ComfyUIergouzinodes 的情况,在终端中输入 pip3 install colorama 即可。colorama 是一个用于在命令行界面中生成彩色文本和格式化输出的 Python 库。 4. 如果出现 Import failed:LayerMask:SegmentAnythingUltra V2 的情况,可在 GitHub 上给作者提,说明硬件和软件环境,按照作者回复下载最新的包重新安装。 5. 如果是在 macOS 系统中,二狗子的工作流 json 文件中用的文件路径分隔符是反斜杠\\,macOS 系统无法识别,需要全部替换为正斜杠/,不然无法调用模型。
2025-01-01
instantid预处理报错
以下是关于 InstantID 预处理报错的一些常见问题及解决办法: 1. 安装后出现报错问题:请查看。 2. 如果是 MacBook Pro M1 出现 InstantID 依赖的 onnxruntimegpu 无法安装的情况,由于 M1 没有 GPU,不能用 onnxruntimegpu 版本,silicon 是适配 M1 的加速版本。在文件路径 ComfyUI/custom_nodes/ComfyUI_InstantID 的 requirements.txt 文件中,把 onnxruntimegpu 替换为 onnxruntimesilicon 即可。双击用文本编辑器打开,替换保存。 3. 如果出现 Import failed:ComfyUIergouzinodes 的情况,在终端中输入 pip3 install colorama 即可。colorama 是一个用于在命令行界面中生成彩色文本和格式化输出的 Python 库。 4. 如果出现 Import failed:LayerMask:SegmentAnythingUltra V2 的情况,可在 GitHub 上给作者提,说明硬件和软件环境,按照作者回复下载最新的包重新安装。 5. 在 windows 系统和 macOS 系统中,二狗子的工作流 json 文件中,用的文件路径分隔符是反斜杠\\,macOS 系统无法识别,需要全部替换为正斜杠/,不然无法调用模型。
2025-01-01
那为什么使用from matplotlib报错
很抱歉,目前没有关于“使用 from matplotlib 报错”的相关内容。可能导致这种报错的原因有很多,比如 matplotlib 库未正确安装、版本不兼容、代码中其他部分的冲突等。您可以检查一下 matplotlib 库的安装情况,确认是否与您当前使用的环境和其他依赖项相匹配。同时,查看报错信息中的具体提示,这通常能为您找到问题的线索。
2024-12-05
在comfyui中节点报错UNETLoader Error
很抱歉,仅根据您提供的“在 ComfyUI 中节点报错 UNETLoader Error”这一信息,无法明确具体的错误原因和给出准确的解决方案。可能导致此报错的原因有多种,比如模型文件损坏、加载路径错误、相关依赖未正确安装等。建议您进一步检查报错的详细信息、模型文件的完整性以及相关配置是否正确。
2024-12-04
在comfyui中节点报错UNETLoader Error while deserializing header: MetadatalncompleteBuffei
很抱歉,仅根据您提供的“在 ComfyUI 中节点报错‘UNETLoader Error while deserializing header: MetadatalncompleteBuffei’”的信息,难以准确判断问题的具体原因和解决办法。这可能是由于多种因素导致的,比如模型文件损坏、软件版本不兼容、配置错误等。建议您检查模型文件的完整性,确保 ComfyUI 软件为最新版本,并检查相关配置是否正确。如果问题仍然存在,您可以尝试在相关的技术论坛或社区中搜索类似问题,以获取更多可能的解决方案。
2024-12-04
coze插件工具使用
使用 Coze IDE 创建插件的操作步骤如下: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入插件页面,或者在某一 Bot 的编排页面,找到插件区域并单击“+”图标。 4. 单击“创建插件”。 5. 在新建插件对话框,根据以下信息完成配置并单击“确认”: 插件图标:(可选)单击默认图标后,您可以上传本地图片文件作为新的图标。 插件名称:自定义插件名称,用于标识当前插件。建议输入清晰易理解的名称,便于大语言模型搜索与使用插件。 插件描述:插件的描述信息,一般用于记录当前插件的用途。 插件工具创建方式:选择在 Coze IDE 中创建。 IDE 运行时:选择 Node.js 或者 Python3。 6. 在插件详情页,单击“在 IDE 中创建工具”。 7. 在弹出的创建工具对话框,设置工具名称和介绍,以明确工具的用途,并单击“确定”。工具名称和介绍越清晰,大语言模型就越能理解并使用它。创建后,您将跳转到 Coze IDE 页面进行编码。 8. (可选)在 IDE 左上角工具列表区域,单击“+”图标,向插件添加更多工具。您还可以通过单击列表内某一工具的设置图标,来编辑、删除或重置代码。 9. (可选)在 IDE 左下角依赖包区域,管理依赖包,所有工具共用该依赖列表。 以下是一个网页搜索工具的元数据配置说明: |配置项|描述| ||| |名称|工具名称。建议输入清晰易理解的名称,便于后续大语言模型搜索与使用工具。| |描述|工具的描述信息,一般用于记录当前工具的用途。| |启用|是否启用当前工具。使用说明:<br>如果工具未开发测试完成,建议先禁用该工具,只启用并发布已通过测试的工具。<br>如果需要下线某一工具,可将该工具设置为禁用,并再次发布插件。<br>如果插件中只有一个工具,则不支持禁用该工具。如需下线该工具,您可以选择直接删除该插件,或者创建另一个工具并完成开发测试后,再禁用该工具,最后发布插件。| |输入参数|当前工具对应接口的输入参数信息。准确、清晰易理解的参数名称、描述等信息,可以让大语言模型更准确的使用工具。| |输出参数|当前工具对应接口的输出参数信息。准确、清晰易理解的参数名称、描述等信息,可以让大语言模型更准确的使用工具。| 在页面右侧单击测试代码图标并输入所需的参数,然后单击“Run”测试工具。如果您在元数据设置了输入参数,可单击自动生成图标,由 IDE 生成模拟数据,您只需要调整参数值即可进行测试。您可以在控制台区域查看运行日志、在输出区域查看运行结果,单击更新输出参数,IDE 会自动把输出结果中的参数,更新到元数据的输出参数中。 Coze 提供了丰富的插件,涵盖了从搜索引擎、文本分析以及图像识别等各种领域。这些插件的能力如果我们个人接入都是要收费的,但是在 Coze 平台则是免费使用的,例如: Coze 国内版本:https://www.coze.cn/store/plugin 必应搜索 LinkReader:读取文档 知乎热榜 而且国内版本还提供了很多便民的服务,例如: 新闻资讯 头条新闻:持续更新,了解最新的头条新闻和新闻文章。 天气预报 墨迹天气:提供省、市、区县的未来 40 天的天气情况,包括温度、湿度、日夜风向等。 出行必备 飞常准:通过 VariFlight 覆盖的全球商业客运航班,您的终端用户可以轻松获得他们的航班状态、办理登机手续柜台、预计出发时间、登机口、登机状态、行李转盘等信息,并能在整个航程中随时掌握。 猫途鹰:查询实时酒店搜索,航班价格,餐厅,吸引人的旅游地点等信息以创建一个旅行网站。 生活便利 快递查询助手、国内快递查询:查询快递单号,快递公司,快递进度等信息。 食物大师:Food Master 提供食物搜索功能。 懂车帝:如果你想要查询汽车信息,包括二手车、新车、某些车型的信息时可以使用此插件进行查询。 幸福里:提供二手房、新房、租房信息的插件,想要查询某个城市、区域、户型的房产信息时,可以使用此插件。 猎聘:帮助用户根据工作经验、教育经历、地理位置、薪水、职位名称、工作性质等条件搜索猎聘上提供的招聘信息。
2025-01-23
如何使用coze工作流
Coze 的工作流主要具有以下特点和使用方法: 工作流是其核心,在创建相关 Bot 前需梳理清楚。例如对于类似秘塔搜索的 Bot,要明确其主要能力,如使用搜索引擎进行搜索、对搜索内容整理成答案、给出答案中的引用等,从而形成创建思路。 工作流是一种可视化的方式,允许用户组合各种功能模块,如插件、大语言模型、代码块等,实现复杂和稳定的业务流程编排。 由多个节点组成,包括 Start 节点和 End 节点,用户可在节点间添加各种功能模块构建业务流程。 支持丰富的功能模块,包括调用大语言模型进行文本生成、调用插件进行数据处理等,用户可灵活组合。 创建和编辑通过可视化拖拽界面完成,无需编写代码,降低搭建门槛。 创建好的工作流可直接集成到 Coze 的聊天机器人中使用,实现复杂业务逻辑。 具体操作步骤:首先进入 Coze,点击「个人空间工作流创建工作流」,打开创建工作流的弹窗。根据弹窗要求自定义工作流信息,点击确认完成新建。在左侧「选择节点」模块中,根据子任务需要,实际用上的有插件、大模型、代码等。按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 总的来说,Coze 的工作流为用户提供了一种可视化、低代码的方式,来快速搭建满足业务需求的 AI 应用和服务,极大地降低了开发门槛,让更多人可以利用 AI 技术来提升工作效率。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-21
coze中的工作流该如何使用到bot中
以下是关于如何将 Coze 中的工作流使用到 Bot 中的相关内容: 首先,将工作流看作一个函数,其输入参数通常只有用户的提问(query),这是一个字符串。 在工作流中,会按以下步骤进行操作: 1. 设置输入参数。 2. 调用 Google 搜索插件搜索互联网上的信息,可通过设置 `num` 参数控制返回搜索结果的数量,一般设置为 7 以平衡响应速度和信息量。 3. 格式化搜索结果,利用“Code”组块插入 Python 代码,将 Google 搜索返回结果格式化成两个字符串,一个是相关信息拼接而成的字符串(retrieved_contexts),另一个是网页链接拼接而成的字符串。前者用于插入 LLM 的提示词,后者用于 Workflow 的最终输出结果。 4. 获取用户的语言偏好,使用“Variable”组块获取 Bot 内设置的变量值(如 user_language)。 对于创建 Bot 并封装工作流,步骤如下: 1. 创建 Bot。 2. 填写 Bot 介绍。 3. 切换 Bot 模式为“单 Agent(工作流模式)”,若只需每次输入英文文章时返回精读结果,可直接调用工作流。 4. 将配置好的工作流添加到 Bot 中。 5. 填写开场白引导用户使用。 6. 关闭开场白预置问题。 完成封装后,可在「预览与调试」区进行最终体验与调试。但需注意,外层 bot 可能存在一定未知 bug,同一段 USER_INPUT 在工作流编辑面板中试运行正常,但在外层 bot 运行时可能报错,原因可能是外层 bot 的并发不够稳定。
2025-01-20
怎么在coze的智能体总加入一个使用MARKDOWN编写的代码的prompt?
在 Coze 的智能体中加入使用 Markdown 编写的代码的 prompt 可以参考以下方法: 首先,了解相关的任务和目标,比如像实现输入任意文章链接后,AI 自动生成适合微信分享的文章推荐卡片。为达到这一效果,大模型对话产品通常需要完成网页爬取、内容总结、二维码生成、卡片样式生成等关键步骤。 在编写 prompt 时,可以发现新的词生卡 Prompt 组织方法,把设计要求拆分为“设计规范”和“内容结构”,再细分为“布局与尺寸”“字体规范”“颜色规范”的独立模块,并结合“内容结构”进行要求提示。这种提示词组织方式具有模型通用性、提示简易性和生成稳定性等显著优势。 对于刚入门的朋友,首推 LangGPT 结构化提示词,直观易懂,可以快速上手。对于想要进阶的用户,一方面可以继续选择 LangGPT,另一方面如有额外精力和好奇心,不妨尝试刚哥推崇的 Lisp 伪代码格式,有助于精炼提示词和提升对措辞理解、概念认知的能力。但需要注意的是,真正重要的不是提示词的外在形式,而是内容是否与 AI 的“理解机制”相契合。同时,在实际应用中,还需要经过多次调试,并根据测试 bug 微调提示词,直至稳定运行。
2025-01-19
coze的使用教程
以下是关于 Coze 的使用教程: Coze 概述: 字节的官方解释:Coze 是新一代一站式 AI Bot 开发平台。无论是否有编程基础,都能在该平台上快速搭建基于 AI 模型的各类问答 Bot,从解决简单问答到处理复杂逻辑对话,并可将 Bot 发布到各类社交平台和通讯软件上与用户互动。 个人观点:Coze 是字节针对 AI Agent 领域的初代产品,在 Coze 中称 AI Agent 为 Bot。 部署站点: 国内版: 网址:https://www.coze.cn 官方文档教程:https://www.coze.cn/docs/guides/welcome 大模型:使用字节自研的云雀大模型,国内网络可正常访问。 海外版: 网址:https://www.coze.com 官方文档教程:https://www.coze.com/docs/guides/welcome 大模型:GPT4、GPT3.5 等大模型(可参考文档白嫖 ChatGPT4),访问需突破网络限制的工具,参考文档:https://www.coze.com/docs/zh_cn/welcome.html AI Agent 的开发流程: Bot 的开发和调试页面布局主要分为以下几个区块: 提示词和人设的区块 Bot 的技能组件 插件 工作流 Bot 的记忆组件 知识库 变量 数据库 长记忆 文件盒子 一些先进的配置 触发器:例如定时发送早报 开场白:用户和 Bot 初次对话时,Bot 的招呼话语 自动建议:每当和 Bot 一轮对话完成后,Bot 给出的问题建议 声音:和 Bot 对话时,Bot 读对话内容的音色 搭建教学: 基础框架:本 bot 基于三部分构成,包括提示词(使用结构化提示词框架,通过提示要求大模型根据不同行为调用不同工作流)、数据库(能够记录不同用户历史记账记录的关键,工作流里会用到)、工作流(增加记账调用 add_accounting_record 工作流;查询账户余额调用 query_accounting_balance 工作流;删除所有记账记录调用 init_accounting_records)。 数据库:数据库是 Coze 用来长久存放用户自己生成的数据的功能,可通过 mysql 语句写入数据到数据库中,也可从数据库中读取已存储数据用于加工或显示。本次记账功能定义了三个字段:item(记账的事项,字段类型 string)、occurrence_time(记账发生时间,字段类型 string)、account_change(变得的金额,即收入或花费的金额数,字段类型 integer,单位是分,例如 1.23 元,记录进入数据库是 123,注意一定要用 integer 类型,不能使用 number,不然当金额有小数时计算会不准)。
2025-01-18
怎么做 agent,有什么 coze做 agent 的视频教程
以下是一些关于如何做 Agent 以及相关的 Coze 视频教程: 基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ) 历史活动教程: 5 月 7 号():大聪明分享|主题:Agent 的前世今生,每个分享人分享最初是怎么接触 Coze 的,以及现在用 Coze 做什么 5 月 8 号():大圣分享|主题:我眼中的 AI Agent 以及通过搭建知识库实例入门 Coze 5 月 9 号():艾木分享|主题:Agent 系统的核心构成:Workflow 和 Multiagent Flow(以“Dr.Know”和“卧底”为例,线上答疑 5 月 10 号():罗文分享|主题:一个方法解锁 COEZ 所有插件的用法+如何自动化解锁每天抓取 X 内容+改写+发布到飞书 5 月 11 号():Itao 分享|主题:和 AI 成为搭子,线上答疑
2025-01-18
新手小白,如何从0开始搭建AI Agent
对于新手小白从 0 开始搭建 AI Agent,以下是一些建议: 1. 规划阶段: 制定任务的关键方法,总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施阶段: 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善阶段: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 此外,还需要了解一些关于 AI Agent 的基本概念: AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括 Chain(通常一个 AI Agent 可能由多个 Chain 组成,一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量,大部分的 Chain 是大语言模型完成的 LLM Chain)、Router(可以使用一些判定,甚至可以用 LLM 来判定,然后让 Agent 走向不同的 Chain)、Tool(Agent 上可以进行的一次工具调用,例如对互联网的一次搜索,对数据库的一次检索)。 常见的 AI Agent 有 Responser Agent(主 agent,用于回复用户)、Background Agent(背景 agent,用于推进角色当前状态)、Daily Agent(每日 agent,用于生成剧本,配套的图片,以及每日朋友圈)。这些 Agent 每隔一段时间运行一次(默认 3 分钟),会分析期间的历史对话,变更人物关系、反感度等,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。
2025-01-23
我想学习智能体搭建
以下是关于智能体搭建的相关知识: 智谱 BigModel 共学营第二期:把你的微信变成超级 AI 助理 1. 注册智谱 Tokens 智谱 AI 开放平台:https://bigmodel.cn/ 新注册用户,注册即送 2000 万 Tokens 充值/购买多种模型的低价福利资源包 直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay 语言资源包:免费 GLM4Flash 语言模型/ 多模态资源包: 多模态资源包: 所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 共学营报名赠送资源包 2. 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 3. 进入智能体中心我的智能体,开始创建智能体。此流程会手把手进行编辑,完成一个简单智能体的搭建,此智能体完成以下功能: 小众打卡地——优秀创作者奖 1. 智能体基本信息 名称:小众打卡地 链接:https://tbox.alipay.com/pro/share/202412APCyNn00194489?platform=WebService 2. 基本功能介绍:小众打卡地推荐,输入一个旅游目的地地点城市,给您推荐 3 个小众打卡地小红书类文案,适合分享或旅游参考,还有精美的旅行地配图。 3. 智能体核心价值 为用户发掘非大众化的特色景点,避开人流 提供个性化的旅行建议,并且有目的地的图片参考 帮助用户快速获取高质量的旅行参考信息 提供小红书文案,也适合发小红书 4. 智能体效果 输入一个目的地后,等待一小段时间,即可获得带图文案。从手机支付宝小程序更加方便,可以一键复制后获取。 5. 智能体搭建思路重点 录入了小红书的相关文案参考知识库 通过文本模型组成搜索词进行搜索,从搜索到的所有网页链接中,通过代码节点提取相关的 url 用代码节点滤除需要安全认证的网站,包括挑选一些非周边城市攻略推荐,并且尽量检查“小众”或“冷门” 通过 url 网页正文后,提取相关的小众地点输出,同时通过代码进行打卡点的字符串输出用于后续节点运用 根据需要搜索的小众旅行地进行图片搜索。此处代码节点随机提取一条图片的 url,注意此处在调试过程中发现有些图片搜索后的 url 打卡图片会失效,代码节点将部分失效的网站进行了过滤 最后的文案输出,非常适合小红书文案和旅行发布参考 智能体在品牌卖点提炼中的应用 1. 确定智能体的结构 按照市场营销的逻辑组织智能体的结构。 2. 搭建完整智能体 以品牌卖点提炼六步法为核心的流程,将其他的分析助手加入工作流中,包括: 品牌卖点定义与分类助手 品牌卖点提炼六步法 STP 市场分析助手 用户画像分析助手 触点收集助手 同时还包括一些结构中没有体现,但是在后续的品牌卖点应用过程中有效的分析工具: 用户需求分析的 KANO 助手 营销六层转化漏斗分析 超级转化率六要素
2025-01-22
如何搭建定制知识库
以下是关于如何搭建定制知识库的相关内容: 要搭建基于 GPT API 的定制化知识库,需要给 GPT 输入定制化的知识。但 GPT3.5(即当前免费版的 ChatGPT)一次交互支持的 Token 数量有限,约 4096 个,相当于 3000 个单词或 2300 个汉字,容量对于多数领域知识不够。为处理大量领域知识,OpenAI 提供了 embedding API 解决方案,可参考 OpenAI embedding documents。 embeddings 是浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。向量是用一串数字表示大小和方向的量,在计算机科学和数据科学中通常用列表表示。向量之间的距离是度量相似性的方法,常见的如欧几里得距离。在 OpenAI 词嵌入中,靠近的向量词语在语义上相似。 LlamaIndex 是更高一层 LangChain 的抽象,之前叫 GPT Index。之前的文章中的例子使用了 LlamaIndex 包,它简化了 LangChain 对文本分割和查询的接口,并提供了更丰富的 Data Connector。LlamaIndex 只针对 GPT Model 做 Index,而 LangChain 可对接多个 LLMs,可扩展性更强。参考 https://gptindex.readthedocs.io/en/latest/ 在基于大模型+知识库的 Code Review 实践中,对于自定义知识库飞书文档(自定义),没有格式要求,能看懂正确代码即可。可直接使用 LangChain 提供的文档加载类,对有权限的飞书文档进行获取,使用 CharacterTextSplitter/RecursiveCharacterTextSplitter 将文本分割成固定长度的块(chunks),方法有两个主要参数:chunk_size 控制每个块的长度,如设置为 1024,则每个块包含 1024 个字符;chunk_overlap 控制相邻两个块之间的重叠长度,如设置为 128,则每个块会与相邻块重叠 128 个字符。 因为大模型有足够多的数据,想让大模型按要求执行就需要用到“Prompt 提示词”。 最近各家大厂接连放大招,AI 技术和应用突飞猛进,GPT4 接口已支持最大 32K 输入,AI 的开发和使用门槛会越来越低。垂直领域知识库的搭建和优化可能更多是业务问题,而非技术问题。
2025-01-22
如何搭建私人知识库
搭建私人知识库可以参考以下方法: 1. 基于 GPT 搭建: 给 GPT 输入(投喂)定制化的知识,但 GPT3.5(即当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字,容量对于绝大多数领域知识不够。 OpenAI 提供了 embedding API 解决方案,embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。 将大文本拆分成若干个小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,当用户提出问题时,将问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt(问题/提示词),发送给 GPT API。 2. 本地部署大模型搭建: 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 RAG 的应用包括文档加载(从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库)、检索(通过某种检索算法找到与输入问题相似的嵌入片)、Output(把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案)。 文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理。
2025-01-22
扣子应用搭建示例
以下是关于扣子应用搭建的相关内容: 白嫖 Groq 平台算力的落地应用: 通过扣子工作流,用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,可参考梦飞大佬教程将扣子接入微信机器人(有微信封号风险)。 由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品填 APIKEY 调用的场景,以沉浸式翻译为例。 接入手机类 APP,比如通过快捷方式接入 Siri。 接入扣子工作流:搭建细节可移步 WaytoAGI 自学。建立工作流只需一个代码节点,需配置代码节点的输入引用、输出等。可建立 Bot 调用工作流,但建议不发布,以免代理流量被他人使用。 在扣子调用已有的 API 制作插件: Body:用于传递请求主体部分,GET 方法中通常不用于传递参数。 Path:用于定义请求路径部分,GET 方法中可传递参数,常编码为 URL 一部分。 Query:用于定义请求查询部分,是 GET 方法中常用的参数传递方式。 Header:用于定义 HTTP 请求头信息部分,GET 方法中通常不用于传递参数。配置输出参数,填对后可点击自动解析,调试与校验工具是否能正常运行。 搭建邮票收藏馆应用: 业务背景与逻辑梳理:源于客户需求,功能包括生成邮票、收藏邮票、收藏列表、查看藏品详情,规划了生成和查看两个页面。 页面设计: 第一页:导航栏有应用名称、查看收藏入口、用户头像;陈列展示生成的图片;生成和收藏部分可输入关键字生成并收藏。 第二页:收藏列表会加载用户所有收藏,数量超 100 需优化加翻页;收藏详情可查看大图、关键字、收藏时间。
2025-01-21
搜索模型搭建
以下是关于搜索模型搭建的相关知识: 嵌入(Embeddings): 概述:第一代模型(以001结尾的模型)都使用 GPT3 分词器,最大输入为 2046 个分词。第一代嵌入由五个不同的模型系列生成,针对三个不同任务进行调整,包括文本搜索、文本相似性和代码搜索。搜索模型成对出现,有用于短查询和长文档的。不同系列包括多种质量和速度不同的型号,如 Davinci 能力最强但更慢更贵,Ada 能力最差但速度快成本低。 相似性嵌入:最擅长捕捉文本片段之间语义相似性,如 textsimilaritybabbage001、textsimilaritycurie001、textsimilaritydavinci001。 文本搜索嵌入:有助于衡量长文档与短搜索查询的相关性,使用两种模型,分别用于嵌入搜索查询和要排名的文档,如 textsearchadaquery001 等。 代码搜索嵌入:与搜索嵌入类似,有两种类型,分别用于嵌入自然语言搜索查询和要检索的代码片段,如 codesearchadatext001 等。对于001 文本嵌入,建议将输入中的换行符替换为单个空格。 部署大语言模型: 下载并安装 Ollama:根据电脑系统,从 https://ollama.com/download 下载,双击打开点击“Install”,安装完成后将下方地址复制进浏览器中,若出现相关字样表示安装完成,即 http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型:Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑按下 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”选择“终端”应用程序,复制相关命令行粘贴回车等待完成。 检索原理: 信息筛选与确认:对检索器提供的信息进行评估,筛选出最相关和最可信的内容,涉及对信息来源、时效性和相关性的验证。 消除冗余:识别和去除多个文档或数据源中的重复信息。 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等。 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括排序、归类和整合。 语义融合:合并意义相近但表达不同的信息片段。 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式。 大模型生成回答:全新的上下文传递给大语言模型,大语言模型根据提供的信息回答问题。
2025-01-19