Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

coze 如何 100% 调用工作流或插件

Answer

首先设置快捷指令,然后在快捷指令里面绑定某个工作流即可。

Content generated by AI large model, please carefully verify (powered by aily)

References

Glif:图像流强大的多,使用和接入Coze

Glif虽好,但我们更熟悉Coze,那就把Glif的功能通过API方式接过来,Coze版【[Ai宠昵名](https://www.coze.cn/store/bot/7385145130602479655)】一,先要创建一个插件:1.填入插件名,插件描述。2.创建方式选择云侧插件。3.IDE运行时选择Python。点击【在IDE中创建工具】。创建工具面板里:1.填入工具名称。2.填入工具介绍。Glif是允许通过API调用平台上的应用,API接入:https://docs.glif.app/api/getting-started去[注册Token页面](https://glif.app/settings/api-tokens)创建一个新的Token并复制备用。将自己发布的glif链接上的id复制备用。在Coze的IDE中引入依赖和编写handler方法。代码中对应的数据字段在元数据Tab中设置:1.填写入参字段和描述,对完整链接要写清楚。2.填写出参字段。左侧的依赖包添加【requests】。填入测试数据运行,测试通过后即可发布。创建一个Bot,挂载新创建的插件即可,在Prompt中做一些对入参的校验和约束。最后,测试从Coze调用Glif功能跑通,发布Coze,大功告成~以上就是大致的思路了。通过这种插件的方式取长补短,可以将Glif作为Coze工作流中的一环,有效弥补图像流较弱影响整体效果~

大聪明:保姆级教程:Coze 打工你躺平

对于轻度用户,你并不需要工作流对于重度用户,工作流的最好教程参见官方文档:https://www.coze.cn/docs/guides/welcome为什么我用工作流这里举个例子,当大模型调用写邮件的插件时,可能出现以下问题:速度慢:虽然内容已经生成好了,但调用插件时仍然会重新生成可能错:大模型经常会输出一些不正确的文字,如果这些内容在比如邮件地址上,会造成较为严重的影响为了减少这些问题,我会采取一些工作流+代码的组合方法我的工作流(仅供参考,轻度用户可直接略过)这是主工作流,将用户的原始输入,直接传送给插件WebPilot。其中,用另一个另一个工作流AI Project进行样式注入这是AI Project工作流,是将用户的输入,通过代码的方式,加上样式信息这个是中间用到的python代码这个是结合这个工作流,修改的「人设与回复逻辑」优化好之后,就能以更快的速度,进行更好的输出了,就比如这个

大聪明:保姆级教程:Coze 打工你躺平

对于轻度用户,你并不需要工作流对于重度用户,工作流的最好教程参见官方文档:https://www.coze.cn/docs/guides/welcome为什么我用工作流这里举个例子,当大模型调用写邮件的插件时,可能出现以下问题:速度慢:虽然内容已经生成好了,但调用插件时仍然会重新生成可能错:大模型经常会输出一些不正确的文字,如果这些内容在比如邮件地址上,会造成较为严重的影响为了减少这些问题,我会采取一些工作流+代码的组合方法我的工作流(仅供参考,轻度用户可直接略过)这是主工作流,将用户的原始输入,直接传送给插件WebPilot。其中,用另一个另一个工作流AI Project进行样式注入这是AI Project工作流,是将用户的输入,通过代码的方式,加上样式信息这个是中间用到的python代码这个是结合这个工作流,修改的「人设与回复逻辑」优化好之后,就能以更快的速度,进行更好的输出了,就比如这个

Others are asking
嵌入式WEB翻译插件
以下是关于嵌入式 WEB 翻译插件的相关信息: SD 提示词自动翻译插件 promptallinone: 作者:白马少年 发布时间:20230529 20:00 原文网址:https://mp.weixin.qq.com/s/qIshiSRZiTiKGqDFGjD0g 在 Stable Diffusion 中输入提示词只能识别英文,秋叶整合包包含提示词联想插件。 常用翻译软件如 DeepL(网址:https://www.deepl.com/translator,可下载客户端)、网易有道翻译(可 ctrl+alt+d 快速截图翻译),但复制粘贴来回切换麻烦。 自动翻译插件 promptallinone 安装方式:在扩展面板中搜索 promptallinone 直接安装,或把下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下,安装完成后重启 webUI。 插件特点: 一排小图标,第一个可设置插件语言为简体中文。 第二个图标是设置,点开后点击第一个云朵图标可设置翻译接口,点击第一行下拉菜单可选择翻译软件。 AIGC 落地应用 Open AI Translator(强烈推荐): 推荐指数:🌟🌟🌟🌟🌟 是接入了 GPT 能力的文本翻译、总结、分析类产品,翻译功能适合浏览网页时查询个别单词、句子。 最大优势是可在脱离只提供产品内 AI 能力的场景使用,如任何 web 场景,配合 Arc Browser 而非 Chrome 使用效果更佳。 调用方式:选中页面中的文本后会悬浮该插件,点击即可翻译,速度极快,摆脱“复制打开翻译软件粘贴翻译”的流程。 可用于文本分析、分析代码,搭配 Chat GPT 使用效果好。 开发者模式下也可辅助使用。 注:安装后需获取 Open AI 的 API Key,首次打开插件设置好 Open AI Key 地址,找地方保存好 API Key 方便使用。 下载地址:
2025-02-15
目前的原型工具ai插件的资讯
以下是关于目前原型工具 AI 插件的资讯: 用于产品原型设计的 AIGC 工具: 1. UIzard:利用 AI 技术生成用户界面,可根据设计师提供的信息快速生成 UI 设计。 2. Figma:基于云的设计工具,提供自动布局和组件库,其社区开发了一些 AI 插件用于增强设计流程。 3. Sketch:流行的矢量图形设计工具,插件系统中部分插件利用 AI 技术辅助设计工作,如自动生成设计元素。 AI 音乐相关: 1. LAIVE:利用 AI 技术一次性生成音乐、歌词、主唱等的创作平台,使用者可选择喜欢的类型和情调,上传参考音源,AI 分析生成音乐,还可选择主唱和修改歌词,目前为开放测试阶段。输入促销代码“LAIVEcreator”可获得 50 代币(入口在个人资料),令牌有效期为输入代码后的 30 天,促销码失效日期为 4 月 17 日。链接:https://www.laive.io/ 2. Combobulator:DataMind Audio 推出的基于 AI 的效果插件,利用神经网络通过样式转移的过程重新合成输入音频,从而使用您自己的声音重现其他艺术家的风格。链接:https://datamindaudio.ai/ 网页原型图生成工具: 1. 即时设计:https://js.design/ ,可在线使用的「专业 UI 设计工具」,为设计师提供更加本土化的功能和服务,注重云端文件管理、团队协作,并将设计工具与更多平台整合,一站搞定全流程工作。 2. V0.dev:https://v0.dev/ ,Vercel Labs 推出的 AI 生成式用户界面系统,每个人都能通过文本或图像生成代码化的用户界面,基于 Shadcn UI 和 Tailwind CSS 生成复制粘贴友好的 React 代码。 3. Wix:https://wix.com/ ,用户友好的 AI 工具,可在没有任何编码知识的情况下轻松创建和自定义自己的网站,提供广泛的模板和设计供选择,以及移动优化和集成电子商务功能等功能,通过拖放编辑、优秀模板和 250 多种 app,能帮助不同领域的用户创建所有种类的网站。 4. Dora:https://www.dora.run/ ,使用 Dora AI,可以通过一个 prompt,借助 AI 3D 动画,生成强大网站。支持文字转网站,生成式 3D 互动,高级 AI 动画。(内容由 AI 大模型生成,请仔细甄别。)
2025-02-11
coze用什么插件可以生成文档
以下是关于 Coze 生成文档相关的信息: 在 Coze 汽车售后服务知识库 Bot 拆解中,由于文档中需要有时间所以新增了获取时间的插件,生成完内容后还调用了生成文档插件输出下载地址。维修报告提示词、归档文档提示词等在相应流程中使用,归档文档输出完成后同时生成在线文件以及录入数据库。 在 CT:coze 插件通过已有服务 api 创建中,进入 coze 个人空间选择插件,新建插件并命名,在插件的 URL 部分填入 ngrok 随机生成的 https 链接地址,配置输出参数,测试后发布插件。之后可以手捏插件搞定后创建 bot,并将创建的插件接入,在 prompt 里让其调用插件。 此外,关于 Coze 的更多信息: 元子:小白的 Coze 之旅中提到,如果对 AI 常见工具不熟悉可参考相关文章,Coze 上手极其简单、更新特别快、插件比较多,有一键生成思维导图、纯搜索、一键出图等插件和工作流组合。还提到了通过已有服务 api 创建插件的相关内容。
2025-02-10
请告诉我coze里面的doc maker这个插件的使用技巧
以下是关于 Coze 中 Doc Maker 插件的使用技巧: 1. 新建插件: 进入 Coze 个人空间,选择插件,新建一个插件并起个名字,如 api_1,可随意命名,甚至描述也可简单设置为 test。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 的链接地址。如果服务还开着则继续,若已关闭则重新开始。 按照 Coze 的指引配置输出参数,完成后测试并发布插件。 2. 手捏简单 Bot: 完成插件创建后,创建一个测试 api 的 bot,并将自己创建的插件接进来。在 prompt 里面明确要求一定要调用创建的插件。 3. 后续说明: 整体过程仅为说明 Coze 的插件指引好用。若在生产环境中有准备好的 https 的 api,可直接接入。 本案例中使用的是 Coze 国内版,对模型无特殊要求。 Ngrok 在本案例中仅供娱乐,生产环境中勿用。 4. 通过 Coze API 打造强大的微信图片助手: 设置任务的参考提示词,如任务 1 总结图片内容对应【识图小能手】等。 准备好 Glif 的 Token,包括在 Glif 官网注册登录,打开 Token 注册页面等。 打开 Coze 中自定义的插件编辑参数选项,填入准备的 token 并保存,关闭对大模型的可见按钮。 Bot 通过 API 渠道发布更新。若多次尝试不成功,可优化 Coze Bot 中提示词,避免使用违规字词和图片内容。 5. 使用 Coze IDE 创建插件: 登录,在左侧导航栏的工作区区域选择进入指定团队。 在页面顶部进入插件页面或在某一 Bot 的编排页面,找到插件区域并单击+图标,单击创建插件。 在新建插件对话框,完成插件图标、名称、描述、插件工具创建方式、IDE 运行时等配置并单击确认。 在插件详情页,单击在 IDE 中创建工具,在弹出的创建工具对话框设置工具名称和介绍,创建后跳转到 Coze IDE 页面进行编码。 可在 IDE 左上角工具列表区域添加更多工具,在左下角依赖包区域管理依赖包。
2025-02-10
有什么ai浏览器插件
以下是一些 AI 浏览器插件: AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡,让网页链接分享看起来更高级。 核心特点:智能提取网页核心内容自动生成内容摘要,智能识别关键要点,简约现代的设计风格,一键生成分享卡片,内置二维码方便访问。 适用场景:图文内容、专栏转发与推广,哔哩哔哩、腾讯视频等剧集分享,产品官网推广,淘宝、京东商品分享等。 安装方式: 在 Chrome、Edge 等浏览器中安装插件,下载地址:https://aicard.eze.is 。 固定插件到浏览器工具栏,方便后续使用。在想分享的网页中,点击插件生成 AI 卡片,复制或下载图片即可轻松分享。 小技巧:在微信电脑版【点开图片】后【右键图片识别图中二维码】就可以访问链接。 安装方法有两种: 访问官网 https://aicard.eze.is ,即可开箱即用。 对于无法访问应用商店的用户,可以访问官网下载最新安装包,本地安装指南详见《AI Share Card 插件本地安装指南》。
2025-02-09
coze插件
以下是关于 coze 插件的相关内容: 通过已有服务 api 创建: 进入 coze,在个人空间中选择插件,新建一个插件并命名(如 api_1),在插件的 URL 部分填入 ngrok 随机生成的 https 链接地址。注意服务不能关闭,按照 coze 的指引配置输出参数,测试后发布插件。 完成插件创建后可手捏简单的 bot,将创建的插件接入,在 prompt 里设置调用插件,即可大功告成。 通过 Coze API 打造强大的微信图片助手: 先安装 COW 插件(),目前版本只针对图片处理。 在服务器后台找到 plugins/coze_wrapper/config.json.template 文件,复制粘贴相同目录下并改名为 config.json,根据自己 Coze 实现的功能和插件配置修改里面的配置项(开关、提示词等)。 重新启动 COW,扫码登录,发送一张图片测试各个功能。 使用 Coze IDE 创建插件: 登录,在左侧导航栏的工作区区域选择进入指定团队。 在页面顶部进入插件页面,或者在某一 Bot 的编排页面,找到插件区域并单击“+”图标,单击创建插件。 在新建插件对话框,完成插件图标(可选)、插件名称、插件描述、插件工具创建方式、IDE 运行时等配置并单击确认。 在插件详情页,单击在 IDE 中创建工具,在弹出的创建工具对话框设置工具名称和介绍,确定后跳转到 Coze IDE 页面进行编码。 (可选)在 IDE 左上角工具列表区域单击“+”图标添加更多工具,还可在左下角依赖包区域管理依赖包。 需要注意的是,本案例中使用的是 coze 国内版,整体过程仅为说明 coze 的插件指引好用。在生产环境中,如果已有准备好的 https 的 api,可直接接入。同时,ngrok 在本案例中仅供娱乐,生产环境中勿用。
2025-02-07
使用COZE搭建智能体的步骤
使用 COZE 搭建智能体的步骤如下: 1. 梳理手捏 AI Agent 的思路: 在上篇文章中提到过 Prompt 工程的必备能力,即通过逻辑思考,从知识经验中抽象表达出关键方法与要求,这一理念同样适用于在 Coze 中创建 AI Agent。 搭建工作流驱动的 Agent 简单情况可分为 3 个步骤: 规划:制定任务的关键方法,包括总结任务目标与执行形式,将任务分解为可管理的子任务,确立逻辑顺序和依赖关系,设计每个子任务的执行方法。 实施:分步构建和测试 Agent 功能。 完善:全面评估并优化 Agent 效果。 2. 分步构建和测试 Agent 功能: 首先进入 Coze,点击「个人空间 工作流 创建工作流」,打开创建工作流的弹窗。 根据弹窗要求,自定义工作流信息。 点击确认后完成工作流的新建,可以看到整个编辑视图与功能。 其中,左侧「选择节点」模块中,根据子任务需要,实际用上的有: 插件:提供一系列能力工具,拓展 Agent 的能力边界。本案例涉及的思维导图、英文音频,因为无法通过 LLM 生成,就需要依赖插件来实现。 大模型:调用 LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 而编辑面板中的开始节点、结束节点,则分别对应分解子任务流程图中的原文输入和结果输出环节。 接下来,按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 3. 全面评估并优化 Agent 效果: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。
2025-02-17
通过飞书机器人与 Coze 搭建的智能体进行对话
通过飞书机器人与 Coze 搭建智能体进行对话,实现跨平台的稍后读收集与智能阅读计划推荐,具体步骤如下: 1. 前期准备: 设计 AI 稍后读助手的方案思路,包括简化“收集”(实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作,输入 URL 完成收集,借鉴微信文件传输助手通过聊天窗口输入)、自动化“整理入库”(自动整理每条内容的关键信息,支持跨平台查看)、智能“选择”推荐(根据收藏记录和阅读兴趣生成阅读计划)。 2. 逐步搭建 AI 智能体: 经过配置得到两个可用工作流(整理入库、选择内容),将其编排为完整智能体。 配置过程包括创建 Bot、填写 Bot 介绍、切换模型为“通义千问”、把工作流添加到 Bot 中、新增变量{{app_token}}、添加外层 bot 提示词,完成后可在「预览与调试」窗口与智能体对话并使用全部功能。
2025-02-16
使用飞书机器人(如Coze智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)
以下是使用飞书机器人(如 Coze 智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)的相关内容: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口输入更符合用户习惯。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用步骤: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,然后复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。 目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,理论上无需开发任何插件、APP,就能实现跨平台的稍后读收集与智能阅读计划的推荐。部署完成后,您可以在电脑、手机端通过飞书机器人与稍后读助手进行对话,也可以直接在 Coze 商店中与 bot 进行对话,如果部署到微信服务号、订阅号,还可以通过这些渠道调用 bot。
2025-02-16
coze教程
以下是关于 Coze 教程的相关内容: 可能是全网最好的 Coze 教程之一,能一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南: 长文预警,请视情况收藏保存。 核心看点: 通过实际案例逐步演示,用 Coze 工作流构建一个能够稳定按照模板要求,生成结构化内容的 AI Agent。 开源 AI Agent 的设计到落地的全过程思路。 10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群: 任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍)。 希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 此外,还有以下关于 Coze 的介绍: Coze 是新一代一站式 AI Bot 开发平台。无论是否有编程基础,都可以在 Coze 平台上快速搭建基于 AI 模型的各类问答 Bot,从解决简单的问答到处理复杂逻辑的对话。并且,可以将搭建的 Bot 发布到各类社交平台和通讯软件上,与这些平台/软件上的用户互动。 个人认为:Coze 是字节针对 AI Agent 这一领域的初代产品,在 Coze 中将 AI Agent 称之为 Bot。字节针对 Coze 这个产品部署了两个站点,分别是国内版和海外版。 国内版: 网址:https://www.coze.cn 官方文档教程:https://www.coze.cn/docs/guides/welcome 大模型:使用的是字节自研的云雀大模型,国内网络即可正常访问。 海外版: 网址:https://www.coze.com 官方文档教程:https://www.coze.com/docs/guides/welcome 大模型:GPT4、GPT3.5 等大模型(可以在这里白嫖 ChatGPT4,具体参考文档:),访问需要突破网络限制的工具。 参考文档:https://www.coze.com/docs/zh_cn/welcome.html AI Agent 的开发流程: Bot 的开发和调试页面布局主要分为如下几个区块:提示词和人设的区块、Bot 的技能组件、插件、工作流、Bot 的记忆组件、知识库、变量、数据库、长记忆、文件盒子、一些先进的配置、触发器(例如定时发送早报)、开场白(用户和 Bot 初次对话时,Bot 的招呼话语)、自动建议(每当和 Bot 一轮对话完成后,Bot 给出的问题建议)、声音(和 Bot 对话时,Bot 读对话内容的音色)。下面会逐一讲解每个组件的能力以及使用方式。
2025-02-16
coze的deepseek实践
以下是关于 coze 的 deepseek 实践的相关信息: 一个提示词让 DeepSeek 的能力更上一层楼: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用:搜索 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 Deepseek,认真阅读开场白后正式开始对话。 设计思路:将 Agent 封装成 Prompt 并储存在文件,通过提示词文件让 DeepSeek 实现同时使用联网和深度思考功能,在模型默认能力基础上优化输出质量,设计阈值系统,用 XML 进行规范设定。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】提供思考方向,Thinking Claude 是设计灵感来源,Claude 3.5 Sonnet 是得力助手。 字节火山上线了 DeepSeek 系列模型并更改了模型服务价格: 2 月 14 日 8 点有直播,直播结束可看回放,相关学习文档可查看。 重点更新:上线 DeepSeek 系列模型,DeepSeekR1、V3 模型分别提供 50 万免费额度和 API 半价活动,即日起至 2025 年 2 月 18 日 23:59:59 所有用户均可享受价格优惠。 2024 年 7 月 18 日历史更新(归档): 《长文深度解析 Coze 的多 Agent 模式的实现机制》:艾木老师深入研究了 Coze 的多 Agent 模式机制,分析了三种节点跳转模式及应用场景和不足。 《揭秘 DeepSeek: 一个更极致的中国技术理想主义故事》:DeepSeek 以独特技术创新崭露头角,发布颠覆性价格的源模型 DeepSeek V2,创始人梁文锋是技术理想主义者。 《10 万卡集群:通往 AGI 的新门票》:分析了 10 万 GPU 集群建设的相关问题,指出数据中心设计和网络拓扑结构对大型 AI 训练集的重要性。
2025-02-16
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南中提到长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 相关比赛中的教程: 基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库(https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平(https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent(https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验(https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏(https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档(https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-02-16
100 万 tokens 什么概念
100 万 tokens 具有以下重要意义和影响: 算法视角:更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力经历了从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token 的发展历程。 产品视角:长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化。 具体应用:Gemini1.5 支持 100 万 token,可以一次性处理大量信息,比如 1 小时的视频,11 小时的音频,超过 30,000 行代码或超过 700,000 个单词的代码库。Claude2100 k 模型的上下文上限是 100k Tokens,即 100000 个 Token。ChatGPT16 k 模型的上下文上限是 16k Tokens,即 16000 个 Token;ChatGPT432 k 模型的上下文上限是 32k Tokens,即 32000 个 Token。Token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时,会遗忘最前面的对话。若想直观查看 GPT 如何切分 token,可以打开。此外,英文的 Token 占用相对于中文较少,因此很多中文长 Prompt 会被建议翻译成英文设定,然后要求中文输出。
2025-01-28
分析一下a16z 的ai top100榜单
以下是对 a16z 的 AI top100 榜单的分析: A16Z 的 AI top100 榜单聚焦生成式 AI 应用。自 ChatGPT 将生成式 AI 引入公众视野以来,已涌现出成千上万面向消费者的相关产品。 在 AI 陪伴方面,它已成为生成式 AI 的主流应用场景之一。例如,Character.AI 在网页端和移动端榜单上表现出色。网页端有八家 AI 陪伴公司进入榜单,移动端有两家。其中,多数产品自诩“无限制”,用户可进行不受限的对话或互动,且访问主要通过移动网页,平均 75%的流量来自移动设备。对于有移动应用的陪伴产品,用户参与度高,如 Character.AI 每位用户平均每月会话次数达 298 次,Poly.AI 为 74 次。 时隔六个月更新分析,超过 40%的公司是首次出现在榜单上。与六个月前相比,有 30%的新公司。名次进步最大的是 Suno,从第 36 名到第 5 名。移动端最多的应用是图像和视频编辑,占 22%。Luzia 服务西班牙语用户值得关注。字节多款应用上榜,包括 Coze、豆包、CiCi、醒图、Gauth。美学和约会应用开始增加,为用户提供相关建议。此外,Discord 流量值得关注,相当多的应用在其平台完成 PMF 验证。 原文链接:https://a16z.com/100genaiapps/ 作者:A16Z Olivia Moore 发布时间:2024.03.13 去年 9 月的报告:
2025-01-02
AI 100天学习日志
以下是关于雪梅 May 的 AI 学习日记的相关内容: 1. 适合人群:适合纯 AI 小白,若还在观望不知如何入手,可参考此日记。 2. 学习模式:学习模式为输入→模仿→自发创造。若对费曼学习法没自信,可尝试此模式。 3. 学习内容:日记中的学习内容因 AI 节奏快可能不适用,可去 waytoAGI 社区发现感兴趣的领域并学习最新内容。 4. 学习时间:在半年多时间跨度中,其中 100 天学习 AI,并非每天依次进行,有空时学习,目前作者已进行到 90 天。 5. 学习费用:学习资源免费开源。 此外,作者在第九阶段的感受是,想明白从让个人更优秀角度前进就有很多灵感,其学习路径为迈出第一步→大量的学习输入→疯狂的模仿→开始自己创造→学的越来越宽越来越杂→积累的量变产生质变→开始分享。在第二阶段,作者因自身工作选择了 AI agent 领域的 coze 进行学习,认为可根据自身熟悉领域选择学习方向,coze 适用所有人,无需代码基础和图文审美,只要能发现智能体需求,就可用工作流实现。
2025-01-02
coze 如何 100% 调用插件
在 Coze 中调用插件并非能 100% 保证成功,以下是一些相关信息: Coze 的工作流中,节点是基本单元,插件节点可用于扩展大语言模型本身的限制,实现特定功能,如抓取网页内容。 加入智能体后,会有调用次数的统计。 即使是官方插件也可能存在不稳定的情况,需要自行尝试找到适合当前场景的插件。 例如在微信图片助手的打造中,有以下操作: 任务 1 总结图片内容对应【识图小能手】等任务与相应插件存在对应关系,已在 Coze 插件商店上架,搜索关联即可。 配置插件时,需准备好 Glif 的 Token,在 Coze 中编辑参数选项填入 Token 并保存,同时关闭对大模型的可见按钮。 通过已有服务 api 创建插件时: 进入 Coze 个人空间选择插件,新建并命名,填入 ngrok 随机生成的 https 链接地址,配置输出参数,测试后发布。 手捏插件后可创建 bot 并接入插件,在 prompt 中要求调用插件。 需要注意的是,Coze 调用插件有一定随机性,对输入输出内容会有过滤,如果多次尝试不成功,可优化提示词使其更准确识别输入意图,且不要使用违规字词和图片内容。
2024-12-28
coze 如何 100% 调用工作流或插件
要 100% 调用 Coze 的工作流或插件,您可以参考以下内容: 实现工作流方面: 上传输入图片。 理解图片信息,提取图片中的文本内容信息。 进行场景提示词优化/图像风格化处理。 返回文本/图像结果。 搭建流程时,主要步骤包括上传图片(将本地图片转换为在线 OSS 存储的 URL,以便在平台中进行调用),以及将图片理解大模型和图片 OCR 封装为工作流插件(若市场中有可直接使用)。 Coze 简介: 插件:Coze 提供丰富的插件选项,允许通过 API 连接集成各种平台和服务,扩展 Bot 功能,可轻松调用或创建定制插件。 工作流:是强大的工具,用于设计和实施复杂的功能逻辑,通过拖拽不同任务节点构建多步骤任务,提高 Bot 处理任务效率。 图像流:提供可视化操作界面,允许灵活添加处理节点,设计图像处理流程。 触发器:允许 Bot 在设定的特定时间或发生特定事件时自动执行任务,是自动化处理的关键组件。 知识库:使您能够添加和利用本地或在线的文本内容和数据表,支持 Bot 提供更准确和实用的回答。 变量:帮助 Bot 存储用户的个人信息,如语言偏好,使回复更加个性化和精准。 数据库:提供简单高效的方式管理和操作结构化数据,支持自然语言的数据插入和查询,还支持多用户模式,提供灵活读写权限控制。 长期记忆:使 Bot 能够形成对用户的个人记忆,基于这些记忆提供个性化回复,提升用户体验。 卡片:允许自定义 Bot 生成内容的格式,以卡片形式展示,增强交互体验。 大模型:通过人设与回复逻辑中的一系列设定,编排 Bot 的具体执行任务和执行逻辑。 此外,判断任务/Prompt 是否需要拆解为工作流时,通常先从当前性能最强的 LLM 着手,用单条 Prompt 或 Prompt Chain 测试任务执行质量和稳定性,再根据实际情况逐步拆解子任务。对于场景多样、结构复杂、对输出格式要求严格的内容,基本可预见需要拆解为工作流。鉴于 LLM 只能处理文本输入输出的特性,涉及生成多媒体内容或从网络自主获取额外信息等能力时,必然需要通过工作流来调用相应的插件。
2024-12-28
撰写一篇汽车领域人工智能自动驾驶应用系统方案,参照以下要求:(1) 选题应为课程相关的技术或者原理的应用。 (2) 重点撰写第2部分技术与服务,必须要使用到课程中所学到或者相关技术。 (3) 第6部分财务分析可根据情况适当缩减。 (4) 整体架构可以根据选题进行调整,可适当增加章节或者删减。 (5) 字体大小、标题等必须和模板相同。篇幅20页以上,不少于10000字,小四,宋体。 以下为一篇样稿,可参考其框架撰写 城市智能停车服务系统建设方案 目 录 1 项目背景 1 1.1 项目背景
以下是为您撰写的汽车领域人工智能自动驾驶应用系统方案的部分内容,您可以根据实际需求进行进一步的完善和补充: 一、项目背景 人工智能在汽车行业的应用已经十分广泛,正在深刻改变汽车的各个方面。自动驾驶技术利用 AI 进行图像识别、传感器数据分析和决策制定,使汽车能够自主导航和驾驶,如特斯拉、Waymo 和 Cruise 等公司都在积极开发和测试自动驾驶汽车。车辆安全系统中,AI 用于增强自动紧急制动、车道保持辅助和盲点检测等功能,通过分析摄像头和传感器数据预防事故。个性化用户体验方面,AI 可根据驾驶员偏好调整车辆设置,包括座椅位置、音乐选择和导航系统。预测性维护通过分析车辆实时数据,预测潜在故障和维护需求,提高车辆可靠性和效率。在汽车制造中,AI 用于自动化生产线,优化生产流程和质量控制。汽车销售和市场分析中,AI 帮助分析市场趋势、消费者行为和销售数据,优化营销策略和产品定价。电动化和能源管理方面,AI 在电动汽车的电池管理和充电策略中发挥作用,提高能源效率和延长电池寿命。共享出行服务借助 AI 优化路线规划、车辆调度和定价策略,提升服务效率和用户满意度。语音助手和车载娱乐由 AI 驱动,允许驾驶员通过语音控制车辆功能、获取信息和娱乐内容。车辆远程监控和诊断利用 AI 系统远程监控车辆状态,提供实时诊断和支持。 二、技术与服务 1. 自动驾驶技术 传感器融合:采用多种传感器,如激光雷达、摄像头、毫米波雷达等,收集车辆周围环境信息。利用 AI 算法对这些多源数据进行融合和分析,提高环境感知的准确性和可靠性。 深度学习决策:基于深度神经网络,训练车辆的决策模型。通过大量的真实驾驶数据,让模型学习如何在各种复杂场景下做出最优的驾驶决策,如加速、减速、转向等。 模拟训练:利用虚拟仿真环境进行大规模的自动驾驶训练。在模拟环境中,可以快速生成各种复杂和罕见的交通场景,加速模型的训练和优化。 2. 车辆安全系统 实时监测与预警:利用 AI 实时分析来自车辆传感器的数据,如车速、加速度、转向角度等,以及外部环境信息,如道路状况、天气条件等。当检测到潜在的危险情况时,及时向驾驶员发出预警。 自动紧急制动:基于 AI 的图像识别和距离检测技术,当判断车辆即将与前方障碍物发生碰撞且驾驶员未采取制动措施时,自动启动紧急制动系统,降低事故风险。 3. 个性化用户体验 偏好学习:通过收集驾驶员的日常操作数据,如座椅调整习惯、音乐播放喜好、常用导航路线等,利用机器学习算法分析和学习驾驶员的偏好模式。 智能推荐:根据学习到的偏好,为驾驶员提供个性化的推荐,如座椅自动调整、音乐推荐、导航路线规划等。 4. 预测性维护 数据采集与分析:安装各类传感器收集车辆的运行数据,如发动机转速、油温、轮胎压力等。利用 AI 算法对这些数据进行分析,挖掘潜在的故障模式和趋势。 故障预测模型:建立基于机器学习的故障预测模型,提前预测可能出现的故障,并及时通知驾驶员和维修人员,安排预防性维护。 5. 生产自动化 质量检测:利用机器视觉技术和 AI 算法,对生产线上的汽车零部件进行自动检测,识别缺陷和瑕疵,提高产品质量。 生产流程优化:通过分析生产数据,如设备运行状态、生产节拍等,利用 AI 优化生产流程,提高生产效率,降低生产成本。 三、财务分析(可根据情况适当缩减) 1. 初始投资 技术研发费用:包括自动驾驶算法开发、硬件设备采购、测试场地建设等方面的费用。 车辆改装和设备安装成本:为实现自动驾驶功能,对车辆进行改装和安装相关传感器、计算设备等的成本。 2. 运营成本 数据采集和处理费用:持续收集车辆运行数据和环境数据,并进行处理和分析的费用。 维护和升级成本:对自动驾驶系统进行定期维护、软件升级和硬件更换的费用。 3. 收益来源 车辆销售增值:配备自动驾驶和智能功能的汽车可以提高售价,增加销售收入。 服务订阅费用:为用户提供个性化服务、远程监控和诊断等服务的订阅收费。 4. 盈利预测 根据市场需求、成本控制和收益增长情况,进行短期和长期的盈利预测。 以上内容仅供参考,您可以根据具体的项目需求和实际情况进一步完善和细化各个部分。
2024-12-27
你调用的是哪个大模型?
我调用的是抖音集团的云雀大模型。在一些项目中,还会涉及到其他大模型的调用,比如在 COW 项目中可直接调用千问的某一模型,需更改 key 和 model 等操作,且要实名认证。此外,军师联盟 BOT 工作流中会调用月之暗面 KIMI、豆包、Minimax、通义千问和智谱清言这五个大模型。
2025-02-14
coze 能调用用户自己部署的大模型吗
Coze 可以调用用户自己部署的大模型。例如: 在 Coze 上搭建工作流框架时,可通过“个人空间工作流创建工作流”进行操作,在编辑面板中拖入对应的大模型节点来实现各项文本内容的生成。 当在 COW 中直接调用千问的某一个大模型时,需要更改 key 和 model 等配置。获取 key 可参考相关的视频和图文教程,同时需要完成实名认证,否则可能出现报错。 在使用 Coze 做智能报表助手的过程中,也涉及到对大模型的运用,如将用户问题转换为 SQL 等。
2025-02-12
我应该如何调用你的知识库并用在本地部署的deepseek上呢
要在本地部署的 DeepSeek 上调用知识库,您可以参考以下步骤: 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。配置项包括最大召回数量、最小匹配度和调用方式等。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 此外,关于 DeepSeek 的提示词相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,参考 。 如何使用: Step1:搜索 www.deepseek.com,点击“开始对话”。 Step2:将装有提示词的代码发给 Deepseek。 Step3:认真阅读开场白之后,正式开始对话。 设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定)。 DeepSeekR1 提示词系统的核心原理认知包括: AI 特性定位:多模态理解,支持文本/代码/数学公式混合输入;动态上下文,对话式连续记忆(约 4K tokens 上下文窗口);任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架方面,如果不知道如何表达,还是可以套用框架指令,包括四要素模板和格式控制语法。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧包括思维链引导和知识库调用。思维链引导中的分步标记法为请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问为在得出最终结论前,请先列举三个可能存在的认知偏差。知识库调用包括领域限定指令和文献引用模式。
2025-02-11
请提供deepSeek api的具体调用文档
以下是关于 DeepSeek 的相关信息: 网址:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 使用方法: 搜索 www.deepseek.com ,点击“开始对话”。 将装有提示词的代码发给 DeepSeek 。 认真阅读开场白之后,正式开始对话。 特点: 很方便,只需要获得游戏代码即可。 对于新手较为推荐。 相关工具:HiDeepSeek 能让 DeepSeek 的能力更上一层楼,它能让 AI 像人类交流时那样展示思考过程,不是要让 AI 变得更聪明,而是要让其思考过程更易理解。使用时可参考以下步骤: 用 Coze 做小测试进行效果对比。 设计思路包括将 Agent 封装成 Prompt 并储存在文件、通过提示词文件让 DeepSeek 实现联网和深度思考功能、优化输出质量等。 完整提示词版本为 v 1.3 。 特别鸣谢李继刚和 Thinking Claude 等为相关设计提供帮助和灵感。
2025-02-08
你能调用deepseekR1的API吗?
DeepSeekR1 的 API 调用步骤如下: 1. 首先到 DeepSeek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。 2. 早期 DeepSeek 有赠送额度,如果没有赠送的余额,可以选择去充值。支持美元和人民币两种结算方式,以及各种个性化的充值方式。 3. 创建一个 API key,注意,API key 只会出现一次,请及时保存下来。 4. 接下来,下载 Cursor(https://www.cursor.com/),或者 VSCode(https://code.visualstudio.com/),只要代码编辑器可以下载插件即可。 5. 以 Cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roocline。 6. 安装完后,打开三角箭头,就可以看到 RooCline,选中并点击齿轮,进入设置,依次设置: API Provider:选择 DeepSeek。 API Key:填入已创建的 key。 模型:选择 DeepSeekreasoner。 语言偏好设置。 小贴士:记得把 HighRisk 选项都打开,这样 AI 才能帮您自动生成文件。 7. 最后做完所有不要忘记点击 Done 保存修改。 8. 在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。
2025-02-05
coze平台有没有DeepSeek的mml可以调用
在 Coze 平台上,DeepSeek 是可以调用的。以下是相关的具体信息: 效果对比:用 Coze 做了个小测试,大家可以对比看看,相关视频 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 这个项目是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
2025-02-03