Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何通过程序代码调用coze的api?

Answer

要通过程序代码调用 Coze 的 API,大致步骤如下:

  1. 创建一个插件:
    • 填入插件名和插件描述。
    • 选择云侧插件作为创建方式。
    • 选择 Python 作为 IDE 运行时。
    • 点击【在 IDE 中创建工具】。
    • 在创建工具面板里:
      • 填入工具名称。
      • 填入工具介绍。
  2. API 接入相关操作:
    • Glif 允许通过 API 调用平台上的应用,API 接入:https://docs.glif.app/api/getting-started 。
    • 注册 Token 页面创建一个新的 Token 并复制备用。
    • 将自己发布的 glif 链接上的 id 复制备用。
  3. 在 Coze 的 IDE 中:
    • 引入依赖和编写 handler 方法。
    • 代码中对应的数据字段在元数据 Tab 中设置:
      • 填写入参字段和描述,对完整链接要写清楚。
      • 填写出参字段。
    • 左侧的依赖包添加【requests】。
    • 填入测试数据运行,测试通过后即可发布。
  4. 创建一个 Bot,挂载新创建的插件,在 Prompt 中做一些对入参的校验和约束。
  5. 测试从 Coze 调用 Glif 功能跑通,发布 Coze。

另外,获取 Coze 的 accessToken 和 botid 时,需要了解以下内容:

  1. OAuth 授权的范围控制:
    • 个人空间:访问个人创建的 bot。
    • 团队空间:可以跨账号授权,比如让其他团队成员访问你创建的 bot。
  2. 跨账号授权流程:
    • 用户 A 在用户 B 的团队空间创建了 bot。
    • 用户 A 要使用这个 bot,需要:
      • 先让空间所有者(用户 B)安装这个 OAuth 应用。
      • 然后用户 A 才能获取授权码访问其在该团队空间创建的 bot。
  3. OAuth 和 PAT(个人访问令牌)的主要区别:
    • OAuth token 有效期更短,安全性更高。
    • OAuth 可以实现跨账号的授权。
    • PAT 只能访问个人的资源。

在 Coze 中用现有服务创建自己的 plugin 时:

  1. 进入 Coze,在个人空间中选择插件,新建一个插件,起名并填写描述。
  2. 在插件的 URL 部分,填入 Ngrok 随机生成的 https 的链接地址。
  3. 配置输出参数。
  4. 测试后发布插件。
  5. 创建 Bot 并接入创建的插件,在 prompt 中设置调用插件的相关要求。
Content generated by AI large model, please carefully verify (powered by aily)

References

Glif:图像流强大的多,使用和接入Coze

Glif虽好,但我们更熟悉Coze,那就把Glif的功能通过API方式接过来,Coze版【[Ai宠昵名](https://www.coze.cn/store/bot/7385145130602479655)】一,先要创建一个插件:1.填入插件名,插件描述。2.创建方式选择云侧插件。3.IDE运行时选择Python。点击【在IDE中创建工具】。创建工具面板里:1.填入工具名称。2.填入工具介绍。Glif是允许通过API调用平台上的应用,API接入:https://docs.glif.app/api/getting-started去[注册Token页面](https://glif.app/settings/api-tokens)创建一个新的Token并复制备用。将自己发布的glif链接上的id复制备用。在Coze的IDE中引入依赖和编写handler方法。代码中对应的数据字段在元数据Tab中设置:1.填写入参字段和描述,对完整链接要写清楚。2.填写出参字段。左侧的依赖包添加【requests】。填入测试数据运行,测试通过后即可发布。创建一个Bot,挂载新创建的插件即可,在Prompt中做一些对入参的校验和约束。最后,测试从Coze调用Glif功能跑通,发布Coze,大功告成~以上就是大致的思路了。通过这种插件的方式取长补短,可以将Glif作为Coze工作流中的一环,有效弥补图像流较弱影响整体效果~抛砖引玉,更多玩法大家多多探索~欢迎找我交流Glif使用心得和创新用法

大雨:获取coze的accessToken和botid

本文的目标是为了获取可以通过外部程序使用coze的api从这份OAuth文档,理解了几个关键点:1.OAuth授权的范围控制:个人空间:访问个人创建的bot团队空间:可以跨账号授权,比如让其他团队成员访问你创建的bot1.跨账号授权流程:用户A在用户B的团队空间创建了bot用户A要使用这个bot,需要:1.1.先让空间所有者(用户B)安装这个OAuth应用1.2.然后用户A才能获取授权码访问其在该团队空间创建的bot2.OAuth和PAT(个人访问令牌)的主要区别:OAuth token有效期更短,安全性更高OAuth可以实现跨账号的授权PAT只能访问个人的资源所以总结一下:PAT:只能访问自己的botOAuth:可以通过团队空间的方式访问其他人的bot,但需要空间所有者的授权这说明bot访问权限是基于空间(Space)来管理的,而不是单个bot。

CT: coze插件---通过已有服务api创建

饶了一大圈,终于到了coze。为啥要用Ngrok(泥脑壳),不是吃饱没事干,纯属coze要你干。进入coze,个人空间中,选择插件。新建一个插件,起个名字api_1(这名字就是这么随意,连描述都叫test)在插件的URL部分,填入刚才ngrok(泥脑壳)随机生成的https的链接地址。刚才开着服务的朋友,你的terminal应该还没关吧,关了的话,请重新从上一步开始。服务还开着的请继续。有一说一,coze的指引做的真不错,输出参数配置你的message输出就行。测试后发布插件[heading2]捏个简单的bot[content]手捏插件搞定之后,就开始搓bot。不过这个bot简单到手都没搓热就好了。创建了一个测试api的bot。将自己创建的api_1的插件接进来。prompt里面简单粗暴让它一定要调用我们的插件。然后就大功告成。[heading2][heading2]后续说明[content]这个整体过程仅仅为了说明coze的插件指引挺好用的。如果生产环境中已经有准备好的https的api,直接就可以接上来。PS:本案例中用的是coze国内版,反正是玩插件,对模型没啥要求。PPS:ngrok本案例中仅供娱乐,生产环境中勿用。PPPS:果然不会写代码,做个案例都这么简单。PPPPS:动手干,哪怕再简单,都是踏出去的第一步。(给自己菜也找个台阶下.......)Read in,Bot out.

Others are asking
ai可以帮我编写程序代码吗
AI 可以帮助您编写程序代码。以下是一些可以辅助编程、生成代码的 AI 工具: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能快速提供代码建议。 2. 通义灵码:阿里巴巴团队推出,提供多种编程相关能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费编程助手,基于大模型可快速生成代码。 5. Cody:Sourcegraph 推出的代码编写助手,借助强大的代码语义索引和分析能力了解整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费 AI 代码助手。 7. Codeium:由 AI 驱动的编程助手工具,提高编程效率和准确性。 更多辅助编程 AI 产品,还可以查看这里:https://www.waytoagi.com/category/65 。 每个工具的功能和适用场景可能不同,您可以根据自身需求选择最适合的工具。 在独立游戏开发中,也有使用 AI 辅助编写代码的经验。比如在《玩具帝国》中,对于一些简单、模板化、多调用 API 且只牵涉小部分特殊逻辑的代码,可以交给 AI 编写。以 Buff 系统为例,让 AI 仿照已有代码写一些 Buff 生成的结果可以直接使用。但目前生成复杂代码还需要复杂的前期调教,且不同的 AI 工具使用体验有所不同,如 Cursor 较麻烦,ChatGPT 相对方便。在教导 AI 时,要像哄小孩,正确的及时肯定,指出错误时要克制。
2025-01-12
给我推荐能写程序代码的ai工具
以下是一些可以写代码或辅助编程的 AI 工具: 1. GitHub Copilot:由全球最大的程序员社区和代码托管平台 GitHub 联合 OpenAI 和微软 Azure 团队推出的 AI 编程助手。它支持和兼容多种语言和 IDE,可为程序员快速提供代码建议,帮助开发者更快、更少地编写代码。 2. 通义灵码:阿里巴巴团队推出的一款基于通义大模型的智能编程辅助工具,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成、代码解释、研发智能问答、异常报错排查等能力。 3. CodeWhisperer:亚马逊 AWS 团队推出的 AI 编程软件,该代码生成器由机器学习技术驱动,可为开发人员实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源的免费 AI 编程助手,该工具基于 130 亿参数的预训练大模型,可以快速生成代码,帮助开发者提升开发效率。 5. Cody:代码搜索平台 Sourcegraph 推出的一款 AI 代码编写助手,该工具借助 Sourcegraph 强大的代码语义索引和分析能力,可以了解开发者的整个代码库,不止是代码片段。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供智能研发服务的免费 AI 代码助手,该产品是基于蚂蚁集团自研的基础大模型进行微调的代码大模型。 7. Codeium:一个由 AI 驱动的编程助手工具,旨在通过提供代码建议、重构提示和代码解释来帮助软件开发人员,以提高编程效率和准确性。 更多辅助编程 AI 产品,还可以查看这里:https://www.waytoagi.com/category/65 以上工具都可以帮助你提高编程效率,但是每个工具的功能和适用场景可能会有所不同,你可以根据自己的需求来选择最适合你的工具。 对于 Python 以及各种 AI 工具的使用学习,推荐: 1. B 站 up 主「PAPAYA 电脑教室」的 Python 入门课(很多课都很棒,而且完全免费)。 2. 对于现在的大模型,Andrej Karpathy 讲得很好,油管地址:https://www.youtube.com/watch?v=zjkBMFhNj_g ,B 站地址: 。 3. 对于资料库,非常推荐 AJ 和众多小伙伴们共创的资料库(一个飞书文档):🌈通往 AGI 之路(一个飞书文档),这应该是当下最全的中文 AI 资料库,免费、开源、共创。包含了几乎所有有价值的文档、文章、资料、资讯,并永远是第一时间更新,网址:https://waytoagi.feishu.cn/wiki/QPe5w5g7UisbEkkow8XcDmOpn8e 。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-08-10
在comfyUI中可以接入哪些api,又和3D相关的吗
在 ComfyUI 中可以接入以下与 3D 相关的 API: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材,并直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai ,https://x.com/xiaohuggg/status/1763758877999587757?s=20 2. Move AI 推出的 Move API:可以从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。链接:https://move.ai/api ,https://x.com/xiaohuggg/status/1761590288576061573?s=20 3. ComfyUI 3D Pack 引入 3D 图像处理:可以快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。链接:https://github.com/MrForExample/ComfyUI3DPack/tree/main ,https://x.com/xiaohuggg/status/1755824687811346514?s=20 此外,ZHO 博主有关于 ComfyUI 的更新记录: 1. 4 月 18 日,ComfyUI Stable Diffusion 3 API 已更新为 V1.5 版,图生图和 SD3 Turbo 都可以正常使用,但 SD3 图生图模式不支持选择比例,SD3 Turbo 模型不支持负面提示词。使用方法是先申请 API,然后填入 config.json 文件即可(每账户 25 免费积分),SD3 每张图 6.5 积分(比较贵)。项目地址:https://github.com/ZHOZHOZHO/ComfyUIStableDiffusion3API ,SD3 API ComfyUI 节点测试成功。 2. 4 月 17 日,Stability AI 刚刚发布了 Stable Diffusion 3 和 Stable Diffusion 3 Turbo,现在已经可通过 Stability AI 开发者平台 API 使用,SAI 计划在不久的将来通过会员资格提供模型权重。详情:https://bit.ly/3W43FjY
2025-01-14
国内coze调用api的例子
以下是国内 Coze 调用 API 的一些例子: 1. 通过已有服务 API 创建插件: 进入 Coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 链接地址。 按照 Coze 的指引配置输出参数,测试后发布插件。 2. 手捏简单的 Bot 并接入创建的插件:创建测试 API 的 Bot,将创建的 api_1 插件接入,在 prompt 里让其调用插件。 3. 测试 AI Bot 时可能遇到的情况:Coze 国内版刚发布不久,有些官方和第三方插件的 API 调用和返回结果不太稳定,可能出现回答不完整的情况,但相信官方会尽快解决。 4. 获取 Coze 的 accessToken 和 botid: 获取 accessToken:在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats,添加令牌,设置名称、过期时间和权限,完成后点击确定按钮并复制下拉令牌。 获取 botid:通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮查看地址栏中的数字即为 botid。 发布为 bot api:注意在前端使用 bot 必须发布成为 API,点击发布并选择 API,等待审核通过后可按上述方法拿到 botid。 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制。
2025-01-12
如果通过程序调用coze的api?
要通过程序调用 Coze 的 API,您需要以下步骤: 1. 获取 accessToken: 在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats 。 找到“个人访问令牌”,添加令牌。设置令牌的名称和过期时间(最多 1 个月),并选择权限。 完成后点击“确定”按钮,一定要点击按钮复制下拉获取令牌,因为该令牌只会出现一次。 2. 获取 botid: 通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮,查看地址栏中的数字即为 botid。 注意:如果要在前端使用 bot,必须将其发布成为 API,点击发布并选择 API,等审核通过后即可按上述方法拿到 botid。 3. 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制出来。 此外,OAuth 授权的范围控制包括个人空间和团队空间。个人空间可访问个人创建的 bot,团队空间可以跨账号授权。OAuth 和 PAT(个人访问令牌)的主要区别在于 OAuth token 有效期更短、安全性更高且可以实现跨账号授权,而 PAT 只能访问个人的资源。 如果要将 Glif 的功能通过 API 方式接入 Coze,步骤如下: 1. 先创建一个插件: 填入插件名和插件描述。 创建方式选择云侧插件。 IDE 运行时选择 Python,点击【在 IDE 中创建工具】。 在创建工具面板里:填入工具名称和工具介绍。 2. 进行相关设置: 去创建一个新的 Token 并复制备用。 将自己发布的 glif 链接上的 id 复制备用。 在 Coze 的 IDE 中引入依赖(如 requests)和编写 handler 方法。 在代码中对应的数据字段在元数据 Tab 中设置,包括填写入参字段和描述、出参字段等。 3. 填入测试数据运行,测试通过后即可发布。创建一个 Bot,挂载新创建的插件,在 Prompt 中做一些对入参的校验和约束。最后,测试从 Coze 调用 Glif 功能跑通,发布 Coze。
2025-01-12
AI换衣API推荐, 并多维度对比,选择最适合的API推荐给我
以下为您推荐的 AI 换衣相关的 API 并进行多维度对比: Comfyui_Object_Migration: 特点:可高精度迁移服装样式到目标人物图像,保持高一致性和细节完整性,支持从卡通到写实的风格互相转换,甚至可将平面角色图像转换为可 3D 打印的模型。 应用场景:虚拟角色服装设计迁移到真实照片、为动画角色添加写实服装、微调权重生成独特服装设计。 详细介绍及教程: GitHub: 在选择适合的 AI 大模型 API 服务时,需要考虑以下因素: 对于像开发 AI Share Card 插件这类情况,如果将模板生成功能设计为固定的代码组件,让大模型专注于内容总结的功能,那么对模型的要求就不会过高。 选型要求包括:较长的上下文窗口,因为内容总结类任务需要较大的上下文长度;响应速度要快、并发支持要高,以在多人使用插件时保持良好性能;免费或尽量低价,以减少模型 token 费用。例如,AI Share Card 选用的是 GLM4flash(截至 202412,长达 128k 的上下文窗口,完全免费的调用价格,200 RPM 高并发支持)。
2025-01-08
数字人api
以下是关于数字人 API 的相关信息: HeyGen 开放数字人 API,提供虚拟人制作、视频翻译和互动虚拟人等功能,可应用于在线营销、客户支持、培训教程等多场景,助力打造全球化、多语言互动数字体验。相关链接: 出门问问提供语音合成(TTS)API,接口请求域名:https://open.mobvoi.com/api/tts/v1,接口请求频率限制为 5 次/秒。其语音合成技术可以将任意文本转化为语音,应用场景广泛,如视频 APP 配音解说、小说 App 有声阅读等,并提供多种方言和风格。请求参数方面,HTTP Method 支持 POST 请求。 如果您对 ComfyUI 部署不了解,但想体验并使用数字人照片的驱动及 AI 配音,可以微信搜索「奇妙元」「魔音工坊」,或扫描二维码。若在实操中遇到报错问题,如打开 ComfyUI 调用 api 的节点丢失爆红,需检查是否下载了 api 节点的包,放进 node 里再试试;若输出节点框显示 404,可查看 text 文字情况,也可以获取生成的链接,从浏览器的页面打开即可下载。目前发现官方的 python311 版本和节点有安装依赖冲突,若节点正确放到节点文件夹仍然爆红请使用 python310 运行安装环境依赖。若使用 310 仍然爆红,可以联系 Wechat:9755294(备注 ComfyUI)。
2025-01-08
文生图 api
以下是关于文生图 API 的相关信息: 10 月 AI 行业大事记中,LiblibAI 开放了全新生图 API。 文生图的简易上手教程如下: 定主题:明确生成图片的主题、风格和要表达的信息。 选择 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 设置 VAE:通常选择 840000 即可。 CLIP 跳过层(Liblibai 中):设为 2。 Prompt 提示词:用英文写想要生成的内容,以单词和短语组合,用英文半角逗号隔开,无需考虑语法和长句。 负向提示词 Negative Prompt:同样用英文单词和短语组合,隔开方式相同,写明想要避免生成的内容。 采样方法:一般选 DPM++2M Karras 较多,也可参考模型作者推荐的采样器。 采样次数/迭代步数:选 DPM++2M Karras 时,通常在 30 40 之间,过多意义不大且慢,过少出图效果差。 尺寸:根据个人喜好和需求选择。 生成批次(Liblibai 中):默认 1 批。 对于 ControlNet 和局部重绘,可后续再学习。
2025-01-07
Coze扣子这个智能体搭建平台是什么?能做什么?作为一个非IT专业的普通人,怎么学习用它来创建智能体?学习的路径和步骤
Coze 扣子是一款基于自然语言处理和人工智能技术的智能助手平台,具有以下特点和功能: 1. 提供丰富的插件生态,能帮助用户快速实现个性化的智能应用,无需编写复杂代码。 2. 经过一年多的用户打磨,插件生态和分发渠道对个人用户够用,上手难度不高,信息获取插件丰富。 3. 推出专业版服务,主要特性包括企业级 SLA 保障、高级特性支持(如批量处理、私有数据等)以及更优惠的计费项。 对于非 IT 专业的普通人,学习用它来创建智能体的路径和步骤如下: 1. 体验和了解 Coze 扣子平台的基本功能和操作,熟悉其界面和常用工具。 2. 学习相关的基础知识,例如自然语言处理的基本概念、智能体的工作原理等。 3. 参考平台提供的教程和示例,逐步尝试创建简单的智能体。 4. 加入相关的学习交流群,与其他用户交流经验,共同学习进步。 需要注意的是,目前提示词攻击在业内是公开的秘密,像扣子这样的智能体编排平台,其热门智能体的核心提示词可能会被轻易获取,存在一定的安全风险。
2025-01-12
我想看到国内在coze平台上的一些AI agent的开放源,怎么才能看到
以下是一些国内的 Agent 构建平台及 Coze 平台的相关信息: Agent 构建平台: Coze:是新一代一站式 AI Bot 开发平台,集成丰富插件工具,涵盖从基础文本处理到高级机器学习功能,还有众多符合平民生活化的插件,如新闻资讯、天气预报、出行必备、生活便利等方面的插件。 Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景方面表现出色。 要查看 Coze 平台上的 AI agent 开源内容,您可以通过以下途径尝试:在相关的技术社区、开源代码托管平台(如 GitHub 等)上进行搜索,或者关注 Coze 平台的官方网站及开发者论坛获取相关信息。但需注意,开源内容的获取可能受到平台规定和开发者授权的限制。
2025-01-12
我想看到在coze平台上的一些AI agent的开放源,怎么才能看到
在 Coze 平台上,以下是一些 AI Agent 的开源项目: 此外,以下是一些常见的 Agent 构建平台: Coze:新一代的一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。 Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景。 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。
2025-01-12
coze智能体是什么
智能体(Agent)是随着 ChatGPT 与 AI 概念爆火而出现的新名词,简单理解就是 AI 机器人小助手。参照移动互联网,类似 APP 应用的概念。AI 大模型是技术,面向用户提供服务的是产品,因此很多公司关注 AI 应用层的产品机会。 在做 Agent 创业的公司有不少,比如 C 端有社交方向,用户注册后先捏一个自己的 Agent,然后让其与他人的 Agent 聊天,两个 Agent 聊到一起后真人再介入;还有借 Onlyfans 入局打造个性化聊天的创业公司。B 端如果字节扣子和腾讯元器是面向普通人的低代码平台,类似 APP 时代的个人开发者,还有机会帮助 B 端商家搭建 Agent,类似 APP 时代专业做 APP 的。 扣子 Coze 是字节推出的 AI 聊天机器人构建平台的国内版,于 2 月 1 日正式上线,主要用于开发下一代 AI 聊天机器人。国内还有很多智能体开发平台,如 Dify.AI 等。 以下是一些 Agent 构建平台: 1. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具,可拓展 Bot 能力边界。 2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据自身需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 以上信息由 AI 大模型生成,请仔细甄别。
2025-01-11
工作流中如何调用插件
在工作流中调用插件的方式如下: 1. 触发器触发: 为 Bot 设置触发器,可选择定时触发或事件触发。 触发时执行任务的方式包括 Bot 提示词、调用插件、调用工作流。 调用插件时,需为触发器添加一个插件,触发后 Bot 会调用该插件获取返回结果并发送给用户。 一个 Bot 内的触发器最多可添加 10 个,且仅当 Bot 发布飞书时生效。 2. 在 Bot 内使用插件: 在 Bots 页面,选择指定 Bot 并进入 Bot 编排页面。 在 Bot 编排页面的插件区域,单击加号图标添加插件,或者单击自动添加图标,让大语言模型自动添加适用的插件。使用大语言模型自动添加插件后,需检查被添加的插件是否可以正常使用。 在添加插件页面,展开目标插件查看工具,然后单击添加。单击我的工具,可查看当前团队下可用的插件。 在 Bot 的人设与回复逻辑区域,定义何时使用插件,然后在预览与调试区域测试插件功能是否符合预期。 3. 在工作流中使用插件节点: 在页面顶部进入工作流页面,然后创建工作流或选择一个已创建的工作流。 在页面左侧,单击插件页签。 搜索并选择插件,然后单击加号图标。 在工作流的画布内,连接插件节点,并配置插件的输入和输出。 需要注意的是,即使是官方插件也可能存在不稳定的情况,需要自己去尝试,找到适合当前场景的插件。
2025-01-14
单轮对话与多轮对话调用
单轮对话与多轮对话调用: 聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息格式化,然后交替使用用户消息和助手消息。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 百炼相关 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 记得第一天提到,规定模型不能用搜索和投喂输出文本。比赛是不是只限在提示词调试的范围内呢? 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
通过 API 调用大模型
以下是通过 API 调用大模型的相关步骤: 1. 创建大模型问答应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布。 2. 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件:需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 4. 本地部署教学(node.js)小白推荐: 申请大模型的 API 接口: silicon 硅基接口:官方提供的接入 API 的教学文档。以平时使用的 silicon 接口为例,有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用。另赠送 14 元体验金,有效期未知,是个人认为 API 接口最方便最实惠的接口了。silicon 注册和使用地址:邀请码:ESTKPm3J(谢谢支持)。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥。单击密钥即可完成 API 密钥的复制。silicon 支持多种大模型,也支持文生图、图生图、文生视频,可自行探索。这一步得到 silicon 的密钥即可,我们可以调用千问 2.5 的这个模型,满足日常对话完全没有问题,并且是免费调用的。 智普 GLM4 接口:正在 BigModel.cn 上用智谱 API 打造新一代应用服务,通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利,期待和您一起在 BigModel 上探索 AGI 时代的应用;链接:https://www.bigmodel.cn/invite?icode=xxcbnybpRLOsZGMNOkqaLnHEaazDlIZGj9HxftzTbt4%3D。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 APIkey。这一步做的是注册 silicon 和智普 GLM 的大模型账号,申请 API 密钥,保存密钥,等下配置需要填写。密钥一定要保管好不能公开,否则后果很严重。
2025-01-06
开源模型与闭源模型调用
以下是关于开源模型与闭源模型调用的相关信息: 1. 通义千问自 2023 年 8 月起密集推出 Qwen、Qwen1.5、Qwen2 三代开源模型,Qwen 系列的 72B、110B 模型多次登顶 HuggingFace 的 Open LLM Leaderboard 开源模型榜单。Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已上线中国大语言模型评测竞技场 Compass Arena,所有人都可登录体验其性能或进行对比测评,测评地址为。Compass Arena 集齐了国内主流的 20 多款大模型,用户可在平台选择大模型的两两“对战”。 2. 部分声称性能卓越的中国大模型被揭露为“套壳”产品,如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,其团队承认在训练过程中沿用了开源架构,但坚称发布的模型从零开始训练并进行了大量原创优化和突破。此外,字节跳动被曝出在其秘密研发的大模型项目中调用了 OpenAI 的 API,并使用 ChatGPT 的输出数据来训练自己的模型,此行为触犯了 OpenAI 使用协议中禁止的条款。 3. 在 LLM 应用程序中,OpenAI 已成为语言模型领域领导者,开发者通常使用 OpenAI API 启动新的 LLM 应用,如 gpt4 或 gpt432k 模型。项目投入生产并规模化时,有更多选择,如切换到 gpt3.5turbo,其比 GPT4 便宜约 50 倍且速度更快;与其他专有供应商如 Anthropic 的 Claude 模型进行实验;将一些请求分流到开源模型,这通常与微调开源基础模型结合更有意义。开源模型有多种推理选项,包括 Hugging Face 和 Replicate 的简单 API 接口、主要云提供商的原始计算资源等。
2025-01-06