Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如果通过程序调用coze的api?

Answer

要通过程序调用 Coze 的 API,您需要以下步骤:

  1. 获取 accessToken:
    • 在 Coze 界面右侧扣子 API - 授权,或者打开链接 https://www.coze.cn/open/oauth/pats 。
    • 找到“个人访问令牌”,添加令牌。设置令牌的名称和过期时间(最多 1 个月),并选择权限。
    • 完成后点击“确定”按钮,一定要点击按钮复制下拉获取令牌,因为该令牌只会出现一次。
  2. 获取 botid:
    • 通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮,查看地址栏中的数字即为 botid。
    • 注意:如果要在前端使用 bot,必须将其发布成为 API,点击发布并选择 API,等审核通过后即可按上述方法拿到 botid。
  3. 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制出来。

此外,OAuth 授权的范围控制包括个人空间和团队空间。个人空间可访问个人创建的 bot,团队空间可以跨账号授权。OAuth 和 PAT(个人访问令牌)的主要区别在于 OAuth token 有效期更短、安全性更高且可以实现跨账号授权,而 PAT 只能访问个人的资源。

如果要将 Glif 的功能通过 API 方式接入 Coze,步骤如下:

  1. 先创建一个插件:
    • 填入插件名和插件描述。
    • 创建方式选择云侧插件。
    • IDE 运行时选择 Python,点击【在 IDE 中创建工具】。
    • 在创建工具面板里:填入工具名称和工具介绍。
  2. 进行相关设置:
    • 注册 Token 页面创建一个新的 Token 并复制备用。
    • 将自己发布的 glif 链接上的 id 复制备用。
    • 在 Coze 的 IDE 中引入依赖(如 requests)和编写 handler 方法。
    • 在代码中对应的数据字段在元数据 Tab 中设置,包括填写入参字段和描述、出参字段等。
  3. 填入测试数据运行,测试通过后即可发布。创建一个 Bot,挂载新创建的插件,在 Prompt 中做一些对入参的校验和约束。最后,测试从 Coze 调用 Glif 功能跑通,发布 Coze。
Content generated by AI large model, please carefully verify (powered by aily)

References

大雨:获取coze的accessToken和botid

本文的目标是为了获取可以通过外部程序使用coze的api从这份OAuth文档,理解了几个关键点:1.OAuth授权的范围控制:个人空间:访问个人创建的bot团队空间:可以跨账号授权,比如让其他团队成员访问你创建的bot1.跨账号授权流程:用户A在用户B的团队空间创建了bot用户A要使用这个bot,需要:1.1.先让空间所有者(用户B)安装这个OAuth应用1.2.然后用户A才能获取授权码访问其在该团队空间创建的bot2.OAuth和PAT(个人访问令牌)的主要区别:OAuth token有效期更短,安全性更高OAuth可以实现跨账号的授权PAT只能访问个人的资源所以总结一下:PAT:只能访问自己的botOAuth:可以通过团队空间的方式访问其他人的bot,但需要空间所有者的授权这说明bot访问权限是基于空间(Space)来管理的,而不是单个bot。

Glif:图像流强大的多,使用和接入Coze

Glif虽好,但我们更熟悉Coze,那就把Glif的功能通过API方式接过来,Coze版【[Ai宠昵名](https://www.coze.cn/store/bot/7385145130602479655)】一,先要创建一个插件:1.填入插件名,插件描述。2.创建方式选择云侧插件。3.IDE运行时选择Python。点击【在IDE中创建工具】。创建工具面板里:1.填入工具名称。2.填入工具介绍。Glif是允许通过API调用平台上的应用,API接入:https://docs.glif.app/api/getting-started去[注册Token页面](https://glif.app/settings/api-tokens)创建一个新的Token并复制备用。将自己发布的glif链接上的id复制备用。在Coze的IDE中引入依赖和编写handler方法。代码中对应的数据字段在元数据Tab中设置:1.填写入参字段和描述,对完整链接要写清楚。2.填写出参字段。左侧的依赖包添加【requests】。填入测试数据运行,测试通过后即可发布。创建一个Bot,挂载新创建的插件即可,在Prompt中做一些对入参的校验和约束。最后,测试从Coze调用Glif功能跑通,发布Coze,大功告成~以上就是大致的思路了。通过这种插件的方式取长补短,可以将Glif作为Coze工作流中的一环,有效弥补图像流较弱影响整体效果~抛砖引玉,更多玩法大家多多探索~欢迎找我交流Glif使用心得和创新用法

大雨:获取coze的accessToken和botid

coze在一直在快速更新迭代,如果页面有变化,请留言本文档[heading2]在coze界面右侧扣子API-授权[content]或者打开链接https://www.coze.cn/open/oauth/pats[heading2]添加令牌[content]找到“个人访问令牌”,添加令牌设置这个token的名词,和过期时间,过期以后这个token就无法在使用coze的功能了。这里的名称方便我们自己记忆就可以了。简单理解就是个人能使用coze的一个钥匙,只不过这个钥匙是有时效的。为了安全起见,最多是1个月。也就是说,我们一个月就要换个token下面设置权限,我们这次是打算使用自己做的网站去访问bot,选择会话管理和对话就可以了。如果拿不准全部都选上也可以,以后熟悉了再调整完成以后,点击“确定”按钮。[heading2]获取令牌[content]最后完成了,记得一定要点按钮复制下拉,这个令牌(token)只会出现一次。[heading1]获取botid[heading2]通过工作空间获取[content]这里的botid是指我们发布到商店以后的链接,比如从“工作空间”打开一个bot点击打开以后,找到商店按钮看一下地址栏,里面这串数字就是botid这里就是7446721044808810522[heading2]发布为bot api[content]注意:我们如果在前端要使用bot,它必须发布成为是API点击发布选择这里的API等它审核通过了,就可以按上面的方法拿到botid了[heading1]获取空间id[content]进入coze以后,左边打开工作空间。找到url,里面有个id,复制出来比如我的是https://www.coze.cn/space/7439012204332711970/library对于的space的id就是7439012204332711970

Others are asking
国内coze调用api的例子
以下是国内 Coze 调用 API 的一些例子: 1. 通过已有服务 API 创建插件: 进入 Coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 链接地址。 按照 Coze 的指引配置输出参数,测试后发布插件。 2. 手捏简单的 Bot 并接入创建的插件:创建测试 API 的 Bot,将创建的 api_1 插件接入,在 prompt 里让其调用插件。 3. 测试 AI Bot 时可能遇到的情况:Coze 国内版刚发布不久,有些官方和第三方插件的 API 调用和返回结果不太稳定,可能出现回答不完整的情况,但相信官方会尽快解决。 4. 获取 Coze 的 accessToken 和 botid: 获取 accessToken:在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats,添加令牌,设置名称、过期时间和权限,完成后点击确定按钮并复制下拉令牌。 获取 botid:通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮查看地址栏中的数字即为 botid。 发布为 bot api:注意在前端使用 bot 必须发布成为 API,点击发布并选择 API,等待审核通过后可按上述方法拿到 botid。 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制。
2025-01-12
如何通过程序代码调用coze的api?
要通过程序代码调用 Coze 的 API,大致步骤如下: 1. 创建一个插件: 填入插件名和插件描述。 选择云侧插件作为创建方式。 选择 Python 作为 IDE 运行时。 点击【在 IDE 中创建工具】。 在创建工具面板里: 填入工具名称。 填入工具介绍。 2. API 接入相关操作: Glif 允许通过 API 调用平台上的应用,API 接入:https://docs.glif.app/api/gettingstarted 。 去创建一个新的 Token 并复制备用。 将自己发布的 glif 链接上的 id 复制备用。 3. 在 Coze 的 IDE 中: 引入依赖和编写 handler 方法。 代码中对应的数据字段在元数据 Tab 中设置: 填写入参字段和描述,对完整链接要写清楚。 填写出参字段。 左侧的依赖包添加【requests】。 填入测试数据运行,测试通过后即可发布。 4. 创建一个 Bot,挂载新创建的插件,在 Prompt 中做一些对入参的校验和约束。 5. 测试从 Coze 调用 Glif 功能跑通,发布 Coze。 另外,获取 Coze 的 accessToken 和 botid 时,需要了解以下内容: 1. OAuth 授权的范围控制: 个人空间:访问个人创建的 bot。 团队空间:可以跨账号授权,比如让其他团队成员访问你创建的 bot。 2. 跨账号授权流程: 用户 A 在用户 B 的团队空间创建了 bot。 用户 A 要使用这个 bot,需要: 先让空间所有者安装这个 OAuth 应用。 然后用户 A 才能获取授权码访问其在该团队空间创建的 bot。 3. OAuth 和 PAT的主要区别: OAuth token 有效期更短,安全性更高。 OAuth 可以实现跨账号的授权。 PAT 只能访问个人的资源。 在 Coze 中用现有服务创建自己的 plugin 时: 1. 进入 Coze,在个人空间中选择插件,新建一个插件,起名并填写描述。 2. 在插件的 URL 部分,填入 Ngrok 随机生成的 https 的链接地址。 3. 配置输出参数。 4. 测试后发布插件。 5. 创建 Bot 并接入创建的插件,在 prompt 中设置调用插件的相关要求。
2025-01-12
AI换衣API推荐, 并多维度对比,选择最适合的API推荐给我
以下为您推荐的 AI 换衣相关的 API 并进行多维度对比: Comfyui_Object_Migration: 特点:可高精度迁移服装样式到目标人物图像,保持高一致性和细节完整性,支持从卡通到写实的风格互相转换,甚至可将平面角色图像转换为可 3D 打印的模型。 应用场景:虚拟角色服装设计迁移到真实照片、为动画角色添加写实服装、微调权重生成独特服装设计。 详细介绍及教程: GitHub: 在选择适合的 AI 大模型 API 服务时,需要考虑以下因素: 对于像开发 AI Share Card 插件这类情况,如果将模板生成功能设计为固定的代码组件,让大模型专注于内容总结的功能,那么对模型的要求就不会过高。 选型要求包括:较长的上下文窗口,因为内容总结类任务需要较大的上下文长度;响应速度要快、并发支持要高,以在多人使用插件时保持良好性能;免费或尽量低价,以减少模型 token 费用。例如,AI Share Card 选用的是 GLM4flash(截至 202412,长达 128k 的上下文窗口,完全免费的调用价格,200 RPM 高并发支持)。
2025-01-08
数字人api
以下是关于数字人 API 的相关信息: HeyGen 开放数字人 API,提供虚拟人制作、视频翻译和互动虚拟人等功能,可应用于在线营销、客户支持、培训教程等多场景,助力打造全球化、多语言互动数字体验。相关链接: 出门问问提供语音合成(TTS)API,接口请求域名:https://open.mobvoi.com/api/tts/v1,接口请求频率限制为 5 次/秒。其语音合成技术可以将任意文本转化为语音,应用场景广泛,如视频 APP 配音解说、小说 App 有声阅读等,并提供多种方言和风格。请求参数方面,HTTP Method 支持 POST 请求。 如果您对 ComfyUI 部署不了解,但想体验并使用数字人照片的驱动及 AI 配音,可以微信搜索「奇妙元」「魔音工坊」,或扫描二维码。若在实操中遇到报错问题,如打开 ComfyUI 调用 api 的节点丢失爆红,需检查是否下载了 api 节点的包,放进 node 里再试试;若输出节点框显示 404,可查看 text 文字情况,也可以获取生成的链接,从浏览器的页面打开即可下载。目前发现官方的 python311 版本和节点有安装依赖冲突,若节点正确放到节点文件夹仍然爆红请使用 python310 运行安装环境依赖。若使用 310 仍然爆红,可以联系 Wechat:9755294(备注 ComfyUI)。
2025-01-08
文生图 api
以下是关于文生图 API 的相关信息: 10 月 AI 行业大事记中,LiblibAI 开放了全新生图 API。 文生图的简易上手教程如下: 定主题:明确生成图片的主题、风格和要表达的信息。 选择 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 设置 VAE:通常选择 840000 即可。 CLIP 跳过层(Liblibai 中):设为 2。 Prompt 提示词:用英文写想要生成的内容,以单词和短语组合,用英文半角逗号隔开,无需考虑语法和长句。 负向提示词 Negative Prompt:同样用英文单词和短语组合,隔开方式相同,写明想要避免生成的内容。 采样方法:一般选 DPM++2M Karras 较多,也可参考模型作者推荐的采样器。 采样次数/迭代步数:选 DPM++2M Karras 时,通常在 30 40 之间,过多意义不大且慢,过少出图效果差。 尺寸:根据个人喜好和需求选择。 生成批次(Liblibai 中):默认 1 批。 对于 ControlNet 和局部重绘,可后续再学习。
2025-01-07
如何系统学习API知识
系统学习 API 知识可以从以下几个方面入手: 1. 首先,要对 API 的概念有清晰的理解。API 就像是一个信差,它接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。 2. 系统地了解和学习 API 相关的知识。 3. 去网上寻找可以用的 API 来练习。 4. 发掘 GPT Action 更多的潜力。 5. 构建自己的知识体系。可以通过后续看到的不同的教程和资料,识别这些知识之间的共性和逻辑关系,然后继续深化对这个主题的理解。 6. 对于一些不熟悉的 API,需要在 Prompt 里告诉它要怎样使用。 7. 最后提炼一下 Action 的工作流:首先,想一下您想要做一个什么样的 GPT,以及是否需要外部数据(这两个谁先谁后不重要);然后,去您需要的外部数据寻找 API 文档,或者基于您的需求,自己开发一个 API,寻找市面上可以直接用的 Action;最后,基于 API 文档,编写 Action 里的 Schema,和 Prompt(如何处理取回来的信息)。 同时,在使用 API 时还需要注意以下几点: 1. 对于文本补全(Text completion),该 API 能够理解文本的上下文并以不同方式重新表述它。 2. 限制 API 制造答案可能性的方法有:为 API 提供基础事实信息;使用较低概率并告诉 API 如何说“我不知道”。 3. 对于涉及理解或生成代码等任务,建议使用 Codex 模型处理。
2025-01-07
Coze扣子这个智能体搭建平台是什么?能做什么?作为一个非IT专业的普通人,怎么学习用它来创建智能体?学习的路径和步骤
Coze 扣子是一款基于自然语言处理和人工智能技术的智能助手平台,具有以下特点和功能: 1. 提供丰富的插件生态,能帮助用户快速实现个性化的智能应用,无需编写复杂代码。 2. 经过一年多的用户打磨,插件生态和分发渠道对个人用户够用,上手难度不高,信息获取插件丰富。 3. 推出专业版服务,主要特性包括企业级 SLA 保障、高级特性支持(如批量处理、私有数据等)以及更优惠的计费项。 对于非 IT 专业的普通人,学习用它来创建智能体的路径和步骤如下: 1. 体验和了解 Coze 扣子平台的基本功能和操作,熟悉其界面和常用工具。 2. 学习相关的基础知识,例如自然语言处理的基本概念、智能体的工作原理等。 3. 参考平台提供的教程和示例,逐步尝试创建简单的智能体。 4. 加入相关的学习交流群,与其他用户交流经验,共同学习进步。 需要注意的是,目前提示词攻击在业内是公开的秘密,像扣子这样的智能体编排平台,其热门智能体的核心提示词可能会被轻易获取,存在一定的安全风险。
2025-01-12
我想看到国内在coze平台上的一些AI agent的开放源,怎么才能看到
以下是一些国内的 Agent 构建平台及 Coze 平台的相关信息: Agent 构建平台: Coze:是新一代一站式 AI Bot 开发平台,集成丰富插件工具,涵盖从基础文本处理到高级机器学习功能,还有众多符合平民生活化的插件,如新闻资讯、天气预报、出行必备、生活便利等方面的插件。 Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景方面表现出色。 要查看 Coze 平台上的 AI agent 开源内容,您可以通过以下途径尝试:在相关的技术社区、开源代码托管平台(如 GitHub 等)上进行搜索,或者关注 Coze 平台的官方网站及开发者论坛获取相关信息。但需注意,开源内容的获取可能受到平台规定和开发者授权的限制。
2025-01-12
我想看到在coze平台上的一些AI agent的开放源,怎么才能看到
在 Coze 平台上,以下是一些 AI Agent 的开源项目: 此外,以下是一些常见的 Agent 构建平台: Coze:新一代的一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。 Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景。 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。
2025-01-12
coze智能体是什么
智能体(Agent)是随着 ChatGPT 与 AI 概念爆火而出现的新名词,简单理解就是 AI 机器人小助手。参照移动互联网,类似 APP 应用的概念。AI 大模型是技术,面向用户提供服务的是产品,因此很多公司关注 AI 应用层的产品机会。 在做 Agent 创业的公司有不少,比如 C 端有社交方向,用户注册后先捏一个自己的 Agent,然后让其与他人的 Agent 聊天,两个 Agent 聊到一起后真人再介入;还有借 Onlyfans 入局打造个性化聊天的创业公司。B 端如果字节扣子和腾讯元器是面向普通人的低代码平台,类似 APP 时代的个人开发者,还有机会帮助 B 端商家搭建 Agent,类似 APP 时代专业做 APP 的。 扣子 Coze 是字节推出的 AI 聊天机器人构建平台的国内版,于 2 月 1 日正式上线,主要用于开发下一代 AI 聊天机器人。国内还有很多智能体开发平台,如 Dify.AI 等。 以下是一些 Agent 构建平台: 1. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具,可拓展 Bot 能力边界。 2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据自身需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 以上信息由 AI 大模型生成,请仔细甄别。
2025-01-11
工作流中如何调用插件
在工作流中调用插件的方式如下: 1. 触发器触发: 为 Bot 设置触发器,可选择定时触发或事件触发。 触发时执行任务的方式包括 Bot 提示词、调用插件、调用工作流。 调用插件时,需为触发器添加一个插件,触发后 Bot 会调用该插件获取返回结果并发送给用户。 一个 Bot 内的触发器最多可添加 10 个,且仅当 Bot 发布飞书时生效。 2. 在 Bot 内使用插件: 在 Bots 页面,选择指定 Bot 并进入 Bot 编排页面。 在 Bot 编排页面的插件区域,单击加号图标添加插件,或者单击自动添加图标,让大语言模型自动添加适用的插件。使用大语言模型自动添加插件后,需检查被添加的插件是否可以正常使用。 在添加插件页面,展开目标插件查看工具,然后单击添加。单击我的工具,可查看当前团队下可用的插件。 在 Bot 的人设与回复逻辑区域,定义何时使用插件,然后在预览与调试区域测试插件功能是否符合预期。 3. 在工作流中使用插件节点: 在页面顶部进入工作流页面,然后创建工作流或选择一个已创建的工作流。 在页面左侧,单击插件页签。 搜索并选择插件,然后单击加号图标。 在工作流的画布内,连接插件节点,并配置插件的输入和输出。 需要注意的是,即使是官方插件也可能存在不稳定的情况,需要自己去尝试,找到适合当前场景的插件。
2025-01-14
单轮对话与多轮对话调用
单轮对话与多轮对话调用: 聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息格式化,然后交替使用用户消息和助手消息。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 百炼相关 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 记得第一天提到,规定模型不能用搜索和投喂输出文本。比赛是不是只限在提示词调试的范围内呢? 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
通过 API 调用大模型
以下是通过 API 调用大模型的相关步骤: 1. 创建大模型问答应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布。 2. 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件:需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 4. 本地部署教学(node.js)小白推荐: 申请大模型的 API 接口: silicon 硅基接口:官方提供的接入 API 的教学文档。以平时使用的 silicon 接口为例,有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用。另赠送 14 元体验金,有效期未知,是个人认为 API 接口最方便最实惠的接口了。silicon 注册和使用地址:邀请码:ESTKPm3J(谢谢支持)。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥。单击密钥即可完成 API 密钥的复制。silicon 支持多种大模型,也支持文生图、图生图、文生视频,可自行探索。这一步得到 silicon 的密钥即可,我们可以调用千问 2.5 的这个模型,满足日常对话完全没有问题,并且是免费调用的。 智普 GLM4 接口:正在 BigModel.cn 上用智谱 API 打造新一代应用服务,通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利,期待和您一起在 BigModel 上探索 AGI 时代的应用;链接:https://www.bigmodel.cn/invite?icode=xxcbnybpRLOsZGMNOkqaLnHEaazDlIZGj9HxftzTbt4%3D。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 APIkey。这一步做的是注册 silicon 和智普 GLM 的大模型账号,申请 API 密钥,保存密钥,等下配置需要填写。密钥一定要保管好不能公开,否则后果很严重。
2025-01-06
开源模型与闭源模型调用
以下是关于开源模型与闭源模型调用的相关信息: 1. 通义千问自 2023 年 8 月起密集推出 Qwen、Qwen1.5、Qwen2 三代开源模型,Qwen 系列的 72B、110B 模型多次登顶 HuggingFace 的 Open LLM Leaderboard 开源模型榜单。Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已上线中国大语言模型评测竞技场 Compass Arena,所有人都可登录体验其性能或进行对比测评,测评地址为。Compass Arena 集齐了国内主流的 20 多款大模型,用户可在平台选择大模型的两两“对战”。 2. 部分声称性能卓越的中国大模型被揭露为“套壳”产品,如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,其团队承认在训练过程中沿用了开源架构,但坚称发布的模型从零开始训练并进行了大量原创优化和突破。此外,字节跳动被曝出在其秘密研发的大模型项目中调用了 OpenAI 的 API,并使用 ChatGPT 的输出数据来训练自己的模型,此行为触犯了 OpenAI 使用协议中禁止的条款。 3. 在 LLM 应用程序中,OpenAI 已成为语言模型领域领导者,开发者通常使用 OpenAI API 启动新的 LLM 应用,如 gpt4 或 gpt432k 模型。项目投入生产并规模化时,有更多选择,如切换到 gpt3.5turbo,其比 GPT4 便宜约 50 倍且速度更快;与其他专有供应商如 Anthropic 的 Claude 模型进行实验;将一些请求分流到开源模型,这通常与微调开源基础模型结合更有意义。开源模型有多种推理选项,包括 Hugging Face 和 Replicate 的简单 API 接口、主要云提供商的原始计算资源等。
2025-01-06
可以搭建微信小程序的AI有哪些
以下是一些可以用于搭建微信小程序的 AI 相关工具和方法: 1. 通过 Zion 可以以 API 形式链接并搭建,相关教程可参考: 自定义配置方面,变现模版 UI 交互、API、数据库等拓展功能,支持在 Zion 内自由修改,可参考文档配置。支付相关可参考: Zion 支持小程序、Web、AI 行为流全栈搭建,APP 端全栈搭建预计 2025 上线。 2. Coze 变现模板正在全新升级,微信小程序变现模版正在开发中,12 月将会上线。目前实现小程序端可以通过 API 形式搭建,可参考 API 形式。同时有△AI 变现的小程序端案例。
2025-01-13
ai可以帮我编写程序代码吗
AI 可以帮助您编写程序代码。以下是一些可以辅助编程、生成代码的 AI 工具: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能快速提供代码建议。 2. 通义灵码:阿里巴巴团队推出,提供多种编程相关能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费编程助手,基于大模型可快速生成代码。 5. Cody:Sourcegraph 推出的代码编写助手,借助强大的代码语义索引和分析能力了解整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费 AI 代码助手。 7. Codeium:由 AI 驱动的编程助手工具,提高编程效率和准确性。 更多辅助编程 AI 产品,还可以查看这里:https://www.waytoagi.com/category/65 。 每个工具的功能和适用场景可能不同,您可以根据自身需求选择最适合的工具。 在独立游戏开发中,也有使用 AI 辅助编写代码的经验。比如在《玩具帝国》中,对于一些简单、模板化、多调用 API 且只牵涉小部分特殊逻辑的代码,可以交给 AI 编写。以 Buff 系统为例,让 AI 仿照已有代码写一些 Buff 生成的结果可以直接使用。但目前生成复杂代码还需要复杂的前期调教,且不同的 AI 工具使用体验有所不同,如 Cursor 较麻烦,ChatGPT 相对方便。在教导 AI 时,要像哄小孩,正确的及时肯定,指出错误时要克制。
2025-01-12
现在用AI做小程序界面设计比较好的工具有哪些
以下是一些用于小程序界面设计的较好的 AI 工具: 1. Midjourney:目前是较容易上手的工具,对于新手是不错的入门选择。现阶段的 AI 能辅助进行设计,视觉效果吸睛。在 Midjourney 中生成 UI 设计图没有固定的 Prompt,可先使用指令模板「ui design forapplication,mobile app,iPhone,iOS,Apple Design Award,screenshot,single screen,high resolution,dribbble」,把“类型”替换成想设计产品的关键词描述(英文)。例如出行类可使用“距离、车费、费用结算、优惠金额、地图”等关键词,餐饮类可使用“介绍咖啡的特色、口味、咖啡豆产地、价格”等关键词,运动类可使用“卡路里、步数、距离、某种运动”等描述。 2. UIzard:利用 AI 技术生成用户界面的工具,可根据设计师提供的信息快速生成 UI 设计。 3. Figma:基于云的设计工具,提供自动布局和组件库,其社区开发的一些 AI 插件可增强设计流程。 4. Sketch:流行的矢量图形设计工具,插件系统中一些插件利用 AI 技术辅助设计工作,例如自动生成设计元素等。 此外,在 CAD 图绘制方面,也有一些相关的 AI 工具和插件,如: 1. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具。 2. Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件,能创建复杂几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,可创建复杂 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,能根据用户输入的设计目标和约束条件自动生成 3D 模型。 5. 一些主流 CAD 软件(如 Autodesk 系列、SolidWorks 等)提供的基于 AI 的生成设计工具,可根据输入的设计目标和约束条件自动产生多种设计方案。但使用这些工具通常需要一定的 CAD 知识和技能,对于初学者建议先学习基本的 3D 建模技巧。
2025-01-10
Java 程序员如何从 0 到 1 开发微调模型
以下是 Java 程序员从 0 到 1 开发微调模型的步骤和相关信息: 准备工作: 假设您已经按照相关说明准备了训练数据。 使用 OpenAI CLI 进行微调: 1. 明确从哪里 BASE_MODEL 开始的基本模型的名称(如 ada、babbage、curie 或 davinci),您可以使用后缀参数自定义微调模型的名称。 2. 运行相关命令,该命令会执行以下操作: 使用文件 API 上传文件(或使用已经上传的文件)。 创建微调作业。 流式传输事件直到作业完成(这通常需要几分钟,但如果队列中有很多作业或您的数据集很大,则可能需要数小时)。 关于基本模型: 每个微调工作都从一个默认为 curie 的基本模型开始。模型的选择会影响模型的性能和运行微调模型的成本。您的模型可以是 ada、babbage、curie 或 davinci。请访问定价页面了解有关微调费率的详细信息。 微调作业的时间: 开始微调作业后,可能需要一些时间才能完成。在系统中,您的工作可能排在其他工作之后,训练模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。如果事件流因任何原因中断,您可以通过运行特定命令恢复它。工作完成后,它应该显示微调模型的名称。 微调的优势: 1. 比即时设计更高质量的结果。 2. 能够训练比提示中更多的例子。 3. 由于更短的提示而节省了 Token。 4. 更低的延迟请求。 微调的步骤: 1. 准备和上传训练数据。 2. 训练新的微调模型。 3. 使用您的微调模型。 可微调的模型: 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。 安装建议: 建议使用 OpenAI 命令行界面。要安装这个,运行相关指令(以下说明适用于 0.9.4 及更高版本。此外,OpenAI CLI 需要 python 3)。通过将相关行添加到您的 shell 初始化脚本(例如.bashrc、zshrc 等)或在微调命令之前的命令行中运行它来设置您的环境变量。 此外,还有“大圣:全网最适合小白的 Llama3 部署和微调教程”,其核心代码全部参考如下开源项目: 。该教程有诸多亮点,如教您如何购买算力,手把手教您下载并部署 Llama3 模型,使用甄嬛数据集微调 Llama3 模型等,但不会讲解微调的技术性原理以及文中会用到的 Python 代码,且需要您充值 50 块钱购买算力的预充值。
2025-01-04
如何检查Python程序的对错
以下是一些检查 Python 程序对错的方法: 1. 使用 Fitten Code 编程助手: 解释代码:选中代码段然后右键选择“Fitten Code–解释代码”。 自动生成测试:选中代码段后右键选择“Fitten Code–生成单元测试”。 检查 BUG:选中对应代码段,然后右键选择“Fitten Code 查找 Bug”。 编辑代码:选中代码段右键选择“Fitten Code–编辑代码”。 2. 基础报错副本处理: 遇到报错可尝试使用 ZHO 的 ChatGPT 的机器人,网址:https://chatgpt.com/g/gB3qi2zKGBcomfyuiassistant 。 紫色框报错:模型错误(没有下载到模型)。 红色框报错:节点错误(没有正确安装好节点)节点丢失。 安装完成后启动报错: 问题排查一:检查环境,是否为 python 3.10.9,安装,选个目录,勾选上 path。然后安装 git 再装环境,拉代码,干净的 comfyui。 问题排查二:检查魔法是否开启,pip install torch torchvision torchaudio extraindexurlxformers,这一步,里面有一个 2.xg 的文件下载和安装,魔法不好,中途断了,很可能导致安装不成功,需要多试。 问题排查三:在 comfyUI 的文件夹里 shift+右键启动 powershall 。 Error occurred when executing TranslateTextNode:问题原因是魔法节点不稳定,翻译用的是谷歌翻译,解决办法是更改魔法或者更换翻译。 输入 Python main.py 命令行的时候出问题:运行 python.exe m pip install upgrade pip 然后再重新按手记安装依赖环境。 3. 对于特定的 main.py 脚本: 运行诗歌相机脚本:$python main.py 。 设置一个 cron 作业以在启动时运行 python 脚本: 首先,crontab 使用默认编辑器打开文件:$crontab e 。 然后将以下行添加到您的 crontab,以在启动计算机时运行该脚本:@reboot python /home/pi/poetrycamerarpi/main.py >> /home/pi/poetrycamerarpi/errors.txt 2>&1 。 将 {...}errors.txt 2>&1 任何错误消息写入以 errors.txt 进行调试。常见的故障模式是找不到文件。确保所有文件路径都是绝对文件路径并且具有正确的用户名和目录名。 重新启动系统以使此生效:sudo reboot 。 尝试单击快门和电源按钮以确保它们在重新启动后正常工作。如果它们不起作用,请检查您的 errors.txt 文件。
2025-01-04