直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

coze 如何 100% 调用工作流或插件

回答

首先设置快捷指令,然后在快捷指令里面绑定某个工作流即可。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Glif:图像流强大的多,使用和接入Coze

Glif虽好,但我们更熟悉Coze,那就把Glif的功能通过API方式接过来,Coze版【[Ai宠昵名](https://www.coze.cn/store/bot/7385145130602479655)】一,先要创建一个插件:1.填入插件名,插件描述。2.创建方式选择云侧插件。3.IDE运行时选择Python。点击【在IDE中创建工具】。创建工具面板里:1.填入工具名称。2.填入工具介绍。Glif是允许通过API调用平台上的应用,API接入:https://docs.glif.app/api/getting-started去[注册Token页面](https://glif.app/settings/api-tokens)创建一个新的Token并复制备用。将自己发布的glif链接上的id复制备用。在Coze的IDE中引入依赖和编写handler方法。代码中对应的数据字段在元数据Tab中设置:1.填写入参字段和描述,对完整链接要写清楚。2.填写出参字段。左侧的依赖包添加【requests】。填入测试数据运行,测试通过后即可发布。创建一个Bot,挂载新创建的插件即可,在Prompt中做一些对入参的校验和约束。最后,测试从Coze调用Glif功能跑通,发布Coze,大功告成~以上就是大致的思路了。通过这种插件的方式取长补短,可以将Glif作为Coze工作流中的一环,有效弥补图像流较弱影响整体效果~

大聪明:保姆级教程:Coze 打工你躺平

对于轻度用户,你并不需要工作流对于重度用户,工作流的最好教程参见官方文档:https://www.coze.cn/docs/guides/welcome为什么我用工作流这里举个例子,当大模型调用写邮件的插件时,可能出现以下问题:速度慢:虽然内容已经生成好了,但调用插件时仍然会重新生成可能错:大模型经常会输出一些不正确的文字,如果这些内容在比如邮件地址上,会造成较为严重的影响为了减少这些问题,我会采取一些工作流+代码的组合方法我的工作流(仅供参考,轻度用户可直接略过)这是主工作流,将用户的原始输入,直接传送给插件WebPilot。其中,用另一个另一个工作流AI Project进行样式注入这是AI Project工作流,是将用户的输入,通过代码的方式,加上样式信息这个是中间用到的python代码这个是结合这个工作流,修改的「人设与回复逻辑」优化好之后,就能以更快的速度,进行更好的输出了,就比如这个

大聪明:保姆级教程:Coze 打工你躺平

对于轻度用户,你并不需要工作流对于重度用户,工作流的最好教程参见官方文档:https://www.coze.cn/docs/guides/welcome为什么我用工作流这里举个例子,当大模型调用写邮件的插件时,可能出现以下问题:速度慢:虽然内容已经生成好了,但调用插件时仍然会重新生成可能错:大模型经常会输出一些不正确的文字,如果这些内容在比如邮件地址上,会造成较为严重的影响为了减少这些问题,我会采取一些工作流+代码的组合方法我的工作流(仅供参考,轻度用户可直接略过)这是主工作流,将用户的原始输入,直接传送给插件WebPilot。其中,用另一个另一个工作流AI Project进行样式注入这是AI Project工作流,是将用户的输入,通过代码的方式,加上样式信息这个是中间用到的python代码这个是结合这个工作流,修改的「人设与回复逻辑」优化好之后,就能以更快的速度,进行更好的输出了,就比如这个

其他人在问
获取视频音频转化成字幕并翻译的插件有么?
以下是一些可以将视频音频转化成字幕并翻译的插件和工具: 1. Reccloud:免费的在线 AI 字幕生成工具,可直接上传视频进行精准识别,能对识别的字幕进行翻译,自动生成双语字幕。声称已处理 1.2 亿+视频,识别准确率接近 100%。 2. 绘影字幕:一站式专业视频自动字幕编辑器,提供简单、准确、快速的字幕制作和翻译服务,支持 95 种语言,准确率高达 98%,还可自定义字幕样式。 3. Arctime:能对视频语音自动识别并转换为字幕,甚至支持自动打轴,支持 Windows 和 Linux 等主流平台,支持 SRT 和 ASS 等字幕功能。 4. 网易见外:国内知名语音平台,支持视频智能字幕功能,转换正确率较高,支持音频转写功能。 此外,关于语音转文本(Speech to text),语音转文本 API 提供了两个端点,基于开源大型v2 Whisper 模型的转录和翻译。目前文件上传限制为 25MB,支持 mp3、mp4、mpeg、mpga、m4a、wav 和 webm 等输入文件类型。 对于提示词翻译,可使用百度翻译 API,方法如下: 1. 下载节点压缩包,并将它放在 custom_nodes 文件夹。 2. 去百度翻译 Api 登记册开发人员的帐户中得到您的 appid 和 secretKey,百度翻译平台地址:https://fanyiapi.baidu.com/manage/developer 。 3. 打开文件 config.py 在记事本或其他编辑工具中,填写您的 secretKey 并保存文件,重启 Comfy 即可。 以上工具各有特点,您可以根据自己的需求选择最适合的。内容由 AI 大模型生成,请仔细甄别。
2024-11-02
给我推荐一个最好的文本校对插件
以下为您推荐的文本校对相关插件: 读书神器:利用扣子平台的大模型等搭建工作流,能提供书籍的创作背景、章节大纲、故事详情、原文金句、读后感、豆瓣点评、相关推荐书籍、书籍插图等详尽内容。 Kimi Copilot 网页总结助手:这是一款实用的浏览器插件,可对网页文本进行总结和生成摘要。您可以在,不方便下载的话文末附下载链接。使用时需在浏览器中登录自己的 Kimi 账号并关联网页版。
2024-10-28
帮我生成一个浏览器插件,功能为可以拦截页面的广告
很抱歉,目前无法直接为您生成一个具有拦截页面广告功能的浏览器插件。但一般来说,开发这样的插件需要具备以下步骤和技术知识: 1. 选择合适的编程语言,如 JavaScript 等。 2. 了解浏览器的扩展开发框架和 API,不同的浏览器可能有不同的要求和接口。 3. 实现广告检测和拦截的算法,这可能涉及到对网页元素的分析和识别。 4. 处理与浏览器的兼容性问题,确保在各种主流浏览器上都能正常工作。 如果您不具备相关的开发技能,也可以在各大浏览器的应用商店中寻找已有的广告拦截插件来满足您的需求。
2024-10-24
利用ai分析excel的工具或者插件推荐
以下是一些可用于利用 AI 分析 Excel 的工具或插件推荐: 1. Excel Labs:这是一个 Excel 插件,新增了基于 OpenAI 技术的生成式 AI 功能,允许用户在 Excel 中直接利用 AI 进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了 Word、Excel、PowerPoint、Outlook、Teams 等办公软件,用户通过聊天形式告知需求,Copilot 会自动完成如数据分析或格式创建等任务。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 随着技术的不断发展,未来可能会有更多 AI 功能被集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。内容由 AI 大模型生成,请仔细甄别。
2024-09-28
我想开发coze 平台对接Nontion的插件怎么做?
很抱歉,目前知识库中没有关于开发 coze 平台对接 Notion 插件的具体内容。但一般来说,开发这样的插件需要以下几个主要步骤: 1. 了解 coze 平台和 Notion 的接口规范和技术要求。 2. 设计插件的功能和架构,明确数据的交互方式和流程。 3. 选择适合的开发语言和工具,并进行相关的技术准备。 4. 按照设计进行编码实现,处理数据的获取、传输、转换等操作。 5. 进行充分的测试,包括功能测试、兼容性测试、性能测试等,确保插件的稳定性和可靠性。 6. 部署和发布插件,可能需要遵循 coze 平台和 Notion 的相关规定和流程。 由于缺乏具体的技术细节和相关规范,以上步骤仅为一般性的指导,实际开发过程中可能会遇到各种具体的技术难题和需求,需要您进一步深入研究和探索。
2024-09-20
chatgpt-on-wechat 总结群聊插件
以下是关于 chatgptonwechat 总结群聊插件的相关信息: sum4all 插件: 本项目为大模型内容总结服务,有微信插件、telegram 机器人、iOS 快捷指令三个版本,其中微信插件需要自行部署,需配合 chatgptonwechat 项目。 支持联网搜索。 支持多轮追问。 支持文章链接总结,且支持发送到在线笔记。 支持文件内容总结,包括 pdf、docx、markdown、txt、xls、csv、html、ppt。 支持图片总结,包括 png、jpeg、jpg(最近好像不行,也可能是配置有误)。 支持视频、播客内容总结,包括抖音、b 站、小红书、YouTube 等。 支持多种内容总结服务,可自由组合。 支持自定义 prompt。 支持自定义搜索、追问提示词。 googleSearchOnWechat 插件: 插件介绍:通过 Google 搜索或图像搜索来获取信息,并利用 ChatGPT 对结果进行总结,以获得更精准和详细的答案。同时,搜图功能让用户能够通过在网络上搜索图片来增加可玩性。 git 地址:https://github.com/Yanyutin753/googleSearchOnWechat.git
2024-09-17
如何用Coze智能体自动提前飞书知识库内容
要使用 Coze 智能体自动提取飞书知识库内容,您可以参考以下步骤: 1. 创建智能体: 手动清洗数据:上节课程是自动清洗数据,自动清洗可能出现数据不准的情况,本节尝试手动清洗以提高准确性。例如创建画小二课程的 FAQ 知识库,飞书在线文档中每个问题和答案以分割,可点击编辑修改和删除,然后添加 Bot 并在调试区测试效果。 本地文档:对于本地 word 文件,注意拆分内容以提高训练数据准确度,例如将画小二课程按章节进行人工标注和处理,然后创建自定义清洗数据的知识库。 发布应用:点击发布,确保在 Bot 商店中能搜到。 2. 创建机器人: 访问 Coze 官网(网址:Coze.cn)创建。 人设与回复逻辑设置。 创建知识库: 飞书知识库:在飞书中选择对应文件夹,一次最多选择 20 个文件(文件多可多建几个知识库),可选择自动进行数据清洗,图片资料会保留,测试对话,目前 Coze 存在不稳定版本,需调试完善。 Excel 知识库:可增加其他形式的知识库,上传表格的知识库不要过于复杂,不要有合并表格情况,系统不认不同的 Sheet,数据处理完成会显示 100%进度,加工出来的数据点击添加 Bot 增加到知识库中,然后测试发布和返回。 网页知识库:有自动采集和手动采集两种方式,手动采集需安装插件,可选择批量添加,写入网址,将全站数据解析并保存到知识库,按照默认自动清洗数据。 此外,在前期准备中,梳理 AI 智能体的功能需求时,要注意在稍后读的知识管理场景中,简化“收集”环节,自动化“整理”环节,根据待阅读内容列表的主题和当前阅读兴趣智能“选择”相关内容、推荐个人阅读计划。
2024-11-05
制作Coze智能体
以下是制作 Coze 智能体的步骤: 1. 打开 Coze 官网(https://www.coze.cn/home)。 2. 创建图像工作流,图像流分为智能生成、智能编辑、基础编辑三类,其很像 ComfyUI,但更普世化且简单易上手。 3. 空间风格化插件有相关参数,如 image_url 是毛坯房的图片地址;Strength 是提示词强度,影响效果图;Style 是生成效果的风格,如新中式、日式、美式、欧式、法式等;user_prompt 是用户输入的 Promot 提示词。 4. 按照构架配置工作流,包括调试效果和测试毛坯房等。 5. 开始节点对应配置三项内容,进行提示词优化。 6. 设定人设和回复逻辑,技能 1 中 3 项中的编译数字来源,然后点击右上角发布。 另外,分步构建和测试 Agent 功能时: 首先进入 Coze,点击「个人空间工作流创建工作流」,打开创建工作流的弹窗。根据弹窗要求自定义工作流信息,点击确认完成新建。编辑视图与功能中,左侧「选择节点」模块根据子任务需要,实际用到插件(提供能力工具)、大模型(生成文本内容)、代码(处理数据)。编辑面板中的开始节点和结束节点分别对应原文输入和结果输出环节。按照流程图在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,完成工作流框架搭建。
2024-11-05
coze是用python实现的码
Coze 可以使用 Python 实现。在 Coze 中,搭建工作流框架时,左侧的“选择节点”模块中有支持编写简单 Python 脚本的“代码”节点,可对数据进行处理。例如,在“大圣:我用 Coze 搓了一个乞丐版的秘塔搜索”中,代码节点的逻辑是将输入的内容处理成两个字段,即 contexts 字段(所有 snippet+title+link 的平铺,用来丢给大模型进行处理)和 references 字段(所有的引用)。代码块对于非程序员来说运用有一定难度,但在 AI 时代,学习一些基础语法就足够,具体逻辑可让 AI 帮忙编写。
2024-11-04
coze 工作流里的循环怎么使用
在 Coze 工作流中,循环的使用方法如下: 1. 左侧工具栏选择“循环”节点。这个节点主要由两部分组成:循环节点和循环体。整体逻辑是从循环节点设置循环次数和循环项,如果输入的是数组,循环次数就是数组的长度,类似于 for 语句,每次循环项就是数组中的值。说人话就是会根据您输入的内容自动判断循环几次,来使用循环体里的逻辑处理每一项。 2. 我们这里希望循环处理的逻辑是,对上一步中的每一篇内容在数据库中进行查询,如果查到了,证明之前推送过,本次工作流就不处理了,避免重复推送。如果没有查到,证明是一篇新的文章,继续工作流后边的内容。 3. 循环体内部——数据库节点:用来在数据库中查询是否已经推送过该篇文章,输入项为上一步中的 url 和开始节点的 key(也就是 server 酱的 sendkey,这里我们重命名为 suid 了)。因为这个 Bot 最开始设计的时候,就考虑到可能有多个用户会同时使用这个 Bot 设置公众号推送内容,每个用户设置的公众号内容可能不一样,每个用户的要推送的微信号肯定也不一样,所以这里使用 server 酱的 sendkey 作为了用户的唯一标识,重命名为了 suid。所以这里查询数据库需要两个值,文章 url 和用户的 suid,来判断这名用户的这篇文章是否推送过。SQL 语句是 AI 写的,直接复制就成。记得设置一下输出项“combined_output”。这步是必须项:Coze 平台的逻辑是数据库是与 bot 绑定的,所有如果要使用数据库功能,需要在 bot 中设置一个相同名称和数据结构的数据库进行绑定,具体设置方法参见“相关资源”。 4. 循环体内容——选择器:判断数据库查询的内容是否为空,如果是空,证明数据库中没有查到,这篇文章没有给这名用户推送过,使用“文本处理”节点,拼接这篇文章的完整信息,保证信息一致性。string1:开始节点的 key,也就是 server 酱的 sendkey,用来识别用户;string2:循环节点 item 值中的 url;string3:循环节点 item 值中的 title;string4:循环节点 item 值中的 author。拼接为如下格式,方便输出,并让后边节点使用。右下方的“文本处理”节点没有实际作用,输入项随便写,主要是为了处理数据库查询到已经给这名用户推送过这篇文章情况下的占位项,否则工作流会报错。设置循环节点输出项,选择循环体中“输出新文章内容”拼接后的字符串。 此外,在大模型组件中,批处理,也就是迭代处理,允许我们对集合或数组中的每个元素进行批量处理。这种处理方式通过依次遍历集合或数组,使得每个元素都能经过相同的处理流程。批处理的关键在于其能够通过有限循环实现高效的数据处理。批处理中,我们可以设置循环次数,也就是迭代的次数。例如,在 Coze 的大模型组件中,最多可以支持 200 次的循环,这相当于一个 200 次的 for 循环,允许我们对 200 个元素进行连续的处理。此外,批处理还涉及到并发量的问题。这里的并发量指的是在单次迭代中同时处理的元素数量。通过调整并发量,我们可以在一次循环中同时处理多个元素,从而提高处理效率。例如,如果集合中有 200 个元素,我们可以设置每次同时处理 5 个元素,这样只需要 40 次循环就可以完成整个集合的处理。
2024-11-03
给我一些与coze 知识库搭建应用相关的文章
以下是一些与 Coze 知识库搭建应用相关的文章: 1. 目的是帮助非编程人士理解 AI 时代的知识库,读完可收获: AI 时代知识库的概念、实现原理及能力边界。 通往 AGI 之路大群中通过对话获取知识库中资料的原理。 更好地使用 Coze 等 AI Agent 平台中的知识库组件打造智能体。 另外还预告了关于 AI 时代应具备的编程基础系列大纲,包括数据库、知识库、变量、JSON、API、操作系统与服务器、Docker 等内容。 2. 包含多篇相关文章,如 3. 实战环节:以 Coze 为例帮助举一反三,未来接触其他 AI Agent 工具能快速上手知识库组件。 创建知识库: 来到个人空间,找到知识库导航栏,点击创建知识库。 选择知识库格式(目前支持文档、表格、图片)并填写信息。 选择本地文档或问答对可选择表格,进行自定义的文档切割,数据处理完成后一个问答对被切割成一个文档片。 使用知识库:可参考
2024-11-02
coze怎么设置中文界面
要将 Coze 设置为中文界面,您可以按照以下步骤进行操作: 1. 打开 coze.cn/home ,点击创建 Bot 。 2. 输入相关信息,例如“尝试联网”。 3. 尝试询问:今天的 hacker news 上有什么新闻?如果答不出,引入联网插件 WebPilot ,操作方式为:插件> + >选择 WebPilot ,重新尝试联网。 4. 点击右侧设置进入设置界面,下滑找到语言选项选择中文即可。 另外,关于页面汉化中文版的相关信息: 地址:https://github.com/AIGODLIKE/AIGODLIKECOMFYUITRANSLATION 安装目录:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 安装方法:三种安装方法具体步骤请跳转 使用说明:点击右侧设置进入设置界面,下滑找到语言选项选择您想要切换的语言。
2024-10-29
结合知识库的商业项目, 给我100个ai创业的落地方案
很抱歉,目前知识库中没有为您提供 100 个 AI 创业的落地方案。但以下为您列举一些常见的 AI 创业方向供您参考: 1. 开发基于 AI 的智能客服系统,为企业提供高效的客户服务解决方案。 2. 利用 AI 技术进行精准营销,通过数据分析和预测为企业制定个性化的营销策略。 3. 打造 AI 驱动的医疗诊断辅助工具,帮助医生更准确地诊断疾病。 4. 研发 AI 教育软件,实现个性化学习和智能辅导。 5. 构建 AI 智能家居系统,实现家居设备的自动化控制和智能化管理。 6. 开发 AI 图像识别技术,应用于安防、交通等领域。 7. 推出 AI 金融风险评估模型,为金融机构提供更准确的风险评估。 8. 打造 AI 内容创作平台,生成文章、视频脚本等。 9. 研发 AI 人力资源管理工具,进行人才筛选和绩效评估。 10. 构建 AI 物流优化系统,提高物流效率和降低成本。 您可以根据自身的资源和优势,进一步细化和拓展这些方向,形成具体的创业方案。
2024-10-18
a800 ,H100,a10,H800这4个显卡能力有啥差异
以下是 A800、H100、A10、H800 这 4 个显卡在能力上的一些差异: 在训练与推理方面: 对于大型模型的训练,许多模型在 NVIDIA H100 上最具成本效益,但获取在 NVIDIA H100 上运行的模型较难,且通常需要长期合作承诺。如今更多的选择是在 NVIDIA A100 上运行大多数模型训练,但对于大型集群仍需要长期承诺。 大型语言模型(LLM)的参数数量众多,通常需要分布到多个卡中,即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(例如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10 等显卡。 在内存要求方面: 大型 LLM 的参数数量太多,任何单卡都无法容纳,需要类似于训练的多卡设置。 对于一些较小的模型,A10 等显卡可能就能够满足其内存需求。 需要注意的是,决定选择哪种 GPU 主要是一个技术决策,需要根据具体应用来确定最具成本效益的选择。
2024-10-16
在外层bot,能100%调用工作流的方法
在外层 bot 中封装工作流的步骤如下: 1. 点击「发布」发布工作流后,创建一个 bot。 2. 填写 Bot 介绍。 3. 切换 Bot 模式为“单 Agent(工作流模式)”,因为此 Agent 只需在输入英文文章时返回精读结果,无需外层 bot 对输入进行其他任务理解,可直接调用工作流。 4. 将配置好的工作流添加到 Bot 中。 5. 填写开场白,引导用户使用,并附上开场白文案。 6. 关闭开场白预置问题,因为使用流程中用不到。 完成封装后,可在「预览与调试」区进行最终体验与调试。如果一切正常,就能获得成功结果。但在发布文章时,外层 bot 可能存在未知 bug,同一段 USER_INPUT 在工作流编辑面板中试运行正常,但在外层 bot 运行时可能报错。暂时无法确定原因,猜测可能是外层 bot 的并发不够稳定,此时可直接在工作流编辑面板中获取精度结果。若自行实验时多次报错且无法定位原因,不要急于怪自己,作者已将相关 bug 提交给 Coze 团队,期待优化。 另外,您还可以为 Bot 设置触发器(Triggers),使 Bot 在特定时间或接收到特定事件时自动执行任务。可配置的触发器类型有定时触发、事件触发。定时触发让 Bot 在指定时间执行任务,无需编写代码;事件触发的触发器会生成 Webhook URL,当服务端向其发送 HTTPS 请求时触发任务执行。 触发器触发时的执行任务方式有 Bot 提示词、调用插件、调用工作流。Bot 提示词需通过自然语言设置提示词,触发时提示词自动发送给 Bot,Bot 根据提示词向用户发送提醒消息;调用插件需为触发器添加一个插件,触发时 Bot 调用插件获取返回结果并发送给用户;调用工作流需为触发器添加一个工作流,若工作流有输入参数则需传入参数值,触发时 Bot 调用工作流获取返回结果并发送给用户。 此外,Coze 支持用户在与 Bot 聊天时设置定时任务,当用户在会话内点击推荐任务后,Bot 将会确认并创建定时任务。需要注意的是,一个 Bot 内的触发器最多可添加 10 个,且触发器仅当 Bot 发布飞书时生效。
2024-10-10
可以辅助我写出一步100万字左右的小说吗
目前利用 AI 辅助创作小说是可行的,但要直接生成一部 100 万字左右的完整小说还存在一定困难。例如,有人在小说大赛中让 GPT4 做修改,一开始有模有样,但很快暴露出记性不好的缺点。求助 Claude 时,关键情节还被改没了。 另外,在利用 Prompt 逆向工程让 ChatGPT 模仿作家风格时,有一些写作技巧,如描述特定氛围或情境作为开头引入主题,使用长句和复合句构建叙述,适当使用比喻和排比等修辞手法,描述具体事例和细节支持观点或论点,尽量用主动语态,适度使用连接词,每个段落具有逻辑性并为后续情节或转折做铺垫,语气正式客观并根据主题定情感色彩,使用合适标点符号强调节奏和情感,结尾在高潮或转折点留给读者深思。 但总体来说,完全依靠 AI 生成一部 100 万字的小说还不太现实,可能需要您与 AI 工具的多次交互和修改完善。
2024-09-07
H100 8卡机算力
H100 8 卡机算力相关信息如下: 在 GPT3(1750 亿参数)大模型基准测试中,GB200 的性能是 H100 的 7 倍,训练速度是 H100 的 4 倍。 今年英伟达总的 H100 出货量将有 15 万张,Meta 将会投入超过 90 亿美元向英伟达采购超过 34000 张 H100 显卡,到 24 年底 Meta 的 GPU 算力将达到 60 万个 H100。 与 H100 相比,对于大模型推理工作负载,GB200 超级芯片提供高达 30 倍的性能提升。一个 GB200 NVL72 机柜可以训练 27 万亿参数的模型,此前传言称,GPT4 的参数规模达 1.8 万亿,相当于能训练近 15 个这样的模型。由 8 个系统组合在一起的就是 DGX GB200,总共有 288 个 Grace CPU、576 个 Blackwell GPU、240 TB 内存和 11.5 exaflop FP4 计算。
2024-08-12
写一篇1到100的随机数,用python
好的,以下是根据你的需求为你生成的文章: 生成 1 到 100 的随机数的 Python 代码 我们可以使用 Python 标准库中的 `random` 模块来生成随机数。以下是一个简单的例子,它将生成一个包含 1 到 100 之间的随机整数的列表: ```python import random 生成 1 到 100 之间的随机整数的列表 random_list = 打印随机整数的列表 print ``` 这段代码使用了列表推导式,它会生成一个长度为 100 的列表,其中每个元素都是 1 到 100 之间的随机整数。`random.randint` 会返回一个随机的整数,范围在 1 到 100 之间,包括 1 和 100。 希望这段代码能够满足你的需求!如果你还有其他问题,请随时提问。
2024-08-11
如何快速创建调用API的应用
以下是快速创建调用 API 应用的步骤: 1. 了解请求的组成部分: Body:用于传递请求主体,GET 方法中通常不使用。 Path:定义请求路径,GET 方法中可编码参数在其中。 Query:定义请求查询部分,是 GET 方法常用的参数传递方式。 Header:定义 HTTP 请求头信息,通常不用于传递参数。 2. 配置输出参数: 在配置输出参数界面,可自动解析或手动新增参数。 包括设置参数名称、描述、类型、是否必填等。 对于 Object 类型参数,可添加子项。 3. 调试与校验: 在调试与校验界面填写输入参数并运行。 查看输出结果,Request 为输入传参,Response 为返回值。 4. 发布:在插件详情页右上角点击发布。 以创建调用 themoviedb.org API 应用为例: 注册并申请 API KEY:前往 themoviedb.org 注册,依次点击右上角头像 账户设置 API 请求 API 密钥 click here,选择 Developer 开发者,填写相关信息并提交,获取 API 读访问令牌备用。 构建 GPT:新创建 GPT,设置名字和描述,添加 Instructions 内容,并添加 Webpilot Action 和粘贴相关 Schema 内容。
2024-11-08
字节跳动也被曝出在其秘密研发的大模型项目中存在违规调用 OpenAI 的 API ,你如何看待
2023 年下半年,部分声称性能卓越的中国大模型被揭露为“套壳”产品。如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,其团队承认在训练过程中沿用了开源架构,但强调是为快速起步。12 月,字节跳动被曝出在其秘密研发的大模型项目中调用了 OpenAI 的 API 并使用 ChatGPT 的输出数据来训练自己的模型。OpenAI 反应迅速坚决,暂停相关账号并表示将进一步调查。字节跳动回应称在 2023 年初技术团队在大模型探索初期有部分工程师将 GPT 的 API 服务用于较小模型的实验性项目研究,且自 2023 年 4 月引入调用规范检查后已停止。此外,不仅国内存在此类现象,24 年也有更多被指“套壳”的事件。同时,提示词攻击在业内是公开的秘密,国内外各大著名的 AI 厂商几乎无一幸免,系统提示处于泄露状态,大模型应用脆弱,数据易被获取。
2024-11-03
deepseek支持function calling,在dify的agent的prompt里要如何写才能调用工具。我说的是如何写提示词,才能让deepseek通过Function Calling调用工具。
要在 Dify 的 agent 的 prompt 里让 DeepSeek 通过 Function Calling 调用工具,您可以参考以下内容: 1. 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入:将工具信息及使用工具的提示词添加到系统提示中。INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时注意用无关紧要的工具作示例避免混淆。tools_instructions 是将通用工具字典转换成 LLM 可读的工具列表,可动态调整。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传:利用正则表达式抓取输出中的“tool”和“parameters”参数。对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码。通过识别 LLM 返回的调用工具的字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 2. 当模型判断需要调用工具函数时,检测到返回的 json 里 function_call 字段不为空,则执行异步函数调用,采用回调方式获取函数返回结果。通过判断返回的 functionCall 的名称执行不同函数并返回结果。 3. 在大模型请求中,最大的两个变量是 Messages 和 Tools。Messages 里放 sys prompt、memory、user query;Tools 里放能力的 Json Scheme,两者组合形成整个完全的 Prompt。Agent 应用开发的本质是动态 Prompt 拼接,通过工程化手段将业务需求转述成新的 prompt。短期记忆在 messages 里的历史 QA 对,长期记忆是 summary 之后的文本再塞回 system prompt。RAG 是向量相似性检索,可放在 system prompt 里或通过 tools 触发检索。Action 是触发 tool_calls 标记进入请求循环,拿模型生成的请求参数进行 API request,再把结果返回给大模型交互,没有 tool_calls 标记则循环结束。Multi Agents 是更换 system prompt 和 tools。
2024-10-24
deepseek支持function calling,在dify的agent的prompt里要如何写才能调用工具
在 Dify 的 agent 的 prompt 中实现调用工具的方法如下: 1. 提示词注入阶段: INSTRUCTION 为注入到系统提示中的字符串,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。 TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时应使用无关紧要的工具作为示例,避免 LLM 混淆。 tools_instructions 是将通用的工具字典转换成 LLM 可读的工具列表,实际使用时可动态调整。 REUTRN_FORMAT 定义了调用 API 的格式。 2. 工具结果回传阶段: 利用正则表达式抓取输出中的“tool”和“parameters”参数。 对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码,提高使用成功率。 通过识别 LLM 返回的调用工具的字典,提取对应的值,传入相应的工具函数,将工具返回的结果以 observation 的角色返回给 LLM。对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 此外,当模型判断需要调用工具函数时,即检测到返回的 json 里面 function_call 字段不为空,则执行异步函数调用,可通过判断返回的 functionCall 的名称来执行不同的函数并返回结果。 在提升可控性方面,有以下建议: 1. 放弃 JSON mode,虽然模型能力提升能输出 JSON,但仍会出错,且不能保证 100%正确,而模型厂家对 Function Calling 有微调优化。 2. 降低 System prompt 依赖,化繁为简,能在 Tools 里写的东西尽量写在里面。 3. API Response 增强 Prompt,这一步的准确率很高,可增加给大模型的约束和提示。 4. 尽量让模型做选择,而不是填空,减少 token 输出,提高速度和准确率。 5. 利用 Tools 来做 Route,构建 Multi Agent,术业有专攻。
2024-10-24
deepseek支持function calling,prompt里要如何写才能调用工具。
要在 DeepSeek 中通过提示词实现工具调用,主要通过以下提示词工程实现: 1. 实现原理: 提示词工程主要由提示词注入和工具结果回传两部分代码组成。提示词注入将工具信息及使用提示词添加到系统提示中,工具结果回传则解析工具调用的输出,并将返回内容嵌入 LLM。 2. 提示词注入阶段: INSTRUCTION 为注入到系统提示中的字符串,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 理解和使用工具,编写时应使用无关紧要的工具作示例避免混淆。tools_instructions 是将通用工具字典转换为 LLM 可读的工具列表,实际使用时可动态调整。REUTRN_FORMAT 定义了调用 API 的格式。 3. 工具结果回传阶段: 利用正则表达式抓取输出中的“tool”和“parameters”参数。对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码以提高成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 在游戏实操中,当模型判断需要调用工具函数时(检测到返回的 json 里 function_call 字段不为空),执行异步函数调用,采用回调方式获取函数返回结果,通过判断返回的 functionCall 名称执行不同函数并返回结果。 对于 ChatGPT,为让其返回符合要求的 JSON 格式,prompt 的定制尤为重要和复杂。OpenAI 发布函数调用及其他 API 更新后,开发人员可向 gpt40613 和 gpt3.5turbo0613 描述函数,让模型智能输出包含调用函数所需参数的 JSON 对象。本地可根据 GPT 返回的函数名、参数进行数据查询,可采用函数查询或 SQL 查询,根据实际业务需求选择,使 AI 输出更可控。
2024-10-24
openai的接口怎么调用,提示词怎么写
以下是关于 OpenAI 接口调用和提示词编写的相关知识: OpenAI 接口调用: OpenAI API 可应用于众多涉及生成自然语言、代码或图像的任务。提供了不同能力级别的模型,适用于不同任务,还能微调自定义模型。这些模型可用于内容生成、语义搜索、分类等众多领域。 提示词编写: 1. 设计提示词本质上是对模型进行“编程”,通常通过提供指令或示例完成,与多数专为单个任务设计的 NLP 服务不同,补全和聊天补全几乎可用于任何任务,如内容或代码生成、摘要、扩展、对话、创意写作、风格转换等。 2. 遵循最简化原则: 不需要包含作者信息,如“author”“version”等不相关信息。 避免分类错误,将输出错误分类到目标中,如“提供改进建议,以及改进原因”和“对用户的 Prompt 进行评分 1~10 分,10 分为满分”应明确区分。 注意拼写正确,如“Constraints”的正确拼写。 常见的限制条件包括内容长度限制、内容类型限制、逻辑和一致性限制、风格和语调限制。 避免无意义或重复的描述,如“理解中文语义”“评估和打分文本质量”“提供文本改进建议”等。 注意 Markdown 格式的正确使用,如“ Profile: Goals:”的结构错误,应将 Goals 放到“ Role”层级下面。 在给定的 API 请求中处理的 Token 数量取决于输入和输出长度。对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。您的文本提示词和生成的补合起来不能超过模型的最大上下文长度(对于大多数模型,这是 2048 个 Token,或大约 1500 个单词)。可以查看 OpenAI 的分词器工具来了解有关文本如何转换为 Token 的更多信息。
2024-10-17