直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

在外层bot,能100%调用工作流的方法

回答

在外层 bot 中封装工作流的步骤如下:

  1. 点击「发布」发布工作流后,创建一个 bot。
  2. 填写 Bot 介绍。
  3. 切换 Bot 模式为“单 Agent(工作流模式)”,因为此 Agent 只需在输入英文文章时返回精读结果,无需外层 bot 对输入进行其他任务理解,可直接调用工作流。
  4. 将配置好的工作流添加到 Bot 中。
  5. 填写开场白,引导用户使用,并附上开场白文案。
  6. 关闭开场白预置问题,因为使用流程中用不到。

完成封装后,可在「预览与调试」区进行最终体验与调试。如果一切正常,就能获得成功结果。但在发布文章时,外层 bot 可能存在未知 bug,同一段 USER_INPUT 在工作流编辑面板中试运行正常,但在外层 bot 运行时可能报错。暂时无法确定原因,猜测可能是外层 bot 的并发不够稳定,此时可直接在工作流编辑面板中获取精度结果。若自行实验时多次报错且无法定位原因,不要急于怪自己,作者已将相关 bug 提交给 Coze 团队,期待优化。

另外,您还可以为 Bot 设置触发器(Triggers),使 Bot 在特定时间或接收到特定事件时自动执行任务。可配置的触发器类型有定时触发、事件触发。定时触发让 Bot 在指定时间执行任务,无需编写代码;事件触发的触发器会生成 Webhook URL,当服务端向其发送 HTTPS 请求时触发任务执行。

触发器触发时的执行任务方式有 Bot 提示词、调用插件、调用工作流。Bot 提示词需通过自然语言设置提示词,触发时提示词自动发送给 Bot,Bot 根据提示词向用户发送提醒消息;调用插件需为触发器添加一个插件,触发时 Bot 调用插件获取返回结果并发送给用户;调用工作流需为触发器添加一个工作流,若工作流有输入参数则需传入参数值,触发时 Bot 调用工作流获取返回结果并发送给用户。

此外,Coze 支持用户在与 Bot 聊天时设置定时任务,当用户在会话内点击推荐任务后,Bot 将会确认并创建定时任务。需要注意的是,一个 Bot 内的触发器最多可添加 10 个,且触发器仅当 Bot 发布飞书时生效。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

在点击「发布」,发布工作流后,我们就需要创建一个bot,进行最终的工作流封装。封装过程如下:1.创建Bot2.填写Bot介绍3.切换Bot模式为“单Agent(工作流模式)”:因为这个Agent,我们只需要每次输入英文文章的时候,返回精读结果,所以不需要用外层bot对输入进行其他任务理解,直接调用工作流即可。4.把我们刚才配置好的工作流,添加到Bot中5.填写开场白,引导用户使用:附开场白文案⬇️6.关闭开场白预置问题:因为使用流程里用不到,所以直接关掉。[heading3]外层bot调试[content]完成封装后,即可在「预览与调试」区进行最终体验与调试:——如果一切正常,你就能获得这样的成功结果,yes~Btw:在笔者发布文章时,外层bot仍存在一定的未知bug,同一段USER_INPUT,在工作流编辑面板中试运行完全ok,但到了外层bot进行运行时,就容易出现报错。暂时无法确定原因,猜测可能是外层bot的并发做的不够稳定,不如直接在工作流编辑面板中获取精度结果。如果自行实验时,发现多次报错且无法定位问题原因,就不要急着怪自己啦🤣。笔者也已经把相关bug提交给了Coze团队,希望能加紧优化吧。

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

在点击「发布」,发布工作流后,我们就需要创建一个bot,进行最终的工作流封装。封装过程如下:1.创建Bot2.填写Bot介绍3.切换Bot模式为“单Agent(工作流模式)”:因为这个Agent,我们只需要每次输入英文文章的时候,返回精读结果,所以不需要用外层bot对输入进行其他任务理解,直接调用工作流即可。4.把我们刚才配置好的工作流,添加到Bot中5.填写开场白,引导用户使用:附开场白文案⬇️6.关闭开场白预置问题:因为使用流程里用不到,所以直接关掉。[heading3]外层bot调试[content]完成封装后,即可在「预览与调试」区进行最终体验与调试:——如果一切正常,你就能获得这样的成功结果,yes~Btw:在笔者发布文章时,外层bot仍存在一定的未知bug,同一段USER_INPUT,在工作流编辑面板中试运行完全ok,但到了外层bot进行运行时,就容易出现报错。暂时无法确定原因,猜测可能是外层bot的并发做的不够稳定,不如直接在工作流编辑面板中获取精度结果。如果自行实验时,发现多次报错且无法定位问题原因,就不要急着怪自己啦🤣。笔者也已经把相关bug提交给了Coze团队,希望能加紧优化吧。

触发器

一个Bot内的触发器最多可添加10个。触发器仅当Bot发布飞书时生效。

其他人在问
a800 ,H100,a10,H800这4个显卡能力有啥差异
以下是 A800、H100、A10、H800 这 4 个显卡在能力上的一些差异: 在训练与推理方面: 对于大型模型的训练,许多模型在 NVIDIA H100 上最具成本效益,但获取在 NVIDIA H100 上运行的模型较难,且通常需要长期合作承诺。如今更多的选择是在 NVIDIA A100 上运行大多数模型训练,但对于大型集群仍需要长期承诺。 大型语言模型(LLM)的参数数量众多,通常需要分布到多个卡中,即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(例如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10 等显卡。 在内存要求方面: 大型 LLM 的参数数量太多,任何单卡都无法容纳,需要类似于训练的多卡设置。 对于一些较小的模型,A10 等显卡可能就能够满足其内存需求。 需要注意的是,决定选择哪种 GPU 主要是一个技术决策,需要根据具体应用来确定最具成本效益的选择。
2024-10-16
可以辅助我写出一步100万字左右的小说吗
目前利用 AI 辅助创作小说是可行的,但要直接生成一部 100 万字左右的完整小说还存在一定困难。例如,有人在小说大赛中让 GPT4 做修改,一开始有模有样,但很快暴露出记性不好的缺点。求助 Claude 时,关键情节还被改没了。 另外,在利用 Prompt 逆向工程让 ChatGPT 模仿作家风格时,有一些写作技巧,如描述特定氛围或情境作为开头引入主题,使用长句和复合句构建叙述,适当使用比喻和排比等修辞手法,描述具体事例和细节支持观点或论点,尽量用主动语态,适度使用连接词,每个段落具有逻辑性并为后续情节或转折做铺垫,语气正式客观并根据主题定情感色彩,使用合适标点符号强调节奏和情感,结尾在高潮或转折点留给读者深思。 但总体来说,完全依靠 AI 生成一部 100 万字的小说还不太现实,可能需要您与 AI 工具的多次交互和修改完善。
2024-09-07
H100 8卡机算力
H100 8 卡机算力相关信息如下: 在 GPT3(1750 亿参数)大模型基准测试中,GB200 的性能是 H100 的 7 倍,训练速度是 H100 的 4 倍。 今年英伟达总的 H100 出货量将有 15 万张,Meta 将会投入超过 90 亿美元向英伟达采购超过 34000 张 H100 显卡,到 24 年底 Meta 的 GPU 算力将达到 60 万个 H100。 与 H100 相比,对于大模型推理工作负载,GB200 超级芯片提供高达 30 倍的性能提升。一个 GB200 NVL72 机柜可以训练 27 万亿参数的模型,此前传言称,GPT4 的参数规模达 1.8 万亿,相当于能训练近 15 个这样的模型。由 8 个系统组合在一起的就是 DGX GB200,总共有 288 个 Grace CPU、576 个 Blackwell GPU、240 TB 内存和 11.5 exaflop FP4 计算。
2024-08-12
写一篇1到100的随机数,用python
好的,以下是根据你的需求为你生成的文章: 生成 1 到 100 的随机数的 Python 代码 我们可以使用 Python 标准库中的 `random` 模块来生成随机数。以下是一个简单的例子,它将生成一个包含 1 到 100 之间的随机整数的列表: ```python import random 生成 1 到 100 之间的随机整数的列表 random_list = 打印随机整数的列表 print ``` 这段代码使用了列表推导式,它会生成一个长度为 100 的列表,其中每个元素都是 1 到 100 之间的随机整数。`random.randint` 会返回一个随机的整数,范围在 1 到 100 之间,包括 1 和 100。 希望这段代码能够满足你的需求!如果你还有其他问题,请随时提问。
2024-08-11
coze 如何 100% 调用工作流或插件
首先设置快捷指令,然后在快捷指令里面绑定某个工作流即可。
2024-07-10
h100显卡是什么
H100显卡是NVIDIA公司推出的一款高性能GPU(图形处理单元),专门用于数据中心和AI(人工智能)计算。它是NVIDIA Hopper架构下的一部分,旨在提供极高的计算能力和效率,以满足深度学习、科学计算和数据分析等领域的需求。以下是关于H100显卡的一些详细信息: 主要特点和规格 1. 架构: Hopper架构:H100基于NVIDIA的新一代Hopper架构,这种架构专为AI和高性能计算(HPC)优化。 2. 计算性能: 浮点运算能力:H100显卡提供了极高的浮点运算性能,支持FP64、FP32、TF32、BF16、FP16、INT8等多种数据类型的计算,适用于各种深度学习和科学计算任务。 Tensor Cores:配备了第四代Tensor Cores,显著提升了深度学习模型的训练和推理性能。 3. 显存: HBM3显存:H100配备了高带宽的HBM3显存,提供更快的数据传输速度和更大的内存带宽,适合处理大规模数据集和复杂模型。 4. NVLink: NVLink互连技术:H100支持NVIDIA的NVLink技术,允许多块GPU通过高速互连进行通信,提高多GPU系统的扩展性和效率。 5. 新特性: Transformer Engine:专为Transformer模型优化的新硬件单元,提高自然语言处理(NLP)任务的效率。 DPX Instructions:新引入的指令集,优化深度学习推理和训练过程中的数据处理。 典型应用 1. 深度学习: H100显卡被广泛用于训练和推理深度学习模型,尤其是大型语言模型(如GPT3)、图像识别、语音识别等任务。 2. 高性能计算(HPC): 在科学计算、气候模拟、生物信息学等领域,H100的高计算能力和高速存储访问性能使其成为理想选择。 3. 数据分析: 大数据分析、实时数据处理等任务可以利用H100显卡的强大计算能力和并行处理能力,提高处理速度和效率。 4. 虚拟化和云计算: 数据中心和云服务提供商使用H100显卡为用户提供高性能计算服务和AI训练平台。 实际应用场景 企业AI研究:企业可以使用H100显卡构建和训练复杂的AI模型,提高模型的精度和训练速度。 学术研究:学术机构使用H100进行前沿科学研究,如模拟物理过程、基因组分析等。 云服务提供商:AWS、Google Cloud、Microsoft Azure等云服务提供商可能会在其高性能计算实例中使用H100显卡,向用户提供强大的计算资源。 总结 NVIDIA H100显卡是目前市场上最先进的AI和高性能计算GPU之一。其强大的计算能力、先进的架构设计和丰富的特性使其成为AI研究和高性能计算领域的理想选择。无论是训练大型AI模型还是执行复杂的科学计算,H100显卡都能提供卓越的性能和效率。
2024-05-22
有发小红书视频链接,能自动提取完整文字文案的bot或者工具吗,谢谢~
以下为您介绍一款可以自动提取小红书视频链接完整文字文案的工具: 名称:小红书文案专家 功能价值: 见过多个爆款文案,只需输入网页链接或视频链接,就能生成对应的小红书文案。 可辅助创作者生成能一键复制发布的初稿,提供创意和内容,节约 10 倍文字内容创作时间。 应用链接:https://www.coze.cn/s/ij5C6LWd/ 设计思路: 痛点:个人时间有限,希望有人帮忙写初稿再进行二创,同时希望能生成配图。 实现思路:为自己和团队设计工作流,让 AI 按照运营日常思路和流程工作。 一期产品功能: 可以提取任何链接中的标题和内容。 按照小红书平台文案风格重新整理内容。 加入 emoji 表情包,使文案更有活力。 为文案配图片。 二期计划功能: 持续优化升级。 增加全网搜索热点功能。 提炼热点新闻或事件关键信息。 结合用户想要生成的内容方向,输出文案和配图。 另外,在使用类似工具时,需要将需求做细颗粒度的分解,把大任务拆成小任务,小任务拆成更小的任务,并为每个小任务选择合适的工具/模型来实现。
2024-10-17
如何把自己克隆成一个bot
要把自己克隆成一个 bot ,可以参考以下步骤: 1. 访问,单击目标 Bot。 2. 在 Bot 的编排页面右上角,单击创建副本。 3. 在弹出的对话框中,设置 Bot 名称、选择 Bot 的所属团队,然后单击确定。 4. 可以在新打开的配置页面修改复制的 Bot 配置: 点击 Bot 名称旁边的编辑图标来更改 Bot 名称。 在人设与回复逻辑区域,调整 Bot 的角色特征和技能。可以单击优化使用 AI 帮您优化 Bot 的提示词,以便大模型更好的理解。 在技能区域,为 Bot 配置插件、工作流、知识库等信息。 在预览与调试区域,给 Bot 发送消息,测试 Bot 效果。 5. 当完成调试后,可单击发布将 Bot 发布到社交应用中,在应用中使用 Bot。 此外,从案例入门,三分钟捏 Bot 的步骤如下: 1. 登录控制台: 登录扣子控制台(coze.cn)。 使用手机号或抖音注册/登录。 2. 在我的空间创建 Agent: 在扣子主页左上角点击“创建 Bot”。 选择空间名称为“个人空间”、Bot 名称为“第一个 Bot”,并点击“确认”完成配置。如需使用其他空间,请先创建后再选择;Bot 名称可以自定义。 3. 编写 Prompt:填写 Prompt,即自己想要创建的 Bot 功能说明。第一次可以使用一个简短的词语作为 Prompt 提示词。 4. 优化 Prompt:点击“优化”,使用来帮忙优化。 搭建您的第一个 AI Bot 还包括以下步骤: 1. 为 Bot 添加技能:设定 Bot 的人设与回复逻辑后,需要为 Bot 配置对应的技能,以保证其可以按照预期完成目标任务。以获取 AI 新闻的 Bot 为例,需要为它添加一个搜索新闻的接口来获取 AI 相关的新闻。 在 Bot 编排页面的技能区域,单击插件功能对应的+图标。 在添加插件页面,选择阅读新闻>头条新闻> getToutiaoNews,然后单击新增。 修改人设与回复逻辑,指示 Bot 使用 getToutiaoNews 插件来搜索 AI 新闻。 (可选)也可以为 Bot 添加开场白,开场白功能目前支持豆包、微信公众号(服务号)。 2. 测试您的 Bot:配置好 Bot 后,就可以在预览与调试区域中测试 Bot 是否符合预期。可单击清除图标清除对话记录。 3. 发布您的 Bot:完成测试后,就可以将 Bot 发布到社交渠道中使用这个 Bot。 在 Bot 的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道。 单击发布。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome 相似问题: 如何配置一个智能体? 创建智能体相关文档 Coze 怎么用? 关于扣子的介绍 问:Coze 是什么?
2024-10-13
chatbot 设计
在设计 ChatBot 时,应以 STAR 原则(情境、任务、行动、结果)为指导进行需求拆解。 情境方面,用户期望通过与大型模型交互获得基于企业内部知识的精准回答,这要求系统既能理解和响应用户查询,又要确保信息安全。 任务上,系统需分析用户问题,并基于企业知识库提供准确答案,这需要具备高级语言理解能力,且能安全访问和利用企业内部知识。 行动包括: 1. 设计并实施一系列步骤处理潜在安全问题,确保用户输入安全。 2. 回复中若遇不匹配或有害内容,系统应拒绝回答。 3. 采用指代消解等技术手段提升问答准确性和用户满意度。 结果是开发一个能精准理解用户意图、安全访问知识库并提供满意答案的智能回复应用,该应用不仅能提升用户体验,还会成为企业内部知识管理和服务的重要工具。 为达成这些目标,需制定详尽流程图以可视化每个环节和决策点,确保设计和开发中每个步骤清晰理解和执行,从而保证智能回复系统满足用户需求且高度安全准确。从拆解出的知识回复流程图可见,简单知识问答背后隐藏诸多环节,实际工作中还有更复杂小环节需进一步拆解,这需要在实际项目中实战操作。
2024-10-09
扣子生成的BOT如何在微信里用
将扣子生成的 BOT 发布到微信主要有两种方式:发布到微信订阅号和发布到微信客服。 发布到微信订阅号: 使用限制: 一个 Bot 只能发布到一个微信订阅号。 支持在回复订阅号时上传图片,但图片大小不能超过 10MB。 每次回复消息时,只能回复一张图片。 如果模型返回的是图文混排的内容,则直接返回完整的 Markdown 内容。 如果模型生成了多张 Markdown 语法的图片内容,最终会解析返回第一张图片,多余图片会被丢弃。 前提条件: 已经创建了微信订阅号。 已经配置了 Bot。 步骤: 获取微信订阅号的开发者 ID: 1. 访问并登录您的订阅号。 2. 在设置与开发>基本配置页面,获取开发者 ID。 在扣子中配置并发布 Bot: 1. 在 Bots 页面,选择需要发布的 Bot。 2. 在 Bot 编排页面,单击发布。 3. 在发布页面,找到微信公众号(订阅号)发布渠道,单击配置。 4. 在 AppID 输入框内,填写微信订阅号的开发者 ID,并单击保存。 5. 跳转到公众平台账号授权页面,使用公众平台绑定的管理员个人微信号扫描二维码。 6. 在微信移动端,根据页面提示选择订阅号并确认授权。 7. 授权成功的页面提示如下: 8. 返回 Bot 发布页面,选中微信公众号(订阅号)发布平台,并设置发布记录后,单击页面右上角的发布。 成功发布后,您可以前往微信订阅号与 Bot 对话。 发布到微信客服: 支持在回复微信客服时上传图片,但图片大小不能超过 10MB。 确保已经完成了企业认证。 前提条件: 已开通了。 已搭建了 Bot。 步骤: 获取微信客服配置信息: 1. 登录平台。 2. 单击企业信息,然后复制企业 ID。 3. 单击开发配置,然后再单击开始使用。 4. 单击随机获取按钮分别生成并保存 Token 和 EncodingAESKey。复制 Token 和 EncodingAESKey 后,先不要关闭该页面。 在扣子中配置微信客服信息: 1. 在 Bots 页面,选择需要发布的 Bot。 2. 在 Bot 编排页面,单击发布。 3. 找到微信客服渠道,然后单击配置。 4. 输入步骤一中复制的企业 ID,然后单击下一步。 5. 输入步骤一中复制的 Token 和 EncodingAESKey,然后单击下一步。 6. 复制 webhook 地址。复制 webhook 地址后,先不要关闭该配置窗口。 配置回调地址: 1. 回到步骤一中的开始企业接入页面,输入上一步中复制的 webhook 地址。单击完成。确保粘贴回调地址时没有引入空格,空格会导致校验失败。 2. 在开发配置页面,复制 secret。 3. 单击客服账号,复制账号。 发布 Bot: 1. 回到扣子平台的微信客服渠道配置页面,输入复制的 secret 和客服名称。 2. 单击保存。 3. 在发布记录中输入发布信息,然后勾选微信客服渠道,再单击发布。 4. 发布完成后,单击立即对话登录微信客服,体验 Bot 效果。 常见问题: 如果收不到机器人回复消息,可尝试通过以下方法解决: 查看微信客服的启用状态: 1. 登录,在应用管理页面,点击微信客服。 2. 确保没有启用微信客服功能。如果已经开启了微信客服功能,需要关闭。关闭后,该应用在工作台入口将被隐藏,员工不可使用。请谨慎评估。 检查近期是否有登录企业微信应用。 确保企业至少有一个成员通过手机号验证/微信授权登录过企业微信应用。 如果还是有问题,可以发送邮件至 feedback@coze.cn 反馈。
2024-10-08
如何在coze中调用bot商店中未公开配置的bot?
在 Coze 中调用 bot 商店中未公开配置的 bot,您可以参考以下步骤: 1. 访问。 2. 在页面的搜索框中,输入您想要的 bot 名称,然后单击展示的相应 bot。 3. 您会被引导至该 bot 的编排页面,编排页面分为以下 4 个区域: 顶部区域:显示 bot 所用的大型语言模型。 人设与回复逻辑区域:设置 bot 的人物设定与回复逻辑。 技能区域:展示 bot 配置的功能,例如插件、工作流、开场白等。 预览与调试区域:展示与 bot 交互的运行结果。 4. 在预览与调试区域中发送一条消息,查看 bot 的回复效果。 此外,如果您想复制一个预置的 bot 在此基础上进行修改来创建自己的 bot,可以按照以下步骤操作: 1. 访问,单击目标 bot。 2. 在 bot 的编排页面右上角,单击创建副本。 3. 在弹出的对话框中,设置 bot 名称、选择 bot 的所属团队,然后单击确定。 4. 您可以在新打开的配置页面修改复制的 bot 配置。 在人设与回复逻辑区域,调整 bot 的角色特征和技能。您可以单击优化使用 AI 帮您优化 bot 的提示词,以便大模型更好的理解。 在技能区域,为 bot 配置插件、工作流、知识库等信息。 5. 在预览与调试区域,给 bot 发送消息,测试 bot 效果。 6. 当您完成调试后,可单击发布将 bot 发布到社交应用中,在应用中使用 bot。 另外,关于 API 授权,然后再点击右上角发布,这里会发现多了一个 Bot as API,意思就是自己定义的 API 发布取到了。勾选 Bot as API 并确定应用已经成功授权 Bot as API 。创建了一个机器人、这个机器人是画小二的(令牌),画小二下面有很多个应用,您想调用的是“画小二智能小助手(Bot ID)”。
2024-09-26
如何自动化 RAG bot 的测试评估工作流?
以下是一个关于自动化 RAG bot 测试评估工作流的参考方案: 首先,对于 RAG bot 的工作流,主要包括以下关键步骤: 1. 开始节点:接收用户选择的小说人物角色名称或向小说人物角色提问的问题。 2. 知识库节点:将输入的角色名称或问题作为查询,在知识库中检索该角色的性格特点、经典台词或相关的上下文信息。 3. 大模型节点:让大模型对检索到的信息进行筛选和处理,并以特定格式(如 JSON 格式)输出结果,或者根据问题和检索到的上下文信息生成答案。 4. 代码节点:对上游输入的数据进行规整和格式化输出。 5. Text2Image 节点:引用上一步输出的用于描述人物性格和特点的特征,作为提示生成人物的角色照。 6. 结束节点:输出人物台词、角色照或答案。 要实现自动化测试评估工作流,可以考虑以下几个方面: 1. 制定明确的测试用例:包括各种类型的输入,如不同的角色名称、问题类型和复杂程度等,以全面覆盖各种可能的情况。 2. 建立监控机制:实时监测工作流中各个节点的运行状态、数据传输和处理时间等关键指标。 3. 数据验证:在每个节点的输出端,验证数据的准确性、完整性和格式的正确性。 4. 性能评估:分析工作流的整体性能,如响应时间、资源利用率等,以优化工作流的效率。 5. 错误处理和恢复测试:模拟各种可能的错误情况,测试工作流的错误处理和恢复能力。 6. 定期回归测试:确保工作流在经过修改或优化后,仍然能够正常运行并满足预期。 通过以上的步骤和方法,可以有效地实现 RAG bot 测试评估工作流的自动化,提高其可靠性和性能。
2024-09-22
openai的接口怎么调用,提示词怎么写
以下是关于 OpenAI 接口调用和提示词编写的相关知识: OpenAI 接口调用: OpenAI API 可应用于众多涉及生成自然语言、代码或图像的任务。提供了不同能力级别的模型,适用于不同任务,还能微调自定义模型。这些模型可用于内容生成、语义搜索、分类等众多领域。 提示词编写: 1. 设计提示词本质上是对模型进行“编程”,通常通过提供指令或示例完成,与多数专为单个任务设计的 NLP 服务不同,补全和聊天补全几乎可用于任何任务,如内容或代码生成、摘要、扩展、对话、创意写作、风格转换等。 2. 遵循最简化原则: 不需要包含作者信息,如“author”“version”等不相关信息。 避免分类错误,将输出错误分类到目标中,如“提供改进建议,以及改进原因”和“对用户的 Prompt 进行评分 1~10 分,10 分为满分”应明确区分。 注意拼写正确,如“Constraints”的正确拼写。 常见的限制条件包括内容长度限制、内容类型限制、逻辑和一致性限制、风格和语调限制。 避免无意义或重复的描述,如“理解中文语义”“评估和打分文本质量”“提供文本改进建议”等。 注意 Markdown 格式的正确使用,如“ Profile: Goals:”的结构错误,应将 Goals 放到“ Role”层级下面。 在给定的 API 请求中处理的 Token 数量取决于输入和输出长度。对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。您的文本提示词和生成的补合起来不能超过模型的最大上下文长度(对于大多数模型,这是 2048 个 Token,或大约 1500 个单词)。可以查看 OpenAI 的分词器工具来了解有关文本如何转换为 Token 的更多信息。
2024-10-17
现在的大模型应用都没有记忆能力需要在每次调用时输入上下文?
目前的大模型应用本质上通常没有直接的记忆功能。以 ChatGPT 为例,它能理解用户的交流内容并非因为自身具备记忆能力,而是每次将之前的对话内容作为新的输入重新处理。这种记忆功能实际上是通过在别处进行存储来实现的。 对于大模型的工作原理,在回复时是一个字一个字地推理生成内容,会根据输入的上下文来推测下一个字。但大模型的学习数据规模庞大,若每次计算都带入全量数据,算力难以承受,且仅算字的概率容易受不相干信息干扰,词向量机制和 transformer 模型中的 attention 自注意力机制解决了这些难题。 另外,系统的内存是大模型的上下文窗口,如 Google Gemini 1.5 Pro 实验版已将其提升到一千万。但窗口越大推理越慢,且模型可能失焦降低准确度,研发团队需平衡吞吐量、速度和准确度。在模型外,操作系统的其他部件如文件系统能让模型具备无限记忆的能力,而大模型应用领域常用的方法如 RAG 能让模型用自定义数据生成结果,处理无尽的私有数据。
2024-10-08
多Agent之间的调用教程
以下是关于多 Agent 之间调用的教程: 《执笔者》中的多 Agent 模式操作步骤: 1. 多 agent 模式切换:在 bot 编排页面点选多 agent 模式,页面将自动切换为多 agent 调试状态,相比单 agent,多了中间的 agent 连接区。 2. 添加合适节点:有两种方式选择节点,即使用已发布的 bot 或创建新的 agent,按需选取,添加的 agent 直接连接在默认的总管 agent(“执笔者”)后面,无结束节点。 3. 添加合适的 prompt:在多 agent 模式下,为每个 agent 填写合适的 prompt,外围的人设填写该 bot 的主要功能,内部的 bot 填写各个 bot/agent 的应用场景。 4. 调试与美化:经过以上三步,一个多 agent 的 bot 基本搭建完成,之后是漫长的调试过程,若输出与设想有差异,可不断调整外围和内部 bot 的提示词,提升命中率,优化交互。 沉浸式单机剧本杀 Bot 中的多 Agent 协作: 单机剧本杀 Bot 由多个 agent 共同协作完成,主要包括: 1. 主持人 Agent:通过对话引导玩家,通过提示和发放道具帮助玩家推进情节,像全知全能的主持人帮助玩家在游戏过程中前进。 2. 条件判断 Agent:负责解析玩家输入,判断是否达到触发下一情节的条件,若条件符合,把相应情节传递给主持人 Agent 继续讲解。 3. 情节向量化处理与索引构建:对剧本内容进行向量化处理,自动分段并构建索引,使主持人和判断 Agent 能迅速、准确地检索所需内容,让剧情展开更流畅。 关于 MultiAgent 的介绍: 随着大型语言模型(LLM)的出现,以 LLM 为核心构建的 Agent 系统近期受到广泛关注。Agent 系统旨在利用 LLM 的归纳推理能力,为不同的 Agent 分配角色和任务信息,并配备相应的工具插件,以完成复杂的任务。 目前常见框架主要集中在单 Agent 场景下,其核心在于 LLM 与工具的协同配合,LLM 根据用户任务的理解,推理出需要调用的工具,并根据调用结果向用户提供反馈,在任务完成过程中,Agent 可能需要与用户进行多轮交互。 同时,越来越多的 Agent 框架开始关注多 Agent 场景,为完成任务,为不同的 Agent 指定不同角色,并通过 Agent 之间的协作来完成复杂任务,与单 Agent 相比,在任务完成过程中,与用户的交互可能会减少一些。
2024-09-25
这个对话,是怎么调用WaytoAGI知识库的?
在 WaytoAGI.com 网站,新增了智能对话功能,您可以在首页输入 AI 相关问题,系统会迅速提供答案要点和参考文章。在导航目录下,还能看到别人在问的 AI 问题。该功能的上线离不开飞书 Aily 团队的支持。
2024-09-19
如何在coze的bot中调用工作流?
在 Coze 的 bot 中调用工作流的方式如下: 采用 32K 的 kimi 模型,只有一条工作流。该工具有 5 个按钮:A、B、C、重新开始、结束并总结。按 A/B/C 时,会直接输入对应的字母文字。按结束并总结时,输入的依旧只是文字:“结束并立即总结医学知识点”。点击“重新开始”时,会直接调用一个工作流“emergency”,且这个工作流有两个必选参数:“疾病设置”和“难度设置”。在实际体验过程中,仅在提供“疾病设置”和“难度设置”时,工作流被调用,其他时候没有触发任何工具和工作流。 在外层 bot 中封装工作流的步骤为:点击「发布」发布工作流后,创建一个 bot 进行最终的工作流封装。具体过程包括:创建 Bot;填写 Bot 介绍;切换 Bot 模式为“单 Agent(工作流模式)”,因为此 Agent 只需在每次输入英文文章时返回精读结果,所以不需要用外层 bot 对输入进行其他任务理解,可直接调用工作流;把配置好的工作流添加到 Bot 中;填写开场白,引导用户使用,并关闭开场白预置问题,因为使用流程里用不到。
2024-09-15