Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

coze工作流搭建

Answer

以下是在 Coze 上搭建工作流的步骤:

  1. 进入 Coze ,点击「个人空间 - 工作流 - 创建工作流」,打开创建工作流的弹窗。
  2. 根据弹窗要求,自定义工作流信息,点击确认完成工作流的新建。
  3. 新建完成后,可以看到整个编辑视图与功能。在左侧「选择节点」模块中,根据子任务需要,实际用到的有:
    • 插件:提供一系列能力工具,拓展 Agent 的能力边界。例如本案例中涉及的思维导图、英文音频,因无法通过 LLM 生成,需依赖插件实现。
    • 大模型:调用 LLM ,实现各项文本内容的生成。如本案例中的中文翻译、英文大纲、单词注释等都依赖大模型节点。
    • 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。
  4. 编辑面板中的开始节点、结束节点,分别对应分解子任务流程图中的原文输入和结果输出环节。
  5. 按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。

此外,在“用 Coze 搭建一个神奇宠物诞生器”的工作流中,“定制召唤”工作流是“随机召唤”工作流的变种。对于“定制召唤”工作流,需要修改的节点包括:

  • 开始节点:新增一个输入变量,定义为 keywords ,用于接收用户输入的宠物种类(动物或者植物)。
  • 代码节点:要将特定的宠物种类关键词嵌入到描述 prompt 里。例如,如果召唤师输入“熊猫”,R 属性的宠物描述就要修改为“一个朴素小熊猫宠物,可爱,圆滚滚的,大眼睛,毛茸茸的。画风参考著名动画片《神奇宝贝》”,SR 和 SSR 依次类推。描述 prompt 变成三段字符串相加的情况,即原描述第一段+宠物种类+原描述第二段。其余节点均与“随机召唤工作流一致”。
Content generated by AI large model, please carefully verify (powered by aily)

References

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

首先进入Coze,点击「个人空间-工作流-创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建,可以看到整个编辑视图与功能如下:其中,左侧「选择节点」模块中,根据我们的子任务需要,实际用上的有:1.插件:提供一系列能力工具,拓展Agent的能力边界。本案例涉及的思维导图、英文音频,因为无法通过LLM生成,就需要依赖插件来实现。2.大模型:调用LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。3.代码:支持编写简单的Python、JS脚本,对数据进行处理。而编辑面板中的开始节点、结束节点,则分别对应1.2分解子任务流程图中的原文输入和结果输出环节。接下来,按照流程图,在编辑面板中拖入对应的LLM大模型、插件、代码节点,即可完成工作流框架的搭建。

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

首先进入Coze,点击「个人空间-工作流-创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建,可以看到整个编辑视图与功能如下:其中,左侧「选择节点」模块中,根据我们的子任务需要,实际用上的有:1.插件:提供一系列能力工具,拓展Agent的能力边界。本案例涉及的思维导图、英文音频,因为无法通过LLM生成,就需要依赖插件来实现。2.大模型:调用LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。3.代码:支持编写简单的Python、JS脚本,对数据进行处理。而编辑面板中的开始节点、结束节点,则分别对应1.2分解子任务流程图中的原文输入和结果输出环节。接下来,按照流程图,在编辑面板中拖入对应的LLM大模型、插件、代码节点,即可完成工作流框架的搭建。

小王子Roy:用Coze搭建一个神奇宠物诞生器

这一个工作流其实是“随机召唤”工作流的变种,只不过对用户输入的动物或植物这个关键词进行带入,不用让AI随机生成了,但是属性等级还是需要根据比例进行区分的,难点在于如何将宠物的种类带入到描述里面,具体流程图如下:[heading4]需要修改的节点1:开始节点[content]因为需要用户输入宠物种类(动物或者植物),因此开始节点需要新增一个输入变量,我把它定义为keywords[heading4]需要修改的节点2:代码节点[content]与之前随机生成宠物种类不同,要对特定种类种类生成的话,需要把这个关键词嵌入到描述prompt里。比如,如果召唤师输入“熊猫”,那么R属性的宠物描述就要修改为“一个朴素小熊猫宠物,可爱,圆滚滚的,大眼睛,毛茸茸的。画风参考著名动画片《神奇宝贝》”SR和SSR依次类推,因此我们的描述prompt就变成了三段字符串相加的情况,即:原描述第一段+宠物种类+原描述第二段具体实现代码如下:[heading4]其余节点均与“随机召唤工作流一致”

Others are asking
coze
Coze 是由字节跳动推出的具有多种功能和特点的平台: 1. 可以接入抖音评论区,帮用户自动回复评论。 2. 是字节跳动旗下子公司推出的 AI Agent 构建工具,允许用户在无编程知识的基础上,使用自然语言和拖拽等方式构建 Agent,目前可以白嫖海量的大模型免费使用,有丰富的插件生态。 3. 记账管家是基于 Coze 平台的能力搭建的记账应用,用户可以直接告知收入或支出情况,Coze 会自动记账并计算账户余额,且不会丢失记账记录。 4. 作为 AI 聊天机器人和应用程序编辑开发平台,专为开发下一代 AI 聊天机器人而设计,旨在简化 AI 机器人的开发过程,使得无论是开发者还是非技术用户,都能够快速搭建基于 AI 模型的各类问答 Bot,处理从简单问答到复杂逻辑对话的任务。 5. 主要特点包括: 多语言模型支持,如 GPT48K 和 GPT4128K,并提供云雀语言模型等。 集成超过 60 款插件,涵盖资讯阅读、旅游出行、效率办公、图片理解等功能,同时支持用户创建自定义插件。 具有知识库功能,允许用户上传和管理多种格式的数据。 提供数据库功能,允许 Bot 访问会话内存和上下文,持久记住用户对话中的重要参数或内容。 支持通过拖拉拽的方式快速搭建工作流,处理逻辑复杂的任务流,提供大量灵活可组合的节点。 具有多代理模式,在一个机器人中可以运行多个任务,允许添加多个代理。 目前对用户完全免费。 易于发布和分享,用户可以将搭建的 Bot 发布到各类社交平台和通讯软件上。 如果您想了解更多关于 Coze 的详细内容,可以参考以下链接:
2025-02-05
coze中使用搜索插件,是不是无法搜索最新的新闻
Coze 集成了新闻搜索插件,其中的头条新闻插件能够持续更新,让您了解最新的头条新闻和新闻文章。所以在 Coze 中使用搜索插件是可以搜索到最新新闻的。Coze 还提供了多样化的插件库,涵盖了从基础的文本处理到高级的机器学习功能,以及众多符合平民生活化的插件,如天气预报、出行必备、生活便利等方面的插件。
2025-02-04
飞书文档如何作为知识库输入到coze平台
要将飞书文档作为知识库输入到 Coze 平台,主要有以下步骤: 1. 在线知识库: 点击创建知识库,创建一个画小二课程的 FAQ 知识库。 选择飞书文档,选择自定义的自定义,输入。 飞书的文档内容会以区分开来,可以点击编辑修改和删除。 点击添加 Bot,添加好可以在调试区测试效果。 2. 本地文档: 注意如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面。 画小二这个课程 80 节课程,分为了 11 个章节,不能一股脑全部放进去训练。 正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容按固定方式进行人工标注和处理。 然后选择创建知识库自定义清洗数据。 3. 发布应用: 点击发布,确保在 Bot 商店中能够搜到。 此外,创建知识库并上传文本内容有以下方式: 1. 在线数据: 自动采集方式:适用于内容量大,需要批量快速导入的场景。 在文本格式页签下,选择在线数据,然后单击下一步。 单击自动采集。 单击新增 URL。在弹出的页面完成输入要上传的网站地址、选择是否需要定期同步网站内容及周期等操作。 当上传完成后单击下一步,系统会自动根据网站的内容进行内容分片。 手动采集方式:适用于需要精准采集网页上指定内容的场景。 安装扩展程序,详情请参考。 在文本格式页签下,选择在线数据,然后单击下一步。 点击手动采集,然后在弹出的页面点击权限授予完成授权。 在弹出的页面输入要采集内容的网址,然后单击确认。 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。 Coze 的知识库功能不仅支持上传和存储外部知识内容,还提供了多样化的检索能力,主要包括两大核心能力:一是能够存储和管理外部数据;二是增强检索能力。Coze 支持从多种数据源,如本地文档、在线数据、Notion、飞书文档等渠道上传文本和表格数据。上传后,系统会自动将知识内容切分成多个片段进行存储,并允许用户自定义内容分片规则。Coze 还提供了多种检索方式来对存储的内容片段进行高效检索,例如全文检索可以通过关键词快速找到相关的内容片段并召回。基于这些召回的内容片段,大模型将生成最终的回复内容。Coze 支持上传文本内容及结构化表格数据,以适应各种使用场景。
2025-02-04
coze的主要应用
Coze 是由字节跳动推出的 AI 聊天机器人和应用程序编辑开发平台,主要应用包括: 1. 简化 AI 机器人的开发过程,使开发者和非技术用户都能快速搭建基于 AI 模型的各类问答 Bot,处理从简单问答到复杂逻辑对话的任务。 2. 支持多语言模型,如 GPT48K 和 GPT4128K,并提供云雀语言模型等,以支持不同场景下的对话和交互。 3. 集成超过 60 款插件,涵盖资讯阅读、旅游出行、效率办公、图片理解等功能,同时支持用户创建自定义插件,扩展 Bot 的能力。 4. 允许用户上传和管理数据,支持 Bot 与用户数据交互,可上传多种格式的文档,或基于 URL 获取在线内容和 API JSON 数据。 5. 提供数据库功能,允许 Bot 访问会话内存和上下文,持久记住用户对话中的重要参数或内容。 6. 用户可以通过拖拉拽的方式快速搭建工作流,处理逻辑复杂的任务流,提供大量灵活可组合的节点。 7. 支持多代理模式,在一个机器人中运行多个任务,允许添加多个代理,每个代理都能独立执行特定任务。 8. 对用户完全免费。 9. 易于发布和分享,用户可将搭建的 Bot 发布到各类社交平台和通讯软件上。 此外,Coze 在移动端的排名表现出色,如在 TikTok 母公司字节跳动的相关产品中,Coze 首次出现在榜单上,排名第 45 位。
2025-02-04
coze平台有没有DeepSeek的mml可以调用
在 Coze 平台上,DeepSeek 是可以调用的。以下是相关的具体信息: 效果对比:用 Coze 做了个小测试,大家可以对比看看,相关视频 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 这个项目是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
2025-02-03
COZE相关内容
以下是关于 Coze 的相关内容: 扣子案例合集:包括智能对话科学防癌 AI 赋能肿瘤防治行动、打造私人播客助手、开发 AI chatbot 短视频爆款案例初探、制作 MidJourney 提示词专家、创建 AI 绘画助手、搓一个乞丐版的秘塔搜索、搞一个简单的安全 AI 助手、手搓英语陪练教师、为开源 AI 社区搞社群运营机器人等案例。 通俗易懂的 Coze 数据库文章:作者大圣致力于使用 AI 技术将自己打造为超级个体的程序员。本文是关于数据库概念的细化,旨在从非编程人士角度讲清数据库概念和基本使用,不会陷入传统教学讲 SQL 语法,而是通过和 Excel 对比让读者了解本质概念,从而更好利用 ChatGPT 等工具。另外作者还预告了关于 AI 时代应具备的编程基础系列大纲。 大圣的胎教级教程:Coze 是新一代一站式 AI Bot 开发平台,无论有无编程基础都可快速搭建各类问答 Bot。字节针对 Coze 部署了国内版和海外版两个站点,国内版使用字节自研的云雀大模型,国内网络可正常访问;海外版使用 GPT4、GPT3.5 等大模型,访问需突破网络限制。Bot 的开发和调试页面布局主要分为提示词和人设区块、Bot 的技能组件、插件、工作流、Bot 的记忆组件(包括知识库、变量、数据库、长记忆、文件盒子)、一些先进的配置(如触发器、开场白、自动建议、声音)等,后续会逐一讲解每个组件的能力及使用方式。
2025-02-02
大模型搭建知识库的逻辑是什么
大模型搭建知识库的逻辑主要包括以下几个方面: 1. 理解 RAG 技术:利用大模型搭建知识库本质上是 RAG 技术的应用。在大模型训练数据有截止日期或不包含所需数据时,通过检索增强生成(RAG)来解决。RAG 可抽象为 5 个过程: 文档加载:从多种来源加载包括非结构化、结构化和代码等不同类型的文档。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片一起提交给大模型,生成更合理的答案。 2. 构建知识库各个流程: 从用户提出问题开始,经历用户问题的理解、路由、初步检索、重排序等环节,最终将重排序后的结果和用户的查询意图组合成上下文输入给大模型生成输出结果。需要注意重排序结果的使用限制,如设置阈值进行截断或筛选相关性分数等。 后置处理包括敏感内容检测和移除、格式化输出等。 3. 知识库的需求:大模型并非 100%准确,存在数据日期限制和无法感知公司内部私有数据等问题,知识库的出现就是为解决大模型的数据准确性问题。例如在客服系统中,公司将用户问题及答案记录在文档中以知识库形式投喂给大模型,使其能更准确回答用户自然语言询问的问题。
2025-02-03
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
如何用飞书搭建自己的智能体详细步骤
以下是用飞书搭建自己的智能体的详细步骤: 1. 了解智能体的基本概念: 智能体大多建立在大模型之上,从基于符号推理的专家系统逐步演进而来。 基于大模型的智能体具有强大的学习能力、灵活性和泛化能力。 提示词的设计对智能体的表现和输出结果有直接影响。 2. 动手实践: 基于公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等)尝试开发。 具体步骤: 点击“浏览 GPTs”按钮。 点击“Create”按钮创建自己的智能体。 使用自然语言对话进行具体设置或手工设置。 开始调试智能体并发布。 3. 利用 Coze + 飞书多维表格搭建: 配置得到两个可用的工作流(整理入库、选择内容)。 编排成为完整的智能体,配置过程包括: 创建 Bot。 填写 Bot 介绍。 切换模型为“通义千问”(测试下来,通义对提示词理解、执行效果最好)。 把配置好的工作流添加到 Bot 中。 新增变量{{app_token}}。 添加外层 bot 提示词(可按需求和实际效果优化调整)。 完成上述步骤后,可在「预览与调试」窗口与 AI 稍后读智能体对话并使用全部功能。
2025-01-26
如何用飞书搭建自己的智能体
以下是用飞书搭建自己的智能体的步骤: 1. 智能体配置: 在“选择智能体配置模式”环节,如果选择“Zion 默认智能体”,系统会自动填充官方 Bot ID、OAuth 应用 ID 以及一对公私钥,并预设头像与昵称。 若要配置自己的 Coze 智能体,需将“准备工作”环节中获取的 Bot ID、OAuth 应用 ID 以及一对公私钥填写进对应输入框并完成配置。 进行用户权限配置,包括新用户注册赠送时长(以分钟为单位)和未登录用户免费体验时长(以分钟为单位),且时长可自行修改。 2. 逐步搭建 AI 智能体: 创建 Bot。 填写 Bot 介绍。 切换模型为“通义千问”,测试表明通义对提示词理解和执行效果较好。 把配置好的工作流添加到 Bot 中。 新增变量{{app_token}}。 添加外层 bot 提示词(可按需求和实际效果优化调整)。完成上述步骤后,在「预览与调试」窗口,即可与 AI 智能体对话并使用全部功能。
2025-01-26
如何搭建自己的智能体
搭建自己的智能体可以参考以下步骤: 1. 注册智谱 Tokens 智谱 AI 开放平台:https://bigmodel.cn/ 。获取资源包的方式有: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,如直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay ;语言资源包:免费 GLM4Flash 语言模型/ 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 共学营报名赠送资源包。 2. 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 3. 进入智能体中心我的智能体,开始创建智能体。 4. 对于一些平台,如 Coze 平台,定义了超级管理员和普通用户两种角色。只有超级管理员才可对“Coze 变现模板”的 bot 进行相关配置。成为超级管理员的步骤为:点击【成为超级管理员】按钮,进入用户注册登录页面,完成注册后获得超级管理员账户。然后选择智能体配置模式,如模式 A:Zion 默认智能体,适用于测试,系统会自动填充相关信息;模式 B:你的 Coze 智能体,需要在“管理后台”页自行配置在 Coze 平台上获取的 Bot ID、OAuth 应用 ID 以及一对公私钥。 5. 对于其他平台,如 Chat GPT 版本,可按以下步骤操作: Step.1 点击“浏览 GPTs”按钮。 Step.2 点击“Create”按钮创建自己的智能体。 Step.3 使用自然语言对话或手工设置进行具体设置。 Step.4 开始调试你的智能体并发布。
2025-01-26
如何搭建自己的智能体
搭建自己的智能体可以参考以下步骤: 1. 注册智谱 Tokens 智谱 AI 开放平台:https://bigmodel.cn/ 。获取资源包的方式有: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,如直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay ;语言资源包:免费 GLM4Flash 语言模型/ 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 共学营报名赠送资源包。 2. 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 3. 进入智能体中心我的智能体,开始创建智能体。 4. 基于一些公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等): 点击“浏览 GPTs”按钮。 点击“Create”按钮创建自己的智能体。 使用自然语言对话进行具体设置或手工设置。 开始调试你的智能体并发布。 在 Coze 变现模板项目中,只有超级管理员才可对“Coze 变现模板”的 bot 进行相关配置: 1. 成为超级管理员:点击【成为超级管理员】按钮,进入用户注册登录页面。 2. 注册并登录:完成注册后,将获得超级管理员账户,拥有管理项目的权限。 3. 选择智能体配置模式: 模式 A:Zion 默认智能体。选择此模式,将直接使用 Zion 在 Coze 平台预配置的官方智能体,适用于测试。系统自动填充 Zion 官方的 Bot ID、OAuth 应用 ID 以及一对公私钥,并预设头像与昵称。选择该模式后,项目自动创建完成,可将平台首页分享给用户,让他们体验聊天页面。若后续想自定义修改智能体的各种收费模式、前端展示,可在“管理后台”进行修改。 模式 B:你的 Coze 智能体。选择此模式,需要在“管理后台”页自行配置在 Coze 平台上获取的 Bot ID、OAuth 应用 ID 以及一对公私钥。
2025-01-26
如何用AI工具做一个个人工作知识库
以下是使用 AI 工具创建个人工作知识库的方法: 1. 使用 AnythingLLM 软件: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 首先创建一个工作空间,上传文档并在工作空间中进行文本嵌入,选择对话模式。 AnythingLLM 提供了两种对话模式:Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 完成配置后即可与大模型进行对话。 2. 基于 Coze 免费打造: 确定功能范围,编写 prompt 提示词,设定 Bot 的身份和目标。 创建知识库,整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。创建知识库路径:个人空间 知识库 创建知识库。知识库文档类型支持本地文档、在线数据、飞书文档、Notion 等,本次使用【本地文档】。按照操作指引上传文档、分段设置、确认数据处理。小技巧:在内容中加上一些特殊分割符,比如“”,以便于自动切分数据。分段标识符号要选择“自定义”,内容填“”。 创建工作流,告诉 AI 机器人应该按什么流程处理信息。创建工作流路径:个人空间 工作流 创建工作流。工作流设计好后,先点击右上角“试运行”,测试工作流无误后,就可以点击发布。如果任务和逻辑复杂,可以结合左边“节点”工具来实现。 私人知识库中的内容一般有两种:日常从互联网收集的优质信息和个人日常的思考以及分享。如果想基于这套知识库打造个人专属的 ChatGPT,常见的有两种技术方案:训练专有大模型和利用 RAG(检索增强生成)技术。训练专有大模型效果虽好,但存在高成本、更新难度大等缺陷,并非当下主流方案。
2025-02-04
我想把一个pdf文件的文案完全扒取下来,我该如何利用ai提升工作效率
以下是几种利用 AI 提升 PDF 文件文案扒取工作效率的方法: 1. DeepL(网站):访问,点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):在安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):在下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再在点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):在点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-04
化学工作者有关的ai
以下是为您整理的与化学工作者有关的 AI 相关内容: 1. 为了在医疗保健中产生真正的改变,AI 应像优秀的医生和药物开发者那样学习。成为顶尖人才通常从多年的密集信息输入和正规学校教育开始,再通过学徒实践从出色的实践者那里学习,这对于培养在复杂情况下确定最佳答案的直觉很重要。对于化学领域,设计新疗法的科学家需要经历数年的化学和生物学学习,然后是博士研究及在经验丰富的药物设计师指导下工作。 2. 关于使用大型语言模型进行自主化学研究:“Coscientist”人工智能系统用于自动化化学研究,其工作流程包括文献搜索、协议选择、翻译成代码、实验等步骤,且这个过程是可迭代的。该系统利用大型语言模型来规划和实施化学任务,展示了人工智能在化学研究中的应用潜力。其价值在于 GPT 在自动化化学研究方面有极高潜力,人们可通过自然语言提需求,GPT 帮助完成一系列操作,未来稀缺的是目标而非执行。 3. 案例方面,有“化学:使用大型语言模型进行自主化学研究”的相关内容,可通过相应链接获取更详细信息。
2025-02-03
如何通过学习AI,在杭州找到AI相关的工作?
以下是一些通过学习 AI 在杭州找到相关工作的建议: 1. 提升技能:学习主流的 AI 工具和技术,如 RAG 微调等。 2. 积累项目经验:可以通过参与类似杭州站的 AI 活动,如“AI 自媒体涨粉”“AI+东方哲学”“AI 赚钱实验室”等,分小组协作完成相关项目,积累实践经验。 3. 拓展人脉:参加杭州当地的 AI 相关社群或活动,结识像老李哥哥这样在杭州的行业人士,获取更多的信息和机会。 4. 关注行业动态:了解杭州 AI 行业的发展趋势和需求,针对性地提升自己的能力。 5. 准备优秀的作品:例如创作引人入胜的 AI 相关短视频等,展示自己的能力和成果。
2025-02-02
为什么扣子工作流里面大模型很慢
扣子工作流中大模型运行慢可能有以下原因: 1. 模型加载部分:需从官网下载两个文件,并正确配置,如在 models 下创建 groundingdino 且配置齐全相关文件。对于 groundingdino 和 sams 配置是否齐全可使用“抠头发.json”检验。 2. 科学上网问题:运行到此节点时可能会报科学上网的错误,需稳定科学上网后重启 UI 跑工作流。 3. 提示词设置:在大模型节点中,系统级提示词的设置很关键,它与外层用户直接交互的提示词不同,用于定义模型的角色和任务。 4. 批处理设置:包括迭代处理、循环次数和并发量的设置,通过调整这些参数可提高处理效率。 若觉得排除 bug 很慢,可使用的工作流进行操作。
2025-02-02
我是行政专员,零基础入门AI,如果帮忙自己提供工作效率和质量
对于行政专员零基础入门 AI 以提升工作效率和质量,以下是一些建议: 1. 了解 AI 的应用场景:AI 在很多领域都有显著的成果,如交通监控、银行账户欺诈检测、核融合控制、新药发现以及应对气候变化的技术等。它有潜力在您的工作中发挥作用,例如自动化一些重复性的任务。 2. 建立 AI 工作流:目前大多数人零碎地使用 AI 工具,未将其系统应用到工作场景中,导致整体效率提升不明显甚至下降。要避免像小明那样在挑选和切换工具上浪费时间,应建立一套完整、适合自己的 AI 工作方法论和流程。 3. 系统学习和实践:深入学习如何将 AI 工具与行政工作相结合,通过不断实践找到最适合自己工作的方法和工具。
2025-01-30