Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

教我工作流的底层逻辑跟如何入门学习工作流

Answer

工作流的底层逻辑及入门学习方法如下:

工作流通常由多个节点构成,节点是其基本单元,本质上是包含输入和输出的函数。常见的节点类型包括:

  1. LLM(大语言模型):使用输入参数和提示词生成处理结果。
  2. Code(代码):通过 IDE 编写代码处理输入参数,并返回输出值。
  3. Knowledage(知识库):根据输入参数从关联知识库中召回数据,并返回。
  4. Condition(条件判断):if-else 逻辑节点,用于设计工作流内的分支流程,根据设置条件运行相应的分支。
  5. Variable(获取变量):从 Bot 中获取变量作为参数在工作流中使用。
  6. Database(数据库):在工作流中使用提前配置在 Bot 数据库中的数据。

以下是一些入门学习工作流的示例和资源:

  1. 对于生成绿幕素材和绿幕素材抠图的工作流,您可以下载工作流文件拖入 ComfyUI 中自动加载,然后对照相关说明进行学习。工作流链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB
  2. 对于 Glif 图像流制作冰淇淋甜品地标,您可以按照以下步骤学习:
    • 1 分钟交作业:点击网址 https://glif.app/@jian-Stuart/glifs/cly85fy2i000cqe87zcu72i5l ,选一张主体区分度高且主体为地标的图,上传图片并点击相应按钮,多点几次选一张满意的即可。
    • 5 分钟学习制作:点击顶上的“build”按钮,点击“+”加号,选择“img input”,再点下面的“+”加号,选“image generator”,把提示词放进节点,打开“advanced controls”,修改参数,勾选“Enable input image(img2img)”并改参数。
  3. 对于 Coze 平台的工作流,官方有现成的教程参考:
    • 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html
    • 国内参考文档:https://www.coze.cn/docs/guides/use_workflow
    • 国内版本还提供了一些示例,建议跟着实操一遍,如:
      • 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news
      • 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm
      • 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code
      • 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content
      • 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent
Content generated by AI large model, please carefully verify (powered by aily)

References

此工作流包含两个组:生成绿幕素材和绿幕素材抠图我为什么这么做?因为SD无法直接生成透明背景的png图片,所以要先生成一张素材图,前景是我们最重要的主体素材,背景是纯色(方便识别),既然要抠图,背景当然得是绿幕(不然怎么不叫白幕、黑幕),最后再把前景素材从背景中抠出来。道理听起来很简单我把工作流文件放上来,大家可以下载拖入ComfyUI中自动加载工作流,然后对照本文进行学习工作流链接:https://pan.quark.cn/s/01eae57419ce提取码:KxgB

Glif图像流: 5分钟学会制作一个冰淇凌🍦 甜品地标

回归正题,咱们是奔着1分钟交作业来的.点击这个网址:[https://glif.app/@jian-Stuart/glifs/cly85fy2i000cqe87zcu72i5l](https://glif.app/@jian-Stuart/glifs/cly85fy2i000cqe87zcu72i5l)选一张主体区分度比较高,且主体就是这个地标的图,比如这种:上传你的图片,并点击下面这个按钮:多点几次,选一张你觉得不错的,交作业!1分钟搞定![heading1]学习工作流[content]啥,你还想学怎么做?行,接下来就是5分钟学习怎么做一个这样的工作流.这里的核心就是咱师傅三思的知识产权了.别担心,这个工具使用起来不复杂,以下是“喂饭级”教程:点击顶上的“build”按钮.点击这个“+”加号选择“img input“再点下面这个“+”加号这次选“image generator”把提示词放进这个节点:打开“advanced controls”,修改下图中的参数到我截图里设置的数值,尤其那个图像的URL要换成咱们输入的图像“image-input1”(修改方式为删除原有框里的内容,按照下面第二张图那个地方,点它,别管跳出来的框,点它!).同样这个节点,再勾选☑️“Eable input image(img2img)”,同样改参数如下图:

大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库

工作流是由多个节点构成,节点是组成工作流的基本单元。节点的本质就是一个包含输入和输出的函数Coze平台支持的节点类型:LLM(大语言模型):使用输入参数和提示词生成处理结果。Code(代码):通过IDE编写代码处理输入参数,并返回输出值。Knowledage(知识库):根据输入参数从关联知识库中召回数据,并返回。Condition(条件判断):if-else逻辑节点,用于设计工作流内的分支流程,根据设置条件运行相应的分支Variable(获取变量):从Bot中获取变量作为参数在工作流中使用Database(数据库):在工作流中使用提前配置在Bot数据库中的数据[heading3]创建和使用工作流[content]这一块官方有现成的教程参考:海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html国内参考文档:https://www.coze.cn/docs/guides/use_workflow国内版本还提供了一些示例,学习工作流强烈建议大家跟着实操一遍:搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news使用LLM处理问题:https://www.coze.cn/docs/guides/workflow_use_llm生成随机数:https://www.coze.cn/docs/guides/workflow_use_code搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent

Others are asking
入门
以下是为您提供的 AI 入门相关内容: 强化学习入门: 学习之前先明确目的。 学习深度强化学习的第一个算法通常是 DQN,以搞懂它作为入门目标。 参考资料:https://github.com/ty4z2008/Qix/blob/master/dl.md 。 Stable Diffusion 入门: 基本介绍:https://waytoagi.feishu.cn/wiki/CeOvwZPwCijV79kt9jccfkRan5e 。 运作方式:https://waytoagi.feishu.cn/wiki/TNIRw7qsViYNVgkPaazcuaVfndc 。 新人视频教程:https://waytoagi.feishu.cn/wiki/O5jEwgZIRiQ10xkqGOQcKtSBnSe 。 文字教程:https://zhuanlan.zhihu.com/p/622238031 。 模型网站: C 站SD 模型网站:https://civitai.com/ 。 Liblibai模型+在线 SD:https://www.liblib.ai/ 。 huggingface:https://huggingface.co/models?pipeline_tag=texttoimage&sort=trending 。 吐司站:https://tusiart.com/ 。 人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 。 扣子“AI 应用”入门: 讲师韦恩是智能体创业者、WayToAGI 共建者、微软提示词工程师、多平台 Agent 开发者、企业级 AI Agent 定制专家,荣获多家 AI 开发平台的比赛奖项,有 12 年程序开发背景,是多家企业的 AI 落地顾问。 课程计划: DAY1:入门,搭建证件照应用,需要有一定的智能体搭建基础。 DAY2:进阶,邮票收藏馆搭建,需要有第一天的 AI 应用搭建基础,传送门:https://waytoagi.feishu.cn/wiki/NiXNwxVtHiP68Pk7bKmcNRDon6d?from=from_copylink 。 您将收获: 全面认识扣子的 AI 应用的底层逻辑。 解决 AI 应用核心卡点:工具栏、表单使用、加载动图、界面布局等卡点。 收获一个价值千元的 AI 应用证件照。
2025-03-26
AI 入门
以下是关于 AI 入门的一些指导: 适用于 JavaScript 的 AI 堆栈入门: 路线图: 提供交互式 CLI 用于 createaistack,让开发人员能选择项目脚手架和依赖项。 增加用于高级用例的事务性数据库,例如在问答中保留问题、用户偏好等。 提供更多的向量数据库和部署平台选项。 推出用于开源模型的轻量级微调步骤。 感谢 Tailwind、ai sdk、dotenv、Next.js、langchain.js 等开源项目在创建过程中的重要作用。 写给不会代码的你:20 分钟上手 Python+AI: 在深入学习 AI 时,编程可能会让新手感到困难,此教程旨在让大家在 20 分钟内掌握 Python 和 AI 的相互调用。 完成任务:包括完成一个简单程序、一个爬虫应用以抓取公众号文章、一个 AI 应用为公众号文章生成概述。 背景知识: Python 拥有丰富的标准库,若不够用还可通过 pip 工具从类似 GitHub 的平台订购新道具,在 AI 领域被广泛使用。 OpenAI 通过 ChatGPT 提供开箱即用的服务,也通过 OpenAI API 提供更灵活的代码调用服务以完成更多自动化任务。 新手如何学习 AI: 了解 AI 基本概念: 阅读「」熟悉术语和基础概念,了解其主要分支及联系,浏览入门文章。 开始 AI 学习之旅: 在「」中找到初学者课程,推荐李宏毅老师的课程,通过在线教育平台按自己节奏学习并获取证书。 选择感兴趣的模块深入学习: AI 领域广泛,可根据兴趣选择特定模块,如掌握提示词技巧。 实践和尝试: 实践是巩固知识的关键,尝试使用各种产品并分享实践成果。 体验 AI 产品: 与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式。
2025-03-25
AI入门视频推荐
以下为您推荐一些 AI 入门视频: 1. 吴达的生成式 AI 入门视频。 2. 吴恩达推出的《生成式 AI 入门视频课程》,一共 31 集,宝玉老师每天翻译一集,可在 B 站观看学习。 此外,在“通往 AGI 之路知识库”中还有很多与 AI 相关的学习内容,例如 AIPO 与 config UI 的生态大会相关介绍、AI 学习路径和方法的分享等。
2025-03-25
我是ai视频入门新手,我该如何从零学习可使用的工具组合与降低工作流程
对于 AI 视频入门新手,从零学习可用的工具组合与降低工作流程,您可以参考以下内容: 工具组合方面: Runway:在真实影像方面质感较好,战争片全景镜头处理出色,控件体验感不错,但存在爱变色、光影不稳定的问题。 SVD:在风景片测试中表现较好,其他方面一般。 Pixverse:擅长物体滑行运动。 Pika:在生成人物表情自然的画面方面表现出色,可用于局部重绘。 11labs:用于制作 AI 声音,英文效果较好,但存在声音没有情绪和情感的问题。 MJ:局部重绘功能强大。 ComfyUI:可进行高清放大和细节增强。 可灵:图生视频效果质量高且稳定,但贵且慢。 Pika 2.2 版本:在首尾帧过渡上有不错表现。 Pixverse:生成速度最快的视频生成平台。 工作流程方面: 1. 分析小说内容:使用如 ChatGPT 等 AI 工具提取关键场景、角色和情节。 2. 生成角色与场景描述:借助如 Stable Diffusion 或 Midjourney 等工具生成视觉描述。 3. 图像生成:使用 AI 图像生成工具创建角色和场景图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成脚本。 5. AI 声音制作:利用如 11labs 等工具将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用如剪映等视频编辑软件将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,提高视频质量。 8. 审阅与调整:观看视频,根据需要重新编辑某些场景或调整音频。 9. 输出与分享:完成编辑后,输出最终视频并在所需平台分享。 需要注意的是,具体的操作步骤和所需工具可能因项目需求和个人偏好有所不同。同时,AI 工具的可用性和功能可能会随时间变化,建议直接访问工具网址获取最新信息和使用指南。
2025-03-24
入门指南
以下是强化学习的入门指南: 1. 基础知识补充:如果没有相关基础且概率论和线性代数知识遗忘较多,可以学习相关课程,周末一天可完成;若对机器学习无基础,可先看吴恩达课程,再以李宏毅课程补充,单纯入门强化学习只需看前几节讲完神经网络的部分,此视频课程约需 25 小时。 2. 动手实践:跟着《动手学深度学习 https://hrl.boyuai.com/》学习并写代码,入门看前五章,约 10 小时。 3. 深入学习基础知识点:观看 B 站王树森的深度学习课程的前几节,约 5 小时。 4. 项目实践:可以看《动手学强化学习》,看到 DQN 部分,约十几小时。同时,文中还提到行动只有向左或向右两个,模型构建简单,DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用两层网络结构;需要一个缓存区存放从环境中采样的数据;有训练函数,批量从缓存区获取数据,使用 DQN 算法进行训练;还有主循环函数,在每个 episode 中选择动作(使用 εgreedy 策略),执行动作并将结果存储在 replay buffer 中,训练完使用保存好的 model.pth 参数即可实际使用。 文章作者为腾讯互动娱乐工程师 luozhiyun,原文地址:https://mp.weixin.qq.com/s/pOO0llKRKL1HKG8uz_Nm0A,感谢群友.com 的推荐。在学习前先明确目的,本文以搞懂 DQN 算法作为入门目标。像 https://github.com/ty4z2008/Qix/blob/master/dl.md 这类链接中有很多资料,但需筛选。
2025-03-22
背景:我是一名高中生,想学习AI知识,逐步从入门到精通 目标:希望在<3个月>内具备一定能力。 请结合我的背景和优势,为我设计一份学习路线: - 列出每阶段(例如每一个礼拜)的学习重点(比如编程基础、数学)。 - 为每个阶段推荐<具体资源>(书籍、在线课程、练习项目等)。 - 提供一些学习技巧或注意事项。
以下是为您设计的一份在 3 个月内从入门到具备一定能力的 AI 学习路线: 第一个月: 学习重点:了解 AI 基本概念,包括术语、主要分支及它们之间的联系;掌握编程基础,如 Python 语言。 推荐资源: 书籍:《人工智能:一种现代方法》 在线课程:Coursera 上的“人工智能入门”课程 练习项目:使用 Python 实现简单的数据分析和可视化 学习技巧和注意事项:多做笔记,理解概念,注重实践。 第二个月: 学习重点:深入学习数学基础,包括统计学、线性代数和概率论;了解算法和模型中的监督学习和无监督学习。 推荐资源: 书籍:《概率论与数理统计》《线性代数及其应用》 在线课程:edX 上的“机器学习基础”课程 练习项目:使用监督学习算法进行数据分类预测 学习技巧和注意事项:通过实际案例加深对数学知识的理解,多做练习题。 第三个月: 学习重点:掌握神经网络基础,包括网络结构和激活函数;学习模型的评估和调优。 推荐资源: 书籍:《深度学习》 在线课程:Udacity 上的“深度学习入门”课程 练习项目:构建并优化一个简单的神经网络模型 学习技巧和注意事项:积极参与在线讨论,及时解决学习中的问题。 在整个学习过程中,您还可以: 体验 AI 产品,如 ChatGPT、文心一言等,了解其工作原理和交互方式。 掌握提示词的技巧,提高与 AI 的交互效果。 参与相关的社区和论坛,分享学习经验和成果。
2025-03-21
大神解读大模型底层
大模型的底层原理主要包括以下几个方面: 1. 生成式:大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,从给定的提示词“how”开始,通过计算推理依次输出“are”“you”等,直到计算出下一个词是“”时结束输出。 2. 预训练:大模型“脑袋”里存储的知识都是预先学习好的,这个预先学习并把对知识的理解存储记忆在“脑袋”里的过程称为预训练。以 GPT3 为例,训练它使用了约 4990 亿 token 的数据集,相当于 86 万本《西游记》。预训练需要花费大量时间和算力资源,且在没有外部帮助的情况下,大模型所知道的知识信息是不完备和滞后的。 3. 转换器模型(Transformer):Transformer 是一种处理文本内容的经典模型架构,虽然其具体细节不清楚不影响使用大模型,但感兴趣的可以通过相关链接进一步了解。 4. 参数规模:依靠概率计算逐字接龙的方法看似难以生成高质量回答,但随着参数规模的增加,如从 GPT1 的 1.5 亿到 GPT3.5 的 1750 亿,实现了量变到质变的突破,“涌现”出惊人的“智能”。这种“涌现”现象在人类的进化和个体学习成长历程中也存在。
2025-03-24
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
不能用APP思维、传统数字平台思维去做大模型创业和人工智能创业,二者在底层逻辑和商业模式等方面完全不同
大模型创业和人工智能创业与 APP 思维、传统数字平台思维在底层逻辑和商业模式等方面存在显著差异。大模型和人工智能创业更注重数据的深度处理、算法的优化创新以及对复杂问题的解决能力。相比之下,APP 思维通常侧重于用户界面和功能的设计,以满足特定的用户需求;传统数字平台思维则更多关注平台的搭建和用户流量的获取与运营。在大模型和人工智能领域,技术的突破和创新是关键,需要投入大量资源进行研发,并且要面对更高的技术门槛和不确定性。而 APP 和传统数字平台的创业相对更侧重于市场推广和用户体验的优化。总之,不能简单地用 APP 思维和传统数字平台思维来指导大模型和人工智能创业。
2025-03-07
AGI底层逻辑
AGI(通用人工智能)的底层逻辑包含以下方面: 在公众传播层面,相关名词常被混用,但底层是 Transformer 结构。Transformer 底层是 function loss 损失函数,是一个大参数(千亿级别)的回归方程。其通过回归方程的 Function loss 拟合 A 到 B 的 mapping 关系,实现数据集的压缩与还原。在一定 prompt condition 情况下,Transformer 能 repeat 曾经出现过的数据内容,从而实现“生成”能力。大语言模型在两个数据集压缩后,能解释两个数据集之间地带的“连续”能力。部分人觉得 LLM(大语言模型)具有 AGI 潜力,但 LeCun 反对。同时,大语言模型与 Alpha Go 存在差异,Alpha Go 是一个增强学习模型,学习结果会调整模型自身参数,具有推理能力,而大语言模型在这块很弱。Transformer 决定 LLM 是一个生成式模型。
2025-03-07
你的底层大模型用的是哪个?
目前常见的大型语言模型多采用右侧只使用 Decoder 的 Decoderonly 架构,例如我们熟知的 ChatGPT 等。这些架构都是基于谷歌 2017 年发布的论文“attention is all you need”中提出的 Transformer 衍生而来,其中包括 Encoder 和 Decoder 两个结构。 大模型的特点在于: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型之所以能有效生成高质量有意义的回答,关键在于“大”。例如 GPT1 的参数规模是 1.5 亿,GPT2 Medium 的参数规模是 3.5 亿,到 GPT3.5 时,参数规模达到惊人的 1750 亿,参数规模的增加实现了量变到质变的突破,“涌现”出惊人的“智能”。 大模型的预训练机制是指其“脑袋”里存储的知识都是预先学习好的,预训练需要花费相当多的时间和算力资源。在没有其他外部帮助的情况下,大模型所知道的知识信息总是不完备且滞后的。
2025-02-18
不同厂家的AI产品是底层算法不一样吗?比如ChatGPT和豆包
不同厂家的 AI 产品底层算法通常是不一样的。 以常见的 ChatGPT 和豆包为例,ChatGPT 是由 OpenAI 开发的,其底层算法具有独特的特点和优势。而豆包是由字节跳动开发的,也有其自身的算法设计和优化。 在当前的 AI 领域,大多数 AI 应用程序都由大型语言模型(LLMs)驱动,其中只有几个基础模型,由少数几个组织创建。例如 OpenAI 制作了 GPT3.5 和 GPT4,Google 有 Bard 等。 从相关的访问量数据来看,不同的 AI 产品在市场上的表现也有所不同。比如在某些月份,ChatGPT 的访问量较高,而豆包的访问量也在不断变化。但这并不能直接反映其底层算法的差异,只是从侧面反映了它们在用户中的受欢迎程度和使用情况。
2025-01-17
flowith根据自然语言构建一个直接使用的工作流吗,如何向flowith提出要求
Flowith 可以根据自然语言构建工作流。即使没有专业编程技能,只要能用清晰的自然语言描述出想要的各个 Agents 具备的行为和功能,就可以快速制作多 Agents 应用或创建代理式工作流。 使用工作流的步骤如下: 1. 配置工作流: 在 Code 节点内使用 IDE 工具,通过 AI 自动生成代码或编写自定义代码逻辑,来处理输入参数并返回响应结果。 该节点支持 JavaScript、Python 运行时,需注意不同运行时的特定事项。 可在 IDE 底部单击尝试 AI,并输入自然语言设定代码逻辑,也可选中代码片段通过快捷键唤起 AI 并输入自然语言让其修改代码。 2. 通过工作流数据库节点操作数据表: 在工作流中添加数据库节点对数据表进行操作,可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。 参考以下操作添加并配置工作流节点: 单击页面顶部的工作流页签,然后单击创建工作流。 输入工作流名称和使用描述,然后单击确认。 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。 根据相关信息配置数据库节点,包括输入添加 SQL 执行中需要的参数,输入要执行的 SQL 语句,可单击自动生成使用大模型生成 SQL。 需注意不支持 Select语法、多表 Join 操作,最多返回 100 行数据。在配置数据库节点前,要确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。
2025-03-26
如何用coze创建工作流 采集生成视频号内容
以下是使用 Coze 创建工作流采集生成视频号内容的步骤: 1. 安装 Coze Scraper 扩展程序至浏览器,完成安装后可手动采集要上传到扣子知识库的内容。更多关于知识库的内容,详情请参考。 登录。 在左侧菜单栏,选择一个工作区。 在工作区内,单击知识库页签。 创建一个知识库或点击一个已存在的知识库。 在知识库页面,单击新增单元。 在文本格式页签下,选择在线数据,然后单击下一步。 单击手动采集,然后在弹出的页面点击权限授予完成授权。 在弹出的页面输入要采集内容的网址,然后单击确认。 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。 2. 创建工作流: 登录到您的 Coze 账户,导航至个人空间页面。 在个人空间页面上,点击“工作流”按钮,系统会展示之前创建的工作流列表。 在页面的右上角,点击“创建工作流”按钮,打开创建工作流的界面。 在创建工作流的页面上,填写工作流的名称(必须使用英文字符)和描述(一段简洁的文本,帮助模型理解工作流的功能和用途以及触发情境)。 完成必填项后,系统将自动跳转到工作流的编辑页面,其中预设并配置了开始节点和结束节点。开始节点是用户输入内容的起点,结束节点是收尾角色,无论工作流中进行了哪些操作,最终都必须通过结束节点来完成。系统强制要求在工作流的最后步骤中包含结束节点,只有当整个流程的最终动作指向结束节点时,工作流才能够进行试运行和正式发布。 在工作流编辑页面的左侧,有组件库,包括大模型组件(用于执行复杂的数据处理任务)、代码组件(允许运行自定义代码段)、消息组件(用于发送或接收消息)、数据库组件(与数据库交互,执行查询或更新操作)、选择器组件(用于在工作流中进行条件判断和分支选择)。
2025-03-25
扣子工作流与用户界面搭建
以下是关于扣子工作流与用户界面搭建的相关内容: 一、工作流搭建 1. 进入扣子(coze.cn),选中「创建应用」,再选中「创建空白应用」,输入「应用名称」进入项目搭建页面。 2. 新增一个工作流,工作流名称叫做 psy_ai。 3. 该项目的业务逻辑是通过上传儿童的绘画作品分析心理状态,分析过程分为多个步骤实现,工作流的编排流程图为:上传作品>多个多模态大模型识别不同元素>分别提取特种并分析>综合分析结果>给出评估与建议。 4. 工作流从左到右分为三组大模型: 第一组多模态大模型主要作用是分析图片元素:整体特征、房屋特征、树木特征、人物特征。 第二组通用大模型主要是对提取到的信息进行对应内容的总结分析。 第三组通用大模型先汇总结果,然后再分别提取不同(诊断评估与建议)的结果。 5. 所有大模型节点对应的 prompt(提示词):文档地址:https://vcn5grhrq8y0.feishu.cn/wiki/Z3NzwrtEKi9h5mk0rTOcAT0xnTc 二、用户界面搭建 1. 选择「桌面网页」类型。 2. 以《小喵星座日历》扣子网页应用为例: 板块 1:输入个人信息和生成图片,包含 2 个选项、1 个按钮、分割图、1 个输入框、1 个按钮。点击生成按钮会触发事件,调用日历生成工作流,生成中时生成按钮禁用,用 loading 按钮展示动态变化。 板块 2:生成星座日历图片,新建一个容器,包含一个文本组件、一个列表组件。 板块 3:查看星座生成记录,新建一个容器,包含一个按钮组件、一个列表组件,点击按钮调用读取生成历史的工作流,列表绑定生成历史工作流的输出结果。 板块 4:查看示例,新建一个容器,包含一个文本组件、4 个图片组件。 三、功能页相关配置 1. {{ImageUpload1.value}}用于获取图片上传组件的第一张图片。 2. {{psy_ai.error}}是工作流的报错信息。 3. 当用户上传图片点击按钮时会进入在家中的状态,右边内容显示容器里有两个组件: 图片组件显示加载中的 gif 图片(默认隐藏),图片来源本地上传加载中 gif 图,尺寸宽度为百分比 100%,高度适应内容,可见性根据{{!psy_ai.loading}}控制,工作流运行中显示。 Markdown 组件显示分析内容,隐藏根据{{psy_ai.loading}},工作流运行完显示。 至此,页面所有的布局和数据交互全部完成。
2025-03-25
怎么搭建coze工作流
搭建 Coze 工作流的步骤如下: 1. 进入 Coze,点击「个人空间 工作流 创建工作流」,打开创建工作流的弹窗。 2. 根据弹窗要求,自定义工作流信息,点击确认后完成工作流的新建。 3. 在编辑面板中拖入对应的节点,包括: 插件:提供一系列能力工具,拓展 Agent 的能力边界。 大模型:调用 LLM,实现各项文本内容的生成。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 开始节点、结束节点:分别对应子任务流程图中的原文输入和结果输出环节。 4. 按照流程图和具体需求,拖入相应的节点完成工作流框架的搭建。 例如: 在创建工作流时,配置工作流基础信息,拖入“HTTP 请求”节点,并根据接口文档设置请求方式、接口地址和请求参数。 对于返回的 JSON 数据,可通过“代码节点”进行数据格式转换。 若要将新闻数据放入飞书多维表格,需在飞书中新建多维表格并创建相关字段,然后在 Coze 工作流中拖入“飞书多维表格”节点进行链接和设置。 另外,在搭建如分析儿童绘画作品心理状态的公益应用时,先新增工作流并命名,根据具体业务逻辑编排流程图,如上传作品 多个多模态大模型识别不同元素 分别提取特征并分析 综合分析结果 给出评估与建议,然后从左到右分组拆解多模态大模型的作用,搭建完工作流后可进行“用户界面”的搭建,选择“桌面网页”类型。相关的 prompt(提示词)文档地址:https://vcn5grhrq8y0.feishu.cn/wiki/Z3NzwrtEKi9h5mk0rTOcAT0xnTc
2025-03-25
我是一名ai小白,我现在系统学习ai的一切创作,并利用于工作中,请问怎么从头开始学习
对于 AI 小白想要系统学习 AI 并应用于工作,您可以按照以下步骤从头开始: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 参考「」,其中有一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后也进行分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 参考他人的学习经验: 可以参考《雪梅 May 的 AI 学习日记》,了解他人的学习模式和经验。比如作者采用输入→模仿→自发创造的模式,并且学习资源都是免费开源的。 总之,学习 AI 需要耐心和持续的努力,祝您学习顺利!
2025-03-24
我想写一部都市玄幻小说,已经有了简单的大纲。请问使用哪款AI工具?又没有 AI味。快速的写出真人作者的小说意境。并且上下逻辑清晰30万的长篇小说。列出免费工具。
以下为您推荐两款可用于写都市玄幻小说的免费 AI 工具及相关方法: 1. Coze: 工作流核心节点: 用 Bing 搜索标题相关的内容。 用程序将搜索结果结构化(不熟悉程序的可忽略或直接复制文中的代码)。 用大模型草拟大纲,包括标题、主旨、世界观、主要角色、小说背景、情节概要。 再用大模型来写文章。 输出文章内容。 2. 与 AI 交互写作(如南瓜博士的经验): 确定主题:不写科幻,用非常规视角,如以猫为第一人称写爱情小说。与 AI 讨论主题,挑选 AI 提供的调味料,明确主题。 构思情节:先刻画人物,如喜欢书店店员艾拉这个人物,使其更丰满,再设计故事线。 希望这些工具和方法能对您创作小说有所帮助。
2025-03-19
你好,我想训练一个自己的专属模型,比如说基于网页里面的问卷调查,我有答题的逻辑,网页的问卷调查项目每天都有非常多的不同的地方,但是又有相通的地方,我想让AI在我的逻辑之上能自我迭代自动答题,我该怎么办
如果您想基于网页问卷调查训练一个能在您的逻辑之上自我迭代自动答题的专属模型,有以下两种常见的技术方案: 1. 训练专有大模型: 优点:效果最好。 缺点:成本高,训练和维护需要大量计算资源和专业知识;更新模型知识难度大,需要重新训练或微调,过程复杂耗时。 2. 利用 RAG(检索增强生成)技术: 例如选择 Baichuan27BChat 模型作为底模,配置模型本地路径和提示模板。在 Train 页面里选择 sft 训练方式,加载定义好的数据集,根据数据集大小和收敛情况设置学习率和训练轮次。使用 FlashAttention2 可减少显存需求、加速训练速度;显存小的朋友可减少 batch size 并开启量化训练,内置的 QLora 训练方式好用。但需要用到 xformers 的依赖。根据聊天记录规模大小,训练时间少则几小时,多则几天。 此外,还有学生训练专属植物分类 AI 模型的案例供您参考。在北京市新英才学校的跨学科选修课“生化 E 家”中,老师和学生共同收集校园内不同树叶的照片,在 OpenInnoLab里找到图像分类训练工具,建立植物分类模型,加入大量数据集进行训练,再用图像化编程将其套在程序里,形成简单的识别工具。在这个过程中,老师通过生活体验与学生讨论图像分类原理,学生从体验到实践操作,在不进行大量代码编程的情况下能够训练 AI 模型,并了解模型训练准确度与数据的关系。
2025-03-14
如果我是一个只会使用大模型对话,不了解提示词逻辑,想要逐步学习ai相关知识的人,你推荐什么呢
以下是为您逐步学习 AI 相关知识的推荐: 1. 关于大模型的思考与探讨:普通用户使用大模型时,语言不是关键,核心是向量空间中的游走脉络,输出时的语言翻译是次要的,且训练语料的中英文差异在于 embedding 环节。 2. 垂类模型与大模型公式:通过合适的模型、prompt 和 test 入口表达,用大模型公式调试出好效果以替代垂类模型,但微调垂类模型可能使大模型泛化能力下降,需分场景看待。 3. 提示词的挖掘:写提示词未挖掘出大模型的天花板,还有提升空间。 4. 读书方法与提示词相关书籍推荐:读书最有效的是笨方法,不取巧,花时间读。并推荐了从数学、作家、代码、原理角度写大模型的四本书。 5. 内置思维链提示词:针对小技巧类的思维链提示词有新模型能力涌现和大模型内置两个趋势,但对于某些如 COT 这类的内置可能会改变大模型的原味,对此存疑。 6. 编写提示词的经验与思考: 原汁原味与生效元素的平衡:为得到原汁原味的效果,需考虑是否反刻某些元素;生效的小技巧大模型可能会内置,如指定角色效果有变化。 压缩与歧义的处理:找到凝练的核心概念(a)后,根据对象用不同方式(b)表达,核心在于找到准确的 a,而寻找 a 的方法目前主要是多读多泡在相关领域。 持续学习与输出:通过阅读吸收输入,转换为自己的语言输出,与大模型交互提炼精华,多输出促进吸收输入。 7. 调教 AI 和提示词: 是否需要提示词工程,是否需要学提示词:持反对观点,像打字和写作一样。方法论不是关键,不断尝试和大模型交互,便是最佳方法。 和大模型交互需要遵循规则吗:不需要。网上流传最广的提示词方法论,是“给大模型一个角色”,这是一个好的策略,但不是必须遵循的原则,甚至所有规则都不是必须遵守的。可以在提示词里面设定规则,也可以聊着聊着临时更改规则,和大模型交互时完全不需要考虑规则。要考虑的就是是否达成了目的,如果没达成,那就锲而不舍的开一个新窗口,再尝试一下。如果还是不行,换个模型。 用 Markdown 格式清晰表达问题:Markdown 通过其易读性、格式化的灵活性和信息的清晰结构,使得与大模型的交流更加高效和精确。有助于模型更好地理解用户的意图。其优势包括结构清晰、格式化强调、适用性广。 8. 小白学习指南: 第一步:要有一个大模型帐号,至少已经熟悉和它们对话的方式。推荐 ChatGPT4 及国产平替: 第二步:看 OpenAI 的官方文档:
2025-03-06
AI大模型本地化部署的逻辑是什么?输入的数据不会外泄吗?
AI 大模型本地化部署的逻辑主要包括以下步骤: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,要根据自身的资源、安全和性能需求来决定。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,并优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 关于输入数据是否会外泄,这取决于本地化部署的安全性措施和配置。如果采取了严格的安全措施,如数据加密、访问控制、网络隔离等,输入的数据外泄的风险可以大大降低。但如果安全措施不到位,就存在数据外泄的可能。例如,赞成把一个训练好就不动的模型部署在端侧(如手机或家庭计算中心),记录所有知识和记忆的相关数据就不会跑到云端,能更好地保障数据安全。
2025-02-28