Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Comfyui教程

Answer

以下是一些关于 ComfyUI 的教程资源:

  1. ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。可在ComfyUI 官方文档网站获取相关信息。
  2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容。教程地址是优设网的 ComfyUI 入门教程
  3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户。可在知乎的 ComfyUI 介绍找到相关教程。
  4. Bilibili:提供了从新手入门到精通各个阶段的一系列视频教程,能更直观地帮助学习。可在Bilibili 的 ComfyUI 系列教程找到。

此外,还有以下教程:

  1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zh-CN
  2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/

ComfyUI 基础教程中关于 KSampler 的部分: KSampler 即采样器,包含以下参数:

  1. seed:随机种子,用于控制潜空间的初始噪声。若要重复生成相同图片,需种子和 Prompt 相同。
  2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。
  3. step:采样的步数。一般步数越大效果越好,但与使用的模型和采样器有关。
  4. cfg:一般设置在 6 - 8 之间较好。
  5. sampler_name:可通过此设置采样器算法。
  6. scheduler:调度器控制每个步骤中去噪的过程,可选择不同调度算法。
  7. denoise:表示要增加的初始噪声,文生图一般默认设置为 1。

请注意,内容由 AI 大模型生成,请仔细甄别。

Content generated by AI large model, please carefully verify (powered by aily)

References

问: 有没有comfy ui相关的学习资料?

是的,根据搜索结果,有几个网站提供了关于ComfyUI的学习教程:1.ComfyUI官方文档:提供了ComfyUI的使用手册和安装指南,适合初学者和有经验的用户。你可以在[ComfyUI官方文档网站](https://www.comfyuidoc.com/zh/)找到相关信息。2.优设网:提供了一篇详细的ComfyUI入门教程,这篇教程适合初学者,详细介绍了ComfyUI的特点、安装方法以及如何使用ComfyUI生成图像等内容。教程地址是[优设网的ComfyUI入门教程](https://www.uisdc.com/comfyui-3)。3.知乎:有用户分享了ComfyUI的部署教程和使用说明,这篇介绍适合那些已经有一定基础并希望进一步了解ComfyUI的用户。可以在[知乎的ComfyUI介绍](https://zhuanlan.zhihu.com/p/662041596)找到相关教程。4.Bilibili:提供了一系列的ComfyUI视频教程,涵盖了从新手入门到精通的各个阶段。这些视频教程可以帮助用户更直观地学习ComfyUI的使用。可以在[Bilibili的ComfyUI系列教程](https://www.bilibili.com/video/BV14r4y1d7r8/)找到视频教程。这些资源为用户提供了丰富的学习材料,从基础操作到高级技巧,可以帮助用户更好地掌握ComfyUI的使用。内容由AI大模型生成,请仔细甄别。

ComfyUI:入门教程

一个全面的ComfyUI教程https://www.comflowy.com/zh-CN发现一个超有意思的comfyui教程https://comfyanonymous.github.io/ComfyUI_tutorial_vn/

小田:ComfyUI基础教程—小谈

KSampler,Sampler中文名称是采样器,如果你想详细了解采样器,可以阅读相关进阶教程,而基础教程只会告诉你如何使用。KSampler包含以下参数:seed:这个是随机种子,它主要用于控制潜空间的初始噪声。如果你想重复生成一模一样的图片。就需要用到这个随机种子。需要注意种子和Prompt都要相同,才能生成一模一样的图。control_after_generate:每次生成完图片后,上面的seed数字都会变化,而这个配置项,则是设置这个变化规则:randomize(随机)、increment(递增1)、decrement(递减1)、fixed(固定)。step:采样的步数。一般步数越大,效果越好,但也跟使用的模型和采样器有关。cfg:这个值设置一般设置为6~8之间会比较好。sampler_name:采样器名称。你可以通过这个来设置采样器算法。scheduler:调度器主要是控制每个步骤中去噪的过程。你可以通过它选择不同的调度算法,有些算法是选择每一步减去相同数量的噪声,有些则是每一步都尽可能去掉多的噪声。denoise:表示要增加多少初始噪声,1表示全部。一般文生图你都可以默认将其设置成1。

Others are asking
在comfyUI中可以接入哪些api,又和3D相关的吗
在 ComfyUI 中可以接入以下与 3D 相关的 API: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材,并直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai ,https://x.com/xiaohuggg/status/1763758877999587757?s=20 2. Move AI 推出的 Move API:可以从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。链接:https://move.ai/api ,https://x.com/xiaohuggg/status/1761590288576061573?s=20 3. ComfyUI 3D Pack 引入 3D 图像处理:可以快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。链接:https://github.com/MrForExample/ComfyUI3DPack/tree/main ,https://x.com/xiaohuggg/status/1755824687811346514?s=20 此外,ZHO 博主有关于 ComfyUI 的更新记录: 1. 4 月 18 日,ComfyUI Stable Diffusion 3 API 已更新为 V1.5 版,图生图和 SD3 Turbo 都可以正常使用,但 SD3 图生图模式不支持选择比例,SD3 Turbo 模型不支持负面提示词。使用方法是先申请 API,然后填入 config.json 文件即可(每账户 25 免费积分),SD3 每张图 6.5 积分(比较贵)。项目地址:https://github.com/ZHOZHOZHO/ComfyUIStableDiffusion3API ,SD3 API ComfyUI 节点测试成功。 2. 4 月 17 日,Stability AI 刚刚发布了 Stable Diffusion 3 和 Stable Diffusion 3 Turbo,现在已经可通过 Stability AI 开发者平台 API 使用,SAI 计划在不久的将来通过会员资格提供模型权重。详情:https://bit.ly/3W43FjY
2025-01-14
在comfyUI中可以接入哪些节点
在 ComfyUI 中可以接入以下类型的节点: 1. 输入节点: 文本提示节点:用于输入生成图像的文本描述。 图像输入节点:用于输入基础图像进行二次生成。 噪声节点:用于输入初始噪声图像。 2. 处理节点: 采样器节点:选择图像生成所使用的采样器。 调度器节点:选择图像生成所使用的调度器。 CFG Scale 节点:调整引导式采样的强度。 步数节点:设置图像生成的迭代步数。 3. 输出节点: 图像输出节点:显示生成的最终图像。 4. 辅助节点: 批处理节点:支持批量生成多个图像。 图像变换节点:提供图像旋转、翻转等功能。 图像融合节点:可以将多个图像合并成一个。 此外,还有一些特定的节点插件,如: 1. PuLID 节点插件: model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。 2. 中文提示词输入相关节点: 安装完成后,在【新建节点】【Alek 节点】下,有【预览文本】、【绘画】、【姿态】、【clip 文本编码器】和【翻译文本】这五个节点。 【clip 文本编码器(翻译)】可代替自带的【clip 文本编码器】,直接输入中文。但引用负向 embedding 时,文件夹路径不能有中文。 【翻译文本】节点可代替【元节点】,在 sdxl 流程中,当需要将文本信息单独列出来时使用。 【预览文本】节点可连接到【翻译文本】检查翻译是否正确。 如果翻译失效,可双击“embedded_instail”进行安装,然后用记事本打开 BaiduTranslate.py,填入在百度翻译开发平台申请的 ID 和密码,即可正常翻译。
2025-01-14
可以把tripo的节点接入comfyui吗
要将 tripo 的节点接入 ComfyUI,您可以参考以下步骤: 1. 确保后面有一个空格。然后将 requirements_win.txt 文件拖到命令提示符中(如果您在 Windows 上;否则,选择另一个文件 requirements.txt)。拖动文件将在命令提示符中复制其路径。 2. 按 Enter 键,这将安装所有所需的依赖项,使其与 ComfyUI 兼容。请注意,如果为 Comfy 使用了虚拟环境,必须首先激活它。 3. 在使用自定义节点之前,有一些要注意的事项: 您的图像必须放在一个以命名的文件夹中。那个数字很重要:LoRA 脚本使用它来创建一些步骤(称为优化步骤…但别问我是什么^^’)。它应该很小,比如 5。然后,下划线是必须的。 对于 data_path,您必须写入包含数据库文件夹的文件夹路径。例如:C:\\database\\5_myimages ,您必须写 C:\\database 。 Python 在这里需要斜杠,但节点会自动将所有反斜杠转换为斜杠。文件夹名称中的空格也不是问题。 4. 参数方面: 在第一行,您可以从 checkpoint 文件夹中选择任何模型。然而,据说您必须选择一个基本模型进行 LoRA 训练。 您选择一个名字为您的 LoRA,如果默认值对您不好,就更改这些值(epochs 数应该接近 40),然后启动工作流程! 5. 一旦您点击 Queue Prompt,所有事情都会在命令提示符中发生。 6. 建议与字幕自定义节点和 WD14 标签一起使用。但请注意,在制作字幕时禁用 LoRA 训练节点。因为 Comfy 可能会在制作字幕之前启动训练。 7. 关于 Tensorboard:训练会在 log 文件夹中创建一个日志文件,该文件夹会在 Comfy 的根文件夹中创建。该日志可能是一个可以在 Tensorboard UI 中加载的文件。 ComfyUI 的核心是其节点式界面,节点类型包括输入节点(如文本提示节点、图像输入节点、噪声节点)、处理节点(如采样器节点、调度器节点、CFG Scale 节点、步数节点)、输出节点(如图像输出节点)、辅助节点(如批处理节点、图像变换节点、图像融合节点)。用户可以通过拖放和连接各种节点来创建自定义的图像生成工作流,还可以创建自定义节点来扩展功能,自定义节点安装目录为 D:\\ComfyUI\\custom_nodes 。ComfyUI 还提供了丰富的节点管理功能,包括保存/加载节点图、复制/粘贴节点、批量编辑等。
2025-01-14
ComfyUI 万物迁移工作流
ComfyUI BrushNet: 项目链接: 原项目:https://tencentarc.github.io/BrushNet/ 插件地址:https://github.com/kijai/ComfyUIBrushNetWrapper 模型下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 第一次运行会自动下载需要的模型,如果是用的 ComfyUIBrushNetWrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 到 ComfyUI/models/brushnet,因环境问题,也可手动下载放在这个文件夹里。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。 工作流:配合 mj 出底图,在底图不变的基础上,添加文字或者图片内容。另外可以使用 GDinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改。 4SeasonYou 工作流副本: 一、加载模型部分(总文件有) 官网下载两个文件。 先点击如图中的左上角部分将加载器展开且选择官网下载好的两个模型,否则将会有以下的问题。 GDino 加载器部分:在链接:处下载以下文件。 然后再次检查自己的文件有没有齐全:在 models 下创建 groundingdino 且配置以下文件命名齐全。同理,sams 也是。对于 groundingdino 和 sams 配置有没有齐全可以使用“抠头发.json”来检验。 然后,接下来很大概率在运行到此节点时会报科学上网的(httpsxxxxx)错误。倘若觉得在此工作流中排除 bug 很慢,不妨使用此网址的工作流(可以直接复制他的 json 内容自己创建一个 txt 文件后粘贴,再改后缀名为 json。)进行操作:。那么就要在尝试稳定的科学上网后重启 UI 跑工作流。
2025-01-14
comfyUI 工作流
ComfyUI 工作流主要包括以下内容: 低显存运行工作流:目的是让 FLUX 模型能在较低显存情况下运行。分阶段处理思路为,先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存使用,最后使用 SD 放大提升图片质量。工作流流程包括初始图像生成(Flux),涉及 UNETLoader 加载 flux1dev.sft 模型、DualCLIPLoader 加载 t5xxl 和 clip_l 模型、VAELoader 加载 fluxae.sft 等步骤,以及图像放大和细化(SDXL),包括加载 SDXL 模型、放大模型等步骤。 工作流网站: “老牌”workflow 网站 Openart.ai,流量较高,支持上传、下载、在线生成,免费账户有 50 个积分,加入 Discord 可再加 100 积分,开通最低每月 6 美元套餐后每月有 5000 积分,网址为 https://openart.ai/workflows/ 。 ComfyWorkflows 网站,支持在线运行工作流,从实际下载量和访问量来看略少于 openart,网址为 https://comfyworkflows.com/cloud 。 Flowt.ai,网址为 https://flowt.ai/community 。 相关介绍: RPA 很早就出现在工作流编排领域,目标是使符合某些适用性标准的基于桌面的业务流程和工作流程实现自动化。 ComfyUI 将开源绘画模型 Stable Diffusion 进行工作流化操作,提高了流程的可复用性,降低了时间成本,其 DSL 配置文件支持导出导入。 Dify.AI 的工作流设计语言与 ComfyUI 有相似之处,都定义了一套标准化的 DSL 语言,方便导入导出进行工作流复用。 Large Action Model 采用“通过演示进行模仿”的技术,从用户提供的示例中学习。但 Agentic Workflow 存在使用用户较少、在复杂流程开发上不够稳定可靠等问题,同时提出通过自然语言创建工作流的想法。
2025-01-13
comfyui安装
ComfyUI 的安装方式主要有以下几种: 1. 本地安装: 命令行安装:这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行及代码的用户有一定门槛。ComfyUI 的源码地址在 https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中,您也可以按照 Readme 文档进行操作。 安装包安装:这种方法安装比较简单,下载就能用。ComfyUI 的官方安装包目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是 https://github.com/comfyanonymous/ComfyUI/releases ,您只需下载最新的版本,解压就能使用。 2. 云端安装:云端配置相对较高,生成图片的速度会更快,但需要一定的费用。如果您想在云端安装,可以跳到 https://www.comflowy.com/zhCN/preparationforstudy/installcloud 。 在进行本地安装之前,还需要安装一些环境: 1. 依次下载并安装 Python(版本 3.10 以上)、VSCode、Git,安装过程中一直点击勾选对应选项,一直下一步。 Python 安装包: VSCode 安装包: Git 安装包: 安装 ComfyUI 时,您可以通过以下方式: 下载安装包或者点击链接 https://github.com/comfyanonymous/ComfyUI 下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 此外,ComfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 目录下。 大模型存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints ,Lora 存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras ,Vae 存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-01-12
扣子工作流教程
以下是一些关于扣子工作流的教程资源: 视频教程: 【Agent 共学第二期】艾木分享|这也许是你一生中第一个 Bot:https://www.bilibili.com/video/BV1XT421i7jH/ 一步一步带你手搓一个 Coze Bot——Dr.Know(极简版 Perplexity):https://www.bilibili.com/video/av1005221752 扣子(coze)系列教程(四):工作流中各节点常用使用方式:https://www.bilibili.com/video/BV1ux4y1J761/ Coze 工作流的手把手教程,让你的 Bot 高质量的处理复杂任务!:https://www.bilibili.com/video/BV1PZ421g7xT/ 微信文章教程: 扣子工作流实战案例教程,手把手教你搭建一个图书管理工作流:https://mp.weixin.qq.com/s/Fh3Vm3EDSzoYVxf91GcMMA 使用扣子 Coze 创建 AI 绘画工作流:https://mp.weixin.qq.com/s/d_6yST8JXKf1Tr6JgBPFg 奶奶也学得会的 AI 工作流,省时省力下班早!:https://mp.weixin.qq.com/s/bXC8DHzs5_OgPh3FtKhJZA 中文 GPTS 使用秘籍,字节扣子 Coze 工作流使用全教程:https://zhuanlan.zhihu.com/p/682108709 Workflow 实践|使用 coze 复现一个 AIGC 信息检索 Bot:https://mp.weixin.qq.com/s/PFgjRq7XcTcqog1gLyFqA AI 自动获取 B 站视频摘要信息:https://mp.weixin.qq.com/s/x8lwvlomhFNLZl__qYuDww 如何用 Coze 制作一个信息检索 Bot(含 Workflow 的基础用法):https://mp.weixin.qq.com/s/Ory8iVXXjjN3zSTcupPm6Q 飞书社区教程: Stuart:教你用 coze 写起点爆款小说《夜无疆》,做到高中生文笔水平:https://waytoagi.feishu.cn/wiki/LRskwrJkli3CgkkY06xcC3HanBh?from=from_copylink Stuart:我把 Coze 比赛第一的 bot 拆了教大家:https://waytoagi.feishu.cn/wiki/Qt8Bwgl3PihQNukO7PjcmeuJnJg?from=from_copylink 画小二:用 Coze 工作流制作行业简报:实战案例画小二日报:https://waytoagi.feishu.cn/wiki/HmIhwt1IkiIAzok73rDcgG7fnQg?from=from_copylink 画小二:Coze 工作流之抖音热门视频转小红书图文详细配置:https://waytoagi.feishu.cn/wiki/MV7gw298TiBajFkSrFeceYRMnXc?from=from_copylink 扣子版虚拟女友李思思的思路:https://waytoagi.feishu.cn/wiki/O9M4w66fxiElylkBkCRcP6jLnsg?from=from_copylink 此外,还有关于白嫖 Groq 平台算力并接入扣子工作流的保姆级教程: 此时我们有了代理服务器和 APIKEY,落地使用方式举例: 1. 通过扣子工作流,用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,而且可以参考梦飞大佬教程将扣子接入微信机器人(有微信封号风险) 2. 由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品可以用来填 APIKEY 调用的场景,此处用沉浸式翻译举例(如果还不知道沉浸式翻译这个超级好用的网页翻译工具的,请访问 https://immersivetranslate.com/自行安装) 3. 接入手机类 APP,比如通过快捷方式接入 Siri(此处卖个关子,留着 728 线下切磋赚积分,希望线下小伙伴来找我) 接入扣子工作流: 1. 扣子工作流的搭建细节本篇不详细叙述,请移步 WaytoAGI 自学。 2. 建立工作流,只需要一个代码节点,如下: Copy 以下代码进入代码节点,其中代码节点的输入引用请自行配置为开始节点的用户输入,输出改为“output”,格式为“string” 测试工作流,保证代码块有正常输出(可以看到此处消耗 0 Tokens,白嫖算力成功,在扣子即将收费之际,后续可能可以派上大用处,代替工作流 LLM 节点) 可以建立一个 Bot,来仅仅调用该工作流,建议不要发布,否则你的 Deno 代理流量可能被其他人用。 其他就可以自行发挥了,接入微信等。
2025-01-14
curson使用教程
以下是 Cursor 的使用教程: 1. 下载:访问 https://www.cursor.com/ 进行下载。 2. 注册账号:可以使用 google/github/163/qq 等邮箱直接登录,接受二维码登录。 3. 安装中文包插件。 4. 配置需求: 做一个贪吃蛇游戏,在网页中玩。在设置中 Rule for AI 配置,按 ctrl/cmd+i 输入需求,如“帮我做一个贪吃蛇游戏,在网页中玩”。清晰表达需求,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等规则和逻辑。 5. 实践操作: 打开 Cursor 官网下载和安装,不用魔法上网也可访问。安装后打开,页面左侧是代码文件,右侧是提示对话框,可通过 commd+L 调起 AI 对话输入需求或想实现的效果。提前创建文件,点击对话框代码块旁的“Apply”“Accept”将代码保存在左侧文件里。 不断在对话框里追问,完善需求。对话时可@本地代码文件进行问答,得到更精准回答。本地存一份需求说明文档,遇到报错或不理解的地方,截图或复制在对话框询问,直到验证成功。 6. 课程学习: 学习 Python 是什么、Cursor 使用、notebook 远程编程等内容,包括 Python 简介、发展历史和特点、在数据分析和人工智能等领域的优势和应用,以及数字人文领域的 Python 项目介绍。了解 Cursor 是结合 AI 功能的编程编辑器,具有 AI 辅助代码补全和生成、实时语法和错误检查、简洁友好用户界面等优势。还可了解 Bohrium 在线编程平台的相关知识。 希望以上教程对您有所帮助。
2025-01-14
我是一个AI新手并且没有编程能力,如果我想要一个属于自己的AI智能体,并解决实际生活中的一些问题,请问有什教程吗?
以下是为您提供的创建属于自己的 AI 智能体的相关教程: 1. 扣子 Coze: 扣子官网: 可以通过简单 3 步创建智能体:首先起一个智能体的名称,然后写一段智能体的简单介绍,最后使用 AI 创建一个头像。开发完成后,还可以将自己构建的 Bot 发布到各种社交平台和通讯软件上。 2. 基于公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等): 点击“浏览 GPTs”按钮。 点击“Create”按钮创建自己的智能体。 使用自然语言对话进行具体设置或手工设置。 开始调试您的智能体并发布。 此外,智能体具有以下特点: 1. 强大的学习能力:能够通过大量的数据进行学习,从而获得对语言、图像等多种信息的理解和处理能力。 2. 灵活性:可以适应不同的任务和环境,表现出较高的灵活性和适应性。 3. 泛化能力:能够将学到的知识泛化到新的情境中,解决之前未见过的类似问题。 智能体应用类型包括: 1. 智能体应用(Assistant):基于上下文对话,自主决策并调用工具来完成复杂任务的对话式 AI 应用。示例场景如客户服务、个人助理、技术支持等。 2. 工作流应用(Workflow):将复杂任务拆解为若干子任务,以提高工作流程可控性的流程式 AI 应用。 3. 智能体编排应用:支持多智能体协作的流程式 AI 应用,能够编排多个智能体的执行逻辑,也可以使多个智能体自动规划和执行任务。
2025-01-11
教程
以下是为您提供的一些 AI 绘画相关的教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: 此外,还有关于 Differential Diffusion 和元宵节的教程,但相关内容不够详细。
2025-01-11
AI教程
以下为为您提供的 AI 教程相关内容: 第 32 期 Video Battle 视频挑战赛中关于 AI 的部分: 参考视频及视频工具建议: ,包括白马少年文生图教程等。 阿米、红泥小火炉、岳超楠等人的 VB 工作流拆解,相关链接:https://www.xiaohongshu.com/explore/66699475000000000e0325cf 、https://www.xiaohongshu.com/explore/66699e13000000000d00d236 等。 方法 0 中 guahunyo 老师的工作流,相关内容:comfy 工作流,文件: 。 方法 0 中【Dreamina 深度图出图+出视频】,使用 Dreamina 图片生成功能:https://dreamina.jianying.com/aitool/image/generate ,包括上传深度图,选择适应画布比例等操作。 AI 线上绘画教程: 如果工作中需要大量图片,AI 生图是高效解决办法。主流工具如 midjourney(MJ)付费成本高,stable diffusion(SD)硬件门槛不低,但有 这样的免费在线 SD 工具网站。 本教程旨在让入门玩家在半个小时内自由上手创作绘图,适用于入门玩家,可应用于职场。若有疑问或发现不清晰之处,可在评论区联系或加微信 designurlife1st(备注来意:ai 绘图交流),教程内容会持续更新。
2025-01-10
我想学习COZE平台创建智能体的详细教程。
以下是在 COZE 平台创建智能体的详细教程: 1. 基础智能体创建: 进入 coze 官网(www.coze.cn),注册并登录。 点击页面左上角的⊕。 通过【标准创建】填入 bot 的基本信息。 2. Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定 Bot 的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置:插件可扩展 Bot 的专业能力,如计算器、日历等工具;工作流可设置固定的处理流程和业务逻辑;图像流可处理和生成图像相关功能;触发器可设置自动化响应条件。 知识库管理:文本可存储文字类知识材料;表格可用于结构化数据的存储和调用;照片可作为图像素材库。 记忆系统:变量可存储对话过程中的临时信息;数据库可管理持久化的结构化数据;长期记忆可保存重要的历史对话信息;文件盒子可管理各类文档资料。 交互优化(底部区域):可设置开场白、用户问题建议、快捷指令、背景图片等。 预览与调试(右侧区域):实时测试 Bot 的各项功能,调试响应效果,优化交互体验。 3. 图像流相关: 打开 Coze 官网(https://www.coze.cn/home)。 创建图像工作流,图像流分为智能生成、智能编辑、基础编辑三类。 空间风格化插件有相关参数,如 image_url 是毛坯房的图片地址;Strength 是提示词强度,影响效果图;Style 是生成效果的风格,如新中式、日式、美式、欧式、法式等;user_prompt 是用户输入的 Promot 提示词。 按照构架配置工作流,调试工作流效果,可使用毛坯房测试用例(https://tgi1.jia.com/129/589/29589741.jpg)。 开始节点对应配置三项内容,进行提示词优化。 人设和回复逻辑:技能 1 中 3 项中的编译数字来源,然后点击右上角发布。
2025-01-08