Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ComfyUI 万物迁移工作流

Answer

ComfyUI BrushNet:

  • 项目链接:
    • 原项目:https://tencentarc.github.io/BrushNet/
    • 插件地址:https://github.com/kijai/ComfyUI-BrushNet-Wrapper
    • 模型下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main
    • 第一次运行会自动下载需要的模型,如果是用的 ComfyUI-BrushNet-Wrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main 到 ComfyUI/models/brushnet,因环境问题,也可手动下载放在这个文件夹里。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。
  • 工作流:配合 mj 出底图,在底图不变的基础上,添加文字或者图片内容。另外可以使用 G-DinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改。

4-SeasonYou 工作流副本:

  • 一、加载模型部分(总文件有)
    • 官网GitHub-cubiq/ComfyUI_InstantID下载两个文件。
    • 先点击如图中的左上角部分将加载器展开且选择官网下载好的两个模型,否则将会有以下的问题。
    • G-Dino 加载器部分:在链接:https://github.com/storyicon/comfyui_segment_anything处下载以下文件。
    • 然后再次检查自己的文件有没有齐全:在 models 下创建 grounding-dino 且配置以下文件命名齐全。同理,sams 也是。对于 grounding-dino 和 sams 配置有没有齐全可以使用“抠头发.json”来检验。
    • 然后,接下来很大概率在运行到此节点时会报科学上网的(httpsxxxxx)错误。倘若觉得在此工作流中排除 bug 很慢,不妨使用此网址的工作流(可以直接复制他的 json 内容自己创建一个 txt 文件后粘贴,再改后缀名为 json。)进行操作:https://www.cnblogs.com/qcy-blog/p/18222657。那么就要在尝试稳定的科学上网后重启 UI 跑工作流。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI BrushNet

原项目https://tencentarc.github.io/BrushNet/插件地址https://github.com/kijai/ComfyUI-BrushNet-Wrapper模型下载https://huggingface.co/Kijai/BrushNet-fp16/tree/main第一次运行会自动下载需要的模型,如果是用的ComfyUI-BrushNet-Wrapper节点模型将自动从此处下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main到ComfyUI/models/brushnet,因为环境问题,也可以手动去下载好了放在这个文件夹里面.另外,BrushNet提供了三个模型,个人测试下来,random这个效果比较好[heading1]工作流[content]配合mj出底图,在底图不变的基础上,添加文字或者图片内容另外可以使用G-DinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改[54海报.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/QqKVb2g4OouvZMxkBBbceUrgnsa?allow_redirect=1)

ComfyUI BrushNet

原项目https://tencentarc.github.io/BrushNet/插件地址https://github.com/kijai/ComfyUI-BrushNet-Wrapper模型下载https://huggingface.co/Kijai/BrushNet-fp16/tree/main第一次运行会自动下载需要的模型,如果是用的ComfyUI-BrushNet-Wrapper节点模型将自动从此处下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main到ComfyUI/models/brushnet,因为环境问题,也可以手动去下载好了放在这个文件夹里面.另外,BrushNet提供了三个模型,个人测试下来,random这个效果比较好[heading1]工作流[content]配合mj出底图,在底图不变的基础上,添加文字或者图片内容另外可以使用G-DinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改[54海报.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Psz9bPPLBoIYwZxoO9Ncghb8n7g?allow_redirect=1)

4-SeasonYou 工作流 副本

官网[GitHub-cubiq/ComfyUI_InstantID](https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file)下载两个文件:先点击如图中的左上角部分将加载器展开且选择官网下载好的两个模型:否则将会有以下的问题:⑩G-Dino加载器部分:在链接:[https://github.com/storyicon/comfyui_segment_anything](https://github.com/storyicon/comfyui_segment_anything)处下载以下文件:然后再次检查自己的文件有没有齐全:在models下创建grounding-dino且配置以下文件命名齐全。、同理,sams也是。对于grounding-dino和sams配置有没有齐全可以使用“抠头发.json”来检验然后,接下来很大概率在运行到此节点时会报科学上网的(httpsxxxxx)错误:倘若觉得在此工作流中排除bug很慢,不妨使用此网址的工作流(可以直接复制他的json内容自己创建一个txt文件后粘贴,再改后缀名为json。)进行操作:[https://www.cnblogs.com/qcy-blog/p/18222657](https://www.cnblogs.com/qcy-blog/p/18222657)那么你就要在尝试稳定的科学上网后重启UI跑工作流。便完成了。

Others are asking
在comfyUI中可以接入哪些api,又和3D相关的吗
在 ComfyUI 中可以接入以下与 3D 相关的 API: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材,并直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai ,https://x.com/xiaohuggg/status/1763758877999587757?s=20 2. Move AI 推出的 Move API:可以从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。链接:https://move.ai/api ,https://x.com/xiaohuggg/status/1761590288576061573?s=20 3. ComfyUI 3D Pack 引入 3D 图像处理:可以快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。链接:https://github.com/MrForExample/ComfyUI3DPack/tree/main ,https://x.com/xiaohuggg/status/1755824687811346514?s=20 此外,ZHO 博主有关于 ComfyUI 的更新记录: 1. 4 月 18 日,ComfyUI Stable Diffusion 3 API 已更新为 V1.5 版,图生图和 SD3 Turbo 都可以正常使用,但 SD3 图生图模式不支持选择比例,SD3 Turbo 模型不支持负面提示词。使用方法是先申请 API,然后填入 config.json 文件即可(每账户 25 免费积分),SD3 每张图 6.5 积分(比较贵)。项目地址:https://github.com/ZHOZHOZHO/ComfyUIStableDiffusion3API ,SD3 API ComfyUI 节点测试成功。 2. 4 月 17 日,Stability AI 刚刚发布了 Stable Diffusion 3 和 Stable Diffusion 3 Turbo,现在已经可通过 Stability AI 开发者平台 API 使用,SAI 计划在不久的将来通过会员资格提供模型权重。详情:https://bit.ly/3W43FjY
2025-01-14
在comfyUI中可以接入哪些节点
在 ComfyUI 中可以接入以下类型的节点: 1. 输入节点: 文本提示节点:用于输入生成图像的文本描述。 图像输入节点:用于输入基础图像进行二次生成。 噪声节点:用于输入初始噪声图像。 2. 处理节点: 采样器节点:选择图像生成所使用的采样器。 调度器节点:选择图像生成所使用的调度器。 CFG Scale 节点:调整引导式采样的强度。 步数节点:设置图像生成的迭代步数。 3. 输出节点: 图像输出节点:显示生成的最终图像。 4. 辅助节点: 批处理节点:支持批量生成多个图像。 图像变换节点:提供图像旋转、翻转等功能。 图像融合节点:可以将多个图像合并成一个。 此外,还有一些特定的节点插件,如: 1. PuLID 节点插件: model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。 2. 中文提示词输入相关节点: 安装完成后,在【新建节点】【Alek 节点】下,有【预览文本】、【绘画】、【姿态】、【clip 文本编码器】和【翻译文本】这五个节点。 【clip 文本编码器(翻译)】可代替自带的【clip 文本编码器】,直接输入中文。但引用负向 embedding 时,文件夹路径不能有中文。 【翻译文本】节点可代替【元节点】,在 sdxl 流程中,当需要将文本信息单独列出来时使用。 【预览文本】节点可连接到【翻译文本】检查翻译是否正确。 如果翻译失效,可双击“embedded_instail”进行安装,然后用记事本打开 BaiduTranslate.py,填入在百度翻译开发平台申请的 ID 和密码,即可正常翻译。
2025-01-14
可以把tripo的节点接入comfyui吗
要将 tripo 的节点接入 ComfyUI,您可以参考以下步骤: 1. 确保后面有一个空格。然后将 requirements_win.txt 文件拖到命令提示符中(如果您在 Windows 上;否则,选择另一个文件 requirements.txt)。拖动文件将在命令提示符中复制其路径。 2. 按 Enter 键,这将安装所有所需的依赖项,使其与 ComfyUI 兼容。请注意,如果为 Comfy 使用了虚拟环境,必须首先激活它。 3. 在使用自定义节点之前,有一些要注意的事项: 您的图像必须放在一个以命名的文件夹中。那个数字很重要:LoRA 脚本使用它来创建一些步骤(称为优化步骤…但别问我是什么^^’)。它应该很小,比如 5。然后,下划线是必须的。 对于 data_path,您必须写入包含数据库文件夹的文件夹路径。例如:C:\\database\\5_myimages ,您必须写 C:\\database 。 Python 在这里需要斜杠,但节点会自动将所有反斜杠转换为斜杠。文件夹名称中的空格也不是问题。 4. 参数方面: 在第一行,您可以从 checkpoint 文件夹中选择任何模型。然而,据说您必须选择一个基本模型进行 LoRA 训练。 您选择一个名字为您的 LoRA,如果默认值对您不好,就更改这些值(epochs 数应该接近 40),然后启动工作流程! 5. 一旦您点击 Queue Prompt,所有事情都会在命令提示符中发生。 6. 建议与字幕自定义节点和 WD14 标签一起使用。但请注意,在制作字幕时禁用 LoRA 训练节点。因为 Comfy 可能会在制作字幕之前启动训练。 7. 关于 Tensorboard:训练会在 log 文件夹中创建一个日志文件,该文件夹会在 Comfy 的根文件夹中创建。该日志可能是一个可以在 Tensorboard UI 中加载的文件。 ComfyUI 的核心是其节点式界面,节点类型包括输入节点(如文本提示节点、图像输入节点、噪声节点)、处理节点(如采样器节点、调度器节点、CFG Scale 节点、步数节点)、输出节点(如图像输出节点)、辅助节点(如批处理节点、图像变换节点、图像融合节点)。用户可以通过拖放和连接各种节点来创建自定义的图像生成工作流,还可以创建自定义节点来扩展功能,自定义节点安装目录为 D:\\ComfyUI\\custom_nodes 。ComfyUI 还提供了丰富的节点管理功能,包括保存/加载节点图、复制/粘贴节点、批量编辑等。
2025-01-14
comfyUI 工作流
ComfyUI 工作流主要包括以下内容: 低显存运行工作流:目的是让 FLUX 模型能在较低显存情况下运行。分阶段处理思路为,先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存使用,最后使用 SD 放大提升图片质量。工作流流程包括初始图像生成(Flux),涉及 UNETLoader 加载 flux1dev.sft 模型、DualCLIPLoader 加载 t5xxl 和 clip_l 模型、VAELoader 加载 fluxae.sft 等步骤,以及图像放大和细化(SDXL),包括加载 SDXL 模型、放大模型等步骤。 工作流网站: “老牌”workflow 网站 Openart.ai,流量较高,支持上传、下载、在线生成,免费账户有 50 个积分,加入 Discord 可再加 100 积分,开通最低每月 6 美元套餐后每月有 5000 积分,网址为 https://openart.ai/workflows/ 。 ComfyWorkflows 网站,支持在线运行工作流,从实际下载量和访问量来看略少于 openart,网址为 https://comfyworkflows.com/cloud 。 Flowt.ai,网址为 https://flowt.ai/community 。 相关介绍: RPA 很早就出现在工作流编排领域,目标是使符合某些适用性标准的基于桌面的业务流程和工作流程实现自动化。 ComfyUI 将开源绘画模型 Stable Diffusion 进行工作流化操作,提高了流程的可复用性,降低了时间成本,其 DSL 配置文件支持导出导入。 Dify.AI 的工作流设计语言与 ComfyUI 有相似之处,都定义了一套标准化的 DSL 语言,方便导入导出进行工作流复用。 Large Action Model 采用“通过演示进行模仿”的技术,从用户提供的示例中学习。但 Agentic Workflow 存在使用用户较少、在复杂流程开发上不够稳定可靠等问题,同时提出通过自然语言创建工作流的想法。
2025-01-13
comfyui安装
ComfyUI 的安装方式主要有以下几种: 1. 本地安装: 命令行安装:这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行及代码的用户有一定门槛。ComfyUI 的源码地址在 https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中,您也可以按照 Readme 文档进行操作。 安装包安装:这种方法安装比较简单,下载就能用。ComfyUI 的官方安装包目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是 https://github.com/comfyanonymous/ComfyUI/releases ,您只需下载最新的版本,解压就能使用。 2. 云端安装:云端配置相对较高,生成图片的速度会更快,但需要一定的费用。如果您想在云端安装,可以跳到 https://www.comflowy.com/zhCN/preparationforstudy/installcloud 。 在进行本地安装之前,还需要安装一些环境: 1. 依次下载并安装 Python(版本 3.10 以上)、VSCode、Git,安装过程中一直点击勾选对应选项,一直下一步。 Python 安装包: VSCode 安装包: Git 安装包: 安装 ComfyUI 时,您可以通过以下方式: 下载安装包或者点击链接 https://github.com/comfyanonymous/ComfyUI 下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 此外,ComfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 目录下。 大模型存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints ,Lora 存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras ,Vae 存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-01-12
Comfyui教程
以下是一些关于 ComfyUI 的教程资源: 1. ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容。教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户。可在找到相关教程。 4. Bilibili:提供了从新手入门到精通各个阶段的一系列视频教程,能更直观地帮助学习。可在找到。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中关于 KSampler 的部分: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声。若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数。一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:一般设置在 6 8 之间较好。 5. sampler_name:可通过此设置采样器算法。 6. scheduler:调度器控制每个步骤中去噪的过程,可选择不同调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置为 1。 请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-11
扣子工作流教程
以下是一些关于扣子工作流的教程资源: 视频教程: 【Agent 共学第二期】艾木分享|这也许是你一生中第一个 Bot:https://www.bilibili.com/video/BV1XT421i7jH/ 一步一步带你手搓一个 Coze Bot——Dr.Know(极简版 Perplexity):https://www.bilibili.com/video/av1005221752 扣子(coze)系列教程(四):工作流中各节点常用使用方式:https://www.bilibili.com/video/BV1ux4y1J761/ Coze 工作流的手把手教程,让你的 Bot 高质量的处理复杂任务!:https://www.bilibili.com/video/BV1PZ421g7xT/ 微信文章教程: 扣子工作流实战案例教程,手把手教你搭建一个图书管理工作流:https://mp.weixin.qq.com/s/Fh3Vm3EDSzoYVxf91GcMMA 使用扣子 Coze 创建 AI 绘画工作流:https://mp.weixin.qq.com/s/d_6yST8JXKf1Tr6JgBPFg 奶奶也学得会的 AI 工作流,省时省力下班早!:https://mp.weixin.qq.com/s/bXC8DHzs5_OgPh3FtKhJZA 中文 GPTS 使用秘籍,字节扣子 Coze 工作流使用全教程:https://zhuanlan.zhihu.com/p/682108709 Workflow 实践|使用 coze 复现一个 AIGC 信息检索 Bot:https://mp.weixin.qq.com/s/PFgjRq7XcTcqog1gLyFqA AI 自动获取 B 站视频摘要信息:https://mp.weixin.qq.com/s/x8lwvlomhFNLZl__qYuDww 如何用 Coze 制作一个信息检索 Bot(含 Workflow 的基础用法):https://mp.weixin.qq.com/s/Ory8iVXXjjN3zSTcupPm6Q 飞书社区教程: Stuart:教你用 coze 写起点爆款小说《夜无疆》,做到高中生文笔水平:https://waytoagi.feishu.cn/wiki/LRskwrJkli3CgkkY06xcC3HanBh?from=from_copylink Stuart:我把 Coze 比赛第一的 bot 拆了教大家:https://waytoagi.feishu.cn/wiki/Qt8Bwgl3PihQNukO7PjcmeuJnJg?from=from_copylink 画小二:用 Coze 工作流制作行业简报:实战案例画小二日报:https://waytoagi.feishu.cn/wiki/HmIhwt1IkiIAzok73rDcgG7fnQg?from=from_copylink 画小二:Coze 工作流之抖音热门视频转小红书图文详细配置:https://waytoagi.feishu.cn/wiki/MV7gw298TiBajFkSrFeceYRMnXc?from=from_copylink 扣子版虚拟女友李思思的思路:https://waytoagi.feishu.cn/wiki/O9M4w66fxiElylkBkCRcP6jLnsg?from=from_copylink 此外,还有关于白嫖 Groq 平台算力并接入扣子工作流的保姆级教程: 此时我们有了代理服务器和 APIKEY,落地使用方式举例: 1. 通过扣子工作流,用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,而且可以参考梦飞大佬教程将扣子接入微信机器人(有微信封号风险) 2. 由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品可以用来填 APIKEY 调用的场景,此处用沉浸式翻译举例(如果还不知道沉浸式翻译这个超级好用的网页翻译工具的,请访问 https://immersivetranslate.com/自行安装) 3. 接入手机类 APP,比如通过快捷方式接入 Siri(此处卖个关子,留着 728 线下切磋赚积分,希望线下小伙伴来找我) 接入扣子工作流: 1. 扣子工作流的搭建细节本篇不详细叙述,请移步 WaytoAGI 自学。 2. 建立工作流,只需要一个代码节点,如下: Copy 以下代码进入代码节点,其中代码节点的输入引用请自行配置为开始节点的用户输入,输出改为“output”,格式为“string” 测试工作流,保证代码块有正常输出(可以看到此处消耗 0 Tokens,白嫖算力成功,在扣子即将收费之际,后续可能可以派上大用处,代替工作流 LLM 节点) 可以建立一个 Bot,来仅仅调用该工作流,建议不要发布,否则你的 Deno 代理流量可能被其他人用。 其他就可以自行发挥了,接入微信等。
2025-01-14
我平时需要完成调研报告,活动策划等工作,什么AI工具适合我现在的工作
以下是一些适合您完成调研报告和活动策划工作的 AI 工具: 1. Kimi:https://kimi.moonshot.cn/ 2. ChatGPT4o:越智能的大模型输出质量通常会更好。 此外,近期出现的各类 AI 搜索引擎,如 perplexity.ai、metaso、360 搜索、ThinkAny 等,能辅助高效处理信息。智能摘要功能可帮助您快速筛选信息。在工作流方面,您可以尝试使用 AI 进行用户画像、竞品调研、设计产品测试用例、绘制产品功能流程图等。但建议您先摸清楚自己的日常工作流,再根据每个工作节点线索找到适合自己的工具。
2025-01-14
工作流中如何调用插件
在工作流中调用插件的方式如下: 1. 触发器触发: 为 Bot 设置触发器,可选择定时触发或事件触发。 触发时执行任务的方式包括 Bot 提示词、调用插件、调用工作流。 调用插件时,需为触发器添加一个插件,触发后 Bot 会调用该插件获取返回结果并发送给用户。 一个 Bot 内的触发器最多可添加 10 个,且仅当 Bot 发布飞书时生效。 2. 在 Bot 内使用插件: 在 Bots 页面,选择指定 Bot 并进入 Bot 编排页面。 在 Bot 编排页面的插件区域,单击加号图标添加插件,或者单击自动添加图标,让大语言模型自动添加适用的插件。使用大语言模型自动添加插件后,需检查被添加的插件是否可以正常使用。 在添加插件页面,展开目标插件查看工具,然后单击添加。单击我的工具,可查看当前团队下可用的插件。 在 Bot 的人设与回复逻辑区域,定义何时使用插件,然后在预览与调试区域测试插件功能是否符合预期。 3. 在工作流中使用插件节点: 在页面顶部进入工作流页面,然后创建工作流或选择一个已创建的工作流。 在页面左侧,单击插件页签。 搜索并选择插件,然后单击加号图标。 在工作流的画布内,连接插件节点,并配置插件的输入和输出。 需要注意的是,即使是官方插件也可能存在不稳定的情况,需要自己去尝试,找到适合当前场景的插件。
2025-01-14
普通人如何学习利用ai,提高工作学习效率,怎么学习及学习顺序是怎样的
以下是为普通人提供的学习利用 AI 以提高工作学习效率的方法及学习顺序: 一、了解 AI 基本概念 首先,建议阅读相关资料,如「」部分,熟悉 AI 的术语和基础概念,包括人工智能是什么、其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,能找到为初学者设计的一系列课程。特别推荐李宏毅老师的课程。还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并争取获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,涵盖图像、音乐、视频等。可根据自身兴趣选择特定模块深入,比如一定要掌握提示词的技巧,其上手容易且实用。 四、实践和尝试 理论学习后,实践是巩固知识的关键。尝试使用各种产品做出自己的作品,在知识库中也有很多大家实践后的作品和文章分享,欢迎自己实践后也进行分享。 五、体验 AI 产品 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式。通过对话获得对 AI 在实际应用中表现的第一手体验,激发对 AI 潜力的认识。 此外,还可以参考《雪梅 May 的 AI 学习日记》中的学习模式,即输入→模仿→自发创造。同时注意,学习资源大多是免费开源的,可在 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新的内容。学习时间可根据自身情况灵活安排,不必有压力,能学多少算多少。
2025-01-12
人工智能赋能教学创新工作坊
以下是关于“智慧课程培育建设暨人工智能赋能教学创新工作坊”的相关信息: 举办时间:2024 年 9 月 20 日—9 月 23 日 举办地点:云南·昆明 举办方:知行教师发展平台 参与人员:苏永康(上海交通大学)、张翼然(湖南农业大学) 相关内容: 工具推荐:Bot.360.com 多模型竞技,选取最佳答案;用 heyGen 定制“数字分身”。 智慧课程设计方面:包括 AI 助力教学设计、生成式 AI 对课件制作与微课生成的变革、学情分析与作业测评中 AI 的引领作用、教育数字化转型中的人机协同创新、数据智能化中 AI 对数据收集与可视化的加速,以及案例分析与实践反馈。 学情分析与作业测评方面:主观题 AI 辅助批改的策略与实践,以及 Q&A AI 助力作业测评的未来想象,并分享了相关案例。 人工智能深度融入教学过程:由张翼然(湖南农业大学教育学院教育技术系副教授,拥有国家教学成果奖、国家级和省级精品在线课程、省级教学竞赛一等奖、省级金课,是苹果认证教师、技术派教师)进行讲解。
2025-01-11