直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

ComfyUI 安装教程

回答

以下是 ComfyUI 的安装教程:

  1. 电脑硬件要求:
    • 系统:Windows 7 以上。
    • 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。
    • 硬盘留有足够的空间,最低 100G 起步(包括模型)。
    • 注:mac 系统、AMD 显卡、低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。
    • 下载并更新 Nvidia 显卡驱动下载地址:https://www.nvidia.cn/geforce/drivers/
  2. 下载并安装所需要环境(安装过 WebUI 的同学请忽略本步骤):
    • 依次下载并安装 python、VSCode、Git,安装过程中一直点击勾选对应选项,一直下一步。
    • Python 版本 3.10 以上,下载地址:1-python-3.10.6-amd64.exe.zip
    • VSCode 下载地址:2-VSCodeUserSetup-x64-1.68.1.exe.zip
    • Git 下载地址:3-Git-2.39.2-64-bit.exe.zip
    • 安装 Python 时选中“将 Python 添加到系统变量”。
    • 安装 CUDA:https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network ,下载文件:cuda_12.2.0_536.25_windows.exe
  3. 安装 ComfyUI:
    • 地址:https://github.com/comfyanonymous/ComfyUI
    • 可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git
    • 或者下载安装包ComfyUI.zip
    • 下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。
  4. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\custom_nodes
  5. 模型存放目录:
    • 大模型:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\checkpoints
    • Lora:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\loras
    • Vae:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\vae
  6. 模型共用:已经安装了 SD-WebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到你已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
  7. 快捷键(未提及具体快捷键内容)
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

1、环境安装、ComfyUI本体安装 副本

(安装过WebUI的同学请忽略本步骤)依次下载并安装python、VSCode、Git,安装过程中一直点击勾选对应选项,一直下一步。注:Python版本3.10以上[heading3]1、安装Python[content][1-python-3.10.6-amd64.exe.zip](https://tob-design.yuque.com/attachments/yuque/0/2023/zip/21965403/1698135309895-78342777-3474-4af3-ba4c-cc0ab7a89e71.zip)[heading3]2、安装VSCode[content][2-VSCodeUserSetup-x64-1.68.1.exe.zip](https://tob-design.yuque.com/attachments/yuque/0/2023/zip/21965403/1698135309893-e56d455e-a148-47bb-8d82-f9a21a0df6e9.zip)[heading3]3、安装Git[content][3-Git-2.39.2-64-bit.exe.zip](https://tob-design.yuque.com/attachments/yuque/0/2023/zip/21965403/1698135309911-5e12a598-ccfa-47ca-832d-d7d1f0363517.zip)[heading1]三、安装comfyUI[content][ComfyUI-master.zip](https://tob-design.yuque.com/attachments/yuque/0/2023/zip/21965403/1698135309890-86f7996e-3b69-490e-8f73-4b458b1cf708.zip)https://github.com/comfyanonymous/ComfyUI下载安装包或者点击链接下载并解压至本地除C盘外的任意盘。然后找到文件名称为run_nvidia_gpu的文件双击并启动。启动完成即进入基础界面。

1、安装部署ComfyUI 副本

今天主要介绍StableDiffusion的另一种UIComfyUI的实际操作方法,完全从0开始安装。以及如何在ComfyUI中使用SDXL模型,希望通过本文能够降低大家对StableDiffusion ComfyUI的学习成本,更快速的体验到AIGC图像生成的魅力。[heading1]一、电脑硬件要求[content]1.系统:Windows7以上(就不要为难XP老师傅了)。2.显卡要求:NVDIA独立显卡且显存至少4G起步。3.硬盘留有足够的空间,最低100G起步(包括模型)。4.注:mac系统,AMD显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。5.下载并更新Nvidia显卡驱动下载地址https://www.nvidia.cn/ geforce/drivers/[heading1]二、下载并安装所需要环境[content]依次下载并安装python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。1.安装Python https://www.python.org/downloads/release/python-3119/file:python-3.11.9-amd64.exe安装的时候选中“将Python添加到系统变量”1.安装VSCode https://code.visualstudio.com/Downloadfile:VSCodeUserSetup-x64-1.90.0.exe3、安装Git https://git-scm.com/download/winfile:3-Git-2.39.2-64-bit.exe4、安装CUDAhttps://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_networkfile:cuda_12.2.0_536.25_windows.exe

1、安装部署ComfyUI 副本

地址:https://github.com/comfyanonymous/ComfyUI可以下载安装包也可以直接Git clone https://github.com/comfyanonymous/ComfyUI.git或者下载安装包file:ComfyUI.ziphttps://github.com/comfyanonymous/ComfyUI下载安装包或者点击链接下载并解压至本地除C盘外的任意盘。然后找到文件名称为run_nvidia_gpu的文件双击并启动。启动完成即进入基础界面。[heading1]五、节点存放目录[content]comfyUI的节点包括后面安装的拓展节点都存放在本目录下D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\custom_nodes[heading1]五、模型存放目录[content]1、大模型:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\checkpoints2、Lora:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\loras3、Vae:D:\COMFYUI\ComfyUI_windows_portable\ComfyUI\models\vae[heading1]六、模型共用[content]已经安装了SD-WebUI的同学可以通过修改文件路径和WebUI共用一套模型即可,这样就不用重复下载模型了。找到你已经安装好的ComfyUI目录文件下的extra_model_paths.yaml.example文件,将后缀.example删除,然后右键用记事本打开,[heading1]七、快捷键

其他人在问
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 多(常用的都有),但也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装步骤: 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,https://github.com/comfyanonymous/ComfyUI ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 快捷键:未提及。
2024-11-16
如何在Mac上运行comfyUI
在 Mac 上运行 ComfyUI 的步骤如下: 1. 电脑配置:MacBook Pro,M1 芯片,16G 内存,Sonoma 14.6.1 系统版本。 2. 部署 ComfyUI: 安装依赖:在终端中输入“pip3 install r requirements.txt”安装 ComfyUI 的依赖文件。终端提示需要特定版本的 numpy 时,输入“Y”卸载当前版本,然后输入“pip3 install numpy==1.26.4”安装指定版本。 启动 ComfyUI:在终端中输入“pwd”查看 ComfyUI 的文件路径,复制文件路径,替换启动命令中的相应部分,然后将命令“source cf/bin/activate && cd /Users/vina/Documents/ComfyUI && python main.py autolaunch listen dontupcastattention outputdirectory ~/Desktop”复制到终端。启动成功后,浏览器会自动跳转,但网页地址可能不对,直接在浏览器打开“http://localhost:8188/”即可使用。 3. 管理器和资源占用插件:官方的 ComfyUI 安装包不带管理器和资源占用视图,需要从 GitHub 下载。管理器插件下载地址:https://github.com/ltdrdata/ComfyUIManager 。资源占用视图插件装不装均可,下载地址:https://github.com/crystian/ComfyUICrystools 。 此外,还有一种搭建自己第一个 ComfyUI 的方法(熟手推荐 自定义创建): 1. 创建工作空间:进入工作空间,点击自定义创建,按照以下内容配置,点击立即创建。镜像选择 lanruicomfyui 镜像;网盘默认挂载;数据集默认挂载 sdbase;启动方式默认选择手动启动。待实例状态由启动中变为运行中后,稍等一会,点击进入 JupyterLab,选择 terminal 终端。 2. 启动 ComfyUI:进入终端后,先参考配置学术加速。运行如下启动命令后按回车键,等待 1 分钟左右。(每次启动都需要输入启动命令)如果想要长时间持续运行任务,请用 nonhup 启动:启动命令“nohup bash /home/user/start.sh > comfy.log 2>&1 &”;查看启动/出图进度命令“tail fn 500 comfy.log”;停止命令“pkill 9 f '27777'”。当页面显示“To see the GUI go to:http://0.0.0.0:27777”,说明已启动成功。 3. 访问 ComfyUI 界面:返回工作空间,点击实例右侧的「打开调试地址」到浏览器,就可以使用 ComfyUI 啦。 需要注意的是,在 Mac 上使用 ComfyUI 存在一些难点: 1. 生图慢,因为 Mac M 只有 CPU,没有 GPU。 2. 生图的大模型在 CPU 环境中不一定适配、好用。 3. 用 Mac 生图的人少,能一起讨论的人也少,解决方案也少,需要自己摸索。 4. 大神们在 Windows 系统里做的一键包,在 Mac 中不能用。 5. 大神们的工作流也要做适配 Mac 的修改,需要一点点代码阅读和修改的能力。
2024-11-15
comfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 多(常用的都有),但也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装时选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装步骤: 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,https://github.com/comfyanonymous/ComfyUI ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 快捷键:暂未提及。
2024-11-09
comfyui做视频
以下是关于 comfyui 做视频的相关信息: 一些人员在相关领域的情况: 德方:18600081286,从事设计、建模、绘图、效果图、视频工作。 谌峰:13925911177,从事视频,人物,室内设计工作。 陈铭生:18861511571,利用 comfyUI 做 AI 视频,掌握 comfy 工作流设计,给一些公司定制 comfy 流程。 郑路:18868755172,进行出图、短视频创作。 塵:从事绘图与视频工作。 阿牛:13720121256,掌握 comfy 工作流。 Stable Video Diffusion 模型核心内容与部署实战中 ComfyUI 部署实战的相关步骤: 运行 ComfyUI 并加载工作流。在命令行终端操作,在浏览器输入相应地址,出现界面。默认的 ComfyUI 版本存在一些问题,需安装 ComfyUI Manager 插件。再次运行 python main.py 出现 Manager 菜单,可跑文生视频的工作流。工作流可从指定途径获取,使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,在 ComfyUI 目录下的 output 文件夹查看生成好的视频。若生成视频时出现显存溢出问题,有相应解决办法。 关于 ComfyUI 的介绍:现在甚至可以生成视频等,包括写真、表情包、换脸、换装等,只需要一个工作流一键完成,后续会一一讲解介绍如何使用。如何启动搭建 Comfyui 界面的部分简单带过。
2024-11-09
comfyui教程
以下是为您提供的 ComfyUI 教程相关信息: 有几个网站提供了关于 ComfyUI 的学习教程: ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。网址:https://www.comfyuidoc.com/zh/ 优设网:提供了详细的入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容。网址:https://www.uisdc.com/comfyui3 知乎:有用户分享了部署教程和使用说明,适合有一定基础并希望进一步了解的用户。网址:https://zhuanlan.zhihu.com/p/662041596 Bilibili:提供了从新手入门到精通各个阶段的系列视频教程。网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ 此外,ComfyUI 基础教程中关于 KSampler 的部分: KSampler 即采样器,包含以下参数: seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 cfg:一般设置为 6 8 之间较好。 sampler_name:可设置采样器算法。 scheduler:控制每个步骤中去噪的过程,可选择不同的调度算法。 denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2024-11-09
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 多(常用的都有),但也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装时选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装步骤: 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,https://github.com/comfyanonymous/ComfyUI ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2024-11-09
midjourny教程
以下是关于 Midjourney 的一些教程: 1. 线稿上色: 先使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive”。 用 PS 手动修正错误的地方。 再用 ControlNet 控制,Stable Diffusion 上色。 2. 利用一致性出海马体写真: 得益于“cref”,Midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,“cref”代表 character reference(角色参考);“cw”则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。 风格复制和服装的替换,应当用提示词(prompt)和“sref”,默认值 100,越高越接近参考图像的风格。 先用“/describe”指令反推海马体的提示词,再配合“sref”,就可以轻松复制图像风格。在回车之前,检查提示词,不要出现和“sref”风格差异过大的 prompt;也可以增加一些之前学过的有用的 prompt。然后 Upscale 最满意的那一张。 3. 人物一致性: YouTube 大神 TAO 最新的教程,原理是把已经确定好的角色生成一个固定成一个快捷命令,每一个角度一个快捷命令,再通过 vray 重绘调用命令重回人物头部。 具体步骤包括:生成图像(提示词加入分割描述,让一张图生成多张同空间小图);通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类);上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 5 张);放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。
2024-11-17
用AI生成动画的教程
以下是用 AI 生成动画的一些教程: 1. 端午节动态视频: 可以使用即梦或 runway 等工具。如果要字不动,可以先在剪映里添加文字 logo 素材。 先什么关键词都不写,如果效果不满意,再添加关键词。 将视频放入剪映,放上 PNG 透明底图后导出。 2. Runway 生成 AI 动画: 使用图片+文字描述功能,将 MJ 生成的图片增加对应的动态描述,输入 Runway,同时增加镜头变换的设置。具体教程可查看。 3. 利用 AI 批量生成、模仿和复刻《小林漫画》(内含 coze 搭建视频教程): 作者景淮会带着大家试着搭建一个扣子(Coze)工作流来直接生成文字和图片。本文会按照需求分析、扣子搭建、扣子使用链接分享、批量生产图片、总结的顺序进行。
2024-11-17
学习coze的教程
以下是一些学习 Coze 的教程资源: 概览与介绍:https://waytoagi.feishu.cn/wiki/YGgzwDfWLiqsDWk2ENpcSGuqnxg 基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb 大聪明:保姆级教程:Coze 打工你躺平 https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb Coze “图像流”抢先体验 https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ 一泽 Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力 阅读指南:长文预警,请视情况收藏保存 核心看点:通过实际案例逐步演示,用 Coze 工作流构建一个能够稳定按照模板要求,生成结构化内容的 AI Agent;开源 AI Agent 的设计到落地的全过程思路;10+项常用的 Coze 工作流的配置细节、常见问题与解决方法 适合人群:任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍);希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。
2024-11-15
使用ai工具教程
以下是一些常见的 AI 工具使用教程: AI 画示意图: 假设您需要创建一个项目管理流程图,可以按照以下步骤使用 Lucidchart: 1. 注册并登录: 2. 选择模板:在模板库中搜索“项目管理流程图”。 3. 编辑图表:根据您的项目需求添加和编辑图形和流程步骤。 4. 优化布局:利用 AI 自动布局功能,优化图表的外观。 5. 保存和分享:保存图表并与团队成员分享,或导出为 PDF、PNG 等格式。 利用这些 AI 工具,您可以快速、高效地创建专业的示意图,满足各种工作和项目需求。 AI 视频相关: 以下是一些 AI 视频软件的教程链接: AI 线上绘画: 如果您在工作中需要用到大量图片,又想使用能够商用且具有较强艺术美感的图片,AI 生图是高效的解决办法。不论是人像、动物、自然风景或是人造景观的图,都可以用 AI 完成。 但主流的两款工具 midjourney(MJ)付费成本较高,stable diffusion(SD)硬件门槛不低。不过,还有像这样的免费在线 SD 工具网站。 本教程适用于入门玩家,计划让您在半个小时内自由上手创作绘图。如果半个小时内您无法理解工具如何使用,可通过评论区或加微信 designurlife1st(记得备注来意:ai 绘图交流)与作者联系。教程内容会持续更新,欢迎关注和催更。
2024-11-14
prompt 教程
以下是关于 prompt 教程的详细内容: 在 AI 视频生成中,prompt 是直接描述或引导视频生成的文本或指令,类似于给 AI 的提示,包含主体、运动、风格等信息,用户借此控制和指导生成内容。其作用十分重要,是表达需求的方式,影响视频内容和质量。如果上述过于抽象,您可以理解 Prompt 为:将您输入的文字变成对应的画面和运动形式。 Prompt 的专场教程 基础篇: 什么是 prompt(提示词):一段指令,用于指挥 AI 生成您所需要的内容,每个单独的提示词叫 tag(关键词)。 支持的语言:支持英语(不用担心英语不好的问题,),另外 emoji 也可以用。 语法规则: 用英文半角符号逗号,来分隔 tag。注意逗号前后有空格或者换行都不影响效果。 改变 tag 权重:tag 的顺序越靠前对于 SD 来说权重越大,但是依旧可以给每个位置上的 tag 单独设置权重。有两种写法:括号,权重就重 1.1 倍,每加一层括号就反向减弱 1.1 倍。 进行 tag 的步数控制(高级玩法):就是 SD 先按您输入的这个 tag1 开始生成,然后在达到您设定的步数之后,tag1 停止产生作用,此时 tag2 再参与到对内容生成的影响。,数字大于 1 理解为第 X 步前为 tag1,第 X 步后变成 tag2,数字小于 1 理解为总步数的百分之 X 前为 tag1,之后变成 tag2。
2024-11-14
prompt 教程
以下是关于 prompt 教程的详细内容: 在 AI 视频生成中,prompt 是直接描述或引导视频生成的文本或指令,类似于给 AI 的提示,包含主体、运动、风格等信息,用户借此控制和指导生成内容。其作用十分重要,是表达需求的方式,影响视频内容和质量。如果上述过于抽象,您可以理解 Prompt 为:将您输入的文字变成对应的画面和运动形式。 Prompt 的专场教程 基础篇: 什么是 prompt(提示词):一段指令,用于指挥 AI 生成您所需要的内容,每个单独的提示词叫 tag(关键词)。 支持的语言:支持英语(不用担心英语不好的问题,),另外 emoji 也可以用。 语法规则: 用英文半角符号逗号,来分隔 tag。注意逗号前后有空格或者换行都不影响效果。 改变 tag 权重:tag 的顺序越靠前对于 SD 来说权重越大,可通过两种写法设置权重。 :数值从 0.1 到 100,默认状态是 1,低于 1 就是减弱,大于 1 就是加强。 括号,权重就重 1.1 倍,每加一层括号就反向减弱 1.1 倍。 进行 tag 的步数控制(高级玩法):就是 SD 先按您输入的这个 tag1 开始生成,然后在达到您设定的步数之后,tag1 停止产生作用,此时 tag2 再参与到对内容生成的影响。,数字大于 1 理解为第 X 步前为 tag1,第 X 步后变成 tag2,数字小于 1 理解为总步数的百分之 X 前为 tag1,之后变成 tag2。 本文阅读时长大约 30 分钟,建议打开任意一款 SD 产品分屏对照使用。如果有地方觉得写得不够清晰,请在评论区激情发言,或者添加微信 designurlife1st 直接沟通(记得备注来意:ai 绘图交流)。
2024-11-14
ollama windows 安装
以下是 Ollama 在 Windows 上的安装步骤: 1. 前往 下载并安装 Ollama。 2. 安装完成后,打开 Powershell 运行相关命令。 3. 编辑 Win 版的 run_win.ps1 文件,将目录中的图片路径和触发词填写,运行即可。 4. 还可以参考以下教程: 张梦飞的【全网最细】从 LLM 大语言模型、知识库到微信机器人的全本地部署教程: 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 。 下载完成后,双击打开,点击“Install” 。 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 4SeasonYou 工作流副本: 首先,下载 ollama,网站: 。 其次,在网站中,复制代码。 然后,像建议一样打开 ComfyUi 根目录下的 custom_nodes\\ComfyUiOllamaYN 的文件路径,在上方的路径下输入 cmd ,进入到下方的命令行,右键即可粘贴刚才的代码,等待下载即可。
2024-11-17
sd安装
以下是关于 SD 安装的详细步骤: 1. 系统要求:系统需为 Win10 或 Win11。 2. Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD的显卡,显卡内存 4GB 以上。 打开任务管理器:同时按下 ctrl+shift+esc。 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标跳转至对应安装教程页:。 4. 配置不够可选择云端部署(Mac 也推荐云端部署):。 5. 备选:SD 好难,先试试简单的无界 AI:。 补充说明: 如果在以上使用过程中发生错误,那么你可能需要部署一下使用环境,我们再次开启最傻瓜安装教学模式。 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。以上步骤,我们在安装 roop 的时候也做过,如果安装过 roop 的可以跳过。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 关于【SD】无需 Lora,一键换脸插件 Roop 的安装: 安装时间比较长,要耐心等待。安装好之后,打开 SD 文件目录下的这个文件夹。在地址栏输入“cmd”,然后回车。在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包我已经更新到了云盘里,后台回复【SD】就可以下载。安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。完成这些后,Roop 插件就可以正常使用了。这个插件主要适用于真实的人脸替换,所以对二次元之类的人物作用不大。我们选用一个真实系模型“realisticVisionV20”,关键词描述的是一个老人举着气球。得到了一张如下的照片。接下来启用 ROOP 插件,选择你想要替换的人物照片,面部修复选择“GFPGAN”。右边的参数数值越低,人物会越像,但是图像会很模糊;数值越高人物越不像,但是图像会很清晰。这个就取决于你的需求了,我使用 0.5 测试一下。最下面还有一个放大算法,可以使用一个模型放大你的图像,基本就相当于高清修复。设置好后,点击生成。可以看到,人脸部分的像素是偏低的,有点模糊。但是没有关系,我们可以将这张图发送到“图生图”,开一个比较小的重绘幅度。然后使用 controlnet 中的 tile 模型进行重绘。换脸完成。如果想要这个插件的话,可以添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,另外,科学上网很重要。特别提醒,此插件谨慎使用,切勿触犯法律。
2024-11-16
SD安装包
以下是关于 SD 安装包的详细步骤: 1. SD 云端部署 部署流程 安装和配置基础环境 在浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量。 安装显卡驱动:用内置的 IE 或下载 Chrome,打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动并安装。 配置环境变量:驱动安装完成后,先找到驱动所在的目录(一般是在「C:\\Program Files\\NCIDIA Corporation」),复制这个路径。找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量。找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,粘贴刚才复制的 nvidia 驱动安装地址,保存即可。 下载安装 SD 整合包 整合包也就是打包了 SD 和 Web UI 方便大家更好的使用的集合,以秋叶的 SD 整合包举例讲解。 下载 SD 整合包:秋叶 SD 整合包下载地址:https://pan.baidu.com/s/1uavAJJdYYWhpnfjwQQDviQ?pwd=a123 ,提取码:a123 。建议在服务器上装个百度网盘或者其他能够提高下载速度的工具,有百度会员则无所谓。 安装 SD 整合包:安装之后,打开安装包一级目录,双击启动器运行依赖(安装一些 SD 运行所必要的基础环境,比如 Microsoft Desktop Runtime 等),安装完成后就可以启动 SD 了。 2. 补充说明 如果在以上使用过程中发生错误,那么可能需要部署一下使用环境,再次开启最傻瓜安装教学模式。 安装 cuda_11.8.0_522.06_windows.exe。 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。(如果安装过 roop 的可以跳过) 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 重启,装好了,重启电脑,即可运行。 请注意,如果想要获取插件安装包,可以添加公众号【白马与少年】,回复【SD】即可。
2024-11-11
python安装后文本文档改为".py"后跳转不到IDLE
很抱歉,目前知识库中没有关于“python 安装后文本文档改为‘.py’后跳转不到 IDLE”这一问题的相关内容。但通常情况下,出现这种情况可能是以下原因导致的: 1. 文件关联设置问题:您的系统可能没有正确将.py 文件与 IDLE 关联,您可以检查系统的文件关联设置。 2. IDLE 配置问题:IDLE 的配置可能存在异常,您可以尝试重新安装或配置 IDLE。 3. 环境变量问题:Python 的环境变量设置不正确也可能导致此问题,您需要确认环境变量是否正确配置。 建议您逐一排查以上可能的原因,以解决该问题。
2024-11-10
如何安装SD
安装 SD 的步骤如下: 1. 系统要求:系统需为 Win10 或 Win11。 2. Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD的显卡;显卡内存 4GB 以上。 打开任务管理器:同时按下 ctrl+shift+esc。 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标跳转至对应安装教程页: 4. 配置不够可选择云端部署(Mac 也推荐云端部署): 5. 备选:SD 好难,先试试简单的无界 AI: 此外,还有以下相关插件的安装: 1. 【SD】无需 Lora,一键换脸插件 Roop: 安装时间比较长,要耐心等待。 安装好之后,打开 SD 文件目录下的这个文件夹。 在地址栏输入“cmd”,然后回车。 在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。 如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新到云盘,后台回复【SD】即可下载。 安装完成后,重新打开启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。 完成这些后,Roop 插件就可以正常使用。 2. 【SD】商业换装如此简单,Segment Anything 保姆级教学: 补充说明:如果在使用过程中发生错误,可能需要部署使用环境。 安装 cuda_11.8.0_522.06_windows.exe。 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装(安装过 Roop 的可跳过)。 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 最后:重启电脑,即可运行。 特别提醒:相关插件使用需谨慎,切勿触犯法律。获取插件安装包,可添加公众号【白马与少年】,回复【SD】。
2024-11-10
本地安装大模型使用4060显卡和4060TI显卡有什么区别
在本地安装大模型时,4060 显卡和 4060TI 显卡主要有以下区别: 显存方面:显存是选择显卡的重要因素。4060 显卡的显存通常小于 4060TI 显卡。对于一些对显存要求较高的任务,如生成更大分辨率的超清图片、使用更高的参数进行 Dream booth 微调等,4060TI 显卡的大显存更具优势。 生成速度方面:4060TI 显卡的速度比 4060 显卡快。但在某些情况下,如果显存不足导致无法执行任务,速度稍慢就显得不那么重要了。 总体而言,在预算允许的情况下,16GB 的 4060TI 显卡由于其较大的显存,可以执行更多样的 AI 生成任务。但如果预算有限,4060 显卡也是一个可行的选择。
2024-11-06