Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui做视频

Answer

以下是关于 comfyui 做视频的相关信息:

  • 一些人员在相关领域的情况:
    • 德方:18600081286,从事设计、建模、绘图、效果图、视频工作。
    • 谌峰:13925911177,从事视频,人物,室内设计工作。
    • 陈铭生:18861511571,利用 comfyUI 做 AI 视频,掌握 comfy 工作流设计,给一些公司定制 comfy 流程。
    • 郑路:18868755172,进行出图、短视频创作。
    • 塵:从事绘图与视频工作。
    • 阿牛:13720121256,掌握 comfy 工作流。
  • Stable Video Diffusion 模型核心内容与部署实战中 ComfyUI 部署实战的相关步骤:
    • 运行 ComfyUI 并加载工作流。在命令行终端操作,在浏览器输入相应地址,出现界面。默认的 ComfyUI 版本存在一些问题,需安装 ComfyUI Manager 插件。再次运行 python main.py 出现 Manager 菜单,可跑文生视频的工作流。工作流可从指定途径获取,使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,在 ComfyUI 目录下的 output 文件夹查看生成好的视频。若生成视频时出现显存溢出问题,有相应解决办法。
  • 关于 ComfyUI 的介绍:现在甚至可以生成视频等,包括写真、表情包、换脸、换装等,只需要一个工作流一键完成,后续会一一讲解介绍如何使用。如何启动搭建 Comfyui 界面的部分简单带过。
Content generated by AI large model, please carefully verify (powered by aily)

References

[heading1]Sheet1[content]|大摩托车||商业应用|<br>|-|-|-|<br>|德方|18600081286|设计、建模、绘图、效果图、视频|<br>|树一|15659268616|自媒体|<br>|任振亮|13513700768|自媒体|<br>|陈锦燊|16698528851|视觉设计、快速出图|<br>|李恒安|18366606265|动漫|<br>|谌峰|13925911177|视频,人物,室内设计|<br>|何乐天|13661907592|商业化|<br>|林志瀚|13316941941|医学图像分割|<br>|阿牛|13720121256|掌握comfy工作流|<br>|陈铭生|18861511571|1.自己专业是公共艺术设计,想在公共艺术上面也做个探索应用,在前期的方案生成和线稿转模型做个探索<br>2.利用comfyUI做AI视频<br>3.掌握comfy工作流设计,给自己的工作定制comfy工作流<br>4.给一些公司定制comfy流程,根据他们的业务和应用流程,定制comfy流程|<br>|Start.x|13152800705|AI应用|<br>|傅鸿博|是新用户但没15.9 17743100718|做个comfyui的应用|<br>|肖高阳|16619964844|学习|<br>|Seajelly|19867686980|用在AI教育|<br>|郑路|18868755172|出图、短视频创作|<br>|塵||绘图与视频|<br>|冯皓|18131900273|绘图|

Stable Video Diffusion模型核心内容与部署实战

在以上准备工作完成后,我们就可以开始运行ComfyUI了!在命令行终端:在浏览器上输入上面的url地址,出现如下界面:此时,默认的ComfyUI版本不支持模型版本和node管理,这会导致安装和卸载模型时会非常麻烦!因此,我们需要安装一个ComfyUI Manager插件!再次运行python main.py,就会出现Manager菜单了!!!接下来,我们就可以跑文生视频的工作流了!!!关于工作流,我也给大家准备好了,同样放到百度网盘链接了,关注公众号「魔方AI空间」,回复【SVD】即可获取!!工作流下载好后,我们可以使用ComfyUI菜单的load功能,进行工作流的加载!然后,点击菜单栏「Queue Prompt」就可以开始视频的生成啦!我们可以通过工作流上的绿色框看到运行的进度!!!最后,我们可以去ComfyUI目录下的output文件夹查看生成好的视频!如果我们在生成视频的过程中,出现显存溢出的问题,请往下看!!

小田:ComfyUI基础教程—小谈

[e0c02d8805233a5fea3d3d9246cc0b37.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Ip78bHjPooH3bmxppzZceA0Qnab?allow_redirect=1)现在甚至可以生成视频了等等你能想得到的在Comfyui中都可以完成,包括我们看到的写真,表情包,换脸,换装统统只需要一个工作流一键完成。而且这些内容我们在后面的可成都会给大家一一讲解介绍。所以大家都可以学会如何使用那么如何启动自己搭建一个Comfyui的界面呢?(这部分稍微说一下2句话带过)

Others are asking
我要配置一台跑ComfyUI的电脑,请给我最具性价比的推荐
以下是为您推荐的跑 ComfyUI 最具性价比的电脑配置: 系统:Windows 7 以上。 显卡:建议使用 6GB 以上显存的 NVIDIA 显卡(N 卡),最低要求 NVDIA 独立显卡且显存至少 4G 起步。SDXL 出来后,最低需要 8GB 显存+32GB 运行内存,12GB 可流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配可能会经常爆显存。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。最好把软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 CPU:无特别要求,但如果您的电脑能顺畅清晰地玩 3A 游戏,那运行 ComfyUI 通常也没问题。 需要注意的是,ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。配置上不封顶,您可以根据自己的需求和预算来选择。
2025-02-15
comfyui的本地部署安装,GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G*2
以下是关于 ComfyUI 本地部署安装的相关信息: ComfyUI 相比 WebUI,配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。如果电脑能顺畅清晰地玩 3A 游戏,那玩 webui 和 ComfyUI 也没问题。配置上不封顶,根据自己的需求和预算来即可。 安装地址:https://github.com/comfyanonymous/ComfyUI 。可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComFYUI_windows_portable\\ComfyUI\\models\\vae 。 已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 您的电脑配置为 GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G2,可能需要注意内存方面可能不太满足推荐配置,可能会影响运行效果。
2025-02-13
如何凭借comfyUI,成为自由职业工作者
ComfyUI 是一种具有独特特点和优势的工具,以下是关于如何凭借它成为自由职业工作者的相关内容: ComfyUI 的概念和重要性: ComfyUI 的 UI 界面相较于 SD WebUI 更为复杂,除输入框外还有很多块状元素和复杂连线。 虽然学习成本较高,但连线并不复杂,小方块与 SD WebUI 的输入框和按钮作用相同,都是对参数进行配置,连线类似搭建自动化工作流,从左到右依次运行。 ComfyUI 的功能和优势: 从功能角度看,它与 SD WebUI 提供的功能相同,但以连线方式呈现。 通过改变节点可实现不同功能,如一个是直接加载图片,一个是通过画板绘制图片,从而实现导入图片生图或绘图生图等不同功能。 选择 ComfyUI 的核心原因在于其自由和拓展性,可根据自身需求搭建适合自己的工作流,无需依赖开发者,还能开发并改造节点。 ComfyUI 的基础界面和操作: 熟悉基本界面,如创建第一个工作流时,要进行加载 Latent(设置图片宽高和批次)、加载 VAE 等操作。 节点分为起始节点、最终输出节点和过程执行节点,将各节点按规则串联,如 checkpoint 加载器、CLIP 对应链接正向和负向提示词等,最终得到工作流。 要成为凭借 ComfyUI 的自由职业工作者,需要多练习和使用,尝试通过变现图片获取收益。
2025-02-10
可以不学sd而是直接学comfyui
学习 ComfyUI 而不先学习 SD 是可行的。ComfyUI 具有一些独特的优势,例如更接近 SD 的底层工作原理,能够实现自动化工作流以消灭重复性工作,作为强大的可视化后端工具还能实现 SD 之外的功能,如调用 API 等,并且可根据定制需求开发节点或模块。 比如,有人基于 ComfyUI 中的创建了工作流,不仅能用于绿幕素材的抠图,还能自动生成定制需求的抠图素材,全程只需几秒。 在电脑硬件方面,使用 ComfyUI 时,系统要求 Windows7 以上,显卡要求 NVDIA 独立显卡且显存至少 4G 起步,硬盘需留有至少 100G 空间(包括模型)。但 mac 系统、AMD 显卡、低显卡的情况也能安装使用,只是功能不全、出错率偏高,严重影响使用体验,建议升级设备或采用云服务器。
2025-02-08
ComfyUI教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了从新手入门到精通各个阶段的系列视频教程,可在查看。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中关于 KSampler 的部分: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:一般设置在 6 8 之间较好。 5. sampler_name:可通过此设置采样器算法。 6. scheduler:控制每个步骤中去噪的过程,可选择不同调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置为 1。 内容由 AI 大模型生成,请仔细甄别。
2025-02-07
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势:对显存要求相对较低,启动速度快,出图速度快;具有更高的生成自由度;可以和 webui 共享环境和模型;可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在;生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-02-07
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
图片转视频的国产AI推荐
以下是为您推荐的国产图片转视频的 AI 工具: 1. 可灵:由快手团队开发,生成的图像和视频质量高。在视频生成方面,其视频生成质量卓越,画面清晰、连贯且内容丰富,生成速度快,对于国内用户可访问性强。但价格相对较高,重度用户年费可能达几千元,轻度用户有免费点数和较便宜的包月选项。 2. 通义万相:作为国产 AI 工具,在中文理解和处理方面表现出色,可选择多种艺术和图像风格,操作界面简洁直观,用户友好度高,且目前免费,每天签到获取灵感值即可。但为符合国内监管要求,某些类型图像无法生成,处理非中文语言或国际化内容可能不够出色,处理多元文化内容时可能存在偏差。 更多相关网站可以查看: 内容由 AI 大模型生成,请仔细甄别。
2025-02-18
图片转视频的AI推荐
以下是为您推荐的图片转视频的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的相关网站可以查看:https://www.waytoagi.com/category/38 。 另外,在视频转绘制作视频过程中,Topaz Video AI 是一个不错的插件,用于消除视频抖动和运动模糊。其使用方法如下: 解压对应文件,推荐使用绿色版,右键管理员运行 VideoAIportable.exe 文件,导入处理好的视频。主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。右边部分是主要对视频处理的方式,预设部分主要是放大视频、提升画质、提升帧率等。稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动需要开启,次数一般选择 2 保持默认不变。 在制作新年表情包时,生成新年场景可以输入关键词“新年、中国新年、喜庆热闹、恭喜发财”之类的词汇得到合适的新年背景。然后使用可灵 AI 1.6 图生视频工具让场景动起来,抽卡性价比不错,简单效果一般抽两三次即可。
2025-02-18
视频转文稿
以下是关于视频转文稿的相关内容: Twitter Space 音频转文稿:使用 Gemini 1.5 Pro 将音频转为按发言人生成的文本,将初稿发送给 Claude 完成错别字纠正、去除口癖、整理段落等优化,最终产出阅读友好的 Markdown 格式文稿。相关链接: 对于视频转文稿,乔向阳提到视频有多种元素但也有缺点,如思考停顿、难以预知内容等,此时飞书妙记或语音转文字初稿可帮助快速跳转想看的位置。Whisper 模型识别字幕准确度高,比飞书妙记或讯飞等工具更准确。乔向阳因自身需求将相关技术工程化、产品化,认为技术在进步且这是市场所需。
2025-02-18
ai生成短视频,有没有免费的工具
以下是一些免费生成短视频的工具: 1. Project Odyssey:这是全球最大的生成式 AI 视频竞赛之一,提供超过 30 种工具的免费额度,累计超过 75 万美元。 2. ChatGPT + 剪映:ChatGPT 可以生成视频小说脚本,剪映则可以根据脚本自动分析并生成对应的素材和文本框架。 3. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频,且免费无限生成。 4. Pictory:AI 视频生成器,允许用户提供文本描述来生成相应的视频内容。 5. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划内容。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 这些工具各有特点,适用于不同的应用场景和需求,能够帮助您快速生成吸引人的视频内容。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-02-18
我想创业,花多少钱,能够搭建一个视频领域的AI模型
在视频领域搭建 AI 模型的成本因多种因素而异。对于创业者或小公司来说,这个领域存在一定的挑战。 腾讯的混元 AI 视频模型目前只支持文生视频,且已开源免费。 在模型供应商方面,不同供应商的特点和成本有所不同: 智谱 GLM4V 是通用视觉类大模型,为拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,调用成本为 0.05 元/千 tokens。 阿里云百炼 qwenvlplus 也是通用视觉类大模型,是拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为 0.008 元/千 tokens,训练成本为 0.03 元/千 tokens。 阶跃星辰是通用视觉类大模型,响应速度快,支持视频理解,输入成本为 0.005 0.015 元/千 tokens,输出成本为 0.02 0.07 元/千 tokens。 百度 PaddlePaddle 是 OCR 垂直小模型,文本识别能力补齐增强,私有化部署有服务费,API 调用在 0.05 0.1 元/次。 此外,获取高质量数据的难度较高,大厂在该领域的护城河深厚。大公司在争取大模型 API 客户方面更具优势,且开源大模型的发展可能会影响创业公司的业务。去年为大客户定制一个大模型的最高订单额可达 1000 万元,而今年则快速降到了百万元级别乃至更低。
2025-02-18