Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui视频

Answer

以下是关于 ComfyUI 视频的相关信息:

  • ComfyUI 视频背景替换工作流:
    • 背景部分,可以是图片或者视频,为了有前后的视觉效果,加了图像的模糊,让生成的视频有种景深的效果。
    • 前景与背景的初步融合:图像遮罩复合用于将前景精确地与新背景合并,图像混合可微调和平滑化、协调颜色、增强细节、提供灵活性。
  • 爆肝博主 ZHO 的更新记录:
    • 4 月 28 日:ComfyUI 之旅一周年。
    • 4 月 16 日:做了换钻石镜头在 ComfyUI 中的实现,包括模型选择、提示词完善、重绘、视频生成等。还提到了 cubiq IP-Adapter ComfyUI 视频上新,线稿上色和风格迁移。
    • 4 月 15 日:Mira 迈向 Sora 般的长视频生成的一小步,以及 Adobe 上了 premiere pro,日语版 GPT-4 等。
  • 关于 ComfyUI 的学习资料:
    • ComfyUI 官方文档:提供使用手册和安装指南,网址:https://www.comfyuidoc.com/zh/ 。
    • 优设网:有详细的入门教程,网址:https://www.uisdc.com/comfyui-3 。
    • 知乎:有用户分享部署教程和使用说明,网址:https://zhuanlan.zhihu.com/p/662041596 。
    • Bilibili:有一系列涵盖新手入门到精通阶段的视频教程,网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。

请注意,以上内容由 AI 大模型生成,请仔细甄别。

Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI 视频背景替换工作流

背景部分,可以是图片或者视频,为了有一个前后的视觉效果,这里加了一个图像的模糊,让生成的视频有种景深的效果[heading4]前景与背景的初步融合[content]图像遮罩复合(ImageCompositeMasked)的作用:这个步骤主要用于将前景(人物)精确地与新背景合并。它使用遮罩来决定哪些部分应该保留前景,哪些部分应该显示背景。图像混合(ImageBlend)的额外作用:微调和平滑化:即使在遮罩复合后,前景和背景的边界可能还是有些生硬。图像混合可以帮助进一步软化这些边界。颜色协调:它可以帮助调整前景和背景的整体色调,使整个图像看起来更加和谐。细节增强:通过适当的混合模式,可以增强某些细节或纹理。灵活性:允许对最终效果进行更精细的控制,例如通过调整混合强度(在您的设置中是0.8)来微调效果。

爆肝博主 ZHO-绘画

[heading2]4月16日[content]【Zho】既然Adobe出招了,那咱开源社区也不能落后啊!做了换钻石镜头在ComfyUI中的实现:💎模型选择:Playground v2.5✨提示词完善(可选):Gemini 1.5 Pro🎨重绘:Differential Diffusion🎬视频生成:SVD 1.1[29484_1713243429.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/P87PbH3Kook6u3xogA4cIHp3nwh?allow_redirect=1)[heading2]4月16日[content]【Zho】cubiq IP-Adapter ComfyUI视频上新了:线稿上色+风格迁移,赶紧学起来!视频地址:https://www.youtube.com/watch?v=gmwZGC8UVHE[heading2]4月15日[content]Mira:迈向Sora般的长视频生成的一小步Mira:A Mini-step Towards Sora-like Long Video Generationhttps://mira-space.github.io/[heading2]4月15日[content]Adobe上了premiere prohttps://www.youtube.com/watch?v=6de4akFiNYM[29314_1713191010.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/DmpRbDJx7o4EVyxmHodc439on1e?allow_redirect=1)[heading2]4月15日日语版GPT-4[content]OpenAI Japan专门为日语微调了[heading2]4月10日[content]

问: 有没有comfy ui相关的学习资料?

是的,根据搜索结果,有几个网站提供了关于ComfyUI的学习教程:1.ComfyUI官方文档:提供了ComfyUI的使用手册和安装指南,适合初学者和有经验的用户。你可以在[ComfyUI官方文档网站](https://www.comfyuidoc.com/zh/)找到相关信息。2.优设网:提供了一篇详细的ComfyUI入门教程,这篇教程适合初学者,详细介绍了ComfyUI的特点、安装方法以及如何使用ComfyUI生成图像等内容。教程地址是[优设网的ComfyUI入门教程](https://www.uisdc.com/comfyui-3)。3.知乎:有用户分享了ComfyUI的部署教程和使用说明,这篇介绍适合那些已经有一定基础并希望进一步了解ComfyUI的用户。可以在[知乎的ComfyUI介绍](https://zhuanlan.zhihu.com/p/662041596)找到相关教程。4.Bilibili:提供了一系列的ComfyUI视频教程,涵盖了从新手入门到精通的各个阶段。这些视频教程可以帮助用户更直观地学习ComfyUI的使用。可以在[Bilibili的ComfyUI系列教程](https://www.bilibili.com/video/BV14r4y1d7r8/)找到视频教程。这些资源为用户提供了丰富的学习材料,从基础操作到高级技巧,可以帮助用户更好地掌握ComfyUI的使用。内容由AI大模型生成,请仔细甄别。

Others are asking
如何学习comfyui
以下是关于学习 ComfyUI 的相关内容: 学习资料网站: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,网站为 https://www.comfyuidoc.com/zh/ 。 优设网:有详细的入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,地址为 https://www.uisdc.com/comfyui3 。 知乎:有用户分享部署教程和使用说明,适合有一定基础并希望进一步了解的用户,地址为 https://zhuanlan.zhihu.com/p/662041596 。 Bilibili:有一系列涵盖从新手入门到精通各个阶段的视频教程,地址为 https://www.bilibili.com/video/BV14r4y1d7r8/ 。 飞书学习群的共学内容:包括王蓉的基础搭建和转绘、唯有葵花向日晴的基础教程、工作流开发和实际应用场景等众多成员分享的基础教程、工作流搭建思路、各版本模型使用的优缺点、报错解决方式、模型训练等方面的内容。 学习 ComfyUI 的原因: 更接近 SD 的底层工作原理。 实现自动化工作流,消灭重复性工作。 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 api 等。 可根据定制需求开发节点或模块。 例如,有人为解决工作室抠图素材需求,基于相关项目创建了工作流,不仅能用于绿幕素材抠图,还能自动生成定制需求的抠图素材。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-29
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
comfyui能做广告平面设计吗
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI。它具有一些优势,如对显存要求相对较低、启动和出图速度快、生成自由度更高、可与 webui 共享环境和模型、能搭建自己的工作流程并导出分享、拖入生成的图片会还原工作流程且自动选择模型等;但也存在操作门槛高、生态不如 webui 丰富等劣势。 ComfyUI 可以应用于多种场景,包括但不限于解决日常工作中的大部分平面设计需求、生成各种类型的图像(如风景画、肖像画、概念艺术等)、用于电商、自媒体、副业等领域的图片生成和视频创作等。 如果您想在本地安装 ComfyUI,需要按照一定的命令行安装步骤进行操作,在完成安装后还需要下载关键的模型才能运行 Stable DIffusion 生图。 综上所述,ComfyUI 能够用于广告平面设计,但需要考虑其操作门槛较高的特点。
2025-03-28
comfyui能做什么
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,具有以下特点和功能: 简介:可以将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优势: 对显存要求相对较低,启动和出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,能导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 。 应用场景: 建筑设计师兼职做 copy UI 生态建设。 作为强大的可视化后端工具,实现 SD 之外的功能,如调用 api 等。 工作室用于生成抠图素材,如绿幕素材的抠图,还能自动生成定制需求的抠图素材。 有人学习使用 ComfyUI 是因为它更接近 SD 的底层工作原理,能实现自动化工作流,消灭重复性工作,还可根据定制需求开发节点或模块。
2025-03-28
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装步骤: 地址:https://github.com/comfyanonymous/ComfyUI 。 可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,https://github.com/comfyanonymous/ComfyUI ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-03-28
ComfyUI的文档在哪里
以下是一些可以获取 ComfyUI 相关文档和学习资料的途径: 1. ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。您可以在找到相关信息。 2. 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可以在找到相关教程。 4. Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可以在找到视频教程。 此外,还有以下相关资料: 1. 关于 ComfyUI 节点的详细文档,由卡卡布使用 AI 分析整理,包括了 200+官方节点和 1000+第三方节点的详细信息,涵盖每个节点的功能、选项作用及代码实现,便于用户搜索和了解 ComfyUI 节点。 2. 在使用 ComfyUIAdvancedLivePortrait 这个节点时,可能会遇到少了 landmark_model.pth 这个文件的错误,在网盘里可以找到完整的。相关资料链接: 百度网盘:通过网盘分享的文件:图片换背景 链接:https://pan.baidu.com/s/1jN_0R791QmjxbIEgzRyv9w?pwd=cycy 提取码:cycy 说明文档:https://xiaobot.net/post/4ad59e7546e443cba0d270eab7e0da98 更多内容收录在:https://xiaobot.net/p/GoToComfyUI 网盘:https://pan.quark.cn/s/a4b94677ce99 工作流:https://www.liblib.art/modelinfo/cc6d850d24f6462084c0bc1eb5374e3c?from=personal_page 视频:https://www.bilibili.com/video/BV1FzsbeTEQV/?vd_source=ecb7194379e23ea8b1cb52e3bd5d97ef workflow:https://www.shakker.ai/modelinfo/cc6d850d24f6462084c0bc1eb5374e3c?from=personal_page video:https://youtu.be/W0x3VjwWnAQ 请注意,内容由 AI 大模型生成,请仔细甄别。由于 AI 技术更新迭代,请以文档更新为准。
2025-03-22
视频换脸
以下是关于视频换脸的相关信息: TecCreative 工具: 自动识别视频中的人脸,并将其替换为选择的脸部,实现在视频中快速、精确地替换人物的脸部。 操作指引:上传原始视频——上传换脸图片——点击生成 Swapface 工具(有免费额度): 图片换脸、视频换脸,直播实时换脸,需要下载电脑客户端使用,没有在线版,可以通过邀请好友、点评软件获取积分。 视频换脸可以上传视频或者 gif 图,换脸可以识别图片、视频里的多张脸进行替换。 效果预览:左边原视频,右边换脸后效果。 网址:https://swapface.org//home Viggle 工具(有免费额度): 可完成视频换脸。 功能及操作: /mix:将角色图像混合到动态视频中,上传一张字符清晰的图片和一段清晰运动的视频。 /animate:使用文本运动提示为静态角色设置动画,上传一张字符清晰的图片,描述想让角色做的动作(也可以从 https://viggle.ai/prompt 中复制动作提示词)。 /ideate:纯粹从文本创建角色视频,描述想要创造的角色和希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /character:通过文本提示创建角色并将其动画化,描述想要创造的角色,从四个结果中选择一个图像,描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize:使用文本提示符重新设计角色的样式并将其动画化,上传一张字符清晰的图片,描述想改变角色的任何地方来重新塑造它,从四个结果中选择一个图像,描述想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt 网址:http://viggle.ai ,discord 免费体验:https://discord.com/invite/viggle
2025-03-31
最近很火的古人怼人视频怎么做的
制作最近很火的古人怼人视频,可按照以下步骤进行: 1. 文案生成 工具:DeepSeek 操作: 打开 DeepSeek 网站:https://chat.deepseek.com/ 输入提示词,示例:“让 XX 用现代口语化的表达、生气骂人的口吻吐槽 XXXX(例如:吐槽现代人),XXX 目的(例如:推广 XXX 吸引游客来旅游),输出 3 条 60 字左右的毒舌文案,每条里面都要有‘回答我!Look in my eyes!Tell me!why?baby!why?’” 可以根据自己的内容自行调整文案和字数要求。 点击生成,等待 DeepSeek 输出 3 条文案。 从中挑选最满意的一条(或多条)保存备用。 2. 准备人物形象图 可以用现有的照片或者图片,也可以用工具生成。 工具:即梦 AI 操作: 打开即梦 AI 网站:https://jimeng.jianying.com/aitool/image/generate 输入提示词,即梦已经接入了 DeepSeek,可以直接用它来生成绘图提示词 调整生成参数(如风格、细节等),点击生成。 预览生成的人物图,不满意可调整提示词重新生成,直到满意为止。 下载最终的人物形象图。 此外,还有以下扩展玩法和变现玩法: 扩展玩法: 1. 文旅引流版:用地方历史名人“骂”现代游客,再顺便夸家乡美景。 2. 名人认知刷新版:让古人吐槽他们被误解的形象。 3. 系列化挑战:做一个“古人骂遍现代生活”系列,吸引粉丝追更。还能号召网友提建议,互动拉满! 变现玩法: 1. 品牌合作与广告植入:让古人吐槽现代生活痛点,顺势植入品牌产品或服务,打造新颖幽默的广告形式。 2. IP 开发与周边销售:基于古人形象开发文化衍生品,打造可销售的 IP 周边。 3. 教育与文化传播:将吐槽视频融入历史文化知识,吸引学生和文化爱好者。
2025-03-30
有什么免费生成视频的AI
以下是一些免费生成视频的 AI 工具: 海外: Haiper(有免费额度):https://haiper.ai/ 。能生成 HD 超高清的视频,包括文生视频、图生视频、素描生视频、扩展视频。文生视频支持选择风格、秒数(2s 和 4s)、种子值。图生视频只能写提示词、秒数(2s 和 4s)、种子值。还能进行视频重绘,轻松修改颜色、纹理和元素以改变原视频的视觉内容,但局部重绘时如果是大量背景的重绘,效果一般,视频容易崩。 DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile 。可以做 2 秒图生视频和短视频拼长视频。 Morph studio(内测):https://app.morphstudio.com/ 。暂未对外开放,可在官网提交内测申请,discord 上可以免费体验。支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3s 视频。 国内: Hidreamai(有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以。文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 ETNA:https://etna.7volcanoes.com/ 。可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8~15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频,视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以。文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸,默认生成 3s 的视频。 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文。文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸,默认生成 5s 的视频。
2025-03-30
哪些 ai 可以读取视频内容
以下是一些可以读取视频内容的 AI: 1. 视频内容分析模型:上传视频后可以生成视频内容的文本描述。来源: 2. XiaoHu.AI:支持多场景,从图像识别到视频理解,可解析超过 1 小时视频内容并秒级定位事件。广泛识别常见物体、文档结构化解析(发票、表单等),适用于金融与商业领域。支持不同尺寸图像处理,保留高分辨率;精准物体定位与属性分析。多模态 AI 代理具备手机、电脑执行复杂任务的能力。详细介绍:
2025-03-30
视频生成 效果对比
以下是为您整理的关于视频生成的相关内容: 百度“秒哒”: 特点:无代码编程、多智能体协作、多工具调用,一句话生成应用、网站、小游戏。 优势:更适合普通用户,直接输出结果,看不到写代码过程。智能体协作矩阵支持灵活组建虚拟开发团队,工具集成强大,完成即部署。 试玩链接(临时有效): 相关链接: 电商视频生成神器 Product Anyshoot: 功能:商品图秒变视频展示,模特自动拿着、穿戴、摆放商品。 特点:支持所有电商品类,5000+模板可自定义修改。 优势:商品还原度高,视频真实流畅,对比效果优于 Pika 和阿里通义 Wanx。 在线体验: 相关链接: Meta 发布的 Meta Movie Gen 文生视频模型: 组成:由视频生成和音频生成两个模型组成。 Movie Gen Video:30B 参数 Transformer 模型,可从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。能执行精确视频编辑,如添加、删除或替换元素,或背景替换、样式更改等全局修改。在个性化视频方面,在保持角色身份一致性和运动自然性方面取得 SOTA 性能。 Movie Gen Audio:13B 参数 Transformer 模型,可接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。 训练方式:通过预训练微调范式完成,在骨干网络架构上沿用了 Transformer,特别是 Llama3 的许多设计。预训练阶段在海量的视频文本和图像文本数据集上进行联合训练,学习对视觉世界的理解。微调阶段精心挑选一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。 为提高效果,引入流匹配(Flow Matching)作为训练目标,使得视频生成的效果在精度和细节表现上优于扩散模型。扩散模型通过从数据分布逐渐加入噪声,然后在推理时通过逆过程去除噪声来生成样本,用大量的迭代步数逐步逼近目标分布。流匹配则是通过直接学习样本从噪声向目标数据分布转化的速度,模型只需通过估计如何在每个时间步中演化样本,即可生成高质量的结果。
2025-03-30
想要生成克隆某个人的声音,然后做成视频,怎么做
要生成克隆某个人的声音并做成视频,您可以按照以下步骤进行操作: 声音克隆: 1. 准备一段需要克隆的音频(可以是类似屈原的古风声音,或自行录制一段)。 2. 打开网站:https://fish.audio/zhCN/train/newmodel/ 。 3. 上传准备好的音频,按照指引完成声音克隆。 4. 进入声音库选择需要使用的声音,将第一步生成的文案输入,使用克隆好的声音生成对应的音频文件。 5. 下载生成的音频文件备用。 视频合成: 1. 在网上下载“回答我”的原视频。 2. 打开 Viggle.ai 网站,登录后进入视频合成功能:https://viggle.ai/createmix 。 3. 上传“回答我”原视频和第二步生成的人物形象图,生成新版本的“回答我”视频。 4. 预览效果,满意后下载合成好的新视频。 视频剪辑: 1. 打开剪映软件(手机或电脑版均可)。 2. 导入第二步合成好的新视频和第一步生成的音频文件。 3. 将音频与视频时间轴对齐,确保声音和画面同步,添加字幕等。 4. 如需叠加特殊背景,可以导入自己的背景图(如楚国风景)。 5. 预览整个视频,检查效果,微调后导出最终视频(建议 MP4 格式)。 此外,您还可以参考以下工具: 数字人工具:开源且适合小白用户,特点是一键安装包,无需配置环境,简单易用。功能包括生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。系统兼容 Windows、Linux、macOS。模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。使用步骤:下载 8G+3G 语音模型包,启动模型即可。GitHub:https://github.com/modstartlib/aigcpanel 官网:https://aigcpanel.com 。 希望这些信息对您有所帮助。
2025-03-30