以下是关于 AI 剪辑的相关内容:
在制作 AI 短片时,声音部分的制作可以使用 AI 声音软件,如 11labs 进行对白制作,将中文台词翻译成英文后需进行校对与润色。11labs 英文效果较好,但存在声音无情绪情感的问题,只能通过标点符号改变语音效果,且抽声音卡难度大。国内可使用魔音工坊,其有情绪调节控件。
在剪辑方面,对于 1-3 分钟的短片,剪映较为方便;更长篇幅或追求更好效果时,可能需使用 PR/FCP/达芬奇等传统剪辑软件。
在 AI 春晚的创作中,团队成员分工明确,包括制片人、图像创意、视频制作、编剧、配音和配乐、剪辑师等。团队通过社群召集,依靠“离谱社”账号积累的素材和成员的努力,在 AI 技术的支持下高效协作完成作品。
在晨然的 AI 作品《Devices》中,工作流核心包括 Blender 动画制作、ComfyUI 转绘和蒙太奇剪辑。Blender 建模具有运动可控、模型丰富、原生深度图和线框图等优势。剪辑思路可采用 text-based 蒙太奇,也可参照 OpenInterpreter 的匹配剪辑思路。
这次我们尝试使用了一些简短对话的制作。通常在传统影视制作流程里,声音部分的制作会分为现场录音、后期配音、音效音乐制作等多个部分。这里用AI声音来制作对话相当于是后期配音的部分。我们会把中文台词谷歌翻译成英文,但我英语比较拉垮,所以找了非常专业的Azura Ge葛女士进行英文字幕校对与台词润色,形成配音稿。接着使用AI声音软件11labs(官网:https://elevenlabs.io/)进行对白制作,11labs的英文效果比较好,但我们仍然非常头疼地遇到了AI声音没有情绪和情感的问题。跟视频制作类似,需要不断地抽卡(反复生成),因为11labs无法使用语速、情绪调节等控件,我们只能通过标点符号去改变语音效果,比如使用,、……。!等等标点符号,有时会叠加不同标点符号,去试它的语音效果。同一句台词,大家可以听出不同标点和抽不同卡时,声音的情绪都不太一样,所以要在AI声音里调试到合适的声音,抽声音卡的难度其实并不亚于抽视频的难度……我们常常一句台词要生成十几二十段音频,才能找到稍微能听得过去的、自然的声音。国内的可以使用出门问问的魔音工坊。魔音工坊可以使用情绪调节控件,还比较友好,但具体的评测还得等我们有机会做中文短片再试试!第五步,剪辑上篇剪辑没有多说,这次我会多说一些。目前大部分AI短片的创作者用的都是剪映,我也是,因为短片1-3分钟,用剪映其实会比传统剪辑软件更方便一些。但更长的篇幅,比如可能到5-10分钟,或者10分钟以上,要更好的效果的话,还是避免不了可能要用PR/FCP/达芬奇等等传统剪辑软件。
1.制片人(Producer)-AJ:负责影片的制作管理,包括团队组建、日程安排、信息收集、资料整理、各处岗位工作缺失时及时补上等2.图像创意(Visual Creativity)-??:负责用AI生成富有想象力的角色和场景等所有出现在视频中的画面,并为每个角色赋予人物小传3.视频制作(Video Production)-??:将做好的角色场景等图像素材进行AI图生文的工作,需要擅长运营工具的笔刷等控制工具,更好的契合剧本4.编剧(Screenwriter)--?:负责撰写剧本,包括故事情节、角色串联、人物台词等。5.配音和配乐(Dubbing,Film Scoring)--?:这里涉及到背景音乐、音效、角色配音、声音克隆,用各种声音类AI工具捏出来。6.剪辑师(Editor)--?:负责把后期剪辑,包括镜头选择、节奏控制和音效配合。7.你的作品来源,创作思路,使用工具,创作团队,生成难度或技巧等等,都可以聊。答:对于我们本次AI春晚的节目创作,团队成员是通过社群临时召集而来的,参与者都是对AI充满热情并具备相应经验的朋友们。得益于“离谱社”账号之前积累的丰富素材,加上团队成员夜以继日的努力,使我们能够迅速完成作品的提交。整个项目从配乐、配音、脚本撰写到图像和视频制作,几乎全部工作得到了AI的强大支持和辅助完成。这不仅展示了团队的高效协作能力,也体现了AI技术在创意产业中的巨大潜力。//好奇:用了什么方法做到团队高效协作?AI的创造速度本来就加速,再加上每个分工职责中非常擅长的共创同学,每个人员分工明确,形成了一个最高效的SOP,可以快速产出。
转绘是AI可控的最佳实践。这个思路可以先看看YouTube大神使用Blender渲染白模,再用Blender中原生提取的线框和深度信息,在ComfyUI中进行动画的转绘。其实转绘也不一定需要用Blender,用一张图动一下、一个视频,已经有很多工具可以完成线框提取呀、深度图提取啥的。这个可以去看看海辛和阿文老师一直以来的分享,给了我很多的灵感。Blender建模的优势是:所有的运动更加可控,直接关键帧设置好物体和相机运动轨迹想要什么模型就给什么模型,社区里免费模型都很多!原生深度图和线框图!!!第三点是最重要的,因为Blender本来可以渲染的时候导出稳定的线框图和深度图等,不需要再在二次的利用其他模型提取一遍,二次提取很容易出现深度图闪烁问题。质量不高的Control信息当然也会体现在最终的渲染结果中。剪辑思路采用text-based蒙太奇,即0-2s是旋转的Iphone,2s-4s是旋转的诺基亚……以此类推。这个对于剪辑的要求就不是很高。做的酷炫一点,可以参照OpenInterpreter的匹配剪辑思路,在旋转的侧面时进行跳帧,以相似物体形状进行转场。所以,Blender动画制作+ ComfyUI转绘+蒙太奇剪辑就是工作流核心。