以下为一些可以获取 AI 配音视频的网站及相关信息:
此外,在制作 AI 视频短片《梦镜》时,经过讨论决定采用真人配音而非 AI 配音。在制作过程中,先通过图片配合配音确定每个镜头所需时长,完成初步成片后再让配音老师根据剧情和人物情绪重新配音,并加入气氛音。
另外,桂大羊的 AI 视频短片制作教程中,选择了多种工具,包括大语言模型 chatgpt、kimi 进行剧本分镜设定,文生图 midjourney 生成视觉画面,图生视频选择即梦 dreamina 制作动态画面,suno 音乐编曲,ondoku 主角台词配音,视频剪辑使用剪映。
|网站名|网址|费用|优势/劣势|教程||-|-|-|-|-||Runway|https://runwayml.com||有网页有app方便|[工具教程:Runway Gen-3](https://waytoagi.feishu.cn/wiki/Eun9wqDgii1Q7GkoUvCczYjln7r)||即梦|https://dreamina.jianying.com/|剪映旗下|生成3秒,动作幅度有很大升级,最新S模型,P模型|[工具教程:Dreamina即梦](https://waytoagi.feishu.cn/wiki/AxZuwUQmEipTUEkonVScdWxKnWd)||Minimax海螺AI|https://hailuoai.video/||非常听话,语义理解能力非常强|[视频模型:MiniMax海螺AI](https://waytoagi.feishu.cn/wiki/F8dnw521kixl8tkJLHYc6YEsnlh)||Kling|kling.kuaishou.com||支持运动笔刷,1.5模型可以直出1080P30帧视频|[视频模型:可灵](https://waytoagi.feishu.cn/wiki/GevKwyEt1i4SUVk0q2JcqQFtnRd)||Vidu|https://www.vidu.studio/|||[视频模型:Vidu](https://waytoagi.feishu.cn/wiki/AL93whR9RiAVmekqyflcBkfpn5b)||haiper|https://app.haiper.ai/|||||Pika|https://pika.art/||可控性强,可以对嘴型,可配音|[工具教程:Pika](https://waytoagi.feishu.cn/wiki/V150wUonIiHafQkb8hzcO1E5nCe)<br>[群友分享入门教程](https://mp.weixin.qq.com/s/maLCP_KLqZwuAxKd2US_RQ)||智谱清影|https://chatglm.cn/video||开源了,可以自己部署cogvideo|[工具教程:清影](https://waytoagi.feishu.cn/wiki/PxKiwpqe2iTk0HkYJz6cYclAnjf)||PixVerse|https://pixverse.ai/||人少不怎么排队,还有换脸功能|[工具教程:Pixverse](https://waytoagi.feishu.cn/wiki/LPuqwx3kuiTMfIkXDPDckosDndc)||通义万相|https://tongyi.aliyun.com/wanxiang/||大幅度运动很强|[通义万相2.1视频/图像模型新升级](https://waytoagi.feishu.cn/wiki/Luz9woG7UikHe3kxvdpcXEAcneh)||luma|https://lumalabs.ai/|||[视频模型:luma Dream Machine](https://waytoagi.feishu.cn/wiki/EOCmw4SMhiEMMBkvNePcz1Jxntd)|
By@布丁[heading2]6.1镜头组接[content]由于此次没有绘制手绘分镜,在完成所有分镜后,我们将这些镜头先用图片的形式剪一版。每个镜头的景别、构图、视点,以及人物对话时的视角,都是由每个成员根据自己的理解来完成的。通过将所有图片剪辑在一起,我们能及时发现镜头组接间的问题,或者在人物对话时,他们在画面中所占的比例,以及单人镜头的景别是否合适,修改之后最终再去出视频。例如,单人镜头的景别应为近景而非中近景。通过这些调整,每场戏的镜头景别和角度得以灵活变化。两个人物对话从左到右从上到下在这一场对话戏中,景别分别有中景、中近景、近景、特写,角度则是有正侧、带关系、主观视角。这样就可以把一场对话戏从多个景别和角度来表现。[heading2]6.2声音设计[content]对于剧情片而言,除了故事情节,演员的演技至关重要,决定了观众能否深入剧情。对于AI短片来说,配音则尤为重要。经过我们讨论,《梦镜》的配音决定采用真人配音而非AI配音。起初,配音老师仅通过分镜和文字难以准确把握人物的语调,于是先给我们录制了一版整体调整节奏。通过图片配合配音,确定每个镜头所需的时长,如果配音较长而镜头不够,就需要补充镜头或调整镜头时长。完成初步成片后,再让配音老师根据剧情和人物情绪重新配音,并加入气氛音,效果明显比之前要好。阿波/熊局(韩紫昭):
[70a62ec534f771ef89775107e0c90102.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/H9Dhb3TcqovJsZxGDGVc3F0Unld?allow_redirect=1)我相信这是一篇针对大朋友、小朋友都通俗易懂的视频剧本构思到视频落地的全流程拆解教程。基于大语言模型和绘图模型的前提,有了一次和小伙伴们探索文生图到图生视频的创作实践。废话不多说,直接上保姆级干货教程!保证你能够轻松学会!针对于现有的AI生成能力,央视推出了多组AI视频短片,为此我们也决定生成一个符合时代主旋律的AI小视频。经过脑暴阶段,有了一带一路背景下丝绸之路这个角度的创作故事。创作方向也可以借助大语言模型生成主题方向的灵感,下面提供部分列举方向可做参考:通过对AI工具的了解和视频的构成,我们发现当下有许多能够进行视频生成的工具,于是进行了部分视频生成工具的测试。最终选择了大语言模型chatgpt、kimi进行剧本分镜设定,文生图midjourney生成视觉画面,图生视频选择即梦dreamina制作动态画面,suno音乐编曲,ondoku主角台词配音,视频剪辑使用的是剪映。视频中的小部分的音效也在网上进行了无版权下载,当然剪映里也有大量的音效可以使用。时长确立:制作一个1分钟左右的AI生成画面,加上闭幕不超过2分钟。风格确立:大致定义为中国风,当然即便风格定义成中国风也有不同的风格展示,我们采用同一提示词,进行了风格测试对比。