以下是关于 AI 歌曲翻唱的相关信息:
关键技术: 深度伪造技术(deepfakes)是利用 AI 程序和深度学习算法实现音视频模拟和伪造的技术,投入深度学习的内容库越大,合成的视音频真实性越高。
粉丝操作方式: 粉丝们会通过 Stems 音轨分离工具将人声与原始歌曲分离,再使用人声转换模型将人声转换成另一位明星的风格,然后将新的人声轨道与原始作品重新拼接在一起。Diff-SVC 是一种流行的用于此目的的语音传输模型。
制作案例:
常用的前期音频素材准备工具包括:
所谓深度伪造技术(deepfakes),是一种利用AI程序和深度学习算法实现音视频模拟和伪造的技术,投入深度学习的内容库越大,合成的视音频真实性越高,甚至可以达到以假乱真的程度。[heading2]AI翻唱[content]粉丝们会通过Stems音轨分离工具将人声与原始歌曲分离,再使用人声转换模型将人声转换成另一位明星的风格,然后将新的人声轨道与原始作品重新拼接在一起。Diff-SVC就是一种特别流行的用于此目的的语音传输模型。
[title]白马:6000字超详细复盘!《AI你·南京》AIGC城市宣传MV全流程制作解析[heading1]歌词创作文案做到这一步,接下来就是要给朗诵配音来确定视频的时长和分镜数量了。但是我试了几个剪映里预设的AI语音之后,发现效果还是很难达到真人解说那种包含情感的抑扬顿挫,我觉得用AI进行纯解说风格的朗诵还是有些平淡了。而刚好,最近suno的出现给音乐圈带来了一些不小的震撼,所以我转念一想,干脆直接为南京写一首歌吧,然后给歌曲制作一部MV,这样整个视听语言的层次会丰富很多。所以,我直接将之前写好的那段文字复制给AI,让它进行歌词改写和歌曲取名。还可以附加定义一下歌词风格和时间长度,让它有一些方向。KimiChatGPT两相比较,这一次我更喜欢GPT写的歌词,因为我可能会更想结合一些现代感的歌曲风格,比如rap或者R&B之类的。而kimi写的那段词对仗工整,会更偏向传统一些,可能不适合现代的曲风。我在gpt写的这版歌词上,经过一些修改定稿了最终的这版歌词。悠悠金陵风,古韵今犹存,钟山风雨起,金粉六朝魂。龙蟠虎踞地,文采风流情。梦开始之处,南京故事行。走过历史长廊,触摸时间痕迹,秦淮夜色下,灯火映繁华。夫子庙旧梦长,儒韵千古传,石头城波光里,岁月永流转。紫金山巅,翠竹青松,守望着这座城的古老与青春。明孝陵石象镇守,中华门城墙巍峨,玄武湖碧波荡漾,紫峰厦彩霞星河。一桥飞架通南北,一城繁华映山河。
使用干声转换,我们需要在软件中分别导入人声干声和伴奏[文件-导入-导入音频],放在两个轨道上。干声是用来转成MIDI做AI演唱的。如下图所示:注意,如果是男歌女唱或者女歌男唱,请在导入前先进行变调后再导入(不会变调的看下方工具推荐)。通常女声比男声高5个key左右,不绝对,大家根据听感测试调整即可。有两个工具我在进行前期音频素材准备时较常用:TME Studio腾讯音乐开发的AI音频工具箱,其中我最常用的是音频分离,可用于将人声和伴奏从歌曲中提取出来。地址:https://y.qq.com/tme_studio/index.html#/editorVocalremover包含音频分离、变调、BPM查询等功能,我使用较多的是变调和BPM查询。建议在准备素材阶段,就将音频调整到所需调,并获取到BPM。地址:https://vocalremover.org/zh/key-bpm-finder[heading3]第二步:干声转换[content]在转换之前,有一个很重要的动作:请先将工程BPM设置为与歌曲一致,就是界面顶部这个东东,前面是BPM后面是拍数,请把BPM修改为上述操作获取到的数字,这一步是为了后续微调的时候方便音符对齐节奏:设置完成后,将音频轨道的文件拖入到空白的歌手轨道,即可进行干声转换。[heading3]第三步:选择歌手[content]软件左侧有歌手可以选择,长按拖动到歌手轨道的头像处即可切换歌手。