以下是一些可以修音的 AI 软件及相关信息:
可以直接导总谱,也可以分轨导出(适用于不同乐器组合,由于制谱软件有很重的midi味,有时需要调整乐器音色)320kbit码率是各大音乐平台的门槛,而向Suno导出的是192k的,后期如果想输出到QQ音乐之类,需要转个码(虽然单纯转码对音质没有直接提升~)导出以后就可以喂给AI了修改音色这一步不是必须,也有很多染色的软件可以用,比如我现在用的是Neutron4,从Youtube上面下载一些自己喜欢的乐器音色(比如雅马哈大钢琴),然后用宿主软件打开插件,导入这段音频,就可以实现渲染了(刚刚Studio One过期了,这里就先不放图了)[heading1]步骤4:丢给AI做二次创作:[content]我比较喜欢丢完整的小节给AI,这样节奏的识别性更好,当然也可以在中间掐断,AI的识别能力还是不错的:接下来就是细化去roll后面的部分,这个就步细讲了,大家可以自由发挥最后丢个完整版(前奏有点长没剪,AI生成的部分在53秒之后):输出响度调大了,大家可以把音量降下来点~[Udio完整版.mp3](https://bytedance.feishu.cn/space/api/box/stream/download/all/V3yxbOQtXolGWPxG4Jnc5MWdn9d?allow_redirect=1)
当使用UDIO进行参考音频REMIX生成时,AI会完整地参考音频文件中的所有声音细节,包括任何噪音。如示例2,这段生成的原声吉他演奏,所得到的音频文件除了包含吉他本身的声音外,往往还会包含弹拨声、底噪、混响以及其他杂音。使用频谱图查看这些音频文件时,可以清楚地看到这些细节。在人类听觉中,我们通常只会注意到吉他的声音而忽略其他细节。但对AI来说,无论是吉他声还是其他声音,都是参考的重要信息。因此,音频信息越丰富,AI参考时生成的音频信息也会相对增多(一般情况下只多不少)。例如,AI可能会将一个随机的“咔哒”声理解为鼓点,在生成的音频片段中,这个声音就被转换成了鼓声。同理,其他的杂音也可能被AI转化为各种不同的声音。我们第一组例子里,0.15的REMIX片段,在48秒开始的uplifter,有奇怪的震荡抖动声,这实际上就是UDIO AI根据SUNO的音频噪声重新解释生成的。因此,尽管UDIO会给我们很多细节,但类似的奇怪声音会让整体听感变差,这并没有达到我们的期望。所以,如何更理想地实现音质提升?一个方案是,在上传音频给UDIO进行REMIX之前,使用传统音频处理手段对音频进行降噪和去杂音处理。这些技术比较专业,但值得学习,因为不只是提升SUNO音质这一个目的能用到。本人经常使用的工具包括WAVES的X-NOISE插件、RX11音频修复软件以及Audition的采样降噪功能等等。市面上类似的软件和插件众多,可以在B站找到相关教程。
去混响:点击顺序如图中箭头所示,通过增加减少和伪影平滑的数值来调整效果,我这里没有标准数值,以耳朵为准,点击预听感受效果,如果效果合适,点击渲染,应用到整首歌。去杂音:这里的杂音是指非主人公的声音,比如经常出现的掌声,笑声,欢呼声,如果这种杂音只出现一次,那么选中对应的音轨,右键-渲染-静音即可,如果是重复出现,并且有一定的相似性,那么可以选中这一段音轨,然后查找类似,然后右键-静音如果杂音和主音柔和在一起,无法智能提取,一般有2个思路,一个是,直接去掉这段主音,因为我们需要收集的声音量很多,去掉一两句影响不大,如果精益求精,可以用下面这个软件精修ripx,对声音进行精修(也可以用来提取音轨,伴奏等等,需要动手能力强)链接:https://pan.baidu.com/s/1ClBvqlnA1cONVs8YU-ldcw?pwd=5mrs提取码:5mrs这个软件的交互体验非常优秀,基本不需要什么教程,左右键点一点音轨图形就知道怎么做了,把杂音的音轨删除,主音的音轨可以剪切,然后导出即可。所有声音导出成wav格式,最终我们处理的干声大概是以下标准,请对比感受[赐我测试用.wav](https://bytedance.feishu.cn/space/api/box/stream/download/all/YA8AbCHeNo79fVxHW8ycaaqln5d?allow_redirect=1)