以下是一些能够将人声转化为各种乐器的 AI 工具:
在前期音频素材准备时,较常用的工具包括:
此外,还有一些人工智能音频初创公司在音乐源分离方面表现出色,例如:
[coqui.ai](https://coqui.ai/)-为所有人提供开放的语音技术。[Voiseed](https://www.voiseed.com/)-基于AI的语音引擎能够模仿人类语音的情感和韵律。[Speechki](https://speechki.io/)-基于NLP的最先进文本和音频编辑平台,内置数百种AI声音。[MiSynth](https://www.misynth.io/)-使用突触技术和脑机接口将想象的声音转化为合成MIDI乐器的脑控仪器。[ElevenLabs](https://elevenlabs.io/)-为出版商和创作者开发最具吸引力的AI语音软件。[Wondercraft](https://www.wondercraft.ai/)-Wondercraft使用户能够使用文本转语音技术生成播客。[play.ht](https://play.ht/)-基于生成机器学习模型构建内容创作的未来。[Revocalize.ai](https://www.revocalize.ai/)-从网页仪表板或VST插件生成录音室质量的AI声音并训练AI语音模型。[morpheme.ai](https://www.ethovox.ai/)-我们的演员优先、数字双重声音由最新的AI技术驱动,确保它们高效、真实和符合伦理。
使用干声转换,我们需要在软件中分别导入人声干声和伴奏[文件-导入-导入音频],放在两个轨道上。干声是用来转成MIDI做AI演唱的。如下图所示:注意,如果是男歌女唱或者女歌男唱,请在导入前先进行变调后再导入(不会变调的看下方工具推荐)。通常女声比男声高5个key左右,不绝对,大家根据听感测试调整即可。有两个工具我在进行前期音频素材准备时较常用:TME Studio腾讯音乐开发的AI音频工具箱,其中我最常用的是音频分离,可用于将人声和伴奏从歌曲中提取出来。地址:https://y.qq.com/tme_studio/index.html#/editorVocalremover包含音频分离、变调、BPM查询等功能,我使用较多的是变调和BPM查询。建议在准备素材阶段,就将音频调整到所需调,并获取到BPM。地址:https://vocalremover.org/zh/key-bpm-finder[heading3]第二步:干声转换[content]在转换之前,有一个很重要的动作:请先将工程BPM设置为与歌曲一致,就是界面顶部这个东东,前面是BPM后面是拍数,请把BPM修改为上述操作获取到的数字,这一步是为了后续微调的时候方便音符对齐节奏:设置完成后,将音频轨道的文件拖入到空白的歌手轨道,即可进行干声转换。[heading3]第三步:选择歌手[content]软件左侧有歌手可以选择,长按拖动到歌手轨道的头像处即可切换歌手。
[MuzLab](https://muzlab.co/)-从歌曲中移除人声并分离鼓点、贝斯和其他乐器。[Fadr](https://fadr.com/)-使用AI工具移除音轨,转换为MIDI,并创建高质量的混音和混搭!