以下是关于 AI 生成音乐的相关信息:
每月的点数可以用于:
AI生成音乐的工具是利用人工智能技术,特别是机器学习和深度学习算法,来创作、编排和生成音乐的软件平台。这些工具能够分析大量的音乐数据,学习音乐的模式和结构,然后根据用户的输入或特定的指令创作出新的音乐作品。推荐以下AI音乐产品:1.Udio:由前Google DeepMind工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。[https://www.udio.com/](https://www.udio.com/)[](https://www.udio.com/)2.Suno AI:是一款革命性的人工智能音乐生成工具,它通过先进的深度学习技术,能够将用户的输入转化为富有情感且高质量的音乐作品。[https://suno.com/](https://suno.com/)内容由AI大模型生成,请仔细甄别。
现在,有许多创业公司正在尝试创造人工智能生成的音乐,如Soundful、Musico、Harmonai、Infinite Album和Aiva,尽管目前的很多工具,如Open AI的Jukebox,是高度计算密集型的,还不能实时运行,不过,一旦初始模型成功建立,实时运行将成为可能。对话&语音(Speech and Dialog)很多公司试图为游戏中的人物创造逼真的声音,当然,由于计算机的语音合成历史悠久,这并不少见,这些公司包括Sonantic、Coqui、Replica Studios、Resemble.ai、Readspeaker.ai等等。将生成式人工智能用于语音有多种优势,当然,这个赛道竞争也比较激烈。即时对话生成。通常情况下,游戏中的语音是由配音演员预先录制的,但这些都仅限于死板的演讲稿。有了生成式人工智能对话,角色可以说任何话,这就意味着可以对玩家的行为做出充分的反应。角色扮演。许多玩家希望扮演与自己现实世界身份几乎没有相似之处的虚拟人物。然而,只要玩家用自己的声音说话,这种幻想就会破灭,使用与玩家的化身相匹配的生成的声音可以保持这种幻觉。控制音效。通过AI生成语音时,我们可以控制声音的细微差别,比如它的语调、转折、情感共鸣、音素长度、口音等等。本地化(方便翻译和国外推广)。对话可以翻译成任何语言,并以同样的声音说话,像Deepdub这样的公司专门专注于这个细分市场。NPC&玩家角色
Suno和Udio都推出了上传音频文件生成音乐的功能,很多行业大号都拿来做了各种无厘头编曲(像卡兹克的:倒车请注意),确实狠魔性~短期可以出很多流量。不过玩归玩,这个功能对于AI音乐的作用,在于精确的控制力。有了前置的旋律,我们可以精确控制每首歌的:速度(Tempo)再也不用去背那些绕口的速度词了(什么Allegro,Moderato...),可以精确控制我们想要的BPM旋律(Melody)通过自己制作一段简单的旋律,让AI补全并在整首歌贯穿,并且可以旋律+速度实现一谱变速,节省大量Roll旋律的时间。配器(Instrumentation)按照自己的想法选择音乐的乐器,减少提示词里乐器不灵光的情况(比如Suno的Drum solo),也可以自己开脑洞选择一些特殊的音色,比如用笛子吹小步舞曲~合成(synthesizer)当我们手上有两支BPM完全相同,调性也相同的音乐时,可以尝试更多的拆分组合,尝试一些更好玩的效果。这个还没试,之后会找时间试一些曲子。既然上传音频大大节省了对着一首歌猛roll的点数消耗,那每个月的点数拿来干嘛呢?首先,我们可以用提示词多Roll一些和流派,心情,场景相关的曲子。在减少了限制以后,AI音乐会发挥更多的创造力,Suno官方也提过(less is more),让AI音乐展现更强的一面。然后把这些好的旋律存起来,可能是前奏,副歌,或者一段和声,都可以作为之后制作的素材。其次,把点数用来roll更多细节调整的部分,比如某段曲子里面,一定要让它升调,不走平调,把冲的钱用在提升每首作品的品质上。下面用一个简单的例子来演示一下这个工作流: