以下是关于生成音乐的相关信息:
有很多令人惊叹的生成音乐实验,从Dadabots[在YouTube上无情的死亡金属流媒体AI](https://www.youtube.com/watch?v=MwtVkPKx3RA)到[Holly Herndon](https://x.com/hollyherndon/status/1456380565784088581?s=20)围绕声音移植的实验。但当我偶然发现[Riffusion音乐模型](https://www.riffusion.com/)时,我意识到我们已经达到了一个转折点;我对它的深度和现实主义感到惊讶,包括它的新更新,在输出中添加了抒情的声音。受此启发,我想建立一个平台,让我进一步探索和结合以前从未听说过的音乐和声音的组合。这为构建SPIN奠定了基础。我希望SPIN能够鼓励人们玩耍;有一个临时界面就可以达到这个目的。DVS(数字黑胶系统)在聆听生成的作品时增加了额外的维度。它使我们能够放慢这些合成曲调并在音符之间聆听。因此,我决定以老式合成器的形式将DVS系统与MusicGen API结合起来。下面是我在技术实施过程中所经历的阶段的抽象高级视图。查看[此推文](https://x.com/ArvindSanjeev/status/1757373462346338409?s=20)的链接,了解整个过程并附有图片和视频。使用Python在Raspberry Pi上测试Musicgen API。在Raspberry Pi上使用时间编码的LP记录测试了Xwax DVS包。使用键盘矩阵库对按钮输入进行原型设计,并使用简单的LED矩阵测试硬编码的自定义动画。但是,我希望动画更加流畅和流畅,因此我改用FastLED库和WS2812b neopixel。
AI生成音乐的存在2种主流技术路线:基于乐理规则的符号生成模型和基于音频数据的音频生成模型。开发者正在使用AI生成音乐来填充游戏过程与游戏UI中需要使用到的各类音效、不同游戏场景中用以渲染氛围的各种音乐。AI生成音乐作为音乐资产在游戏制作和发行环节使用都是非常可行的,像MusicLM等模型已经支持生成多音轨的作品。使用AI生成音乐为原型、佐以专业制作人的协调,将使AI音乐更快进入游戏制作与发行的生产线。⑤玩家体验与个性化AI能基于玩家游戏行为评估玩家技能水平和游戏风格,同时动态调整游戏难度,增加或降低敌人的数量和强度,改变游戏环境等;不断收集的玩家数据,还能使NPC和游戏系统更加适配玩家水平。同时在游戏运营过程中,AI客服和AI分析也是提升玩家体验的重要⼀环。2、AI带来新的游戏我们关注到,许多充满灵感的开发者正在尝试将AI作为游戏玩法的⼀环,这正是游戏行业从AI+⾛向AI原生的表征之⼀。2023年Genfun.ai和Meshy联合制作的游戏《Soul Chronicle》,在当时是首款实时3D+AIGC+UGC的MMO⼿游。最大突破是首先制作出了⼀种与游戏完美融合的3D AIGC技术,在游戏中可以实时生成角色皮肤。2024年Bitmagic释出了他们推出的能直接创建“游戏世界”的平台——《Roleverse》的最新成果,在平台内可以使用提示在游戏内定制角色,对角色进行缩放、挤压和拉伸,也可以轻松地对游戏世界进行编辑。△图:《Soul Chronicle》(左)和《Roleverse》(右)3、AI促进游戏产业变革
《西游不能停》中类似的优化有很多,并且最终只抽了两次卡就得到了我满意的音乐,虽然suno没有办法像谱子那样100%精准地控制节奏,但是活用符号进行断句,再结合Metatag,就可以最大限度的控制生成方向,同时保留随机的乐趣。续写歌曲这首歌在年前创作的时候suno还是V2版本,单次最多只能生成80s的音乐,没法唱完所有的歌词,所以我们需要进行续写,web端在我们想要续写的歌曲这里点击“continue from this song”即可,在discord中则是点击“⏩continue 1/2”的icon。这里吐槽一下suno的web前端页面,实在是太黑了啥都看不清😅web端Suno on discord如果续写的时候正好卡在一个段落的中间,有两个细节需要注意,一是不要在lyrics的最前头加任何Metatag,否则会被当做一个新的段落,丢失掉连贯性;二是如果第一段的结尾最后一个字哪怕没有唱完,只发了一点点音,续写的时候也直接从下一个字开始就好。还是举个🌰,《西游不能停》的第一段在八戒的“我自有我抱负”这句结束,并且“负”字只发了一半的音,那么续写的时候直接从“尊嘟假嘟....”开始。你可以直接跳到Part 1的最后和Part 2的开始听。