以下是关于 AI 改歌词歌曲的相关内容:
文案做到这一步,接下来就是要给朗诵配音来确定视频的时长和分镜数量了。但是我试了几个剪映里预设的AI语音之后,发现效果还是很难达到真人解说那种包含情感的抑扬顿挫,我觉得用AI进行纯解说风格的朗诵还是有些平淡了。而刚好,最近suno的出现给音乐圈带来了一些不小的震撼,所以我转念一想,干脆直接为南京写一首歌吧,然后给歌曲制作一部MV,这样整个视听语言的层次会丰富很多。所以,我直接将之前写好的那段文字复制给AI,让它进行歌词改写和歌曲取名。还可以附加定义一下歌词风格和时间长度,让它有一些方向。KimiChatGPT两相比较,这一次我更喜欢GPT写的歌词,因为我可能会更想结合一些现代感的歌曲风格,比如rap或者R&B之类的。而kimi写的那段词对仗工整,会更偏向传统一些,可能不适合现代的曲风。我在gpt写的这版歌词上,经过一些修改定稿了最终的这版歌词。悠悠金陵风,古韵今犹存,钟山风雨起,金粉六朝魂。龙蟠虎踞地,文采风流情。梦开始之处,南京故事行。走过历史长廊,触摸时间痕迹,秦淮夜色下,灯火映繁华。夫子庙旧梦长,儒韵千古传,石头城波光里,岁月永流转。
[heading3]Q1阶段:[content]使用GPTs:Suno音乐歌词创作专家v3.8:https://chatgpt.com/g/g-kP4KR5N87-sunoyin-le-ge-ci-chuang-zuo-zhuan-jia-v3-8给出信息,得到初稿拆分三幕结构,出三首歌[heading3]Q2阶段:[content]根据分镜,逐幕调整考虑押韵在第一幕歌词格式搭好的前提下,后续直给分镜头就能直接完成歌词的修改了。拼成一首歌微调时长、审核歌词韵脚:得到初稿歌词:[heading3]Q3阶段:[content]1、7.3会议结束之后,整理意见按照幕别与AI讨论修改:2、一些细节调整:[heading3]Q4阶段:[content]1、根据李继刚老师“信达雅翻译助手prompt”修改,用以润色原歌词。2、在kimi生成最后的“飞舟冲霄”镜头时总觉得差点味道,转到Claude,结果没给几句提示就出了满意的内容(将多次的提示重心整合如下):[heading3]Q5定稿歌词:[content]至此,对最后的歌词进行人工微调后,得到最终歌词:
完成歌手选择后,我们需要一边试听,一边对转换出来的MIDI进行微调,微调基本都在下方钢琴卷帘中完成,以下几点是微调过程中需要考虑的:1)歌词发音:AI识别的发音有可能不准确,听到识别错误的,双击音符修改为正确的拼音即可。2)音准:在听的过程中,如果发现有音高不准,点击音符按键盘上下键即可调高或者调低。如果音准偏差小于1key,就需要点击钢琴卷帘上方工具栏的音高画笔,画出音符的音高线。3)节奏:在听的过程中,如果发现节奏不准,可将音符拖动到对其节奏线。但我并不会把所有音符都拖到对齐节奏线,因为人在真实演唱中,本来就会有一点点节奏错位,这种微小的错位在普通听众听来是自然的,甚至有些风格会故意为之。当然这个关乎主观审美和作品表达需要,没有对错。[heading3]第五步:导出[content]完成发音、音高、节奏的瑕疵修复后,歌声完成度其实就已经很高了,用来当作品发布完全没问题。点击文件-导出音频,即可将歌曲渲染导出。如果是用于做视频,建议格式选mp3,这样文件体积较小。如果是为了发行到QQ音乐之类的平台,格式建议选wav。