Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI生成歌曲,我有曲子想填词

Answer

以下是关于 AI 生成歌曲的相关内容:

  1. 大峰在《梦回温州》的创作中,使用 Suno 生成歌曲时,填写 1 - 3 个风格词(如中国风)能让 AI 有更多发挥空间。靠多年听歌积累的乐感和音乐品味,从生成的歌曲中选出中意的一首。将歌词发给 GPT 并告知想法,让其以英文 AI 绘画提示词形式提供每句歌词的分镜,然后丢进 Midjourney 生成图片,再用 Runway 进行图生视频。
  2. 金属文在《西游不能停》的歌词创作中,确定紧扣“西游记”和“职场”的主题,用 ChatGPT 的 browsing 总结获取灵感,增加网络热梗增加趣味。写说唱有先定 flow 再填词、先写词再优化 flow、歌词和 flow 一起搞三种方法,此次采用直接把歌词丢给 SUNO 生成说唱歌曲的思路。
  3. 对于 AI 音乐,Suno 和 Udio 推出的上传音频文件生成音乐功能能精确控制速度、旋律、配器、合成等。节省的点数可用于多 Roll 与流派、心情、场景相关的曲子并存好旋律素材,或用于 roll 更多细节调整提升作品品质。还可用简单例子演示工作流。
Content generated by AI large model, please carefully verify (powered by aily)

References

大峰:AI音乐创作全流程解析《梦回温州》AIMV荣获AI金曲奖并获央视推荐!

接下来我们用Suno生成歌曲,我感觉在填写歌曲风格的时候填写少量的风格词,让AI有更多的发挥空间,会更容易得到好的作品,我通常写1~3个风格词。这首歌的歌曲风格我选用中国风(Chinese Style),我想要周杰伦那种中国风,耐听而且受众广,老少皆宜。当时创作这首歌的时候,用的是测试版的v3,刷了3页(大概60首歌)。接下来就用到了多年来听歌累计的乐感和音乐品味,如果说AI生图最重要的是对图片的审美,那么AI生歌最重要的就是对音乐的审美。要从这些歌中靠你对于音乐的审美选出一首你最中意的歌曲。[heading2]分镜生图:[content]将歌词发给GPT,并将你的想法告诉它,“我要将这首歌做成一个中国风的mv,整个mv保持同样的画风,请以英文AI绘画提示词的形式提供每句歌词的每个分镜,提示词尽量详尽,以确保更接近咱们想要的画面。”接下来GPT会将每句歌词的画面转化成一个对应的AI绘画提示词。咱们直接丢进AI生图平台进行图片生成,我用的是Midjourney,画面真的是美到爆!提示词:A serene riverside scene in Wenzhou,depicted in the style of a Chinese ink painting with hyper-realistic details such as the texture of the willow leaves and the reflection of the ancient city in the water.The artwork should capture the essence of tranquility and the passage of time,blending traditional Chinese artistry with modern realism to evoke a deep emotional connection.[heading2]图生视频:[content]Midjourney生成的图片直接丢入Runway进行图生视频。

金属文:AI春晚《西游不能停》创作过程分享

下面带大家回顾一下创作歌词的过程,如何将想法变成具体的歌词:确定主题紧扣“西游记”和“职场”主题,体现师徒四人的人设和冲突(比如唐僧用紧箍咒惩罚悟空,八戒的贪吃和好色),同时加入一些职场热梗(比如996,画饼),这一步我用chatgpt的browsing进行总结给我提供灵感;增加趣味为了让歌词更加有趣,我又让大模型搜集了一些2023年的网络热梗,融合进歌词。创作思路写说唱一般有三种方法:1.先定flow,再填词。有一些公式可以套,比如将一个小节拆成1个2分音符和2个4分音符,再把词填在每个音符上,适合新手和freestyle,可以参考这个视频2.先写词,再优化flow。适合比较确定的歌词内容,可能还需要有一定对flow的积累和感觉。比如在4/4拍下这句歌词可以是这样的:|歌词|这西天的妖魔鬼怪全被俺踩脚下|flow|1/4|2/4|3/4|4/4|1/4|2/4|3/4|4/4||-|-|-|-|-|-|-|-|-|-|-|||||空|这西天的|妖魔|鬼怪|全被|俺踩|脚下|(延音)|或者,你可以直接把歌词丢给SUNO这样的AI工具,它会自动转化为一首说唱歌曲,也是我这次采用的思路。不过经过我的大量测试,生成的flow质量与你的歌词和输入格式有很大关系,这个放在后面讲。1.歌词、flow一起搞。在创作歌词的同时就融合了flow,这会是AI生成式音乐未来的发展方向。

吵爷:AI音乐-自定义前奏的一种工作流

Suno和Udio都推出了上传音频文件生成音乐的功能,很多行业大号都拿来做了各种无厘头编曲(像卡兹克的:倒车请注意),确实狠魔性~短期可以出很多流量。不过玩归玩,这个功能对于AI音乐的作用,在于精确的控制力。有了前置的旋律,我们可以精确控制每首歌的:速度(Tempo)再也不用去背那些绕口的速度词了(什么Allegro,Moderato...),可以精确控制我们想要的BPM旋律(Melody)通过自己制作一段简单的旋律,让AI补全并在整首歌贯穿,并且可以旋律+速度实现一谱变速,节省大量Roll旋律的时间。配器(Instrumentation)按照自己的想法选择音乐的乐器,减少提示词里乐器不灵光的情况(比如Suno的Drum solo),也可以自己开脑洞选择一些特殊的音色,比如用笛子吹小步舞曲~合成(synthesizer)当我们手上有两支BPM完全相同,调性也相同的音乐时,可以尝试更多的拆分组合,尝试一些更好玩的效果。这个还没试,之后会找时间试一些曲子。既然上传音频大大节省了对着一首歌猛roll的点数消耗,那每个月的点数拿来干嘛呢?首先,我们可以用提示词多Roll一些和流派,心情,场景相关的曲子。在减少了限制以后,AI音乐会发挥更多的创造力,Suno官方也提过(less is more),让AI音乐展现更强的一面。然后把这些好的旋律存起来,可能是前奏,副歌,或者一段和声,都可以作为之后制作的素材。其次,把点数用来roll更多细节调整的部分,比如某段曲子里面,一定要让它升调,不走平调,把冲的钱用在提升每首作品的品质上。下面用一个简单的例子来演示一下这个工作流:

Others are asking
两张照片还原人脸,用什么AI工具
以下是一些可用于两张照片还原人脸的 AI 工具和方法: 1. Stable Diffusion: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 利用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan,提示词可不写。 2. Midjourney(MJ):加上简单的相机参数、写实风格,使用 MJ v 6.0 绘图,可调整图片比例。 3. InsightFaceSwap: 输入“/saveid”,idname 可随意填写,上传原图。 换脸操作输入“/swapid”,id 填写之前设置的名称,上传分割好的图。 选择效果较好的图片,注意插件每日免费使用次数。 此外,还会用到 PS 进行图片的角度调整、裁切、裁剪、拼接等操作。
2025-02-21
AI编程的落地场景是什么
以下是 AI 编程的一些落地场景: 1. 智能体开发:从最初只有对话框的 chatbot 到具有更多交互方式的应用,低代码或零代码的工作流在某些场景表现较好。 2. 证件照应用:以前实现成本高,现在可通过相关智能体和交互满足客户端需求。 3. 辅助编程: 适合原型开发、架构稳定且模块独立的项目。 对于像翻译、数据提取等简单任务,可通过 AI 工具如 ChatGPT 或 Claude 解决,无需软件开发。 支持上传图片、文档,执行代码,甚至生成视频或报表,大幅扩展应用场景。 4. 自动化测试:在模块稳定后引入,模块变化频繁时需谨慎。 5. 快速迭代与发布 MVP:尽早发布产品,不追求完美,以天或周为单位快速迭代。 需要注意的是,AI 编程虽强,但目前适用于小场景和产品的第一个版本,在复杂应用中可能导致需求理解错误从而使产品出错。在进度不紧张时可先尝试新工具,成熟后再大规模应用。同时,压缩范围,定义清晰的 MVP(最小可行产品),先完成一个 1 个月内可交付的版本,再用 1 个月进行优化迭代。
2025-02-21
不同ai模型的应用场景
以下是不同 AI 模型的应用场景: 基于开源模型: Civitai、海艺 AI、liblib 等为主流创作社区,提供平台让用户利用 AI 技术进行图像创作和分享,用户无需深入了解技术细节即可创作出较高质量的作品。 基于闭源模型: OpenAI 的 DALLE 系列: 发展历史:2021 年初发布 DALLE,2022 年推出 DALLE 2,2023 年发布 DALLE 3,不断提升图像质量、分辨率、准确性和创造性。 模型特点:基于变换器架构,采用稀疏注意力机制,DALLE 2 引入 CLIP 模型提高文本理解能力,DALLE 3 优化细节处理和创意表现。 落地场景:2C 方面可控性强于 Midjourney,但复杂场景和细节处理能力不如 Midjourney;2B 方面与 Midjourney 场景类似。 商业化现状:通过提供 API 服务,使企业和开发者能集成到应用和服务中,采取分层访问和定价策略。 伦理和合规性:加强对生成内容的审查,确保符合伦理和法律标准。 大模型: 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 编程和代码辅助:用于代码自动补全、bug 修复和代码解释。 翻译和跨语言通信:促进不同语言背景用户之间的沟通和信息共享。 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 教育和学习辅助:创建个性化学习材料、自动回答学生问题和提供语言学习支持。 图像和视频生成:如 DALLE 等模型可根据文本描述生成相应图像,未来可能扩展到视频内容生成。 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家沉浸式体验。 医疗和健康咨询:理解和回答医疗相关问题,提供初步健康建议和医疗信息查询服务。 法律和合规咨询:帮助解读法律文件,提供合规建议,降低法律服务门槛。 这些只是部分应用场景,随着技术进步和模型优化,AI 模型在未来可能会拓展到更多领域和场景。同时,也需注意其在隐私、安全和伦理方面的挑战。
2025-02-21
爆款AI视频
以下是关于爆款 AI 视频的相关内容: 2025AI 春晚: 行业身份:首届 AI 春晚发起人&总导演,包括央视总台论坛&直播、TEDxAI 演讲、得到分享等。 爆款视频案例:快手&国家反诈中心合作,微博 650w+热搜,快手 520w+热搜(6 月 28 日);央视&海尔冰箱首支 AI 概念短片(6 月 29 日);个人制作视频,无推流,快手平台 636w 播放(6 月 29 日)。 社区与企业关系:涉及 WaytoAGI、AIGCxChina 等聚会,以及德必集团、万兴集团、福布斯 AItop50 等的论坛分享,还有嘉定区政府颁奖、温州 AI 音乐大会、腾讯研究院论坛、江西财经大学分享、宣亚集团分享等。 WTF:1w 粉 10w 粉仅仅用时 13 天,像素级拆解《动物时装秀》: 作者模仿动物时装秀账号效果不错并分享教程。一个爆款视频至少要满足以下几点: 切片:短视频通过不断切片,增加信息密度,从长视频和其他短视频中脱颖而出。 通感:利用人的直觉脑,不让观众动脑子,如头疗、水疗直播间靠声音让人舒服,美食直播间靠展示美食吸引人。 反差:可参考抖音航线里行舟大佬的相关文档。 视频模型:Sora: OpenAI 突然发布首款文生视频模型 Sora,能够根据文字指令创造逼真且充满想象力的场景,生成 1 分钟的超长一镜到底视频,女主角、背景人物等都有惊人的一致性和稳定性,远超其他 AI 视频工具。
2025-02-21
AI音频与数字人
以下是关于 AI 音频与数字人的相关信息: 数字人口播配音: 操作指引:输入口播文案,选择期望生成的数字人形象及目标语言,选择输出类型,点击开始生成。 支持的数字人形象和语言多样,能让视频制作更高效。 图片换脸: 操作指引:上传原始图片和换脸图片,点击开始生成。 图片大小上限 5M,支持 JPG、PNG 格式。 视频换脸: 操作指引:上传原始视频和换脸图片,点击生成。 音频合成数字人: 操作指引:上传音频文件,选择数字人角色和输出类型,点击开始生成。 支持 MP3 和 WAV 格式的音频文件,文件大小上限 5M,工具支持使用 100+数字人模板,可解决无素材冷启问题。 AI 配音: 多语种(包含菲律宾语、印地语、马来语等小语种)智能配音,同时支持区分男声和女声。 操作指引:输入需配音文案,选择音色,点击立即生成。 注意输入的配音文案需和选择音色语种保持一致。 AI 字幕: 操作指引:点击上传视频,开始生成,字幕解析完成后下载 SRT 字幕。 支持 MP4 文件类型,大小上限为 50M。 在数字人语音合成方面,提到了声音克隆,有新的声音克隆且音质很不错。算法驱动的数字人相关开源代码仓库有: ASR 语音识别:openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(https://github.com/Uberi/speech_recognition)。 大模型:ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分:可以使用 LangChain 的模块去做自定义(https://www.langchain.com/)。 TTS:微软的 edgetts(https://github.com/rany2/edgetts)、VITS(https://github.com/jaywalnut310/vits)、sovitssvc(https://github.com/svcdevelopteam/sovitssvc)。 构建简单数字人的方式包括通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型),但仍存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作、数字人如何使用知识库做出某个领域的专业性回答等。
2025-02-21
现阶段最智能的AI工具是哪一款?
现阶段很难确切地指出哪一款 AI 工具是最智能的,因为这取决于不同的应用场景和需求。以下为您介绍一些表现出色的 AI 工具: Unity 推出的两款 AI 工具: Copliot 工具:可通过与 Muse Chat 聊天快速启动创建游戏项目,如生成塔防类游戏基础框架、创建人物角色动作,还能协助编码和熟悉工程环境。 Unity Sentis:能在 Unity 运行时为游戏或应用程序嵌入 AI 模型,增强玩法和功能,是首个将 AI 模型嵌入实时 3D 引擎的跨平台解决方案。 基于 2022 年 9 月至 2023 年 8 月访问量的 10 个最佳人工智能工具: ChatGPT:访问量达 146 亿次,在美国使用率最高,男性用户占比较大,多用于写作和内容创作、教育和常识等方面。 Character AI QuillBot Midjourney Hugging Face Google Bard NovelAI CapCut JanitorAI Civitai 不同类型的 AI 工具在不同领域各有优势,例如聊天机器人在流量份额上占比较大,而图像生成器、视频生成器、语音和音乐工具等也在各自领域表现出色。您可以根据具体需求选择适合的工具。
2025-02-21
ai 进行重新填词并进行翻唱
AI 语音合成中的关键技术包括深度伪造技术。深度伪造技术是一种利用 AI 程序和深度学习算法实现音视频模拟和伪造的技术。投入深度学习的内容库越大,合成的视音频真实性越高,甚至能达到以假乱真的程度。 在 AI 翻唱方面,粉丝们通常会通过 Stems 音轨分离工具将人声与原始歌曲分离,接着使用人声转换模型将人声转换成另一位明星的风格,最后将新的人声轨道与原始作品重新拼接在一起。DiffSVC 是一种特别流行的用于此目的的语音传输模型。
2024-12-12
利用自己的声音歌唱AI生成歌曲
以下是一些利用自己的声音歌唱 AI 生成歌曲的相关信息: 1. LAIVE:这是一个利用 AI 技术一次性生成音乐、歌词、主唱等的创作平台。使用者可以选择喜欢的类型和情调,上传参考音源,AI 会通过分析生成音乐,还可以选择主唱和修改歌词,目前为开放测试阶段。输入促销代码“LAIVEcreator”可获得 50 代币(入口在个人资料),令牌有效期为输入代码后的 30 天,促销码失效日期为 4 月 17 日。链接:https://www.laive.io/ 2. Combobulator:DataMind Audio 推出的基于 AI 的效果插件,利用神经网络通过样式转移的过程重新合成输入音频,从而使用您自己的声音重现其他艺术家的风格。链接:https://datamindaudio.ai/ 3. 大峰的经验分享:用 Suno 生成歌曲时,在填写歌曲风格时填写少量风格词,如中国风,给 AI 更多发挥空间。靠音乐审美从生成的歌曲中选出中意的歌曲。将歌词发给 GPT 并告知想法,让其以英文 AI 绘画提示词的形式提供每句歌词的每个分镜,然后丢进 AI 生图平台(如 Midjourney)生成图片,再用 Runway 进行图生视频。 4. UDIO 制作音乐:Udio 不会使用艺术家的声音生成歌曲,在幕后风格参考会被一组相关标签替换。在文本输入下方有两种类型的建议标签可点击添加到提示中,自动完成是当前单词的建议标签补全,您可以移动插入符号到提示的任何部分,相应更改完成。
2025-01-20
将歌曲MP3转成视频形式的AI工具
以下是一些将歌曲 MP3 转成视频形式的相关 AI 工具及操作步骤: 工具推荐: 1. TME Studio:腾讯音乐开发的 AI 音频工具箱,常用功能为音频分离,可用于将人声和伴奏从歌曲中提取出来。 地址:https://y.qq.com/tme_studio/index.html/editor 2. Vocalremover:包含音频分离、变调、BPM 查询等功能,常用的是变调和 BPM 查询。建议在准备素材阶段,就将音频调整到所需调,并获取到 BPM。 地址:https://vocalremover.org/zh/keybpmfinder 实操步骤: 1. 准备音频素材: 使用干声转换,在软件中分别导入人声干声和伴奏,放在两个轨道上。干声是用来转成 MIDI 做 AI 演唱的。 注意,如果是男歌女唱或者女歌男唱,请在导入前先进行变调后再导入(不会变调的可参考工具推荐)。通常女声比男声高 5 个 key 左右,不绝对,大家根据听感测试调整即可。 2. 干声转换: 在转换之前,先将工程 BPM 设置为与歌曲一致(界面顶部,前面是 BPM 后面是拍数,把 BPM 修改为上述操作获取到的数字),这一步是为了后续微调的时候方便音符对齐节奏。设置完成后,将音频轨道的文件拖入到空白的歌手轨道,即可进行干声转换。 3. 选择歌手:软件左侧有歌手可以选择,长按拖动到歌手轨道的头像处即可切换歌手。
2025-01-18
哪些AI工具可以将歌曲MP3改成MV
目前尚未有直接将歌曲 MP3 转换为 MV 的成熟 AI 工具。通常,制作 MV 需要涉及视频编辑、特效处理、画面设计等多个复杂的环节,需要借助专业的视频编辑软件,如 Adobe Premiere Pro、Final Cut Pro 等,并结合创意和素材来完成。
2025-01-18
可不可以续写歌曲
以下是关于续写歌曲的相关内容: 《西游不能停》这首歌在年前创作时使用的是 suno V2 版本,单次最多只能生成 80s 的音乐,无法唱完所有歌词,所以需要续写。 在 web 端,在想要续写的歌曲处点击“continue from this song”;在 discord 中,则点击“⏩continue 1/2”的 icon。 如果续写时正好卡在一个段落的中间,有两个细节需注意: 1. 不要在 lyrics 的最前头加任何 Metatag,否则会被当做一个新的段落,丢失掉连贯性。 2. 如果第一段的结尾最后一个字哪怕没有唱完,只发了一点点音,续写的时候也直接从下一个字开始。例如《西游不能停》的第一段在八戒的“我自有我抱负”这句结束,并且“负”字只发了一半的音,那么续写的时候直接从“尊嘟假嘟....”开始。您可以直接跳到 Part 1 的最后和 Part 2 的开始听。 另外,Suno 操作指北 V2 中提到关于歌词延续的常见问题: 1. 如果歌词被切断,在下一个片段开始,接上它们停止的地方。如果一个单词被切成两半,用下一个单词开始继续的歌词。且不要再次使用被中断的元标签。 2. 如果 Chirp 尝试重复它刚唱过的完整行,或者逐字重复合唱,使用来打断歌曲流程。可以考虑回到之前的片段,重新使用延续功能生成。 还有,在进入一段器乐后,若想让它停止并进入歌词,可以试着在歌词前加入语气词,比如,来提示 Chirp 这里有人声,让它做好过渡准备,有时有用。 此外,“无法生成”或“尝试另一个提示”的错误意味着文本请求被阻止了。被拒绝的提示将退还积分。一个歌曲提示可能因为多种原因被阻止: 1. 歌词受版权保护。 2. 音乐风格或歌曲描述使用了真实的乐队或艺术家名称。 3. 歌词包含违规词汇。 4. 实际积分用尽了,但网页没有同步(刷新页面)。 5. 在默认模式或“生成随机歌词”按钮下,AI 无法理解如何将请求转化为歌曲。
2025-01-15
有没有输入歌曲,自动生成mv的
目前存在输入歌曲自动生成 MV 的相关方法和案例: 大峰的案例中,先使用 Suno 生成歌曲,选择中国风风格,凭借音乐审美选出中意的歌曲。然后将歌词发给 GPT,让其以英文 AI 绘画提示词的形式提供每句歌词的每个分镜,再将生成的图片丢入 Midjourney 进行图片生成,最后用 Midjourney 生成的图片丢入 Runway 进行图生视频。 专业的歌曲分析师可以根据用户输入的歌词完成基本的歌曲 MV 构思部分。 在爆肝 60 小时的案例中,音乐制作方面一开始想抽三个不同的曲子拼接,但因节拍、风格、情绪不同难以剪辑,最后用了一首完整的曲子。团队成员上传推荐歌曲到多维表格,附上推荐理由,由相关人员审核通过。还有一些技巧,如在前奏部分重复第一句以解决发音不清晰问题。
2024-11-06
如何获取歌曲中每句歌词的音高?
获取歌曲中每句歌词音高的方法如下: 1. 利用工具如 Chirp: 可以在输入时强调歌词中某个单词的音高,将其全部大写。 重复一部分歌词,Chirp 可能会认为在唱副歌从而改变旋律。 输入元标签时遵循一定结构,避免混乱。可添加类似“Match vocals at starts,break”这类提示词告知演绎方式。 2. 使用 ACE Studio: 利用其方便的干声转换功能将人声音频转 MIDI,获取初稿。但 AI 识别可能有误差,需修复瑕疵。 完成歌手选择后进行微调: 歌词发音:若 AI 识别发音不准确,双击音符修改拼音。 音准:音高不准时,点击音符按键盘上下键调整,偏差小于 1key 则用音高画笔画出音高线。 节奏:节奏不准可拖动音符对齐节奏线,但人真实演唱会有微小节奏错位,可根据主观审美和作品表达需要决定是否完全对齐。 完成瑕疵修复后,点击文件 导出音频,根据用途选择合适格式,如用于视频选 mp3,用于发行平台选 wav。
2024-10-30