Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

可不可以续写歌曲

Answer

以下是关于续写歌曲的相关内容:

《西游不能停》这首歌在年前创作时使用的是 suno V2 版本,单次最多只能生成 80s 的音乐,无法唱完所有歌词,所以需要续写。 在 web 端,在想要续写的歌曲处点击“continue from this song”;在 discord 中,则点击“⏩continue 1/2”的 icon。 如果续写时正好卡在一个段落的中间,有两个细节需注意:

  1. 不要在 lyrics 的最前头加任何 Metatag,否则会被当做一个新的段落,丢失掉连贯性。
  2. 如果第一段的结尾最后一个字哪怕没有唱完,只发了一点点音,续写的时候也直接从下一个字开始。例如《西游不能停》的第一段在八戒的“我自有我抱负”这句结束,并且“负”字只发了一半的音,那么续写的时候直接从“尊嘟假嘟....”开始。您可以直接跳到 Part 1 的最后和 Part 2 的开始听。

另外,Suno 操作指北 V2 中提到关于歌词延续的常见问题:

  1. 如果歌词被切断,在下一个片段开始,接上它们停止的地方。如果一个单词被切成两半,用下一个单词开始继续的歌词。且不要再次使用被中断的元标签。
  2. 如果 Chirp 尝试重复它刚唱过的完整行,或者逐字重复合唱,使用[Break]来打断歌曲流程。可以考虑回到之前的片段,重新使用延续功能生成。

还有,在进入一段器乐后,若想让它停止并进入歌词,可以试着在歌词前加入语气词,比如(Ohh,Ohh ohh),来提示 Chirp 这里有人声,让它做好过渡准备,有时有用。

此外,“无法生成”或“尝试另一个提示”的错误意味着文本请求被阻止了。被拒绝的提示将退还积分。一个歌曲提示可能因为多种原因被阻止:

  1. 歌词受版权保护。
  2. 音乐风格或歌曲描述使用了真实的乐队或艺术家名称。
  3. 歌词包含违规词汇。
  4. 实际积分用尽了,但网页没有同步(刷新页面)。
  5. 在默认模式或“生成随机歌词”按钮下,AI 无法理解如何将请求转化为歌曲。
Content generated by AI large model, please carefully verify (powered by aily)

References

金属文:AI春晚《西游不能停》创作过程分享

《西游不能停》中类似的优化有很多,并且最终只抽了两次卡就得到了我满意的音乐,虽然suno没有办法像谱子那样100%精准地控制节奏,但是活用符号进行断句,再结合Metatag,就可以最大限度的控制生成方向,同时保留随机的乐趣。续写歌曲这首歌在年前创作的时候suno还是V2版本,单次最多只能生成80s的音乐,没法唱完所有的歌词,所以我们需要进行续写,web端在我们想要续写的歌曲这里点击“continue from this song”即可,在discord中则是点击“⏩continue 1/2”的icon。这里吐槽一下suno的web前端页面,实在是太黑了啥都看不清😅web端Suno on discord如果续写的时候正好卡在一个段落的中间,有两个细节需要注意,一是不要在lyrics的最前头加任何Metatag,否则会被当做一个新的段落,丢失掉连贯性;二是如果第一段的结尾最后一个字哪怕没有唱完,只发了一点点音,续写的时候也直接从下一个字开始就好。还是举个🌰,《西游不能停》的第一段在八戒的“我自有我抱负”这句结束,并且“负”字只发了一半的音,那么续写的时候直接从“尊嘟假嘟....”开始。你可以直接跳到Part 1的最后和Part 2的开始听。Part 1[part01.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/OGkAbDAKbosAJNxKjojc5U6OnNT?allow_redirect=1)Part 2[part02.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/ArFQbyx8NogtlaxlS7dc4FTpnNh?allow_redirect=1)

新诗新声:新诗音乐化前景展望

5、从消费层面来讲。普通人开始做音乐以后,必然对传统音乐消费者进行分流。就拿我本身来说,自从接触了AI音乐以后,我大多数时间都在AI音乐的制作与观察上。我甚至认为我可以不用天天去音乐餐馆(腾讯啊、网易云音乐啊)下馆子了,我可以在家自行烹饪而三月不知肉味了。故所以,AI音乐技术的发展、新诗音乐化的推进,对于[炎石乐队]这样的音乐金字塔底部的劳动力,面临着生死存亡之考验,也就无怪乎其反应之情绪化之激烈了。6、待续作者:新诗之歌https://www.bilibili.com/read/cv34526099/?spm_id_from=333.999.0.0出处:bilibili

Suno 操作指北 V2

如果歌词被切断,那么在下一个片段开始,接上它们停止的地方。如果一个单词被切成两半,用下一个单词开始继续的歌词。不要再次使用被中断的元标签。例如,如果你的[Chorus]被切断了,那么在下一个片段中,你接上的歌词不要添加[Chorus]这个元标签,如果添加了,Chirp会认为这是新的[Chorus]并开始新的生成。如果Chirp尝试重复它刚唱过的完整行,或者逐字重复合唱,使用[Break]来打断歌曲流程。考虑回到之前的片段,重新使用延续功能生成。[heading2]2.进入一段器乐后,如何让它停止并进入歌词[content]试着在歌词前加入语气词,比如(Ohh,Ohh ohh),来提示Chirp这里有人声,让它做好过渡准备,有时有用。[heading2]3.“无法生成”或“尝试另一个提示”的错误[content]意味着你的文本请求被阻止了。被拒绝的提示将退还积分。一个歌曲提示可能因为多种原因被阻止:你的歌词受版权保护。你的音乐风格或歌曲描述使用了真实的乐队或艺术家名称。你的歌词包含违规词汇。你的实际积分用尽了,但网页没有同步。(刷新页面。)在默认模式或“生成随机歌词”按钮下,AI无法理解如何将你的请求转化为歌曲。

Others are asking
可不可以提供一个本地化的大模型方法,让我建立这个合规法律的知识库
以下是为您提供的本地化大模型及搭建合规法律知识库的方法: 一、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时需使用邮箱注册账号。 2. 登陆成功后,若您使用过类似 ChatGPT 的大模型对话网站,对该页面不会陌生。 3. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,即让模型根据文档内容回答问题,这是构建知识库的基础之一。 4. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现对话功能。 5. ChatGPT 访问速度快且回答效果好的原因: 速度快是因为 GPT 大模型部署的服务器配置高。 效果好是因为 GPT 大模型的训练参数多、数据更优及训练算法更好。 二、您的硬件达标了么 运行大模型需要很高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 1. 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 2. 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 3. 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 最低配置运行非常慢,不建议使用。但这不妨碍我们亲自实操一遍,以加深对大模型构建知识库底层原理的了解。若想要更顺滑的体验知识库,可以参考文章: 三、本地知识库进阶 若要更灵活掌控知识库,需额外软件 AnythingLLM。它包含 Open WebUI 的所有能力,并额外支持以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 AnythingLLM 安装和配置 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。具体步骤: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅依靠文档中的数据给出答案。 4. 测试对话。完成上述配置后,即可与大模型进行对话。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。若您对 AI Agent 技术感兴趣,可以联系我或者加我的免费知识星球(备注 AGI 知识库)。
2024-12-18
可不可以用AI制作一个自己专属的聊天机器人,能模仿自己喜欢或敬佩的角色?
可以用 AI 制作一个自己专属的聊天机器人,能模仿自己喜欢或敬佩的角色。以下是一些相关信息: 使用大型语言模型可以构建自定义聊天机器人,为餐厅扮演 AI 客户服务代理或 AI 点餐员等角色。 是一款基于 LLM 的聊天机器人网站,用户可以与预先创建的角色交流,也可以自己创作角色。 许多初创公司正考虑使用生成性 AI 来创建可信角色,目前有数百家用类似 GPT3 的语言模型驱动的公司正在构建通用聊天机器人。 这些信息表明,利用 AI 技术制作专属聊天机器人是可行的,并且有多种选择和应用场景。
2024-07-03
将歌曲MP3转成视频形式的AI工具
以下是一些将歌曲 MP3 转成视频形式的相关 AI 工具及操作步骤: 工具推荐: 1. TME Studio:腾讯音乐开发的 AI 音频工具箱,常用功能为音频分离,可用于将人声和伴奏从歌曲中提取出来。 地址:https://y.qq.com/tme_studio/index.html/editor 2. Vocalremover:包含音频分离、变调、BPM 查询等功能,常用的是变调和 BPM 查询。建议在准备素材阶段,就将音频调整到所需调,并获取到 BPM。 地址:https://vocalremover.org/zh/keybpmfinder 实操步骤: 1. 准备音频素材: 使用干声转换,在软件中分别导入人声干声和伴奏,放在两个轨道上。干声是用来转成 MIDI 做 AI 演唱的。 注意,如果是男歌女唱或者女歌男唱,请在导入前先进行变调后再导入(不会变调的可参考工具推荐)。通常女声比男声高 5 个 key 左右,不绝对,大家根据听感测试调整即可。 2. 干声转换: 在转换之前,先将工程 BPM 设置为与歌曲一致(界面顶部,前面是 BPM 后面是拍数,把 BPM 修改为上述操作获取到的数字),这一步是为了后续微调的时候方便音符对齐节奏。设置完成后,将音频轨道的文件拖入到空白的歌手轨道,即可进行干声转换。 3. 选择歌手:软件左侧有歌手可以选择,长按拖动到歌手轨道的头像处即可切换歌手。
2025-01-18
哪些AI工具可以将歌曲MP3改成MV
目前尚未有直接将歌曲 MP3 转换为 MV 的成熟 AI 工具。通常,制作 MV 需要涉及视频编辑、特效处理、画面设计等多个复杂的环节,需要借助专业的视频编辑软件,如 Adobe Premiere Pro、Final Cut Pro 等,并结合创意和素材来完成。
2025-01-18
有没有输入歌曲,自动生成mv的
目前存在输入歌曲自动生成 MV 的相关方法和案例: 大峰的案例中,先使用 Suno 生成歌曲,选择中国风风格,凭借音乐审美选出中意的歌曲。然后将歌词发给 GPT,让其以英文 AI 绘画提示词的形式提供每句歌词的每个分镜,再将生成的图片丢入 Midjourney 进行图片生成,最后用 Midjourney 生成的图片丢入 Runway 进行图生视频。 专业的歌曲分析师可以根据用户输入的歌词完成基本的歌曲 MV 构思部分。 在爆肝 60 小时的案例中,音乐制作方面一开始想抽三个不同的曲子拼接,但因节拍、风格、情绪不同难以剪辑,最后用了一首完整的曲子。团队成员上传推荐歌曲到多维表格,附上推荐理由,由相关人员审核通过。还有一些技巧,如在前奏部分重复第一句以解决发音不清晰问题。
2024-11-06
如何获取歌曲中每句歌词的音高?
获取歌曲中每句歌词音高的方法如下: 1. 利用工具如 Chirp: 可以在输入时强调歌词中某个单词的音高,将其全部大写。 重复一部分歌词,Chirp 可能会认为在唱副歌从而改变旋律。 输入元标签时遵循一定结构,避免混乱。可添加类似“Match vocals at starts,break”这类提示词告知演绎方式。 2. 使用 ACE Studio: 利用其方便的干声转换功能将人声音频转 MIDI,获取初稿。但 AI 识别可能有误差,需修复瑕疵。 完成歌手选择后进行微调: 歌词发音:若 AI 识别发音不准确,双击音符修改拼音。 音准:音高不准时,点击音符按键盘上下键调整,偏差小于 1key 则用音高画笔画出音高线。 节奏:节奏不准可拖动音符对齐节奏线,但人真实演唱会有微小节奏错位,可根据主观审美和作品表达需要决定是否完全对齐。 完成瑕疵修复后,点击文件 导出音频,根据用途选择合适格式,如用于视频选 mp3,用于发行平台选 wav。
2024-10-30
如何获取歌曲中每句歌词的音高?
获取歌曲中每句歌词的音高可以通过以下方法: 1. 利用工具如 Chirp: 可以在输入时强调歌词中某个单词的音高,将其全部大写。 重复一部分歌词,Chirp 可能会认为在唱副歌从而改变旋律。 遵循歌词书写原则有助于在音频延续上保持质量。 在元标签中添加类似“Match vocals at starts,break”这类提示词,告知 Chirp 段落的演绎方式。 注意 Chirp 会优先识别输入的元标签,输入结构不要混乱。 2. 使用 ACE Studio: 利用其非常方便的干声转换功能,将人声音频转 MIDI。但 AI 识别的音高、节奏、发音可能有误差。 完成歌手选择后,进行微调: 歌词发音:若 AI 识别的发音不准确,双击音符修改正确的拼音。 音准:发现音高不准,点击音符按键盘上下键调高或调低。音准偏差小于 1key 时,使用音高画笔画出音符的音高线。 节奏:发现节奏不准,可将音符拖动到对齐节奏线。但人在真实演唱中会有微小节奏错位,这在某些情况下是自然的,取决于主观审美和作品表达需要。 完成发音、音高、节奏的瑕疵修复后,点击文件 导出音频,根据用途选择合适的格式,如用于视频选 mp3,用于发行到 QQ 音乐之类的平台选 wav。
2024-10-30
ai歌曲翻唱
以下是关于 AI 歌曲翻唱的相关信息: 关键技术: 深度伪造技术(deepfakes)是利用 AI 程序和深度学习算法实现音视频模拟和伪造的技术,投入深度学习的内容库越大,合成的视音频真实性越高。 粉丝操作方式: 粉丝们会通过 Stems 音轨分离工具将人声与原始歌曲分离,再使用人声转换模型将人声转换成另一位明星的风格,然后将新的人声轨道与原始作品重新拼接在一起。DiffSVC 是一种流行的用于此目的的语音传输模型。 制作案例: 在《AI 你·南京》AIGC 城市宣传 MV 制作中,先尝试用剪映里预设的 AI 语音进行朗诵配音,效果不佳后改为创作歌曲并制作 MV。将文案复制给 AI 进行歌词改写和歌曲取名,修改 AI 生成的歌词后定稿。 张吃吃分享的 ACE Studio 入门教程中,小白快速上手实操步骤包括:准备音频素材,使用干声转换,分别导入人声干声和伴奏,注意变调等;干声转换时先设置工程 BPM 与歌曲一致,将音频轨道文件拖入空白歌手轨道;选择歌手,长按拖动到歌手轨道的头像处切换。 常用的前期音频素材准备工具包括: TME Studio:腾讯音乐开发的 AI 音频工具箱,常用功能是音频分离,可用于将人声和伴奏从歌曲中提取出来。地址:https://y.qq.com/tme_studio/index.html/editor Vocalremover:包含音频分离、变调、BPM 查询等功能,常用变调和 BPM 查询。建议在准备素材阶段,就将音频调整到所需调,并获取到 BPM。地址:https://vocalremover.org/zh/keybpmfinder
2024-10-29