直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

ai歌曲翻唱

回答

以下是关于 AI 歌曲翻唱的相关信息:

关键技术: 深度伪造技术(deepfakes)是利用 AI 程序和深度学习算法实现音视频模拟和伪造的技术,投入深度学习的内容库越大,合成的视音频真实性越高。

粉丝操作方式: 粉丝们会通过 Stems 音轨分离工具将人声与原始歌曲分离,再使用人声转换模型将人声转换成另一位明星的风格,然后将新的人声轨道与原始作品重新拼接在一起。Diff-SVC 是一种流行的用于此目的的语音传输模型。

制作案例

  • 在《AI 你·南京》AIGC 城市宣传 MV 制作中,先尝试用剪映里预设的 AI 语音进行朗诵配音,效果不佳后改为创作歌曲并制作 MV。将文案复制给 AI 进行歌词改写和歌曲取名,修改 AI 生成的歌词后定稿。
  • 张吃吃分享的 ACE Studio 入门教程中,小白快速上手实操步骤包括:准备音频素材,使用干声转换,分别导入人声干声和伴奏,注意变调等;干声转换时先设置工程 BPM 与歌曲一致,将音频轨道文件拖入空白歌手轨道;选择歌手,长按拖动到歌手轨道的头像处切换。

常用的前期音频素材准备工具包括:

  • TME Studio:腾讯音乐开发的 AI 音频工具箱,常用功能是音频分离,可用于将人声和伴奏从歌曲中提取出来。地址:https://y.qq.com/tme_studio/index.html#/editor
  • Vocalremover:包含音频分离、变调、BPM 查询等功能,常用变调和 BPM 查询。建议在准备素材阶段,就将音频调整到所需调,并获取到 BPM。地址:https://vocalremover.org/zh/key-bpm-finder
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

AI 语音合成

所谓深度伪造技术(deepfakes),是一种利用AI程序和深度学习算法实现音视频模拟和伪造的技术,投入深度学习的内容库越大,合成的视音频真实性越高,甚至可以达到以假乱真的程度。[heading2]AI翻唱[content]粉丝们会通过Stems音轨分离工具将人声与原始歌曲分离,再使用人声转换模型将人声转换成另一位明星的风格,然后将新的人声轨道与原始作品重新拼接在一起。Diff-SVC就是一种特别流行的用于此目的的语音传输模型。

白马:6000字超详细复盘!《AI你·南京》AIGC城市宣传MV全流程制作解析

[title]白马:6000字超详细复盘!《AI你·南京》AIGC城市宣传MV全流程制作解析[heading1]歌词创作文案做到这一步,接下来就是要给朗诵配音来确定视频的时长和分镜数量了。但是我试了几个剪映里预设的AI语音之后,发现效果还是很难达到真人解说那种包含情感的抑扬顿挫,我觉得用AI进行纯解说风格的朗诵还是有些平淡了。而刚好,最近suno的出现给音乐圈带来了一些不小的震撼,所以我转念一想,干脆直接为南京写一首歌吧,然后给歌曲制作一部MV,这样整个视听语言的层次会丰富很多。所以,我直接将之前写好的那段文字复制给AI,让它进行歌词改写和歌曲取名。还可以附加定义一下歌词风格和时间长度,让它有一些方向。KimiChatGPT两相比较,这一次我更喜欢GPT写的歌词,因为我可能会更想结合一些现代感的歌曲风格,比如rap或者R&B之类的。而kimi写的那段词对仗工整,会更偏向传统一些,可能不适合现代的曲风。我在gpt写的这版歌词上,经过一些修改定稿了最终的这版歌词。悠悠金陵风,古韵今犹存,钟山风雨起,金粉六朝魂。龙蟠虎踞地,文采风流情。梦开始之处,南京故事行。走过历史长廊,触摸时间痕迹,秦淮夜色下,灯火映繁华。夫子庙旧梦长,儒韵千古传,石头城波光里,岁月永流转。紫金山巅,翠竹青松,守望着这座城的古老与青春。明孝陵石象镇守,中华门城墙巍峨,玄武湖碧波荡漾,紫峰厦彩霞星河。一桥飞架通南北,一城繁华映山河。

张吃吃:AI歌手| ACE Studio入门教程及工作流分享

使用干声转换,我们需要在软件中分别导入人声干声和伴奏[文件-导入-导入音频],放在两个轨道上。干声是用来转成MIDI做AI演唱的。如下图所示:注意,如果是男歌女唱或者女歌男唱,请在导入前先进行变调后再导入(不会变调的看下方工具推荐)。通常女声比男声高5个key左右,不绝对,大家根据听感测试调整即可。有两个工具我在进行前期音频素材准备时较常用:TME Studio腾讯音乐开发的AI音频工具箱,其中我最常用的是音频分离,可用于将人声和伴奏从歌曲中提取出来。地址:https://y.qq.com/tme_studio/index.html#/editorVocalremover包含音频分离、变调、BPM查询等功能,我使用较多的是变调和BPM查询。建议在准备素材阶段,就将音频调整到所需调,并获取到BPM。地址:https://vocalremover.org/zh/key-bpm-finder[heading3]第二步:干声转换[content]在转换之前,有一个很重要的动作:请先将工程BPM设置为与歌曲一致,就是界面顶部这个东东,前面是BPM后面是拍数,请把BPM修改为上述操作获取到的数字,这一步是为了后续微调的时候方便音符对齐节奏:设置完成后,将音频轨道的文件拖入到空白的歌手轨道,即可进行干声转换。[heading3]第三步:选择歌手[content]软件左侧有歌手可以选择,长按拖动到歌手轨道的头像处即可切换歌手。

其他人在问
我指的是要用我的音色翻唱歌曲 用AI来克隆 推荐不错的吧
以下是为您推荐的关于用 AI 克隆音色翻唱歌曲的相关内容: ElevenLabs 推出了全自动化的 AI 配音或视频翻译工具。您只需上传视频或粘贴视频链接,它能在几十秒到几分钟内将视频翻译成 29 种语言,还能克隆原视频中的声音进行配音。群友瑞华测试发现,模仿豆包的音色读约 20 个字的句子,5 秒就能生成非常相似的音色,之后可用自己的声音读生成的文字内容。详情可参考:https://mp.weixin.qq.com/s/nHIPaq4evPbvSQS1ctYZrA 剪映也有新的声音克隆功能,卡兹克做了对比,效果不错。 Stuart:免费 AI 真人语音入门 GPTSoVITS + BertVITS2 。一开始只是字生成语音并能选不同音色,音色基于网络红人训练,与对应的网络红人非常相像,也可自己训练,参考: 但真正使用时会发现只改音色不够用,因为真正说话或配音时有口头禅、重音、停顿等。 一些提供 AI Mastering 的网站列表: https://www.landr.com/onlineaudiomastering/ (收费) https://emastered.com/ (收费) https://app.kits.ai/aimastering (收费,推荐,除母带处理,还有分轨、替换人声、人声克隆等功能) https://app.bakuage.com/ (免费!强烈推荐,本文主角!正常情况下不需要魔法,为保证流畅,建议打开魔法)
2024-08-27
推荐分镜脚本创作可用的AI
以下为您推荐一些可用于分镜脚本创作的 AI 相关资源和方法: 1. 阿汤的 AI 短片探索第一幕(动画篇)中的分镜脚本示例,包括景别(特写、全景、远景、中景等)、风格(彩色、灰白冷淡等)、画面内容、镜头时长和镜头运动等详细信息。 2. 关于如何做出商业级的 AI 视频广告的教程,其中提到分镜提示词的结构,如明确视频时长、分镜数量、每个分镜的内容和输出格式要求等。还介绍了让 Claude 生成分镜脚本的提示词,并指出对于 30 秒的广告视频,10 个分镜且每个分镜平均 3 秒较为合适。同时,景别设定有助于 MJ 理解需求,画面内容可用于生成图像,对话旁白可用于配音,音乐音效为创作背景音提供思路。您可以参考获取更具体的分镜脚本内容。
2024-11-03
分镜脚本创作AI
以下是关于分镜脚本创作 AI 的相关内容: 在《哪吒·龙影之下》的 AI 创作过程文档中,影片分镜包括分镜编号、分镜内容描述、人物、情绪、对白或配音等方面。同时提到 AI 写的人物名字过多,片子短易出现干扰信息,部分名字可省略。 对于商业级的 AI 视频广告,分镜提示词的结构包括要做多长时间的视频、要出多少个分镜、每个分镜包含的内容以及对输出格式的要求。以 30 秒时长的广告片为例,分镜脚本结构包括序号、场景、景别、镜头时长、镜头运动、画面内容、对话旁白和音乐音效,每个分镜平均 3 秒,10 个分镜较为合适。景别是让 MJ 生图的提示词内容之一,镜头时长设定每个分镜长度,画面内容是生成图片的提示词,对话旁白可用于生成配音,音乐音效为创作背景音提供思路。 对于商业级的奔驰 GLE300L 广告脚本,需要确定 30 秒的总时长,包括开场白、汽车基本介绍、展示亮点、客户证言或推荐以及呼吁行动等内容,同时要选择合适音乐、编写吸引人的台词、准备道具、设计景别和规划运镜。Claude 可以生成相关脚本,如有不满意可要求修改。
2024-11-03
字节跳动也被曝出在其秘密研发的大模型项目中存在违规调用 OpenAI 的 API ,你如何看待
2023 年下半年,部分声称性能卓越的中国大模型被揭露为“套壳”产品。如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,其团队承认在训练过程中沿用了开源架构,但强调是为快速起步。12 月,字节跳动被曝出在其秘密研发的大模型项目中调用了 OpenAI 的 API 并使用 ChatGPT 的输出数据来训练自己的模型。OpenAI 反应迅速坚决,暂停相关账号并表示将进一步调查。字节跳动回应称在 2023 年初技术团队在大模型探索初期有部分工程师将 GPT 的 API 服务用于较小模型的实验性项目研究,且自 2023 年 4 月引入调用规范检查后已停止。此外,不仅国内存在此类现象,24 年也有更多被指“套壳”的事件。同时,提示词攻击在业内是公开的秘密,国内外各大著名的 AI 厂商几乎无一幸免,系统提示处于泄露状态,大模型应用脆弱,数据易被获取。
2024-11-03
为什么国内目前仍有一些人在盲目夸耀国产AI不错,有出息,等等
国内在 AI 领域的发展情况较为复杂。在 2023 年之前,国内 AI 行业曾自认为与美国差距不大且有人口数据优势,但 ChatGPT 和 GPT4 的出现打破了这种认知,直接拉开了 2 年的技术差距。上半年国内坚信靠资金和卡能发展,但试验后发现不易,下半年纷纷转向“垂直应用”“商业化”,不提 AGI,这种转向是短视且致命的。目前国内最领先的模型水平大概在准 ChatGPT3.5,与 GPT4 有差距。 国内大厂在人才、GPU、数据和资金储备上有冲击 AGI 的能力,但受内部短期考核压力等影响,实际效果不明显。具体来说,百度的“文心 4.0”和阿里的“通义千问”是比较突出的。同时,智谱一年间推出了 4 代 GLM,MiniMax 推出了新模型和“星野”APP,月之暗面在长 Token 能力上表现不错。 在图像 AI 领域,国内产品发展迅速,如快手团队开发的“可灵”能生成高质量图像和视频,但价格较高;阿里的“通义万相”在中文理解处理方面出色,操作界面友好,且目前免费,但存在一些局限性。 在硬件层,国内仍面临芯片卡脖子问题,目前没有能胜任大模型训练的芯片,在推理上虽有 Nvidia 的替代产品出现,但华为昇腾因稳定性和生态问题还需时间打磨。
2024-11-03
目前国产AI对比国外AI,存在哪些不足和差距,我要实事求是的回答
目前国产 AI 对比国外 AI 存在以下不足和差距: 1. 在通用语言模型方面,如 ChatGPT 和 GPT4 出现后,国内与国外拉开了约 2 年的技术差距。国内最领先的模型水平大概在准 ChatGPT3.5 的水平,和 GPT4 还有不小差距,甚至还不如临时拼凑的 Mistral 团队的水平。 2. 国内部分企业可能存在骄傲自大的情况,也可能被之前 Google 主推的 T5 技术路线带偏,同时 AGI 影响巨大,可能存在国外相关机构与 OpenAI 有特殊沟通而国内未有的情况。 3. 2023 年上半年国内笃信靠资金和卡能实现突破,但下半年纷纷转向“垂直应用”“商业化”,不提 AGI,这种转向可能是短视和致命的。 4. 大厂虽具备冲击 AGI 的资源,但受内部短期考核压力影响,多数力量用于卷新产品圈地盘和向上汇报工作,实际效果未达预期,且背负较多其他业务和政治考量。 不过,在图像类 AI 产品方面,国内产品发展迅速,部分产品如通义万相在中文理解和处理方面表现出色,具有独特优势。在 AI 生成视频工具领域,国内涌现出一系列工具,其生成结果在某些方面甚至远超国外。
2024-11-03
国产AI与国外AI的实际差距
国产 AI 与国外 AI 存在一定的差距,但情况较为复杂,且在不同方面表现有所不同。 在 2023 年之前,国内 AI 行业曾自认为与美国差距不大,但 ChatGPT 和 GPT4 的出现打破了这种认知,OpenAI 直接拉开了 2 年的技术差距。当时国内出现了从追求创造国产 AGI 到转向做“垂直应用”“商业化”的转变。国内最领先的模型水平大概在准 ChatGPT3.5 的水平,和 GPT4 仍有差距。大厂在人才、GPU、数据和资金储备上有冲击 AGI 的能力,但实际效果尚不明确,且受内部短期考核压力等因素影响。 然而到了 2024 年,竞争达到白热化阶段。在文本到视频扩散模型方面,Google DeepMind 和 OpenAI 展示了强大的成果,但中国的相关情况在报告中未详细说明,不过国内也涌现出了一系列表现出色的 AI 生成视频工具,生成结果甚至远超国外。Llama 3.1 在某些任务中能与 GPT4 相抗衡,而中国的一些模型如由 DeepSeek、零一万物、知谱 AI 和阿里巴巴开发的模型在 LMSYS 排行榜上取得优异成绩,尤其在数学和编程方面表现出色,且在某些子任务上挑战了前沿水平。中国模型在计算效率、数据集建设等方面各有优势,能弥补 GPU 访问的限制等不足。
2024-11-03
如何获取歌曲中每句歌词的音高?
获取歌曲中每句歌词音高的方法如下: 1. 利用工具如 Chirp: 可以在输入时强调歌词中某个单词的音高,将其全部大写。 重复一部分歌词,Chirp 可能会认为在唱副歌从而改变旋律。 输入元标签时遵循一定结构,避免混乱。可添加类似“Match vocals at starts,break”这类提示词告知演绎方式。 2. 使用 ACE Studio: 利用其方便的干声转换功能将人声音频转 MIDI,获取初稿。但 AI 识别可能有误差,需修复瑕疵。 完成歌手选择后进行微调: 歌词发音:若 AI 识别发音不准确,双击音符修改拼音。 音准:音高不准时,点击音符按键盘上下键调整,偏差小于 1key 则用音高画笔画出音高线。 节奏:节奏不准可拖动音符对齐节奏线,但人真实演唱会有微小节奏错位,可根据主观审美和作品表达需要决定是否完全对齐。 完成瑕疵修复后,点击文件 导出音频,根据用途选择合适格式,如用于视频选 mp3,用于发行平台选 wav。
2024-10-30
如何获取歌曲中每句歌词的音高?
获取歌曲中每句歌词的音高可以通过以下方法: 1. 利用工具如 Chirp: 可以在输入时强调歌词中某个单词的音高,将其全部大写。 重复一部分歌词,Chirp 可能会认为在唱副歌从而改变旋律。 遵循歌词书写原则有助于在音频延续上保持质量。 在元标签中添加类似“Match vocals at starts,break”这类提示词,告知 Chirp 段落的演绎方式。 注意 Chirp 会优先识别输入的元标签,输入结构不要混乱。 2. 使用 ACE Studio: 利用其非常方便的干声转换功能,将人声音频转 MIDI。但 AI 识别的音高、节奏、发音可能有误差。 完成歌手选择后,进行微调: 歌词发音:若 AI 识别的发音不准确,双击音符修改正确的拼音。 音准:发现音高不准,点击音符按键盘上下键调高或调低。音准偏差小于 1key 时,使用音高画笔画出音符的音高线。 节奏:发现节奏不准,可将音符拖动到对齐节奏线。但人在真实演唱中会有微小节奏错位,这在某些情况下是自然的,取决于主观审美和作品表达需要。 完成发音、音高、节奏的瑕疵修复后,点击文件 导出音频,根据用途选择合适的格式,如用于视频选 mp3,用于发行到 QQ 音乐之类的平台选 wav。
2024-10-30
自己哼唱的歌制作歌曲,歌普ai软件
以下是一些关于将自己哼唱的歌制作成歌曲的相关信息和可用的 AI 软件: 工作流回顾: 只有词和意向风格:先确定最核心情绪所在的段落,以此段落用 AI 生成最好的结果,然后将其作为动机音轨扩展创作,这也是最常见的创作思路。 只有词,和一小段自己哼唱的旋律:可以上传这段自己哼唱的旋律,让 AI 扩展出自己喜欢的风格,然后将这段音轨作为动机音轨继续创作。 已有 midi 作曲:可以简单的挂载音源导出,并在 AI 的帮助下不断丰满这段包含主歌、副歌等主要段落的核心音轨,然后继续扩展出其他段落形成完整歌曲。 已有简单录音小样:可以利用 REMIX 优化音质与编曲结构,并利用 AI 的尝试不同曲风版本,找到自己最喜欢的风格,然后制作成核心音轨,进而完成全曲创作。 能较好的兼容传统音乐制作手段,多种处理手段的应用可以让作品更有个性。 AI 软件: Deepmind 与 YouTube 的 Lyria 音乐生成模型:只要哼唱或者吹口哨就能帮您自动生成交响乐,支持歌词创作和风格控制,能模仿艺术家风格,生成音频带 AI 水印。相关链接:https://deepmind.google/discover/blog/transformingthefutureofmusiccreation/ ,
2024-10-27
生成歌曲的ai工具
AI 生成音乐的工具是利用人工智能技术,特别是机器学习和深度学习算法,来创作、编排和生成音乐的软件平台。它们能够分析大量音乐数据,学习音乐模式和结构,然后根据用户输入或特定指令创作出新的音乐作品。 以下为您推荐一些 AI 音乐生成工具: 1. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。网址:https://www.udio.com/ 2. Suno AI:是一款革命性的人工智能音乐生成工具,通过先进的深度学习技术,能将用户输入转化为富有情感且高质量的音乐作品。网址:https://suno.com/ Suno AI 的详细介绍及使用流程: 简介:被誉为音乐界的 ChatGPT,能根据简单提示创造出从歌词到人声和配器的完整音乐作品,适合音乐新手和资深爱好者。 账号要求:需要拥有 Discord、谷歌或微软中的至少一个账号,并确保网络环境稳定。 订阅信息: 免费用户:每天 50 积分,每首歌消耗 5 积分,每天可创作 10 首歌曲,每次点击生成两首歌曲。若有多个账号,可创作更多音乐作品。 Pro 用户:每个月 2500 点数(大约 500 首歌),按月算每月 10 美元,按年算每月 8 美元,每年 96 美元。 Premier 用户:每个月 10000 点数(大约 2000 首歌),按月算每月 30 美元,按年算每月 24 美元,每年 288 美元。 点击 Create:有默认模式和个性化模式。 默认模式:关闭个性化,可填写歌曲描述、设置乐器开关、选择模型 v3。 个性化模式:开启个性化定制,可填写歌词、设置曲风、标题等。 生成歌词:可使用大模型如 Kimi、GPT、文心一言等来生成。 开始生成:填写好所需内容后点击 Create,等待 2 3 分钟即可。 下载 在最新的分析中,像 Suno 这样的新兴音乐生成工具开始崭露头角,它能够在浏览器中根据文本提示创作原创歌曲,包括歌词,并支持多种风格。Suno 最初在 Discord 平台上提供服务,2023 年 12 月推出了独立网站和 Copilot 扩展插件。一些主流的消费级 AI 产品如 Suno 最初从 Discord 服务器开始,或至今仍主要通过该平台运作。 内容由 AI 大模型生成,请仔细甄别。
2024-10-19
@ 用ai制作优美的歌曲用什么工具软件,详细的使用教程
以下是用 AI 制作优美歌曲的相关工具软件及使用教程: 工具软件: 1. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。网址:https://www.udio.com/ 2. Suno AI:是一款革命性的人工智能音乐生成工具,它通过先进的深度学习技术,能够将用户的输入转化为富有情感且高质量的音乐作品。网址:https://suno.com/ 使用教程: 1. 导出时间轴歌词:使用剪映(剪辑软件),其导出时间轴歌词的功能位置如下图所示。 2. 音乐分轨:可以使用腾讯 QQ 音乐旗下的 TME Studio,支持一键分轨,再将分轨好的音频文件进行全部导出。TME Studio 网站链接:https://y.qq.com/tme_studio/ 3. 音频编辑:对于分轨好的视频,可以导入 Adobe Audition 进行编辑。有编曲经验的同学可以自由发挥,没有编曲经验的小白可以打开电脑的录屏工具,录制歌曲的工程文件,上传提供创作证明。 4. 准备音频素材: 使用干声转换时,在软件中分别导入人声干声和伴奏,放在两个轨道上。干声用于转成 MIDI 做 AI 演唱。 男歌女唱或者女歌男唱时,在导入前先进行变调。常用的工具包括 TME Studio(腾讯音乐开发的 AI 音频工具箱,其中最常用的是音频分离,可用于将人声和伴奏从歌曲中提取出来。地址:https://y.qq.com/tme_studio/index.html/editor)和 Vocalremover(包含音频分离、变调、BPM 查询等功能,使用较多的是变调和 BPM 查询。建议在准备素材阶段,就将音频调整到所需调,并获取到 BPM。地址:https://vocalremover.org/zh/keybpmfinder) 关于申请网易云音乐人和上传音乐,只提供了认证成功的方法和过程,不能确保所有人都能成功,这是一个概率性的问题。此外,根据 AI 创作目前的特殊性,会在平台上声明此音乐为 AI 创作,并且也绝对支持尊重所有原创作品,也希望平台能尽快开辟一个 AI 创作的专区,可以提供一个容纳并保护所有群体的不同板块。
2024-09-17