Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

转MIDI

Answer

以下是关于转 MIDI 的相关内容:

MIDI 可以理解为给计算机看的乐谱,包含歌曲每个音的音高、节奏信息。

在 ACE Studio 中,将干声转 MIDI 的工作流如下:

  1. 准备音频素材:
    • 在软件中分别导入人声干声和伴奏[文件-导入-导入音频],放在两个轨道上。
    • 若男歌女唱或女歌男唱,需在导入前先进行变调。
    • 常用工具:TME Studio(腾讯音乐开发的 AI 音频工具箱,常用音频分离功能),地址:https://y.qq.com/tme_studio/index.html#/editor;Vocalremover(包含音频分离、变调、BPM 查询等功能),地址:https://vocalremover.org/zh/key-bpm-finder。
  2. 干声转换:
    • 先将工程 BPM 设置为与歌曲一致。
    • 将音频轨道的文件拖入到空白的歌手轨道进行干声转换。
  3. 选择歌手:
    • 在软件左侧选择歌手,长按拖动到歌手轨道的头像处即可切换歌手。

另外,对于钢琴曲音质修复,将音乐转成 MIDI 五线谱,然后通过成熟的合成器重新演奏是较稳定的合成方式。字节在 Github 发布了古典钢琴曲数据集GiantMIDI-Piano,知乎专栏上的大佬对此做了改进,可批量转谱。相关代码包和钢琴模型包的下载链接:https://pan.baidu.com/s/1aqnlgfFCjB0KIlPEB8RcRg 提取码:xubj ;另外的 wps 链接:https://kdocs.cn/join/gezxr3f 。注意里面包含了训练好的模型,ffmpeg 和 python 安装包,为避免多个 python 版本冲突,建议自行安装 python,用 pip 安装 ffmpeg 库。

Content generated by AI large model, please carefully verify (powered by aily)

References

张吃吃:AI歌手| ACE Studio入门教程及工作流分享

(针对零乐理基础用户,音乐达人可跳过)干声没有伴奏也没有效果器的人声MIDI可以理解为给计算机看的乐谱,包含歌曲每个音的音高、节奏信息变调歌曲升调或降调,1个key=1个半音。BPM歌曲的速度,数字表示一分钟多少拍。[heading2]2、推荐工作流[content]干声转换-选择歌手-微调由于ACE有一个非常方便的功能:干声转换,也就是将人声音频转MIDI,这比手动输入一个个音符要好用太多啦!我在使用ACE制作的歌曲,大部分都是通过干声转换来获取MIDI初稿的。当然AI识别的音高、节奏、发音会有误差,所以接下来的工作主要是修复这些识别错误的瑕疵。其实,只需要干声转换-选择歌手-微调三个步骤,一首AI演唱的歌曲就做好了。小白快速上手篇会细讲这三个步骤,如果有更高的要求,比如需要个性化声线或更自然的演唱效果,可以参考后面的进阶篇。

张吃吃:AI歌手| ACE Studio入门教程及工作流分享

使用干声转换,我们需要在软件中分别导入人声干声和伴奏[文件-导入-导入音频],放在两个轨道上。干声是用来转成MIDI做AI演唱的。如下图所示:注意,如果是男歌女唱或者女歌男唱,请在导入前先进行变调后再导入(不会变调的看下方工具推荐)。通常女声比男声高5个key左右,不绝对,大家根据听感测试调整即可。有两个工具我在进行前期音频素材准备时较常用:TME Studio腾讯音乐开发的AI音频工具箱,其中我最常用的是音频分离,可用于将人声和伴奏从歌曲中提取出来。地址:https://y.qq.com/tme_studio/index.html#/editorVocalremover包含音频分离、变调、BPM查询等功能,我使用较多的是变调和BPM查询。建议在准备素材阶段,就将音频调整到所需调,并获取到BPM。地址:https://vocalremover.org/zh/key-bpm-finder[heading3]第二步:干声转换[content]在转换之前,有一个很重要的动作:请先将工程BPM设置为与歌曲一致,就是界面顶部这个东东,前面是BPM后面是拍数,请把BPM修改为上述操作获取到的数字,这一步是为了后续微调的时候方便音符对齐节奏:设置完成后,将音频轨道的文件拖入到空白的歌手轨道,即可进行干声转换。[heading3]第三步:选择歌手[content]软件左侧有歌手可以选择,长按拖动到歌手轨道的头像处即可切换歌手。

[音乐学习] AI音乐向100分迈进,钢琴曲音质修复

将音乐转成MIDI五线谱,然后通过成熟的合成器重新演奏,目前看是最稳定的合成方式了。字节已经在Github发布了古典钢琴曲数据集[GiantMIDI-Piano](https://github.com/bytedance/GiantMIDI-Piano),可以拿来抄作业,用钢琴转谱技术识别音频,并转换成可编辑的MIDI格式重新演奏。知乎专栏上的大佬在这个项目上做了些改进,可以批量转谱,很方便。下面是代码包和钢琴模型包,直接下载即可链接:[https://pan.baidu.com/s/1aqnlgfFCjB0KIlPEB8RcRg](https://link.zhihu.com/?target=https%3A//pan.baidu.com/s/1aqnlgfFCjB0KIlPEB8RcRg)提取码:xubj百度要会员比较麻烦,我另外传了个wps:https://kdocs.cn/join/gezxr3f注意里面包含了训练好的模型,ffmpeg和python安装包,为了避免多个python版本冲突,建议大家自己安装python,用pip安装ffmpeg库。

Others are asking
转MIDI
以下是关于转 MIDI 的相关内容: MIDI 可以理解为给计算机看的乐谱,包含歌曲每个音的音高、节奏信息。 在 ACE Studio 中,将干声转 MIDI 的工作流如下: 1. 准备音频素材: 在软件中分别导入人声干声和伴奏,放在两个轨道上。 若男歌女唱或女歌男唱,需在导入前先进行变调。 常用工具:TME Studio(腾讯音乐开发的 AI 音频工具箱,常用音频分离功能),地址:https://y.qq.com/tme_studio/index.html/editor;Vocalremover(包含音频分离、变调、BPM 查询等功能),地址:https://vocalremover.org/zh/keybpmfinder。 2. 干声转换: 先将工程 BPM 设置为与歌曲一致。 将音频轨道的文件拖入到空白的歌手轨道进行干声转换。 3. 选择歌手: 在软件左侧选择歌手,长按拖动到歌手轨道的头像处即可切换歌手。 另外,对于钢琴曲音质修复,将音乐转成 MIDI 五线谱,然后通过成熟的合成器重新演奏是较稳定的合成方式。字节在 Github 发布了古典钢琴曲数据集 提取码:xubj ;也可通过 wps 下载:https://kdocs.cn/join/gezxr3f 。注意里面包含了训练好的模型,ffmpeg 和 python 安装包,为避免多个 python 版本冲突,建议自行安装 python,用 pip 安装 ffmpeg 库。
2025-01-03
如何用midijurney生生人物一致性
在 Midjourney 中实现人物一致性,主要通过以下方式: 1. Midjourney V6 更新了角色一致性命令“cref ”。您可以根据需要重复此过程,但要注意不要过多操作,以免丧失保真度。添加角色参考图像,并选择一个“cw”以达到效果。Midjourney 能够从参考图像中识别的角色属性将与提示混合,从而创建出角色的最终表现。您可以通过使用“cw N”参数(cref 权重)来大致控制转移,其中 N 的值可以从 1 到 100,默认值为 100。“cw”参数不会改变角色参考图像的强度/影响力,其作用如下: “cw 100”的值(默认值)将捕捉整个角色。 “cw 99 到cw 1”之间的值将开始捕捉较少的整个角色,仅集中于转移面部。 “cw 0”的值将仅捕捉面部,大致类似于面部替换。且无法关闭面部的转移。 2. 在群像人物一致性保持及空间深度控制方面,以双人画面人物一致性的保持为例,分为 5 步: Step 1:将初始图(A)以及人物图(B)作为风格(sref)及人物(cref)的参考内容,提示词中需要注意: 描述好空间关系(下方画线部分),视角问题可以略过(风格参考会自带角度)。 成功输出图(C),可能会遇到女同事 Lisa 无法保持跟初始图(A)一致的问题。其中:sref 为风格参考,cref 为人物参考,cw 范围为 0 100,默认 100 但建议写上去确保万无一失。 Step 2:找到已生成的 Lisa 纯人物的图,提取图片链接(url)做准备工作。 Step 3:基于 Step 1 生成的构图清晰但人物失控的成图(C)基础上,进行重绘 Vary Region,步骤为: 框选需要被替换的人物。 然后将 Step 2 准备好的链接,贴入框内界面 cref 后面,注意先把原始的 cref(即红色部分)删掉。
2024-09-23