1.����Դ��
����Դ��
听一遍曲子,扒谱扒谱就能知道乐谱,源码还能马上演奏,工具而且还掌握“十八般乐器”,扒谱扒谱钢琴、源码小提琴、工具视频直播源码买哪家最好吉他等都不在话下。扒谱扒谱
这就不是源码人类音乐大师,而是工具
谷歌
推出的“多任务多音轨”音乐转音符模型
MT3
首先需要解释一下什么是多任务多音轨。
通常一首曲子是扒谱扒谱有多种乐器合奏而来,每个乐曲就是源码一个音轨,而多任务就是工具同时将不同音轨的乐谱同时还原出来。
谷歌已将该论文投给ICLR 。扒谱扒谱源码资本 自如
还原多音轨乐谱
相比于自动语音识别 (ASR) ,源码自动音乐转录 (AMT) 的工具难度要大得多,因为后者既要同时转录多个乐器,还要保留精细的音高和时间信息。
多音轨的自动音乐转录数据集更是“低资源”的。现有的枸杞乐园源码开源音乐转录数据集一般只包含一到几百小时的音频,相比语音数据集动辄几千上万小时的市场,算是很少了。
先前的音乐转录主要集中在特定于任务的架构上,针对每个任务的各种乐器量身定制。
因此,作者受到低资源NLP任务迁移学习的刷 流量 源码启发,证明了通用Transformer模型可以执行多任务 AMT,并显著提高了低资源乐器的性能。
作者使用单一的通用Transformer架构T5,而且是T5“小”模型,其中包含大约万个参数。
该模型在编码器和解码器中使用了一系列标准的QQ会源码Transformer自注意力“块”。为了产生输出标记序列,该模型使用贪婪自回归解码:输入一个输入序列,将预测出下一个出现概率最高的输出标记附加到该序列中,并重复该过程直到结束 。
MT3使用梅尔频谱图作为输入。对于输出,作者构建了一个受MIDI规范启发的token词汇,称为“类MIDI”。
生成的乐谱通过开源软件FluidSynth渲染成音频。
此外,还要解决不同乐曲数据集不平衡和架构不同问题。
作者定义的通用输出token还允许模型同时在多个数据集的混合上进行训练,类似于用多语言翻译模型同时训练几种语言。
这种方法不仅简化了模型设计和训练,而且增加了模型可用训练数据的数量和多样性。
实际效果
在所有指标和所有数据集上,MT3始终优于基线。
训练期间的数据集混合,相比单个数据集训练有很大的性能提升,特别是对于 GuitarSet、MusicNet 和 URMP 等“低资源”数据集。
最近,谷歌团队也放出了MT3的源代码,并在Hugging Face上放出了试玩Demo。