Project Icon

musiclm-pytorch

Pytorch实现的音乐生成模型MusicLM

MusicLM-Pytorch通过使用Google的新型SOTA音乐生成模型来生成音乐。该项目结合了文本条件的AudioLM和MuLan文本-音频对比学习模型。通过MuLaNEmbedQuantizer获取条件嵌入,用户可以在经过训练后,实现语义、粗粒度和细粒度的三种AudioLM转换器的音乐生成。项目包含详细的安装和使用指南,适合对AI音乐生成技术感兴趣的开发者。

MusicLM - Pytorch

使用注意力网络在Pytorch中实现MusicLM,Google最新的SOTA音乐生成模型。

他们基本上是在使用文本条件的AudioLM,但令人惊讶的是,使用了一个名为MuLan的文本-音频对比学习模型的嵌入。本库将构建MuLan,并从另一个库中修改AudioLM以支持此处的音乐生成需求。

如果你对与LAION社区一起进行复现感兴趣,请加入Join us on Discord

Louis Bouchard的What's AI

感谢

使用方法

$ pip install musiclm-pytorch

使用方法

首先需要训练MuLaN

import torch
from musiclm_pytorch import MuLaN, AudioSpectrogramTransformer, TextTransformer

audio_transformer = AudioSpectrogramTransformer(
    dim = 512,
    depth = 6,
    heads = 8,
    dim_head = 64,
    spec_n_fft = 128,
    spec_win_length = 24,
    spec_aug_stretch_factor = 0.8
)

text_transformer = TextTransformer(
    dim = 512,
    depth = 6,
    heads = 8,
    dim_head = 64
)

mulan = MuLaN(
    audio_transformer = audio_transformer,
    text_transformer = text_transformer
)

# 获取大量<声音, 文本>对并进行训练

wavs = torch.randn(2, 1024)
texts = torch.randint(0, 20000, (2, 256))

loss = mulan(wavs, texts)
loss.backward()

# 经过大量训练后,你可以将声音和文本嵌入到一个联合嵌入空间
# 用于条件音频LM

embeds = mulan.get_audio_latents(wavs)  # 训练期间

embeds = mulan.get_text_latents(texts)  # 推理期间

要获取作为 AudioLM 部分的三个转换器的条件嵌入,你必须使用 MuLaNEmbedQuantizer 如下

from musiclm_pytorch import MuLaNEmbedQuantizer

# 使用命名空间条件嵌入设置量化器,每个量化器和命名空间都是唯一的(每个变换器)

quantizer = MuLaNEmbedQuantizer(
    mulan = mulan,                          # 传入上面训练好的Mulan
    conditioning_dims = (1024, 1024, 1024), # 假设所有三个转换器的模型维度均为1024
    namespaces = ('semantic', 'coarse', 'fine')
)

# 现在假设你需要语义转换器的条件嵌入

wavs = torch.randn(2, 1024)
conds = quantizer(wavs = wavs, namespace = 'semantic') # (2, 8, 1024) - 8是量化器的数量

要训练(或微调)作为AudioLM部分的三个转换器,只需按照audiolm-pytorch的训练说明进行操作,但需要将MulanEmbedQuantizer实例传递给训练类中的audio_conditioner关键字

例如 SemanticTransformerTrainer

import torch
from audiolm_pytorch import HubertWithKmeans, SemanticTransformer, SemanticTransformerTrainer

wav2vec = HubertWithKmeans(
    checkpoint_path = './hubert/hubert_base_ls960.pt',
    kmeans_path = './hubert/hubert_base_ls960_L9_km500.bin'
)

semantic_transformer = SemanticTransformer(
    num_semantic_tokens = wav2vec.codebook_size,
    dim = 1024,
    depth = 6,
    audio_text_condition = True      # 该设置必须为True(CoarseTransformer和FineTransformers也一样)
).cuda()

trainer = SemanticTransformerTrainer(
    transformer = semantic_transformer,
    wav2vec = wav2vec,
    audio_conditioner = quantizer,   # 传入上面的MulanEmbedQuantizer实例
    folder ='/path/to/audio/files',
    batch_size = 1,
    data_max_length = 320 * 32,
    num_train_steps = 1
)

trainer.train()

在对所有三个转换器(语义,粗略,精细)进行大量训练后,你将把微调或从头开始训练的AudioLM和用 MuLaNEmbedQuantizer 包装的MuLaN传给MusicLM

# 你需要从上面训练好的AudioLM(audio_lm)
# 与MulanEmbedQuantizer(mulan_embed_quantizer)

from musiclm_pytorch import MusicLM

musiclm = MusicLM(
    audio_lm = audio_lm,                 # `AudioLM`来自https://github.com/lucidrains/audiolm-pytorch
    mulan_embed_quantizer = quantizer    # 上面的`MuLaNEmbedQuantizer`
)

music = musiclm('the crystalline sounds of the piano in a ballroom', num_samples = 4) # 采样4个并使用Mulan选取最佳匹配

待办事项

  • mulan似乎在使用解耦的对比学习,提供该选项

  • 用mulan包装器包装mulan并量化输出,将其投射到audiolm维度

  • 修改audiolm以接受条件嵌入,可以选择通过单独的投影处理不同的维度

  • audiolm和mulan进入musiclm进行生成,并用mulan过滤

  • 给AST中的自注意力赋予动态位置偏置

  • 实现MusicLM生成多个样本并选择与MuLan最匹配的样本

  • 支持音频变长度,使用音频转换器中的掩模

  • open clip添加一个版本的mulan

  • 设置所有适当的声谱图超参数

引用

@inproceedings{Agostinelli2023MusicLMGM,
    title     = {MusicLM: Generating Music From Text},
    author    = {Andrea Agostinelli and Timo I. Denk and Zal{\'a}n Borsos and Jesse Engel and Mauro Verzetti and Antoine Caillon and Qingqing Huang and Aren Jansen and Adam Roberts and Marco Tagliasacchi and Matthew Sharifi and Neil Zeghidour and C. Frank},
    year      = {2023}
}
@article{Huang2022MuLanAJ,
    title   = {MuLan: A Joint Embedding of Music Audio and Natural Language},
    author  = {Qingqing Huang and Aren Jansen and Joonseok Lee and Ravi Ganti and Judith Yue Li and Daniel P. W. Ellis},
    journal = {ArXiv},
    year    = {2022},
    volume  = {abs/2208.12415}
}
@misc{https://doi.org/10.48550/arxiv.2302.01327,
    doi     = {10.48550/ARXIV.2302.01327},
    url     = {https://arxiv.org/abs/2302.01327},
    author  = {Kumar, Manoj and Dehghani, Mostafa and Houlsby, Neil},
    title   = {Dual PatchNorm},
    publisher = {arXiv},
    year    = {2023},
    copyright = {Creative Commons Attribution 4.0 International}
}
@article{Liu2022PatchDropoutEV,
    title   = {PatchDropout: Economizing Vision Transformers Using Patch Dropout},
    author  = {Yue Liu and Christos Matsoukas and Fredrik Strand and Hossein Azizpour and Kevin Smith},
    journal = {ArXiv},
    year    = {2022},
    volume  = {abs/2208.07220}
}
@misc{liu2021swin,
    title   = {Swin Transformer V2: Scaling Up Capacity and Resolution},
    author  = {Ze Liu and Han Hu and Yutong Lin and Zhuliang Yao and Zhenda Xie and Yixuan Wei and Jia Ning and Yue Cao and Zheng Zhang and Li Dong and Furu Wei and Baining Guo},
    year    = {2021},
    eprint  = {2111.09883},
    archivePrefix = {arXiv},
    primaryClass = {cs.CV}
}
@misc{gilmer2023intriguing
    title  = {Intriguing Properties of Transformer Training Instabilities},
    author = {Justin Gilmer, Andrea Schioppa, and Jeremy Cohen},
    year   = {2023},
    status = {to be published - one attention stabilization technique is circulating within Google Brain, being used by multiple teams}
}
@inproceedings{Shukor2022EfficientVP,
    title   = {Efficient Vision-Language Pretraining with Visual Concepts and Hierarchical Alignment},
    author  = {Mustafa Shukor and Guillaume Couairon and Matthieu Cord},
    booktitle = {British Machine Vision Conference},
    year    = {2022}
}
@inproceedings{Zhai2023SigmoidLF,
    title   = {Sigmoid Loss for Language Image Pre-Training},
    author  = {Xiaohua Zhai and Basil Mustafa and Alexander Kolesnikov and Lucas Beyer},
    year    = {2023}
}

唯一的真理是音乐。 - 杰克·凯鲁亚克

音乐是人类的通用语言。 - 亨利·沃兹沃斯·朗费罗

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号