#音乐生成
riffusion-app-hobby
Riffusion是一款基于稳定扩散技术的实时音乐生成应用程序,支持Next.js、React、Typescript、three.js、Tailwind和Vercel技术栈。用户可通过安装Node v18或更高版本运行开发服务器,并在本地浏览器中查看应用。项目需要配置推理服务器来快速生成模型输出,适用于大GPU用户。请在二次开发时引用相关工作。
muzic
Muzic项目利用深度学习和人工智能技术,致力于音乐理解与生成的研究。涵盖符号音乐理解、歌词自动转录、歌曲创作、文本到音乐生成等功能,并引入AI代理实现多轨音乐生成。最新成果包括获奖的CLaMP和MuseCoco等工具,为音乐创作提供强有力的支持。
AudioGPT
AudioGPT 是一个多功能音频生成与理解平台,具备语音合成、语音识别、语音分离、风格迁移、声音检测、声音提取、文本到音频转换等功能,还支持音乐生成与虚拟人对话。集成了 FastSpeech、whisper、GeneFace 等多个领先的基础模型,AudioGPT 为开发者提供强大的开源工具和预训练模型,支持多种音频相关任务,不断扩展其功能和应用场景。此平台适合音频处理、自然语言处理及多模态研究的需求。
awesome-audio-plaza
Awesome Audio Plaza汇聚全球音频领域的最新研究成果和创新项目。涵盖自然语音合成、音乐创作、自动语音识别至声音转换等多个子领域,为研究人员、学者及爱好者提供了一个内容丰富的信息平台。该平台通过整合arxiv、Hugging Face日报、Twitter、GitHub等多种资源,确保用户能够访问到前沿科研和技术动态。
Amphion
Amphion是一个开源的音频、音乐和语音生成工具集,旨在支持可重复的研究并帮助研究人员和工程师入门。提供TTS、SVS、VC、SVC、TTA等生成任务,集成高级语音编码器和评估指标,如F0建模、能量建模、语音相似度测评。功能包括模型可视化、数据集建设及文本到音频/音乐的实现,推动音频生成技术应用。
musegan
MuseGAN项目致力于生成多轨乐器的复音音乐。通过使用Lakh Pianoroll Dataset进行训练,该模型可以从零开始生成音乐或为用户提供的轨道进行伴奏。最新版本使用3D卷积层处理时间结构,尽管网络规模较小,但可控性有所下降。项目支持PyTorch版本,并提供多个shell脚本用于实验管理和数据收集。生成样本存储为.npy、.png和.npz格式,可转换为MIDI文件进一步使用。
musiclm-pytorch
MusicLM-Pytorch通过使用Google的新型SOTA音乐生成模型来生成音乐。该项目结合了文本条件的AudioLM和MuLan文本-音频对比学习模型。通过MuLaNEmbedQuantizer获取条件嵌入,用户可以在经过训练后,实现语义、粗粒度和细粒度的三种AudioLM转换器的音乐生成。项目包含详细的安装和使用指南,适合对AI音乐生成技术感兴趣的开发者。
audio-development-tools
Audio Development Tools提供了涵盖机器学习、音频生成、信号处理、声音合成等多个领域的综合性音频开发工具集。该项目汇集了丰富的资源和工具,可用于游戏音频、数字音频工作站、空间音频、音乐信息检索、语音识别等多种音频相关项目的开发和研究。
riffusion-hobby
Riffusion是一个开源库,利用稳定扩散技术实现实时音乐和音频生成,并在图像和音频之间进行转换。该库提供扩散管道、命令行工具和互动应用,支持通过Flask服务器进行模型推理。支持CPU、CUDA和MPS后端,推荐使用CUDA支持的GPU以获得最佳性能。虽然项目已停止维护,但用户仍可参考相关资源和指南进行安装和使用。