Project Icon

AudioLCM

基于潜在一致性模型的文本到音频生成系统

AudioLCM是一个开源的文本到音频生成系统,基于潜在一致性模型。该项目提供完整实现代码和预训练模型,支持高效生成高质量音频内容。AudioLCM在ACM-MM'24会议被接受,并在GitHub和HuggingFace平台发布。研究人员可使用预训练模型进行推理,或按指南准备数据集训练自定义模型。项目还包含数据集处理、变分自编码器训练等功能。

vocos-mel-24khz - 基于GAN的高效神经声码器Vocos
GANGithubHuggingfaceVocos开源项目梅尔频谱图模型神经声码器音频合成
Vocos是一个开源的神经声码器项目,采用GAN训练方法,能够从声学特征快速合成高质量音频。它通过生成频谱系数并进行傅里叶逆变换重建音频,实现单次前向传播的高效生成。项目提供预训练模型和Python接口,支持梅尔频谱图重建和文件复合合成。Vocos结合了时域和傅里叶域声码器的优点,为音频合成领域提供了新的技术方案。
Transformer-TTS - 神经语音合成系统
GithubPyTorchTacotronTransformer-TTS开源项目神经网络语音合成
Transformer-TTS,一个基于Pytorch的高效神经语音合成系统。它使用Transformer网络,且训练速度是传统seq2seq模型的3到4倍。不仅提供预训练模型,其合成语音质量经实验证明优异。同时,项目支持自定义学习模型及策略,包括Noam式预热衰减学习率及关键的梯度裁剪等,是语音合成研究的理想选择。
LanguageBind_Audio - 语言驱动的多模态预训练解决方案
GithubHuggingfaceLanguageBind公开源码多模态开源项目数据集模型语义对齐
LanguageBind是一个语言驱动的多模态预训练工具,在五个数据集上表现出色。该项目采用VIDAL-10M数据集,将视频、红外、深度、音频和语言模态结合,实现了跨越视觉模态的扩展。通过多视图增强和ChatGPT的结合,它提高了语言的语义表达,并支持在线和本地运行,包括音频与语言、视频与语言的相似性计算。
Real-Time-Voice-Cloning - 实时语音克隆与多声源文本到语音转换技术
GithubSV2TTS多说话者文本转语音合成实时语音克隆开源项目深度学习热门语音合成
Real-Time Voice Cloning是一个基于深度学习的实时语音克隆工具,能够通过简短语音样本快速创建个性化语音模型。项目实现了从说话人验证到多说话人文本到语音合成的框架(SV2TTS),并配备了实时工作的声码器。适用于需要个性化语音合成的开发者和研究人员,支持多种数据集,提供预训练模型以简化使用和实验过程。
LLaMA-VID - 支持长视频处理的多模态大语言模型
GithubLLaMA-VID多模态大语言模型开源项目视觉语言模型视频理解
LLaMA-VID是一个新型多模态大语言模型,可处理长达数小时的视频。它通过增加上下文令牌扩展了现有框架的能力,采用编码器-解码器结构和定制令牌生成策略,实现对图像和视频的高效理解。该项目开源了完整的模型、数据集和代码,为视觉语言模型研究提供了有力工具。
ZMM-TTS - 零样本多语言多说话人语音合成技术创新
GithubZMM-TTS多语言多说话人开源项目自监督学习语音合成
ZMM-TTS是一个多语言多说话人语音合成框架,基于大规模预训练自监督模型的量化语音表示。该项目首次将文本和语音自监督学习模型的表示应用于多语言语音合成。实验表明,ZMM-TTS在六种高资源语言中,对已知和未知说话人都能生成自然度高、相似度好的语音。即使对缺乏训练数据的新语言,也能合成清晰且与目标说话人相似的音频。
mandarin-tts - 模块化的中文文本到语音合成框架
AI绘图Githubgithubmandarin-ttsvocoder开源项目语音合成
mandarin-tts是一个模块化的中文文本到语音合成框架,适用于加速科研和产品开发。它的主要特点包括模块化配置、多样的声码器支持以及丰富的嵌入选项,如说话人、韵律和文本嵌入。此外,该框架还支持预测语音的持续时间、音调和能量变化,通过开源合作进一步拓展其功能。框架提供多数据集的音频样本和预训练模型,方便用户使用和进一步开发。此外通过正确使用专有名词,如YAML配置文件,并加入客观描述,提供高效的开发工具给研究人员和开发者。
WaveRNN - 高效神经音频合成技术
GithubPytorchTTSTacotronWaveRNN开源项目语音合成
WaveRNN通过Pytorch实现了Deepmind的高效神经音频合成技术,并包含Tacotron训练支持, 提供两种预训练模型。项目向研究者和开发者开放,并附有详细使用指南与多样化的自定义功能,以便进行高质量的文本到语音转换。
wavlm-large - 微软WavLM:全栈语音处理的自监督预训练模型
GithubHuggingfaceSUPERB基准测试WavLM开源项目模型自监督学习语音处理预训练模型
WavLM-Large是微软开发的自监督语音预训练模型,针对全栈语音处理任务进行优化。模型基于HuBERT框架,引入混合话语训练策略和门控相对位置偏置,提升了语音内容建模和说话人身份识别能力。通过在94,000小时多样化语音数据上训练,WavLM-Large在SUPERB基准测试中展现出卓越性能,为多种语音处理任务带来显著改进。
Qwen-Audio-Chat - 多模态音频语言模型支持多种音频类型和复杂场景分析
GithubHuggingfaceQwen-Audio多任务学习多模态开源项目模型语音识别音频语言模型
Qwen-Audio-Chat是一款大规模音频语言模型,支持多种音频输入和文本输出。该模型采用创新的多任务学习框架,可处理30多种音频任务,在多个基准测试中表现优异。它能够支持多轮对话、声音理解、音乐欣赏等复杂场景,为音频AI研究和应用提供了有力工具。Qwen-Audio-Chat已开源模型代码和权重,并允许商业使用,推动了音频AI技术的发展。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号