Project Icon

USLM

语音信息分层建模与零样本文本转语音的统一框架

USLM是基于SpeechTokenizer构建的统一语音语言模型,结合自回归和非自回归模型实现语音信息的分层建模。该开源项目提供完整的安装指南、预训练模型和零样本文本转语音推理流程。USLM在LibriTTS数据集上训练,展示了语音内容和副语言信息建模的能力,为语音处理研究提供新思路。

speecht5_tts - 基于统一模态预训练的高效语音合成模型
GithubHuggingfaceSpeechT5开源项目文本转语音模型语音合成语音处理预训练模型
SpeechT5是一个基于统一模态预训练框架的语音合成模型。它通过大规模未标记语音和文本数据学习统一表示,提升了语音和文本的建模能力。该模型在语音识别、合成、翻译等多项任务中表现优异。研究者可使用Hugging Face Transformers库轻松实现文本到语音转换,或针对特定需求进行模型微调。SpeechT5为语音处理领域提供了强大而灵活的解决方案。
wavlm-base - 适用于多语音任务的自监督预训练模型
GithubHuggingfaceLibriSpeechWavLM开源项目模型自监督学习语音识别音频分类
WavLM是基于自监督学习的语音预训练模型,旨在支持多种语音任务。模型在960小时Librispeech数据集上进行预训练,适用于语音识别和分类等任务,需在下游任务中微调。WavLM通过门控相对位置偏置和发音混合训练策略,强调说话者身份保留和内容建模,在SUPERB基准测试中表现优异。模型主要在英语环境中有良好表现,但目标是提供全语言栈的统一表示。
voicesmith - 实现个性化语音合成的强大工具
DelightfulTTSGithubUnivNetVoiceSmith多说话者模型开源项目文本转语音
VoiceSmith是一个允许用户训练和应用单语者及多语者模型的平台。该项目基于改良的DelightfulTTS和UnivNet模型,能在个人数据集上进行微调,带来高度自然的语音输出。VoiceSmith还包括数据预处理工具,如自动文本规范化功能,适合在Windows或Linux系统上使用,推荐配置NVIDIA GPU以优化训练效率。
HierSpeechpp - 分层变分推理实现高质量零样本语音合成
AI模型GithubHierSpeech++变分推理开源项目语音合成零样本
HierSpeech++项目提出了一种基于分层变分推理的零样本语音合成技术。该技术通过文本到向量框架生成语音表示,显著提高了合成语音的自然度和表现力。项目还引入了语音超分辨率框架,可将音频从16 kHz提升至48 kHz。实验表明,HierSpeech++在零样本语音合成任务中优于现有的基于大语言模型和扩散模型的方法,首次实现了人类水平质量的零样本语音合成。
StyleSpeech - 多说话人自适应文本转语音生成
GithubMeta-StyleSpeech开源项目文本到语音自适应音质预训练模型
Meta-StyleSpeech项目结合最新的多说话者适应性文本到语音合成技术,通过样本少量的语音输入即可生成高质量合成语音。该项目运用风格自适应层归一化技术,高效适配不同说话者的声音特征。提供预训练模型和在线演示供实际应用测试。
StyleTTS2 - 通过样式扩散与对抗训练实现的高质量的文本到语音合成模型
GithubStyleTTS 2大型语言模型对抗训练开源项目语音合成风格扩散
StyleTTS 2是一种创新的文本到语音模型,通过样式扩散和大规模语音语言模型的对抗训练,实现高质量的语音合成。该模型利用潜在随机变量生成最适合文本的语音风格,无需参考语音,提高了语音的自然度。StyleTTS 2在单说话人和多说话人数据集上的表现超越了现有模型,并在零样本说话人适应方面表现出色。
wavlm-base-plus - Microsoft 全栈语音处理预训练模型
GithubHuggingfaceWavLM开源项目微软模型自监督学习语音处理预训练模型
WavLM-Base-Plus是Microsoft开发的预训练语音模型,致力于解决全栈语音处理任务。该模型在94,000小时的英语语音数据上进行自监督学习,采用改进的Transformer结构和话语混合训练策略。WavLM在SUPERB基准测试中表现优异,可应用于语音识别、音频分类等多种下游任务,为语音处理技术带来重要进展。这个预训练模型需要在特定任务上进行微调后才能使用,主要支持英语。值得注意的是,WavLM是基于音素而非字符预训练的,这一点在进行微调时需要特别注意。
WhisperSpeech - 多语言支持的开源文本转语音系统,功能强大并易于定制
GithubWhisperSpeech多语言支持开源模型开源项目文本转语音语音克隆
WhisperSpeech是基于开源Whisper框架开发的文本至语音系统,提供了商业级安全的语音合成解决方案。当前支持英语LibreLight数据集,并计划拓展到多语言支持。用户可通过在线Colab平台体验其高效的语音合成和声音克隆功能。
ultravox - 实现实时语音交互的多模态大语言模型
GithubLlama 3Ultravox多模态LLM实时语音开源项目语音识别
Ultravox 是一个创新的多模态大语言模型,能直接理解文本和语音,无需单独的语音识别步骤。基于 Llama 3 模型,它通过多模态投影器将音频转换为高维空间。Ultravox 的首字响应时间约为 200 毫秒,每秒可生成约 100 个 token,有效支持实时语音交互。目前支持音频输入和文本输出,未来计划增加语音输出功能。
ltu - 音频和语音理解大模型与技术突破
GithubLTULTU-AS大语言模型开源项目语音理解音频理解
LTU和LTU-AS是首个桥接音频和语音感知与理解的大型语言模型。这两个模型在多个封闭式音频和语音任务上达到最先进水平,同时能基于给定音频回答开放式问题。项目提供PyTorch实现、预训练模型和数据集,支持推理和微调。发布的OpenAQA和OpenASQA训练数据集为音频和语音理解研究提供了重要资源。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号