Project Icon

speecht5_hifigan

用于语音合成和声音转换的开源声码器

SpeechT5 HiFi-GAN是一个专为SpeechT5文本转语音和声音转换模型开发的开源声码器。该项目采用MIT许可证,提供预训练权重,能够与SpeechT5的语音处理功能无缝集成。它为开发者和研究人员在语音合成和声音转换领域提供了实用工具。SpeechT5采用统一模态的编码器-解码器预训练方法,为口语处理技术开辟了新的研究方向。

vocos - 基于傅里叶变换的快速神经声码器
GithubVocos开源项目深度学习神经声码器语音技术音频合成
Vocos是一款创新的神经声码器,通过生成频谱系数而非时域样本来合成音频波形。它采用GAN训练,支持从梅尔频谱图和EnCodec令牌重建音频,实现了快速高效的音频合成。Vocos的独特设计弥合了时域和傅里叶域神经声码器之间的差距,为音频合成领域提供了新的解决方案。
tango - 利用扩散模型和大语言模型实现先进的文本到音频生成
GithubTango人工智能开源项目文本转音频生成潜在扩散模型音频生成
Tango是一个创新的文本到音频生成模型,结合了潜在扩散模型和大语言模型技术。该模型使用冻结的Flan-T5作为文本编码器,训练UNet扩散模型生成音频。尽管训练数据集较小,Tango的性能仍可媲美最先进模型。Tango 2版本通过在Audio-alpaca数据集上的DPO对齐训练进一步提升了生成质量。项目开源了模型代码和预训练权重,为音频生成研究提供了有价值的资源。
TTS-Cube - 基于神经网络的端到端语音合成系统
GithubTTS-Cube开源项目神经网络端到端系统语音合成音频生成
TTS-Cube是一个基于神经网络的端到端语音合成系统,提供训练和部署TTS模型的完整流程。系统无需预对齐数据,仅通过字符或音素序列即可训练生成音频。它包含一个编码器模块,将输入序列转换为梅尔对数谱图,以及一个基于RNN的声码器模块。TTS-Cube采用轻量级架构和引导注意力技术,实现快速收敛。项目提供交互式演示、安装指南和训练实例。
vits2_pytorch - 单阶段文本到语音转换的效率与质量提升
GithubVITS2单阶段模型对抗学习开源项目文本转语音架构设计
VITS2_pytorch是一款先进的单阶段文本到语音转换模型,采用对抗学习和架构设计改进前代产品。这一最新的非官方实现版本,旨在通过增强模型结构和训练机制,有效提升语音自然度和特征相似性,同时显著降低对音素转换的依赖,从而提高训练和推断的效率。该项目还为专业人士提供了预训练模型和多种语言的样本音频,支持开箱即用的转换学习。
GenerSpeech - 文本转语音模型,可实现 OOD 自定义语音的高保真零样本样式传输
GenerSpeechGithub多GPU支持开源项目文本到语音零样本学习风格转换
GenerSpeech: PyTorch实现的NeurIPS 2022文本到语音模型,专注于无监督出域场景下的高保真样式转换。提供多层级样式转换、优化的模型泛化功能,并支持多GPU环境。完整指南及音频样例可在线获取,助您快速实施和部署。
Comprehensive-Transformer-TTS - 基于非自回归 Transformer 的 TTS
GithubPyTorchTTS开源项目持续时间建模语音合成非自回归变换器
该项目采用非自回归Transformer技术,集成多种最新状态转换模型。Comprehensive-Transformer-TTS不仅提供监督与非监督持续时间建模, 也支持多种数据集和SOTA技术,如Fastformer和Long-Short Transformer,力求在文本到语音转换领域取得领先成果。
audiolm-pytorch - 基于Pytorch的音频生成模型AudioLM
AudioLMEnCodecGithubPytorchSoundStream开源项目音频生成
AudioLM是一个基于Pytorch的音频生成模型,具有T5引导的文本到音频转换功能。该项目还兼容SoundStream和Facebook的EnCodec,并提供了多个音频编码和解码模块。用户可以通过完整的训练和使用流程,包括SoundStream、分层Transformer和基于文本条件的音频合成,来进行音频生成技术的研究和开发。
GST-Tacotron - PyTorch实现的自动语音合成与风格控制模型
GST-TacotronGithubPyTorch中文支持多说话人数据集开源项目语音合成
GST-Tacotron是一个基于PyTorch的端到端语音合成系统实现,实现无监督风格建模、控制与转移技术。该项目已增加对Blizzard数据集的支持,同时提供了预训练模型,专门针对中文数据集进行训练。支持简单的命令行操作以训练模型和生成.wav格式的语音文件,方便研究人员和开发者在多说话人数据集上进行语音合成实验。
Real-Time-Voice-Cloning - 实时语音克隆与多声源文本到语音转换技术
GithubSV2TTS多说话者文本转语音合成实时语音克隆开源项目深度学习热门语音合成
Real-Time Voice Cloning是一个基于深度学习的实时语音克隆工具,能够通过简短语音样本快速创建个性化语音模型。项目实现了从说话人验证到多说话人文本到语音合成的框架(SV2TTS),并配备了实时工作的声码器。适用于需要个性化语音合成的开发者和研究人员,支持多种数据集,提供预训练模型以简化使用和实验过程。
HierSpeechpp - 分层变分推理实现高质量零样本语音合成
AI模型GithubHierSpeech++变分推理开源项目语音合成零样本
HierSpeech++项目提出了一种基于分层变分推理的零样本语音合成技术。该技术通过文本到向量框架生成语音表示,显著提高了合成语音的自然度和表现力。项目还引入了语音超分辨率框架,可将音频从16 kHz提升至48 kHz。实验表明,HierSpeech++在零样本语音合成任务中优于现有的基于大语言模型和扩散模型的方法,首次实现了人类水平质量的零样本语音合成。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号