Project Icon

parler-tts

轻量级开源TTS模型 支持自定义语音特征

Parler-TTS是一个轻量级开源文本转语音模型,通过文本提示控制语音特征如性别、语速和音调。项目提供完整训练和推理代码及预训练模型,便于用户定制TTS模型。最新版本引入SDPA和Flash Attention 2,显著提升生成速度。该模型支持随机声音生成和特定说话人复制,适用于多种TTS应用场景。

Parler-TTS

Parler-TTS是一个轻量级的文本转语音(TTS)模型,可以生成高质量、自然流畅的语音,并能模仿特定说话者的风格(性别、音调、说话方式等)。这是对Stability AI的Dan Lyth和爱丁堡大学的Simon King所发表的论文《Natural language guidance of high-fidelity text-to-speech with synthetic annotations》中研究成果的复现。

与其他TTS模型不同,Parler-TTS是一个完全开源的发布版本。所有数据集、预处理、训练代码和权重都以宽松的许可证公开发布,使社区能够在我们的工作基础上开发他们自己的强大TTS模型。

本仓库包含Parler-TTS的推理和训练代码。它旨在与Data-Speech仓库配合使用,用于数据集标注。

[!重要] 2024年8月8日: 我们很自豪地发布两个新的Parler-TTS检查点:

  1. Parler-TTS Mini,一个880M参数的模型。
  2. Parler-TTS Large,一个2.3B参数的模型。

这些检查点已在45,000小时的有声读物数据上进行了训练。

此外,代码经过优化,生成速度大大提高:我们增加了SDPA和Flash Attention 2的兼容性,以及编译模型的功能。

📖 快速索引

安装

Parler-TTS的依赖项很轻量,可以通过一行命令安装:

pip install git+https://github.com/huggingface/parler-tts.git

Apple Silicon用户需要运行以下命令以使用PyTorch(2.4)的每夜版构建,以支持bfloat16:

pip3 install --pre torch torchaudio --index-url https://download.pytorch.org/whl/nightly/cpu

使用

[!提示] 你可以直接在这里的交互式演示中试用!

使用Parler-TTS就像说"你好"一样简单。只需一次性安装库:

pip install git+https://github.com/huggingface/parler-tts.git

🎲 随机语音

Parler-TTS经过训练,可以生成具有可控特征的语音,这些特征可以通过简单的文本提示来控制,例如:

import torch
from parler_tts import ParlerTTSForConditionalGeneration
from transformers import AutoTokenizer
import soundfile as sf

device = "cuda:0" if torch.cuda.is_available() else "cpu"

model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-v1").to(device)
tokenizer = AutoTokenizer.from_pretrained("parler-tts/parler-tts-mini-v1")

prompt = "嘿,你今天过得怎么样?"
description = "一位女性说话者以略带表情和生动的方式发言,语速和音调适中。录音质量非常高,说话者的声音清晰且非常贴近。"

input_ids = tokenizer(description, return_tensors="pt").input_ids.to(device)
prompt_input_ids = tokenizer(prompt, return_tensors="pt").input_ids.to(device)

generation = model.generate(input_ids=input_ids, prompt_input_ids=prompt_input_ids)
audio_arr = generation.cpu().numpy().squeeze()
sf.write("parler_tts_out.wav", audio_arr, model.config.sampling_rate)

🎯 使用特定说话者

为确保生成过程中说话者的一致性,此检查点还在34位说话者上进行了训练,每位说话者都有特定的名字(如Jon、Lea、Gary、Jenna、Mike、Laura)。

要利用这一特性,只需调整你的文本描述以指定使用哪位说话者:"Jon的声音单调但语速略快,录音非常贴近,几乎没有背景噪音。"

import torch
from parler_tts import ParlerTTSForConditionalGeneration
from transformers import AutoTokenizer
import soundfile as sf

device = "cuda:0" if torch.cuda.is_available() else "cpu"

model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-v1").to(device)
tokenizer = AutoTokenizer.from_pretrained("parler-tts/parler-tts-mini-v1")

prompt = "嘿,你今天过得怎么样?"
description = "Jon的声音单调但语速略快,录音非常贴近,几乎没有背景噪音。"

input_ids = tokenizer(description, return_tensors="pt").input_ids.to(device)
prompt_input_ids = tokenizer(prompt, return_tensors="pt").input_ids.to(device)

generation = model.generate(input_ids=input_ids, prompt_input_ids=prompt_input_ids)
audio_arr = generation.cpu().numpy().squeeze()
sf.write("parler_tts_out.wav", audio_arr, model.config.sampling_rate)

提示

  • 包含"音频非常清晰"这个词来生成最高质量的音频,使用"音频非常嘈杂"来产生高水平的背景噪音
  • 可以使用标点符号来控制生成的韵律,例如使用逗号来在语音中添加小的停顿
  • 其他语音特征(性别、说话速度、音高和混响)可以直接通过提示词来控制

✨ 优化推理速度

我们设置了一个推理指南来加快生成速度。考虑使用SDPA、torch.compile和流式处理!

训练

在Colab中打开

训练文件夹包含了训练或微调你自己的Parler-TTS模型所需的所有信息。它包括:

[!重要] 简而言之: 在完成安装步骤后,你可以使用以下命令行重现Parler-TTS Mini v1训练配方:

accelerate launch ./training/run_parler_tts_training.py ./helpers/training_configs/starting_point_v1.json

[!重要] 你也可以按照这个微调指南在单一说话人数据集上进行实验。

致谢

这个库建立在许多开源巨人的基础之上,我们想向他们提供这些工具表示最衷心的感谢!

特别感谢:

引用

如果你发现这个仓库有用,请考虑引用这项工作以及原始的Stability AI论文:

@misc{lacombe-etal-2024-parler-tts,
  author = {Yoach Lacombe and Vaibhav Srivastav and Sanchit Gandhi},
  title = {Parler-TTS},
  year = {2024},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/huggingface/parler-tts}}
}
@misc{lyth2024natural,
      title={Natural language guidance of high-fidelity text-to-speech with synthetic annotations},
      author={Dan Lyth and Simon King},
      year={2024},
      eprint={2402.01912},
      archivePrefix={arXiv},
      primaryClass={cs.SD}
}

贡献

我们欢迎贡献,因为这个项目为改进和探索提供了许多可能性。

具体来说,我们正在寻找提高质量和速度的方法:

  • 数据集:
    • 在更多数据上训练
    • 添加更多特征,如口音
  • 训练:
    • 添加PEFT兼容性以进行Lora微调
    • 添加无描述列训练的可能性
    • 添加notebook训练
    • 探索多语言训练
    • 探索单一说话人微调
    • 探索更多架构
  • 优化:
    • 编译和静态缓存
    • 支持FA2和SDPA
  • 评估:
    • 添加更多评估指标
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号