PL-BERT简介
PL-BERT (Phoneme-Level BERT) 是一种专为增强文本转语音(TTS)系统韵律表现而设计的音素级BERT模型。它通过预测对应的字形来进行预训练,能够显著提升合成语音的自然度,特别是在非训练分布的文本上表现出色。
核心资源
-
论文: Phoneme-Level BERT for Enhanced Prosody of Text-to-Speech with Grapheme Predictions
-
代码仓库: GitHub - yl4579/PL-BERT
-
音频样本: PL-BERT Demo
安装与使用
环境配置
- Python >= 3.7
- 依赖库:
pip install pandas singleton-decorator datasets "transformers<4.33.3" accelerate nltk phonemizer sacremoses pebble
快速开始
- 克隆仓库:
git clone https://github.com/yl4579/PL-BERT.git
cd PL-BERT
-
数据预处理: 参考 preprocess.ipynb
-
模型训练: 运行 train.ipynb
模型微调
PL-BERT可以与StyleTTS等TTS模型集成,具体步骤请参考GitHub README。
预训练模型
- 预训练PL-BERT模型 (在Wikipedia上训练100万步)
- StyleTTS与PL-BERT集成演示 (包含LJSpeech数据集上的预训练模型)
相关资源
PL-BERT通过结合音素级BERT和字形预测任务,有效提升了TTS系统的韵律表现。欢迎探索上述资源,深入了解这一创新技术!