项目介绍:s2t-small-librispeech-asr
s2t-small-librispeech-asr
是一个用于自动语音识别的语音转文本Transformer(S2T)模型。这一模型的开发是基于这篇论文的研究,并在这个代码库中发布。
模型描述
S2T是一种端到端的序列到序列的Transformer模型。这个模型采用标准的自回归交叉熵损失进行训练,通过自回归方式生成文本转录。
预期用途及限制
该模型能用于端到端的语音识别(ASR),并且可在模型库中查找其他S2T模型的检查点。
如何使用
由于这是标准的序列到序列Transformer模型,用户可以通过generate
方法,向模型传递语音特征以生成转录文本。
注意: Speech2TextProcessor
对象使用torchaudio来提取滤波器组特征。在运行示例之前,请确保安装torchaudio
包。
用户可以通过以下命令来安装必要的软件包:
pip install transformers"[speech, sentencepiece]"
或单独安装:
pip install torchaudio sentencepiece
这里是一个简单的Python代码示例,展示了如何使用该模型:
import torch
from transformers import Speech2TextProcessor, Speech2TextForConditionalGeneration
from datasets import load_dataset
model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-small-librispeech-asr")
processor = Speech2TextProcessor.from_pretrained("facebook/s2t-small-librispeech-asr")
ds = load_dataset("patrickvonplaten/librispeech_asr_dummy", "clean", split="validation")
input_features = processor(ds[0]["audio"]["array"], sampling_rate=16_000, return_tensors="pt").input_features
generated_ids = model.generate(input_features=input_features)
transcription = processor.batch_decode(generated_ids)
在LibriSpeech测试集上的评估
以下脚本展示了如何在LibriSpeech的“clean”和“other”测试集上评估此模型。
from datasets import load_dataset
from evaluate import load
from transformers import Speech2TextForConditionalGeneration, Speech2TextProcessor
librispeech_eval = load_dataset("librispeech_asr", "clean", split="test")
wer = load("wer")
model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-small-librispeech-asr").to("cuda")
processor = Speech2TextProcessor.from_pretrained("facebook/s2t-small-librispeech-asr", do_upper_case=True)
def map_to_pred(batch):
features = processor(batch["audio"]["array"], sampling_rate=16000, padding=True, return_tensors="pt")
input_features = features.input_features.to("cuda")
attention_mask = features.attention_mask.to("cuda")
gen_tokens = model.generate(input_features=input_features, attention_mask=attention_mask)
batch["transcription"] = processor.batch_decode(gen_tokens, skip_special_tokens=True)[0]
return batch
result = librispeech_eval.map(map_to_pred, remove_columns=["audio"])
print("WER:", wer.compute(predictions=result["transcription"], references=result["text"]))
评估结果(WER):
数据集类型 | 错误率(WER) |
---|---|
"clean" | 4.3 |
"other" | 9.0 |
训练数据
S2T-SMALL-LIBRISPEECH-ASR是在LibriSpeech ASR文本库上训练的,这是一套大约包含1000小时的16kHz标准英语语音数据集。
训练过程
预处理
音频数据通过从WAV/FLAC音频文件中自动提取Kaldi兼容的80通道log mel滤波器组特征来进行预处理。对于每个样本,还进一步应用了话语级别的CMVN(倒谱均值和方差标准化)。
文本部分经过小写化处理,并使用SentencePiece进行分词,词汇量大小设定为10,000。
训练
模型的训练采用标准的自回归交叉熵损失函数,并且使用SpecAugment进行数据增强。模型的编码器处理语音特征,而解码器自回归生成文本转录。
引用信息
@inproceedings{wang2020fairseqs2t,
title = {fairseq S2T: Fast Speech-to-Text Modeling with fairseq},
author = {Changhan Wang and Yun Tang and Xutai Ma and Anne Wu and Dmytro Okhonko and Juan Pino},
booktitle = {Proceedings of the 2020 Conference of the Asian Chapter of the Association for Computational Linguistics (AACL): System Demonstrations},
year = {2020},
}