#LibriSpeech
wav2vec2-large-960h-lv60-self - Wav2Vec2大规模语音识别模型实现低词错误率
模型自训练Github语音识别模型评估开源项目HuggingfaceWav2Vec2LibriSpeech
Wav2Vec2-large-960h-lv60-self是一个基于Wav2Vec2技术的大规模语音识别模型。该模型在960小时的Libri-Light和Librispeech数据集上进行预训练和微调,采用自训练方法。在LibriSpeech清晰测试集上,模型实现1.9%的词错误率,其他测试集上为3.9%。模型可直接用于音频转录,特别适合标记数据有限的语音识别任务。
s2t-small-librispeech-asr - 小型LibriSpeech语音识别模型的高效自动化
语音转换文本Speech2TextHuggingfaceLibriSpeechGithub开源项目模型s2t-small-librispeech-asr自动语音识别
s2t-small-librispeech-asr是一种小型端到端语音识别模型,使用LibriSpeech ASR语料库进行训练。该模型采用自回归的方式生成转录文本,并结合Pytorch及其工具如torchaudio和sentencepiece以提高准确性。在LibriSpeech“clean”和“other”测试集上的WER分别为4.3和9.0,可满足高性能语音识别应用的需求。
wavlm-base - 适用于多语音任务的自监督预训练模型
LibriSpeechWavLM音频分类自监督学习语音识别模型Github开源项目Huggingface
WavLM是基于自监督学习的语音预训练模型,旨在支持多种语音任务。模型在960小时Librispeech数据集上进行预训练,适用于语音识别和分类等任务,需在下游任务中微调。WavLM通过门控相对位置偏置和发音混合训练策略,强调说话者身份保留和内容建模,在SUPERB基准测试中表现优异。模型主要在英语环境中有良好表现,但目标是提供全语言栈的统一表示。