项目介绍:faster-distil-whisper-large-v2
faster-distil-whisper-large-v2项目是一个基于音频自动语音识别的项目。这个项目通过转换distil-whisper/distil-large-v2模型,使用了CTranslate2库的模型格式。CTranslate2是一种高效的神经网络推理引擎,适用于各种语言任务,包括自动语音识别。
项目背景
该项目将原始的distil-whisper模型转换为CTranslate2格式,这使得模型能够在CTranslate2平台或基于CTranslate2构建的其他项目中使用,例如faster-whisper。
项目功能
通过这个项目,用户可以对音频文件进行语音转录。下面的示例展示了如何使用faster-distil-whisper-large-v2模型对音频文件进行转录:
from faster_whisper import WhisperModel
model = WhisperModel("distil-large-v2")
segments, info = model.transcribe("audio.mp3")
for segment in segments:
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
在这个例子中,WhisperModel
被用来加载模型,并通过transcribe
函数对名为"audio.mp3"的音频文件进行转录。最终,转录结果将按照时间段显示每个文本片段。
模型转换细节
原始的distil-whisper模型是使用以下命令转换的:
ct2-transformers-converter --model distil-whisper/distil-large-v2 --output_dir faster-distil-whisper-large-v2 \
--copy_files tokenizer.json preprocessor_config.json --quantization float16
在转换过程中,模型的权重被保存为FP16格式。这种浮点格式能够在保持精度的同时减少存储需求。用户还可以在加载模型时使用CTranslate2的compute_type
选项更改权重的计算类型。
更多信息
如果大家需要更多关于原始模型的信息,可以访问其模型卡片。模型卡片提供了关于模型的详细背景、使用指南及性能表现的资讯。