Project Icon

espnet_onnx

轻量级语音识别和合成库 基于ONNX格式优化

espnet_onnx是一个将ESPnet模型导出为ONNX格式的实用库,支持语音识别和语音合成任务。该库提供简洁的API接口,便于模型导出和推理。通过ONNX Runtime实现高效的CPU和GPU计算,并支持流式语音识别。用户可从预训练或自定义模型中轻松导出,并进行优化和量化以提升性能。无需PyTorch依赖,适合轻量级部署。

espnet_onnx

无需PyTorch的ESPnet!

一个用于轻松导出、量化和优化espnet模型到onnx格式的实用程序库。 如果你已经有了导出的文件,就无需在你的机器上安装PyTorch或ESPnet!

Colab上的espnet_onnx演示

现在可以在Google Colab上使用演示笔记本了!

  • 简单的ASR演示: 在Colab中打开
  • 简单的TTS演示: 在Colab中打开

安装

  1. 可以使用pip安装espnet_onnx
pip install espnet_onnx
  1. 如果你想导出预训练模型,还需要额外安装torch>=1.11.0espnetespnet_model_zooonnxonnx==1.12.0可能会导致一些错误。如果你在推理或导出时遇到错误,请考虑降级onnx版本。

开发者安装指南

  1. 克隆此仓库。
git clone git@github.com:espnet/espnet_onnx.git
  1. 创建虚拟环境。
cd tools
make venv export
  1. 激活虚拟环境并根据需要安装torch。
. tools/venv/bin/activate

# 请参考PyTorch的官方安装指南。
pip install torch
  1. 克隆s3prl仓库并用pip安装。
cd tools
git clone https://github.com/s3prl/s3prl
cd s3prl
pip install .
  1. 为开发transducer模型安装warp_transducer。
cd tools
git clone --single-branch --branch espnet_v1.1 https://github.com/b-flo/warp-transducer.git
cd warp-transducer
mkdir build
# 请将WITH_OMP设置为ON或OFF。
cd build && cmake -DWITH_OMP="ON" .. && make
cd pytorch_binding && python3 -m pip install -e .
  1. 如果你想开发优化,还需要开发onnxruntime。请克隆onnxruntime仓库。

  2. 由于espnet==202308(v0.2.0发布时的最新版本)要求protobuf<=3.20.1,而最新的onnx要求protobuf>=3.20.2,你可能会在安装时遇到错误。 在这种情况下,首先安装espnet==202308,将protobuf更新到3.20.3,然后安装其他库。

用法

导出模型

  1. espnet_onnx可以导出espnet_model_zoo上发布的预训练模型。默认情况下,导出的文件将存储在${HOME}/.cache/espnet_onnx/<tag_name>中。
from espnet2.bin.asr_inference import Speech2Text
from espnet_onnx.export import ASRModelExport

m = ASRModelExport()

# 从espnet_model_zoo下载并从预训练模型导出
m.export_from_pretrained('<tag name>', quantize=True)

# 从训练好的模型导出
speech2text = Speech2Text(args)
m.export(speech2text, '<tag name>', quantize=True)
  1. 你可以从zip文件导出预训练模型。zip文件应包含meta.yaml
from espnet_onnx.export import ASRModelExport

m = ASRModelExport()
m.export_from_zip(
  'path/to/the/zipfile',
  tag_name='tag_name_for_zipped_model',
  quantize=True
)
  1. 你可以为导出设置一些配置。每个模型的可用配置在详细说明中显示。
from espnet_onnx.export import ASRModelExport

m = ASRModelExport()
# 将最大序列长度设置为3000
m.set_export_config(max_seq_len=3000)
m.export_from_zip(
  'path/to/the/zipfile',
  tag_name='tag_name_for_zipped_model',
)
  1. 你可以使用optimize选项轻松优化你的模型。如果你想充分优化你的模型,你需要从这里安装onnxruntime的自定义版本。更多详情请阅读这个文档
from espnet_onnx.export import ASRModelExport

m = ASRModelExport()
m.export_from_zip(
  'path/to/the/zipfile',
  tag_name='tag_name_for_zipped_model',
  optimize=True,
  quantize=True
)
  1. 你可以从命令行导出模型。
python -m espnet_onnx.export \
  --model_type asr \
  --input ${path_to_zip} \
  --tag transformer_lm \
  --apply_optimize \
  --apply_quantize

推理

  1. 对于推理,使用tag_namemodel_dir来加载onnx文件。tag_name必须在tag_config.yaml中定义。
import librosa
from espnet_onnx import Speech2Text

speech2text = Speech2Text(tag_name='<tag name>')
# speech2text = Speech2Text(model_dir='path to the onnx directory')

y, sr = librosa.load('sample.wav', sr=16000)
nbest = speech2text(y)
  1. 对于流式ASR,你可以使用StreamingSpeech2Text类。语音长度应与StreamingSpeech2Text.hop_size相同。
from espnet_onnx import StreamingSpeech2Text

stream_asr = StreamingSpeech2Text(tag_name)

# 开始流式ASR
stream_asr.start()
while streaming:
  wav = <some code to get wav>
  assert len(wav) == stream_asr.hop_size
  stream_text = stream_asr(wav)[0][0]

# 你可以用end函数获取非流式ASR结果
nbest = stream_asr.end()

你也可以用simulate函数模拟你的wav文件的流式模型。将True作为第二个参数传递将显示如下代码的流式文本。

import librosa
from espnet_onnx import StreamingSpeech2Text
stream_asr = StreamingSpeech2Text(tag_name)
y, sr = librosa.load('path/to/wav', sr=16000)
nbest = stream_asr.simulate(y, True)
# 使用6个进程处理音频。
# 位置0的结果:
# 位置1的结果:
# 位置2的结果:this
# 位置3的结果:this is
# 位置4的结果:this is a
# 位置5的结果:this is a
print(nbest[0][0])
# 'this is a pen'
  1. 如果您安装了自定义版本的onnxruntime,您可以运行优化模型进行推理。您无需更改上述任何代码。如果模型已优化,espnet_onnx会自动加载优化版本。

  2. 您可以仅使用hubert模型作为前端。

from espnet_onnx.export import ASRModelExport

# 导出模型
tag_name = 'ESPnet预训练模型与hubert'
m = ASRModelExport()
m.export_from_pretrained(tag_name, optimize=True)

# 仅加载前端模型
from espnet_onnx.asr.frontend import Frontend
frontend = Frontend.get_frontend(tag_name)

# 在应用中使用模型
import librosa
y, sr = librosa.load('wav文件')
# y: (B, T)
# y_len: (B,)
feats = frontend(y[None,:], np.array([len(y)]))
  1. 如果您在环境中安装了torch,可以在训练中使用前端。
from espnet_onnx.asr.frontend import TorchFrontend
frontend = TorchFrontend.get_frontend(tag_name) # 加载预训练前端模型

# 在训练时使用模型
import librosa
y, sr = librosa.load('wav文件')

# 需要将数据放在GPU上,
# 并以元组形式指定输出形状
y = torch.Tensor(y).unsqueeze(0).to('cuda') # (1, wav_length)
output_shape = (batch_size, feat_length, feats_dims)
feats = frontend(y, y.size(1), output_shape)

文本到语音推理

  1. 您可以像导出ASR模型一样导出TTS模型。
from espnet2.bin.tts_inference import Text2Speech
from espnet_onnx.export import TTSModelExport

m = TTSModelExport()

# 从espnet_model_zoo下载并从预训练模型导出
m.export_from_pretrained('<tag name>', quantize=True)

# 从训练好的模型导出
text2speech = Text2Speech(args)
m.export(text2speech, '<tag name>', quantize=True)
  1. 您可以简单地使用Text2Speech类生成wav文件。
from espnet_onnx import Text2Speech

tag_name = 'kan-bayashi/ljspeech_vits'
text2speech = Text2Speech(tag_name, use_quantized=True)

text = 'Hello world!'
output_dict = text2speech(text) # 使用onnx模型进行推理。
wav = output_dict['wav']

如何在espnet_onnx上使用GPU

安装依赖。

首先,我们需要onnxruntime-gpu库,而不是onnxruntime。请按照这篇文章选择并安装正确版本的onnxruntime-gpu,具体取决于您的CUDA版本。

在GPU上进行推理

现在您可以使用GPU加速推理速度。您只需选择正确的提供程序,并将其提供给Speech2TextStreamingSpeech2Text实例。有关提供程序的更多信息,请参阅这篇文章

import librosa
from espnet_onnx import Speech2Text

PROVIDERS = ['CUDAExecutionProvider']
tag_name = 'some_tag_name'

speech2text = Speech2Text(
  tag_name,
  providers=PROVIDERS
)
y, sr = librosa.load('path/to/wav', sr=16000)
nbest = speech2text(y) # 在GPU上运行。

请注意,某些量化模型不支持GPU计算。如果使用量化模型出现错误,请尝试使用非量化模型。

与ESPNet的变更

为避免缓存问题,我修改了原始espnet实现中的一些脚本。

  1. <sos>之前添加<blank>

  2. 向模型提供一些torch.zeros()数组。

  3. 在后处理中移除第一个标记。(移除blank

  4. make_pad_mask替换为新的实现,可转换为onnx格式。

  5. 从位置编码模块中移除extend_pe()pe的默认长度为512。

支持的架构

ASR:ASR支持的架构

TTS:TTS支持的架构

开发者指南

ASR:开发者指南

参考文献

版权

版权所有 (c) 2022 Maso Someki

根据MIT许可证发布

作者

Masao Someki

联系方式:masao.someki@gmail.com

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号