热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#W2v-BERT 2.0
w2v-bert-2.0 - 大规模多语言语音编码器
模型
W2v-BERT 2.0
Github
语音编码器
预训练模型
Seamless Communication
开源项目
Huggingface
Transformers
W2v-BERT 2.0是一款开源的多语言语音编码器,基于Conformer架构设计。该模型包含6亿参数,在4.5百万小时的无标签音频数据上进行预训练,涵盖143种语言。作为Seamless系列的核心组件,W2v-BERT 2.0可应用于自动语音识别和音频分类等任务。该模型支持通过Hugging Face Transformers和Seamless Communication框架使用,为多语言语音处理研究提供了有力工具。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号