热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#跨语言任务
Multilingual-MiniLM-L12-H384 - 紧凑高效的多语言预训练模型助力跨语言自然语言处理
Github
开源项目
自然语言处理
模型
模型压缩
Huggingface
多语言模型
MiniLM
跨语言任务
Multilingual-MiniLM-L12-H384是一款小型多语言预训练模型,采用12层结构和384维隐藏单元,transformer参数仅2100万。该模型在XNLI和MLQA等跨语言任务中表现出色,支持15种语言,同时保持了较小的模型规模。它融合了BERT的架构设计和XLM-R的分词技术,适用于各类需要高效多语言处理的应用场景。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号