热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#DeBERTa V2
deberta-v2-base-japanese-char-wwm - 日语DeBERTa V2模型实现字符级遮蔽与预训练
开源项目
自然语言处理
字符级别
模型
Huggingface
DeBERTa V2
transformers
日本語
Github
该项目介绍了日语DeBERTa V2 base模型,该模型在日语Wikipedia、CC-100和OSCAR数据集上进行字符级分词和整体词遮蔽的预训练,可用于掩码语言建模及下游任务微调,采用了22,012个字符级子词的sentencepiece分词模型,通过transformers库进行训练。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号