热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#字符级别
deberta-v2-base-japanese-char-wwm - 日语DeBERTa V2模型实现字符级遮蔽与预训练
Github
开源项目
自然语言处理
模型
transformers
Huggingface
日本語
DeBERTa V2
字符级别
该项目介绍了日语DeBERTa V2 base模型,该模型在日语Wikipedia、CC-100和OSCAR数据集上进行字符级分词和整体词遮蔽的预训练,可用于掩码语言建模及下游任务微调,采用了22,012个字符级子词的sentencepiece分词模型,通过transformers库进行训练。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号