热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#字符级tokenization
deberta-v2-large-japanese-char-wwm - 基于DeBERTa V2的大规模日语预训练语言模型
模型
Github
预训练模型
开源项目
Huggingface
DeBERTa V2
日语
自然语言处理
字符级tokenization
deberta-v2-large-japanese-char-wwm是一个基于DeBERTa V2架构的日语预训练语言模型。它采用字符级分词和全词遮蔽技术,在171GB的日语语料库上训练而成。该模型支持掩码语言建模等任务,可直接处理原始文本。经26天训练后,模型在掩码语言建模评估集上达到79.5%的准确率,为日语自然语言处理研究和应用提供了强大工具。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号