热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#维基百科语料
bert-base-japanese-whole-word-masking - 基于日语维基百科的BERT预训练模型 采用全词掩码技术
维基百科语料
Huggingface
模型
日语预训练模型
BERT
Github
开源项目
自然语言处理
全词掩码
该BERT模型基于日语维基百科数据预训练,采用IPA词典和MeCab进行分词,并引入全词掩码技术。模型架构与BERT base一致,包含12层结构、768维隐藏状态和12个注意力头。训练语料来自2019年9月的日语维基百科,词表规模为32000。模型在Cloud TPUs上训练完成,遵循原始BERT的训练配置,并以CC BY-SA 3.0许可证发布。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号