热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#词级别分词
bert-base-japanese-v3 - 日语BERT预训练模型:全词掩码和大规模语料库训练
模型
BERT
Github
词级别分词
开源项目
Huggingface
机器学习
日语预训练模型
自然语言处理
bert-base-japanese-v3是基于BERT架构的日语预训练模型,采用Unidic 2.1.2词典分词和全词掩码技术。该模型在CC-100和日语维基百科语料上训练,拥有12层结构和768维隐藏状态。模型适用于各种日语自然语言处理任务,为研究和开发提供了强大支持。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号