热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#RoBERTa-wwm-ext
rbt3 - 改进中文自然语言处理的全词掩蔽预训练模型
全词遮蔽
RoBERTa-wwm-ext
Github
开源项目
BERT
自然语言处理
中文预训练
模型
Huggingface
rbt3是重新训练的三层RoBERTa-wwm-ext模型,采用全词掩蔽技术的中文BERT预训练模型,设计用于提升中文自然语言处理的效率。该模型加强了对完整单词的识别,从而提高填空任务的准确性和语言理解能力。由专业团队在开源基础上开发,支持fill-mask任务,并提供多种资源以支持后续研究。例如,Chinese MacBERT和Chinese ELECTRA可以在不同应用场景中提升自然语言处理性能。利用TextBrewer工具,可在该模型中实现知识蒸馏,进一步扩展其应用潜力。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号