#全词掩码
chinese-roberta-wwm-ext-large - 中文自然语言处理的全词掩码预训练模型
Github开源项目预训练模型BERT模型知识蒸馏Huggingface中文自然语言处理全词掩码
中文BERT全词掩码预训练模型加速中文自然语言处理,提升精准语义理解。基于Google BERT并结合全词掩码策略,其在文本分类、情感分析以及问答系统等多种NLP应用中表现优异,是探索中文语言理解的有力工具。
chinese-bert-wwm - 基于全词掩码技术的中文自然语言处理模型
Github开源项目预训练模型机器学习BERT模型Huggingface中文自然语言处理全词掩码
chinese-bert-wwm 是一个采用全词掩码技术的中文 BERT 预训练模型。该模型由哈工大讯飞联合实验室(HFL)开发,基于 Google BERT 架构,通过全词掩码方式优化中文语言理解能力。模型支持文本分类、命名实体识别等自然语言处理任务,是 MacBERT、ELECTRA 等中文预训练模型系列的重要组成部分。