#XLM-RoBERTa-XL
xlm-roberta-xl - 基于2.5TB数据训练的100语种自然语言处理模型
Github开源项目预训练模型自然语言处理机器学习模型Huggingface多语言模型XLM-RoBERTa-XL
XLM-RoBERTa-XL是基于2.5TB CommonCrawl数据训练的大规模多语言模型,支持100种语言的自然语言处理。该模型采用掩码语言建模进行自监督学习,适用于序列分类、标记分类和问答等需要理解整句上下文的任务。XLM-RoBERTa-XL为多语言NLP研究和应用提供了强大的基础,但不适合文本生成类任务。
xlm-roberta-xxl - 基于2.5TB数据训练的100语言自然语言处理模型
Github开源项目预训练模型自然语言处理机器学习模型Huggingface多语言模型XLM-RoBERTa-XL
XLM-RoBERTa-XXL是一个基于2.5TB CommonCrawl数据预训练的多语言Transformer模型,支持100种语言的自然语言处理任务。通过掩码语言建模技术实现句子的双向表示学习,适用于序列分类、标记分类、问答等下游任务的微调,可应用于多语言文本分析和跨语言任务场景。