热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#蒙版语言模型
xlm-roberta-base - XLM-RoBERTa预训练模型支持多语言,优化跨语言任务表现
模型
XLM-RoBERTa
开源项目
Huggingface
特征提取
Github
多语言
蒙版语言模型
下游任务
XLM-RoBERTa是多语言RoBERTa模型,基于2.5TB的CommonCrawl数据进行预训练,涵盖100种语言。模型通过掩蔽语言目标实现自监督学习,从而掌握多语言的双向表示。在序列分类和问答等下游任务中具有优异表现。该模型主要用于微调以适应具体任务,尤其适合分析整句子以做出决策的场景。可用于掩蔽语言建模,或借助微调版本实现特定应用。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号