热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#CLUECorpusSmall
chinese_roberta_L-2_H-128 - 使用多模态预训练优化中文自然语言处理
语言模型
RoBERTa
预训练
模型
Github
开源项目
CLUECorpusSmall
Huggingface
该项目包括24种中文RoBERTa模型,使用CLUECorpusSmall数据集进行训练,效果超过较大数据集。模型通过UER-py和TencentPretrain预训练,并支持多模态框架,参数超过十亿。模型可在HuggingFace和UER-py Modelzoo中获取。项目提供详细的训练过程和关键细节,便于结果复现,着重提升中文自然语言处理任务中的性能。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号