热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#ruRoberta-large
ruRoberta-large - 面向俄语的大规模预训练语言模型 具备强大Transformer架构
Transformers
ruRoberta-large
自然语言处理
Huggingface
预训练模型
Github
开源项目
模型
俄语
ruRoberta-large是SberDevices团队开发的俄语预训练语言模型,采用Transformer架构。模型使用BBPE分词器,词典规模为50,257,参数量达3.55亿,在250GB数据集上训练。主要应用于掩码填充任务,为俄语自然语言处理提供基础支持。该模型是俄语预训练模型家族中的一员,旨在推进俄语NLP研究与应用。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号