热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#ruBert
ruBert-base - 专为俄语遮蔽填充任务优化的Transformer预训练语言模型
语言模型
ruBert
PyTorch
Transformers
模型
Github
开源项目
自然语言处理
Huggingface
ruBert-base是一个专为俄语遮蔽填充任务优化的预训练语言模型。该模型基于Transformer架构,由SberDevices团队开发,采用BPE分词器,词典大小12万token,模型参数量1.78亿。模型使用30GB训练数据,是俄语自然语言处理领域的重要研究成果。ruBert-base遵循Apache-2.0许可证,为俄语NLP应用提供了强大的基础支持。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号