热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#rugpt3large_based_on_gpt2
rugpt3large_based_on_gpt2 - 俄语Transformer模型SberDevices团队的训练与评估
rugpt3large_based_on_gpt2
Huggingface
预训练模型
Github
开源项目
SberDevices
模型
Transformer
语言模型
SberDevices团队开发的俄语Transformer模型,基于PyTorch进行训练,使用80B个标记在1024序列长度下进行3轮训练,接着进行2048长度的微调。整个过程耗时14天,最终在测试集上的困惑度为13.6,为俄语处理提供了新的可能性。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号