热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Ukrainian Wikipedia
ukr-roberta-base - 乌克兰文HuggingFace模型的语料库预训练
HuggingFace
开源项目
模型
Github
Huggingface
ukr-roberta-base
Ukrainian Wikipedia
训练数据
语言模型
该项目使用乌克兰语言的多种语料库,并结合HuggingFace的Roberta分词器进行了处理。所使用的语料包括乌克兰维基百科、OSCAR数据集及社交网络样本。通过V100硬件加速的方法,预训练出与roberta-base-cased架构类似的模型,拥有12层、768个隐藏单元和125M参数。有关详细的训练配置和技术细节,请参阅原始项目。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号