热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#UMT5
umt5-small - 基于UniMax方法的多语言预训练模型
Github
开源项目
模型
Huggingface
mC4语料库
多语言预训练
UMT5
语言采样
UniMax
本项目采用创新的UniMax采样技术,对多语言预训练模型的语言分布进行优化,实现更均衡的主语言处理,同时减少尾语言的过拟合风险。模型基于更新版mC4语料库的预训练,涵盖107种语言,需要在下游任务上进行微调以用于实际应用。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号