热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#BLOOMZ
xmtf - 通过多任务微调提升跨语言泛化能力
Github
开源项目
多任务微调
跨语言泛化
xP3
BLOOMZ
mT0
XMTF项目探索了通过多语言多任务微调来增强模型的跨语言泛化能力。研究者基于BLOOM和mT5模型,使用xP3数据集进行微调,开发了BLOOMZ和mT0系列模型。这些模型在46种语言的13个任务上接受训练,展现出显著的跨语言和跨任务迁移学习能力。项目公开了完整的数据处理流程、模型训练方法和评估体系,为自然语言处理领域的跨语言研究提供了重要参考。
1
1
相关文章
BLOOMZ与mT0:跨语言多任务微调的突破性研究
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号