热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#精度对比
distilbart-mnli-12-6 - BART模型的高效压缩方案 无教师蒸馏技术应用
Huggingface
模型
DistilBart
MNLI
Github
开源项目
精度对比
模型蒸馏
自然语言推理
distilbart-mnli-12-6是BART大型模型的压缩版本,采用无教师蒸馏技术开发。通过复制bart-large-mnli的交替层并微调,该模型在MNLI数据集上实现了接近原模型的性能,同时显著降低了模型规模。这一简单有效的压缩方法为自然语言处理任务提供了更为高效的解决方案,展示了模型优化的新思路。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号