热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#No Teacher Distillation
distilbart-mnli-12-3 - 高效简化的零样本分类模型
Github
开源项目
模型微调
模型
Huggingface
性能表现
DistilBart-MNLI
No Teacher Distillation
distilbart-mnli项目是利用No Teacher Distillation技术实现的bart-large-mnli的精简版,着重于零样本分类应用。该模型在保留主要性能的基础上,匹配准确度接近90%。通过复制bart-large-mnli的交替层并在同一数据集上进行微调,模型不断优化提升。用户可按照简单步骤进行微调,实现卓越的分类效果。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号