#DistilBart-MNLI
distilbart-mnli-12-1 - 压缩版BART模型用于自然语言推理
Github开源项目自然语言处理机器学习模型HuggingfaceBART模型蒸馏DistilBart-MNLI
distilbart-mnli-12-1是一个用于自然语言推理的压缩版BART模型。该模型采用No Teacher Distillation技术,通过复制bart-large-mnli的交替层并微调,在保持较高准确率的同时大幅减小模型规模。项目提供多个压缩版本,可根据需求选择。此外,项目还提供了详细的自行训练步骤。
distilbart-mnli-12-3 - 高效简化的零样本分类模型
Github开源项目模型微调模型Huggingface性能表现DistilBart-MNLINo Teacher Distillation
distilbart-mnli项目是利用No Teacher Distillation技术实现的bart-large-mnli的精简版,着重于零样本分类应用。该模型在保留主要性能的基础上,匹配准确度接近90%。通过复制bart-large-mnli的交替层并在同一数据集上进行微调,模型不断优化提升。用户可按照简单步骤进行微调,实现卓越的分类效果。