#模型蒸馏

DMD2 - 改进分布匹配蒸馏的快速图像合成技术
DMD2AI绘图图像生成模型蒸馏文本生成图像Github开源项目
DMD2是一种改进的分布匹配蒸馏技术,用于快速图像合成。通过消除回归损失、集成GAN损失和支持多步采样,该技术显著提升了图像生成的质量和效率。在ImageNet-64x64和COCO 2014数据集上,DMD2的FID评分超越原始模型,同时将推理成本降低500倍。此外,DMD2还能生成百万像素级图像,在少步方法中展现出卓越的视觉效果。
llm_distillation_playbook - 大语言模型蒸馏技巧与实践指南
LLM模型蒸馏GPT-4开源评估标准Github开源项目
LLM Distillation Playbook项目提供了系统化的大语言模型蒸馏实践指南。该项目探讨了模型蒸馏的关键概念、评估标准和实用技巧,涵盖数据准备到模型部署的全流程。它为工程师和ML实践者提供见解,帮助在生产环境中将大型语言模型压缩为高效小型版本。该指南融合学术研究和实践经验,是开源LLM开发的参考资源。
MixFormerV2 - 高效全Transformer跟踪模型 实现CPU实时运行
MixFormerV2目标跟踪Transformer模型蒸馏神经网络Github开源项目
MixFormerV2是一个统一的全Transformer跟踪模型,无需密集卷积操作和复杂评分预测模块。该模型提出四个关键预测token,有效捕捉目标模板与搜索区域的相关性。项目还引入新型蒸馏模型压缩方法,包括密集到稀疏和深层到浅层两个阶段。MixFormerV2在LaSOT和TNL2k等多个基准测试中表现优异,分别达到70.6%和57.4%的AUC,同时在GPU上保持165fps的推理速度。值得注意的是,MixFormerV2-S是首个在CPU上实现实时运行的基于Transformer的单流跟踪器。
distilroberta-base - DistilRoBERTa:轻量高效的英语语言模型
模型Github模型蒸馏开源项目语言模型Huggingface机器学习自然语言处理DistilRoBERTa
DistilRoBERTa-base是RoBERTa-base的精简版本,采用与DistilBERT相同的蒸馏技术。模型包含6层结构,768维向量和12个注意力头,总参数量为8200万,比原版减少33%。在保持相近性能的同时,处理速度提升一倍。主要应用于序列分类、标记分类和问答等下游任务的微调。该模型在英语处理上表现优异,但使用时需注意其可能存在的偏见和局限性。
TinyBERT_General_4L_312D - 轻量级自然语言处理模型 提升理解效率
模型模型蒸馏开源项目HuggingfaceTinyBERT自然语言理解Githubtransformer模型BERT模型压缩
TinyBERT_General_4L_312D是一个经过知识蒸馏的轻量级自然语言处理模型。相比原始BERT模型,它的体积减小了7.5倍,推理速度提升了9.4倍,同时保持了竞争性能。该模型在预训练和任务特定学习阶段都应用了创新的Transformer蒸馏技术。TinyBERT为各类自然语言处理任务提供了高效的基础,尤其适用于计算资源受限的应用场景。
distilbart-mnli-12-6 - BART模型的高效压缩方案 无教师蒸馏技术应用
Huggingface模型DistilBartMNLIGithub开源项目精度对比模型蒸馏自然语言推理
distilbart-mnli-12-6是BART大型模型的压缩版本,采用无教师蒸馏技术开发。通过复制bart-large-mnli的交替层并微调,该模型在MNLI数据集上实现了接近原模型的性能,同时显著降低了模型规模。这一简单有效的压缩方法为自然语言处理任务提供了更为高效的解决方案,展示了模型优化的新思路。
compact-biobert - 压缩优化的生物医学BERT模型
CompactBioBERTHuggingface模型深度学习Github开源项目自然语言处理模型蒸馏生物医学
CompactBioBERT是BioBERT的压缩版本,通过结合DistilBioBERT和TinyBioBERT的蒸馏技术,在PubMed数据集上训练而成。该模型采用6层transformer结构,隐藏层和嵌入层维度为768,总参数约6500万。CompactBioBERT在保持生物医学自然语言处理性能的同时,有效缩小了模型规模,提升了计算效率。
distilbart-mnli-12-1 - 压缩版BART模型用于自然语言推理
Huggingface模型机器学习BARTGithub开源项目自然语言处理模型蒸馏DistilBart-MNLI
distilbart-mnli-12-1是一个用于自然语言推理的压缩版BART模型。该模型采用No Teacher Distillation技术,通过复制bart-large-mnli的交替层并微调,在保持较高准确率的同时大幅减小模型规模。项目提供多个压缩版本,可根据需求选择。此外,项目还提供了详细的自行训练步骤。
distilbert-base-turkish-cased - 轻量级高性能土耳其语BERT模型
BERT开源项目土耳其语言模型深度学习模型模型蒸馏Github自然语言处理Huggingface
distilbert-base-turkish-cased是一个开源的土耳其语蒸馏BERT模型,通过知识蒸馏技术在保持与原始BERTurk相近性能的同时显著降低了模型规模。该模型在词性标注等任务上表现出色,超越了更大规模的XLM-RoBERTa模型,适用于土耳其语文本分类、命名实体识别等多种自然语言处理任务。
whisper-large-v3-turbo - 精简版Whisper语音识别系统的突破性进展
自动语音识别语音识别Github开源项目模型多语言模型蒸馏HuggingfaceWhisper
Whisper large-v3-turbo通过模型蒸馏技术对原版Whisper进行优化,将解码层从32减少到4层,在仅造成轻微性能损失的情况下显著提升了处理速度。该模型继承了Whisper优秀的多语言处理能力,支持超过100种语言的语音识别和翻译任务,能够适应不同场景的音频输入。基于高效的架构设计,此模型在降低计算资源需求的同时保持了稳定的识别准确率。
InRanker-base - 增强跨领域场景信息检索的AI解决方案
InRanker信息检索无监督学习模型蒸馏HuggingfaceGithub开源项目模型语言模型
InRanker通过语言模型和重排序技术,在无需额外查询或人工标注的情况下提升跨领域信息检索能力。其双重蒸馏训练策略有效生成训练数据,从而优化了模型性能,并保持易用特性。
distilbert-base-uncased-go-emotions-student - 面向GoEmotions数据集的高效情感分类模型
开源项目文本分类Github模型Huggingface零样本分类模型蒸馏GoEmotions语言模型
该模型运用未标注GoEmotions数据集,利用零样本学习技术进行精炼。尽管其性能可能略逊于完全监督下的模型,但它展示了如何将复杂的自然语言推理模型简化为高效的模型,以便在未标注数据上进行分类器训练。