#蒸馏
exploring-AI-optimization - 人工智能模型优化技术的精选学习资源
Github开源项目量化AI优化剪枝深度学习编译器蒸馏
Exploring AI optimization项目是一个聚焦AI优化技术的资源库,收录了量化、剪枝等领域的高质量论文、教程和课程。该项目每周更新AI优化领域的重要研究见解,为研究人员和开发者提供学习参考,推动AI技术发展。资源库开放社区贡献,鼓励知识交流与分享。
Llama-3_1-Nemotron-51B-Instruct - NVIDIA开发的高效大语言模型
人工智能Github开源项目大语言模型模型HuggingfaceLlama-3蒸馏神经网络架构搜索
Llama-3_1-Nemotron-51B-Instruct是NVIDIA开发的大语言模型,采用神经架构搜索方法平衡准确性和效率。该模型内存占用低,可在单个H100-80GB GPU上运行大型工作负载。模型在英语对话和编程方面表现出色,也支持非英语语言。经过安全评估和对抗性测试,适合商业应用。
deit-base-distilled-patch16-224 - DeiT模型通过蒸馏技术提升ImageNet图像分类性能
Github开源项目模型图像分类ImageNetHuggingfaceDeiT视觉Transformer蒸馏
DeiT-base-distilled-patch16-224是一种基于Vision Transformer的图像分类模型,通过蒸馏技术从CNN教师模型中学习。该模型在ImageNet-1k数据集上进行预训练和微调,在224x224分辨率下实现83.4%的top-1准确率。模型采用16x16图像块嵌入和蒸馏token,适用于多种计算机视觉任务,尤其在图像分类领域表现优异。
distilcamembert-base - 精简与高效兼具的法语NLP模型
Github开源项目模型训练Huggingface蒸馏CamemBERTDistilCamemBERTCosineLoss
DistilCamemBERT通过效仿CamemBERT的性能,同时显著降低复杂性。该模型基于DistilBERT的策略,使用DistilLoss、CosineLoss和MLMLoss三个损失函数,优化法语自然语言处理。模型使用OSCAR数据集训练,最大限度降低偏差。在FLUE与wikiner_fr数据集上的优秀表现,使其适用于多种法语文本分析。
SuperNova-Medius - 中立精确的语言模型,高效执行指令与复杂推理
Github开源项目文本生成技术支持模型Huggingface蒸馏SuperNova-Medius指令遵循
SuperNova-Medius是由Arcee.ai推出的14B参数语言模型。通过借鉴Qwen2.5-72B-Instruct与Llama-3.1-405B-Instruct的优势,以多架构蒸馏技术达成高效指令执行与复杂推理能力。适合用在客户支持、内容创作及技术帮助等场景,并在低资源需求下和较大模型进行有效竞争。适合追求经济高效高级语言模型应用的组织。
bert-base-uncased-sst2-unstructured80-int8-ov - BERT模型的非结构化剪枝与量化优化技术
Github开源项目OpenVINOBERT模型量化Huggingface蒸馏GLUE SST2
该项目通过非结构化幅度剪枝、量化和蒸馏,在GLUE SST2数据集上优化了BERT模型。模型在Torch和OpenVINO IR模式下准确率达到0.9128,并在Transformer层中实现了80%的稀疏性。此项目适用于OpenVINO 2024.3.0及以上版本及Optimum Intel 1.19.0及更高版本,利用NNCF完成优化,同时提供详细的参数与训练步骤,以实现高效的文本分类。