#模型剪枝

Awesome-Efficient-LLM - 知识蒸馏、网络剪枝、量化和加速推理等针对大型语言模型优化的关键技术的汇总
Github开源项目知识蒸馏Large Language Models量化模型剪枝效率优化
Awesome-Efficient-LLM项目汇总了针对大型语言模型优化的关键技术,包括知识蒸馏、网络剪枝、量化和加速推理等,支持研究者和开发者获取最新的效率提升方法和学术文献。该平台定期更新,提供过去60天内的相关研究成果,便于用户系统地探索和应用这些高效技术。
TextPruner - 使用低成本且无需训练的方法优化预训练语言模型
Github开源项目PyTorch预训练语言模型模型剪枝NLP任务TextPruner
TextPruner提供低成本且无需训练的方法来优化预训练语言模型,通过减少模型尺寸加快推理速度。兼容多种NLU模型,提供用户友好的接口,支持词汇、Transformer和流水线剪枝。用户可以方便地根据需求自定义配置。详细文档和实验结果支持,帮助用户快速上手并验证性能提升。适用于Python 3.7及以上版本,依赖torch和transformers库。
SPViT - 单路径自注意力剪枝,提升ViT模型效率的新方法
Github开源项目自注意力机制模型剪枝视觉TransformerSPViT卷积层
SPViT项目提出了一种单路径自注意力剪枝方法,将预训练ViT模型中的自注意力层剪枝为卷积层,形成混合模型结构。该方法通过权重共享机制降低了模型搜索成本,在减少计算资源消耗的同时保持了模型性能。实验表明,SPViT在多个基准测试中表现良好,为Vision Transformer模型的优化设计提供了新思路。