#剪枝
PaddleSlim
PaddleSlim是一个深度学习模型压缩的工具库,提供低比特量化、知识蒸馏、稀疏化和模型结构搜索等策略。支持自动化压缩,量化预测能加速2.5倍,模型体积减少3.9倍。提供YOLOv8自动化压缩示例,并优化了在Nvidia GPU和ARM设备上的性能。适用于视觉和自然语言处理任务。支持PaddlePaddle和PaddleLite多个版本,适合有模型压缩需求的开发者使用。
model-optimization
TensorFlow Model Optimization Toolkit 提供稳定的 Python API,帮助用户通过量化和稀疏化技术优化机器学习模型,包括针对 Keras 的专用 API。该工具包还提供详细的安装指南、教程和 API 文档,显著提升模型在部署和执行时的性能。该项目由 TensorFlow 团队维护,并遵循其行为准则,开发者可以通过 GitHub 提交问题和贡献代码。
Awesome-Deep-Neural-Network-Compression
该项目汇集了深度神经网络压缩的综合资源,包括量化、剪枝和蒸馏等技术的论文、总结和代码。涵盖高效模型设计、神经架构搜索等相关主题,并提供按会议和年份分类的论文列表。项目还收录了主流压缩系统和工具链接,为深度学习模型压缩研究提供了全面的参考资料。
fast_rnnt
fast_rnnt项目实现了一种快速高效的RNN-T损失计算方法。通过pruned rnnt算法,该方法使用简单joiner网络获取修剪边界,再评估完整非线性joiner网络。项目提供简单、平滑和修剪三种RNN-T损失计算功能,支持pip安装。与其他实现相比,fast_rnnt在计算速度和内存使用方面表现优异。
amc
AMC (AutoML for Model Compression) 是一种创新的自动化模型压缩方法,专为优化移动设备上的深度学习模型而设计。该方法通过自动搜索剪枝策略、导出压缩权重和微调,成功将MobileNet等模型的计算量减少50%,同时维持或提升准确率。AMC不仅适用于MobileNet-V1和V2,还提供PyTorch和TensorFlow格式的压缩模型,为移动设备上的高效AI应用提供了新的可能性。
exploring-AI-optimization
Exploring AI optimization项目是一个聚焦AI优化技术的资源库,收录了量化、剪枝等领域的高质量论文、教程和课程。该项目每周更新AI优化领域的重要研究见解,为研究人员和开发者提供学习参考,推动AI技术发展。资源库开放社区贡献,鼓励知识交流与分享。
fasterai
fasterai是一个致力于优化神经网络规模和速度的开源库。该库提供稀疏化、剪枝、知识蒸馏和彩票假设等多种网络压缩技术。其核心特性为高度可定制的稀疏化功能,允许用户调整粒度、上下文、标准和调度。此外,fasterai还包含正则化和知识蒸馏功能,有助于提升模型性能和效率。该库与fastai兼容,可轻松集成到现有深度学习工作流程中。
Embedded-Neural-Network
Embedded-Neural-Network项目汇集了减小深度神经网络模型大小和加速ASIC/FPGA应用的前沿研究。内容涵盖网络压缩、硬件加速等领域,包括参数共享、知识蒸馏、定点训练、稀疏正则化和剪枝等技术。项目还整理了相关教程和重要会议论文。
llmc
llmc是一个压缩大型语言模型的开源工具,采用先进压缩算法提高效率和减小模型体积。它支持多种LLM和压缩方法,可在单GPU上量化评估大模型,兼容多种推理后端。项目提供LLM量化基准,帮助用户选择合适的压缩策略。