热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LLM-Pruner
LLM-Pruner - 通过结构剪枝技术高效压缩大型语言模型的工具
Github
开源项目
LLM-Pruner
压缩
结构剪枝
多任务解决
自动剪枝
LLM-Pruner项目专注于通过结构剪枝技术高效压缩大型语言模型,在保留多任务处理能力的同时减少训练数据需求。仅需3分钟剪枝及3小时后训练,此方法利用50,000个公开样本快速实现剪枝与再训练。支持Llama系列、Vicuna、BLOOM、Baichuan等多种LLM,自动化剪枝过程简化了新模型的剪枝步骤。该技术允许根据需要调整模型规模,优化资源使用。
1
1
相关文章
LLM-Pruner:大型语言模型的结构化剪枝技术
3 个月前
LLM-Pruner入门指南:高效压缩大型语言模型的开源工具
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号