热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#AQLM
AQLM - 加性量化技术实现大型语言模型高效压缩
AQLM
大语言模型
量化
推理
PyTorch
Github
开源项目
AQLM项目开发了一种名为加性量化的新技术,可将大型语言模型压缩至原规模的1/16左右,同时基本保持原始性能。该技术适用于LLaMA、Mistral和Mixtral等多种模型架构,并提供了预量化模型。项目包含PyTorch实现代码、使用教程和推理优化方案,为大规模语言模型的实际应用提供了新思路。
1
1
相关文章
AQLM: 通过加法量化实现大型语言模型的极限压缩
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号