热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#低位量化
Mistral-Nemo-Instruct-2407-gptq-4bit - 采用GPTQ技术的4位量化语言模型
开源项目
模型
GPTQModel
神经网络优化
模型压缩
低位量化
量化模型
Github
Huggingface
Mistral-Nemo-Instruct-2407-gptq-4bit是一个使用GPTQModel进行4位量化的语言模型。该模型采用128组大小和真实顺序等技术,在维持性能的同时大幅缩减模型体积。这种量化方法提高了模型的部署效率,适用于计算资源有限的场景。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号