#Qwen2.5-Math-7B-Instruct
Qwen2.5-Math-7B-Instruct-4.0bpw-exl2 - 基于Qwen2.5的4位精度量化数学指令模型
模型量化Huggingface模型Github开源项目开源许可DiscordQwen2.5-Math-7B-Instruct捐赠
Qwen2.5-Math-7B-Instruct-4.0bpw-exl2是一个基于Qwen2.5-Math-7B-Instruct模型的4.0位精度量化版本。该项目利用exllamav2技术实现了高效压缩,在保持原模型数学指令性能的同时大幅减小了模型体积。项目采用Apache 2.0许可证开源,并提供Discord社区支持。这一量化模型为需要在资源受限环境下部署大型数学指令模型的用户提供了实用解决方案。
Qwen2.5-Math-7B-Instruct-GGUF - 针对性能和空间优化的Qwen2.5数学模型GGUF量化版本
大语言模型GGUF开源项目模型Github模型压缩量化Qwen2.5-Math-7B-InstructHuggingface
Qwen2.5-Math-7B-Instruct模型的GGUF量化版本集合,文件大小从2.78GB到15GB不等。采用K-quant和I-quant量化技术,适配主流GPU平台。Q6_K和Q5_K系列在模型性能和资源占用上取得较好平衡,可通过LM Studio实现便捷部署。