热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#GPU运算
Qwen2.5-14B-Instruct-GGUF - 针对不同硬件环境优化的大模型量化版本
Qwen2.5-14B-Instruct
模型推理
开源项目
模型
Huggingface
GPU运算
模型量化
Github
人工智能模型
Qwen2.5-14B-Instruct模型的量化优化项目,通过F16到Q2_K等多种精度量化方案,将模型体积压缩至5.36GB-29.55GB范围。项目集成了ARM芯片优化版本和创新的I-quant量化技术,实现了模型性能、速度与硬件适配的平衡。量化版本涵盖了从高精度到轻量级的多个选项,方便在不同计算资源条件下部署使用。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号