热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Gemma-2
gemma-2-27b-it-gptq-4bit - Gemma-2-27b的量化模型,优化加载与推理效率
Huggingface
量化
GPTQModel
开源项目
Gemma-2
模型
模型推理
Github
自然历史博物馆
Gemma-2-27b经过GPTQ 4位量化优化,使其在资源受限环境中高效运行。采用GPTQModel量化,并通过vllm进行推理,适用于简洁高效的推理场景。关键特性包括128组大小、动态分组、对称量化、激活功能和顺序推理,提升模型体验。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号