项目介绍:MN-12B-Starcannon-v3-i1-GGUF
概述
MN-12B-Starcannon-v3-i1-GGUF是基于模型aetherwiing/MN-12B-Starcannon-v3的一个项目。这个项目使用了transformers库进行开发,并且由用户mradermacher进行了量化处理。这一项目包括了一系列名为"imatrix"的量化文件,旨在优化模型的存储和使用。
使用说明
对于不了解如何使用GGUF文件的用户,可以参考TheBloke's READMEs,该文档提供了关于如何连接多部分文件的详细信息,以便用户能顺利地运用模型。
提供的量化文件
项目提供了一些量化文件,这些文件根据大小排序,可能并不完全与质量成正比。IQ类型的量子通常比大小相似的非IQ量子更受欢迎。
链接 | 类型 | 大小/GB | 备注 |
---|---|---|---|
GGUF | i1-IQ1_S | 3.1 | 非常紧急使用 |
GGUF | i1-IQ1_M | 3.3 | 主要用于紧急情况 |
GGUF | i1-IQ2_XXS | 3.7 | |
GGUF | i1-IQ2_XS | 4.0 | |
GGUF | i1-IQ2_S | 4.2 | |
GGUF | i1-IQ2_M | 4.5 | |
GGUF | i1-Q2_K | 4.9 | IQ3_XXS可能更好 |
GGUF | i1-IQ3_XXS | 5.0 | 质量较低 |
GGUF | i1-IQ3_XS | 5.4 | |
GGUF | i1-Q3_K_S | 5.6 | IQ3_XS可能更好 |
图表和见解
项目中提供了一些关于低质量量化类型的比较图表,象征性地展示了各量化方法的相对优劣。此外,还有用户Artefact2对此的思考,大家可以通过此链接进行阅读。
常见问题及模型请求
想要了解更多常见问题的解答或请求其他量化模型的用户,可以访问这里,其中有详细的信息供参考。
致谢
特别感谢nethype GmbH提供的服务器,允许使用其资源来完成该项目。也要感谢@nicoboss提供的超级计算机访问权限,使这个项目能够提供更高质量的imatrix量子文件。