项目概述
OpenCrystal-15B-L3-v2-i1-GGUF是基于Darkknight535创建的模型OpenCrystal-15B-L3-v2的量化版本。项目提供了一系列量化的模型文件,适合不同需求的用户进行选择和使用。在量化过程中,由mradermacher完成这项工作,利用TheBloke的说明文档可以帮助用户了解如何使用这些量化文件。
使用说明
对于不熟悉GGUF文件使用方法的用户,可参考TheBloke的说明文档,特别是关于如何连接多部分文件的相关信息。相关文档可在Hugging Face上查阅以获得详细指导。
提供的量化模型
量化模型按大小进行排序,但并不完全代表质量高低。说明表中列出了各类量化文件的链接、类型、大小及相关备注,以便于用户在选择时进行参考。其中,IQ-(量化值)通常较同大小的非IQ量化效果更好。
量化文件列表
链接 | 类型 | 大小/GB | 备注 |
---|---|---|---|
GGUF | i1-IQ1_S | 3.6 | 适用于紧急情况 |
GGUF | i1-IQ1_M | 3.9 | 多用于紧急情况 |
GGUF | i1-IQ2_XXS | 4.4 | |
GGUF | i1-IQ2_XS | 4.8 | |
... | |||
(持续展示更多文件,具体格式与前几行类似) |
质量对比
通过ikawrakow提供的图表,用户可以直观地对比部分低质量量化类型的差异(数值越低越好)。Artefact2的分析和见解也提供了更多关于不同量化模型的建议,具体内容可在他的Gist页面查看。
常见问题及模型请求
如有疑问或希望获取其他量化模型,请访问相关页面以获取帮助。用户可以在Hugging Face上找到mradermacher的模型请求页面,了解更多信息或提出模型获取请求。
致谢
mradermacher特此感谢nethype GmbH公司为他提供了使用公司服务器的机会,并为他的工作站进行升级,使他能够在业余时间从事此项工作。同时,感谢@nicoboss提供的私人超级计算机,使得他能提供更多高质量的量化文件。
使用这些量化模型可以帮助研究人员和开发者在资源有限的情况下,仍然能够在各自的项目中运用大型语言模型。希望本项目能够为各种自然语言处理任务提供有效的支持和解决方案。