项目介绍:Gemma-2-9B-It-SPPO-Iter3-GGUF
Gemma-2-9B-It-SPPO-Iter3-GGUF项目是由UCLA-AGI开发的一个文本生成模型,适用于生成多种语言文本。这个项目基于名为Gemma-2-9B-It-SPPO-Iter3的基础模型,并进行了多种量化处理,从而优化模型的性能和存储空间。
模型基础与数据集
Gemma-2-9B-It-SPPO-Iter3模型使用了openbmb/UltraFeedback数据集进行训练,专注于文本生成任务。项目中的处理采用了ggerganov开发的llama.cpp工具进行量化(版本b3389),目的是在不显著降低模型性能的情况下减少其存储空间。
模型量化文件列表
在这个项目中,提供了多个量化文件以满足不同的硬件需求。这些文件使用imatrix选项进行量化,并按不同的质量和大小进行区分。以下列出了一些常用的文件格式:
- Gemma-2-9B-It-SPPO-Iter3-f32.gguf:完整F32权重文件,大小36.97GB。
- Gemma-2-9B-It-SPPO-Iter3-Q8_0.gguf:极高质量,但通常不需要,大小为9.83GB。
- Gemma-2-9B-It-SPPO-Iter3-Q6_K_L.gguf:极高质量,建议使用,大小为7.81GB。
- Gemma-2-9B-It-SPPO-Iter3-Q4_K_L.gguf:质量良好,推荐用于一般情况,大小为5.98GB。
所有这些量化文件具有不同的特性,适合各种RAM和VRAM配置的设备。对于低RAM设备,较小的量化格式可确保模型的可用性。
如何选择合适的文件
选择适合您的设备的量化文件关键在于设备的RAM和VRAM容量。如果希望模型运行速度最快,应选择能完全适合GPU VRAM的量化文件。对于追求最高质量的用户,可以选择结合系统RAM与GPU VRAM总量的量化文件。
用户还应根据想要的速度与性能权衡,选择使用'I-quant'或'K-quant'格式的文件。K-quant格式如Q5_K_M通常为不想复杂设置的用户推荐,而I-quant格式如IQ3_M则在小于Q4时提供更好的性能。
操作指南
要下载任何量化文件,需确保已安装huggingface-cli。安装命令如下:
pip install -U "huggingface_hub[cli]"
随后,用户可以通过以下命令下载特定的量化文件:
huggingface-cli download bartowski/Gemma-2-9B-It-SPPO-Iter3-GGUF --include "Gemma-2-9B-It-SPPO-Iter3-Q4_K_M.gguf" --local-dir ./
如果文件大于50GB,则会被分成多个文件进行下载。
感谢与支持
项目开发得到了kalomaze和Dampf的协助,特别是在imatrix校准数据集的创建上,还有ZeroWw提供的有关嵌入和输出的试验灵感。另外,用户可以通过访问bartowski的ko-fi页面支持这项工作的持续进行:https://ko-fi.com/bartowski。
通过以上介绍,希望用户能对Gemma-2-9B-It-SPPO-Iter3-GGUF项目有更深入的了解,并能选择适合其设备和需求的量化文件。