项目介绍:Hathor_Gamma-L3-8B-0.6-GGUF
Hathor_Gamma-L3-8B-0.6-GGUF项目是一项基于Llamacpp imatrix量化技术的文本生成模型优化项目。此项目主要由一位名叫Bartowski的贡献者利用Llamacpp中发布的b3197版本进行模型量化。项目采用了来自GitHub上的特定数据集,为文本生成模型提供优化方案。
使用的模型
项目中采用的原始模型来自Hugging Face平台,地址为https://huggingface.co/Nitral-AI/Hathor_Gamma-L3-8B-0.6。
格式化提示
模型使用的提示格式如下:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
{system_prompt}<|eot_id|><|start_header_id|>user<|end_header_id|>
{prompt}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
可下载的文件
项目提供了多种量化后的文件供下载,每种文件的量化类型和大小各有不同。根据用途和需求,可以选择不同的文件:
- Q8_0_L 和 Q8_0:这类量化文件提供极高质量,文件较大,不是一般情况下所需,但可作为最高可用量化选项。
- Q6_K_L 和 Q6_K:高质量接近完美,推荐使用。
- Q5_K_L、Q5_K_M 和 Q5_K_S:同样推荐使用,质量高。
- Q4_K_L、Q4_K_M 和 Q4_K_S:推荐使用,质量好,文件节省空间。
- 此外,还有IQ4_XS等低内存选项文件,质量虽然较低,但在资源有限的情况下可考虑使用。
具体的文件描述和下载链接可以通过访问相关页面获取。
下载过程
- 首先,确保安装了hugginface-cli:
pip install -U "huggingface_hub[cli]"
- 接着,可根据需要下载特定的文件:
huggingface-cli download bartowski/Hathor_Gamma-L3-8B-0.6-GGUF --include "Hathor_Gamma-L3-8B-0.6-Q4_K_M.gguf" --local-dir ./
- 如果模型文件大于50GB,可能需要分文件下载:
huggingface-cli download bartowski/Hathor_Gamma-L3-8B-0.6-GGUF --include "Hathor_Gamma-L3-8B-0.6-Q8_0.gguf/*" --local-dir Hathor_Gamma-L3-8B-0.6-Q8_0
如何选择合适的文件?
在选择文件时,考虑设备的内存与显存,可以确保使用更为适合的文件。以下是选择关键步骤:
- 查找适合的模型大小,依据系统总内存和显存之和,再减去1-2GB的余量。
- 决定使用“I-quant”还是“K-quant”类型文件。I-quant通常适合低于Q4的量化,并可更有效利用其大小。
- 确保量化文件与使用的硬件和软件版本兼容。
对于希望了解更详细性能情况的用户,可以访问Artefact2提供的图表指南。
对于支持和帮助,可以访问Bartowski的ko-fi页面支持他们的工作。
Hathor_Gamma-L3-8B-0.6-GGUF项目旨在通过先进的量化技术,提供易于应用的高效文本生成方案,为利用有限计算资源的用户带来更高的模型性能体验。