#gemma-2-9b-it
gemma-2-9b-it-GGUF - AI语言模型量化版本满足多种硬件需求
Github开源项目机器学习模型量化模型GPU内存优化Huggingface文件格式转换gemma-2-9b-it
本项目提供Google Gemma 2 9B模型的多种量化版本,涵盖从高质量Q8_0到轻量级IQ2_M。详细介绍了各版本特点、文件大小和推荐用途,并附有下载使用指南。这些优化版本在保持性能的同时大幅减小体积,适配不同硬件和内存需求,使模型能在更多设备上运行。
gemma-2-9b-it-function-calling-GGUF - 精确优化与功能调用的对话生成应用
Github开源项目文本生成模型微调模型Huggingface函数调用gemma-2-9b-it人机对话
该项目对google/gemma-2-9b-it模型进行细致调优以处理函数调用任务,专注于提高对话生成的灵活性和功能集成。数据集采用DiTy/function-calling且为人类注释,为确保高质量结果输出,支持safetensors和GGUF格式,适用于各种应用场景。模型版本提供多种量化类型,从F16基础格式到Q6_K,适合高效精确实现函数调用的需求。