#MythoMax L2 13B
MythoMax-L2-13B-GPTQ - 多样化GPTQ参数选择,满足多种硬件配置需求
量化模型GPTQ角色扮演TheBlokeMythoMax L2 13B模型Github开源项目Huggingface
MythoMax L2 13B提供多种GPTQ量化配置,适用于多种硬件环境,提升模型性能。用户可选择不同分支进行下载,包括4-bit和8-bit版本,支持VRAM高效利用和精确推理。该项目兼容多种平台如ExLlama、AutoGPTQ和Huggingface的Text Generation Inference,为AI开发者提供灵活的工具和高效的解决方案。
MythoMax-L2-13B-GGUF - 基于Llama2的高性能GGUF量化语言模型
GGUF量化HuggingfaceMythoMax L2 13BGithub开源项目AI模型模型LLM
MythoMax-L2-13B是一个基于Llama2的GGUF量化语言模型,提供2-8比特共13种量化版本。模型支持llama.cpp等多种终端工具,具备更强的分词能力和特殊令牌支持。模型文件大小从5.43GB到13.83GB不等,可根据设备配置选择合适版本。该模型遵循Meta Llama 2许可协议。