#量化模型

Qwen2.5-72B-Instruct-AWQ - 高性能量化开源大模型 支持多语言及长文本处理的人工智能助手
transformers大语言模型Qwen2.5Github模型自然语言处理量化模型Huggingface开源项目
Qwen2.5-72B-Instruct-AWQ是一款采用4位量化技术的大规模语言模型,具备29种语言处理能力。模型支持128K tokens的上下文理解和8K tokens的文本生成,搭载80层神经网络及64/8注意力头架构。该模型在代码生成、数学计算、结构化数据处理等方面展现出稳定性能,并可进行长文本处理和JSON格式输出。
Replete-LLM-V2.5-Qwen-7b-GGUF - Qwen-7b模型GGUF量化版本集合 适配多种硬件配置
显存优化机器学习GithubHuggingfaceQwen量化模型开源项目模型GGUF
Replete-LLM-V2.5-Qwen-7b-GGUF是经LLAMA.cpp量化处理的Qwen-7b模型系列,提供24种不同量化版本。从15.24GB的F16到2.78GB的IQ2_M,涵盖多种规格以适应不同硬件。支持CPU和GPU部署,并为ARM架构优化。采用imatrix量化方案,附有详细性能说明,便于选择合适版本。
huihui-ai_-_Qwen2.5-14B-Instruct-abliterated-v2-gguf - Qwen2.5-14B模型无审查量化版本集合
Qwen2.5-14B大语言模型模型部署权重文件模型Github量化模型Huggingface开源项目
这是一个基于Qwen2.5-14B-Instruct模型的GGUF量化版本集合。模型采用abliteration技术移除了安全过滤限制,并提供从5.37GB到14.62GB的多种量化版本,包括Q2_K、IQ3、Q4等系列。项目基于Apache-2.0许可证开源,支持通过transformers库加载使用。
Meta-Llama-3.1-8B-Instruct-quantized.w4a16 - 基于LLaMA 3.1的INT4量化指令模型
评估基准vLLM多语言支持模型GithubMeta-Llama量化模型Huggingface开源项目
Meta-Llama-3.1-8B-Instruct模型的INT4量化版本,将模型参数从16bit压缩至4bit,有效降低75%的存储和显存占用。模型在Arena-Hard、OpenLLM、HumanEval等基准测试中表现稳定,量化后性能恢复率保持在93%-99%之间。通过vLLM后端部署,支持8种语言处理,适合商业及研究领域应用。
Qwen2.5-32B-Instruct-AWQ - 支持128K长文本的多语言量化大模型
Qwen2.5Github人工智能Huggingface量化模型开源项目多语言处理模型大语言模型
Qwen2.5-32B指令微调模型经AWQ量化后参数量达32.5B,显著增强了编程和数学计算能力。模型支持29种语言交互,可处理128K tokens长文本,具备结构化数据理解和JSON生成等核心功能。基于transformers架构开发,通过量化技术实现高效部署,适用于大规模AI应用场景。
Mistral-Nemo-Instruct-2407-GGUF - Mistral Nemo多语言指令模型的量化版本
GGUF开源项目Mistral-Nemo-Instruct-2407模型Github量化模型机器学习大语言模型Huggingface
Mistral-Nemo-Instruct-2407模型的GGUF量化实现,包含从Q2到Q8多个量化等级,文件大小范围为4.9GB至13.1GB。模型原生支持英语、法语、德语等8种语言,基于Apache 2.0协议开源。项目提供了各量化版本的性能对比数据及使用文档,便于在性能和资源消耗间做出合适选择。
stable-diffusion-3-medium-GGUF - 高性能GGUF格式量化模型集合,支持多种精度的文生图应用
stable-diffusion-3HuggingfaceAI绘图量化模型开源项目模型GGUF模型压缩Github
该项目提供了基于Stable Diffusion 3 Medium的GGUF格式量化模型集合。包含4位至32位不同精度的版本,模型大小从4.55GB到31.5GB不等。使用stable-diffusion.cpp进行量化,可通过sd-api-server快速部署。这些模型适用于需要在各种硬件条件下平衡性能和资源的文生图应用场景。
quantized-models - 提供多源量化模型以提升大语言模型推理效率
quantized-models大型语言模型文本生成推理开源项目模型transformersGithubHuggingface量化模型
quantized-models项目整合了多种来源的量化模型,旨在提高大语言模型的推理效率。模型支持者包括TheBloke、LoneStriker、Meta Llama等,提供gguf、exl2格式的支持。用户可通过transformers库便捷地进行文本生成,这些模型按现状发布,需遵循其各自的许可协议。
Llama-3.2-3B-Instruct-GGUF - Llama 3.2多语言模型的高效量化部署方案
Llama 3.2语言模型多语言模型Github量化模型机器学习开源项目Huggingface
Llama 3.2系列多语言模型的GGUF量化版本,针对对话、检索和摘要任务进行优化。通过多种量化方案实现4.66GB至9.38GB的灵活内存占用,适合在资源受限环境部署。该模型在主流行业基准测试中展现了良好性能。
TinyLlama-1.1B-Chat-v1.0-GPTQ-4bit - 基于GPTQ量化技术的轻量级4位对话AI模型
TinyLlama开源项目模型GPTQ模型压缩量化模型机器学习GithubHuggingface
TinyLlama-1.1B-Chat-v1.0的4位量化版本,是一个轻量级对话AI模型。该项目采用AutoGPTQ技术进行量化,使用GPTQ方法将模型压缩至4位精度。量化配置包括128的组大小、0.01%的阻尼比例和对称量化等特性。这种优化显著降低了模型大小和内存占用,同时保持了模型性能,为资源受限的AI应用提供了高效解决方案。
Qwen2.5-14B-Instruct-GGUF - 多语言支持的大规模语言模型 具备结构化数据处理能力
大语言模型多语言支持Github模型Qwen2.5量化模型Huggingface开源项目LM Studio
Qwen2.5-14B-Instruct-GGUF是一款多语言大规模语言模型,由Qwen团队开发。模型支持128k tokens长文本处理,经18T tokens训练,强化了结构化数据处理能力。支持中英法等29种以上语言。bartowski提供的GGUF量化版本基于llama.cpp,提高了模型部署效率。
DeepSeek-Coder-V2-Lite-Instruct-GGUF - 高性能代码模型的多版本量化优化支持多种硬件推理应用
代码生成开源项目量化模型模型人工智能Huggingface模型压缩DeepSeek-CoderGithub
本项目针对DeepSeek-Coder-V2-Lite-Instruct模型进行量化优化,提供20多种GGUF格式文件,大小从6GB到17GB不等。采用llama.cpp的imatrix技术实现高效压缩,同时保持模型性能。用户可根据硬件条件选择适合的版本,支持NVIDIA、AMD等平台的深度学习推理。
Wizard-Vicuna-30B-Uncensored-GGUF - 多平台兼容的高效AI模型格式
开源项目GGUF人工智能助手量化模型模型HuggingfaceWizard Vicuna 30B Uncensored数据集Github
GGUF格式是llama.cpp团队于2023年8月推出的新模型格式,取代了不再支持的GGML。该项目提供多种量化方法及格式,以优化在llama.cpp、text-generation-webui等多平台上的使用。用户可以选择最合适的模型,通过支持GPU加速的客户端和库实现高效下载和使用。这些模型兼容多种第三方UI和库,有助于增强人工智能推理和应用开发的性能。
stable-diffusion-3.5-large-gguf - Stable Diffusion 3.5大型模型的GGUF量化版本
图像生成Huggingface文本转图像ComfyUI开源项目模型GithubStable Diffusion 3.5量化模型
这是Stability AI发布的Stable Diffusion 3.5大型模型的GGUF量化版本,专为ComfyUI-GGUF定制节点开发。模型继承原版所有功能及许可条款,通过GGUF格式实现更高效的部署。模型文件可直接放置于ComfyUI/models/unet目录下使用,为开发者提供文本生成图像的轻量级实现方案。
Mixtral_Erotic_13Bx2_MOE_22B-GGUF - Mixtral Erotic 22B模型的GGUF量化版本集合
自然语言处理开源项目量化模型Github机器学习Huggingface模型Mixtral_Erotic_13Bx2_MOE_22BGGUF
本项目提供Mixtral_Erotic_13Bx2_MOE_22B模型的16种GGUF量化版本,涵盖Q2至Q8不同规格,文件大小在8.2GB到23.1GB之间。项目详细比较了各版本特点和性能,推荐使用速度较快的Q4_K_S和Q4_K_M版本,质量较好的Q6_K版本,以及最佳质量的Q8_0版本。用户可根据需求选择适合的量化版本。
L3-8B-Stheno-v3.2-GGUF-IQ-Imatrix - 基于Llama 3的低资源角色扮演大语言模型
大语言模型开源项目量化模型角色扮演Stheno模型HuggingfaceSillyTavernGithub
L3-8B-Stheno-v3.2-GGUF-IQ-Imatrix是一个经过优化量化的Llama 3大语言模型。该模型针对角色扮演场景进行了特别优化,支持故事创作和多轮对话。通过多种量化版本实现了低资源运行,8GB显存即可部署使用。模型在保持创造力的同时,具备出色的对话连贯性和指令遵循能力。
Phi-3-mini-4k-instruct - 高效节省内存的模型微调策略,快速实现量化优化
开源项目量化模型Github机器学习Huggingface模型内存优化Phi-3免费微调
此项目通过Unsloth量化技术,提供高效的Mistral平台大模型微调方案,速度提升至2-5倍,内存占用降低至50-70%。提供的Colab笔记本支持Phi-3、Llama 3、Gemma 2等多种模型,简单易用,适合初学者。用户可以节省计算资源,并将微调后的模型导出至GGUF或上传至Hugging Face,方便成果共享。
Qwen2-0.5B-Instruct-GGUF - 高性能轻量级开源语言模型 支持多种量化等级
自然语言处理开源项目量化模型Qwen2GithubHuggingface模型语言模型GGUF格式
Qwen2-0.5B-Instruct模型提供多种GGUF格式量化版本,从q2_k到q8_0不等。模型基于Transformer架构,使用SwiGLU激活和改进的分组查询注意力,支持多语言及代码处理。经过大规模预训练和监督微调,可通过llama.cpp部署,支持OpenAI API兼容调用。在WikiText困惑度测试中表现优秀,为轻量级开源语言模型应用提供了便利选择。
Llama-3.2-1B-Instruct-Uncensored-GGUF - Llama小型无审查语言模型的量化实现
Llama开源项目量化模型transformersGithubGGUFHuggingface模型语言模型
这是针对Llama-3.2-1B-Instruct-Uncensored模型的GGUF量化项目,提供从Q2_K到f16在内的多种量化版本。模型文件大小范围在0.7GB至2.6GB之间,通过不同的量化方案平衡了性能与存储空间。项目包含完整的性能对比数据和使用文档,方便开发者根据实际需求选择合适的模型版本。
Meta-Llama-3.1-405B-Instruct-GGUF - Meta-Llama 3.1量化版大模型支持多语种文本生成
GGUFMeta-Llama-3.1-405B-Instruct量化模型大语言模型HuggingfaceGithub开源项目模型文本生成
Meta-Llama-3.1-405B-Instruct模型的GGUF量化版本支持英语、德语、法语在内的8种语言文本生成。通过2-bit和3-bit量化技术优化,可在llama.cpp、LM Studio等主流框架上运行,方便开发者进行本地部署和应用开发。
MN-12B-Starcannon-v3-i1-GGUF - 多种量化选项提升模型性能和适应性
Github静态量化开源项目Hugging Face量化模型transformersMN-12B-Starcannon-v3Huggingface模型
该项目提供多种量化文件类型和大小,满足不同用户需求,优化模型性能。用户可在mradermacher的Hugging Face页面获取IQ-quants与静态量化文件。有关GGUF文件的使用,建议查阅TheBloke的说明。本项目通过iMatrix文件,专注于高质量模型的量化,感谢nethype GmbH及nicoboss的硬件支持。
Qwen2.5-7B-Instruct-GPTQ-Int8 - Qwen2.5模型实现多语言支持与优化长文本处理
开源项目量化模型Github大模型多语言支持Huggingface模型指令微调Qwen2.5
Qwen2.5模型具备多语言支持和改良的长文本处理能力,增强了编程、数学及指令执行的表现。其GPTQ-8位量化模型支持最长128K上下文与最高生成8192个令牌,提供因果语言模型架构,适合多领域应用。支持29种语言,包括中文、英语和法语,为开发者提供多样化的功能。
llama3-8B-DarkIdol-2.2-Uncensored-1048K-GGUF - 多语言支持的llama3-8B GGUF量化模型,提供多级压缩优化
开源项目量化模型Github模型Huggingfacellama3大语言模型GGUF权重压缩
llama3-8B GGUF量化模型支持英语、日语和中文,提供3.3GB至16.2GB多种压缩版本,适应不同硬件需求。Q4_K系列在性能和质量上表现均衡。模型基于transformers库开发,适用于角色扮演和偶像相关场景。用户可通过Hugging Face平台获取各版本及其性能对比信息。
gemma-2-9b-it - 优化模型微调,降低内存使用,提升处理性能
内存优化量化模型机器学习HuggingfaceGithub开源项目模型transformers免费调优
采用Unsloth技术,通过4bit量化实现Gemma 2 (9B)模型在低内存环境下的高效微调。Google Colab笔记本适合初学者,便于用户添加数据集和运行,获得性能提升至2倍的微调模型,支持导出为GGUF、vLLM或上传至Hugging Face,并减少内存使用达63%。
llama-3-chinese-8b-instruct-v3-gguf - 量化对话模型,适用于多平台的高效问答
对话模型开源项目量化模型Github模型Huggingface中文模型性能指标Llama-3-Chinese-8B-Instruct-v3
该项目是Llama-3-Chinese-8B-Instruct-v3的量化版本,专为提升对话与问答表现而设计,支持多平台使用。建议在内存充裕时使用Q6_K或Q8_0配置以达最佳效果。用户可在HF Space体验,详情与说明参见GitHub页面。
dolphin-2.0-mistral-7B-GGUF - 开源语言模型Dolphin Mistral的GGUF量化版本
TheBloke开源项目GGUF量化模型Mistral 7B模型HuggingfaceGithubLLM
Dolphin-2.0-mistral-7B的GGUF格式模型提供多个量化版本,从2比特到8比特不等。模型支持CPU和GPU推理,可在llama.cpp等框架上运行。采用ChatML提示模板格式,适用于文本生成和对话任务。项目提供完整使用文档,支持多种部署方式。
Qwen1.5-32B-Chat-GGUF - 基于Transformer架构的多语言解码模型
Github模型开源项目语言模型多语言支持量化模型HuggingfaceQwen1.5模型性能
Qwen1.5是基于Transformer的语言模型,在多个模型规模和多语言支持方面有显著提升。支持从0.5B到72B的不同模型规模,表现出色的人类偏好能力,所有模型都稳定支持32K上下文长度,无需额外信任远程代码。项目提供多种量化模型格式,并评估了Wiki数据集上的模型困惑度。改进的分词器增强了对多种自然语言和代码的支持。
mistral-7b-bnb-4bit - 更高效的模型微调与内存优化技术
快速微调Github开源项目量化模型Mistral 7b内存优化UnslothHuggingface模型
Unsloth技术助力Mistral 7b在内存减少70%的同时实现5倍微调速度提升。项目提供多个适合初学者的Google Colab笔记,只需添加数据集并运行,便可生成更快的微调模型,支持导出到GGUF、vLLM或上传Hugging Face。此方案有效优化了Gemma 7b、Mistral 7b、Llama-2 7b等模型的性能和内存使用,提升模型微调效率。