#量化

model_optimization - 开源神经网络模型压缩与优化工具集
Model Compression ToolkitMCT神经网络优化量化模型压缩Github开源项目
Model Compression Toolkit (MCT)是一个专注于神经网络模型优化的开源项目,旨在满足高效硬件约束下的部署需求。MCT提供多种量化方法,包括训练后量化和基于梯度的训练后量化,同时支持数据生成和结构化剪枝等功能。此工具集还具备针对特定目标平台的优化能力,为研究人员和开发者提供了全面的模型压缩解决方案。
optimum-quanto - PyTorch模型量化框架 提升性能和效率
Optimum Quanto量化PyTorch机器学习模型优化Github开源项目
Optimum Quanto是专为Optimum设计的PyTorch量化框架。它支持eager模式、多设备部署,自动插入量化/反量化存根和操作,实现从浮点到动态/静态量化模型的无缝转换。支持多种精度的权重和激活量化,有效提升模型性能和内存效率。该框架为Hugging Face和原生PyTorch模型提供简便的量化流程。
mllm - 轻量级移动设备多模态大语言模型推理引擎
multimodal LLM移动设备边缘计算AI推理引擎量化Github开源项目
mllm是一款针对移动和边缘设备优化的多模态大语言模型推理引擎。该引擎采用纯C/C++实现,无外部依赖,支持ARM NEON和x86 AVX2指令集,并提供4位和6位整数量化。开发者可利用mllm构建智能个人助理、基于文本的图像搜索、屏幕视觉问答等移动应用,实现本地推理而无需上传敏感数据。
inferflow - 为大语言模型提供高效灵活的推理解决方案
Inferflow大语言模型推理引擎模型服务量化Github开源项目
Inferflow是一款功能强大的大语言模型推理引擎,支持多种文件格式和网络结构。它采用3.5位量化和混合并行推理等创新技术,提高了推理效率。用户通过修改配置文件即可部署新模型,无需编写代码。Inferflow支持GPU/CPU混合推理,为模型部署提供灵活选择。该项目为研究人员和开发者提供了高效易用的LLM推理工具。
llmc - 开源工具压缩大型语言模型提升效率
LLM压缩量化剪枝LLMC性能优化Github开源项目
llmc是一个压缩大型语言模型的开源工具,采用先进压缩算法提高效率和减小模型体积。它支持多种LLM和压缩方法,可在单GPU上量化评估大模型,兼容多种推理后端。项目提供LLM量化基准,帮助用户选择合适的压缩策略。
BEVFormer_tensorrt - BEVFormer和BEVDet的TensorRT高效部署方案
BEV 3D DetectionTensorRT推理加速量化GPU内存优化Github开源项目
本项目实现BEVFormer和BEVDet在TensorRT上的高效部署,支持FP32/FP16/INT8推理。通过优化TensorRT算子,BEVFormer base模型推理速度提升4倍,模型大小减少90%,GPU内存节省80%。同时支持MMDetection中2D目标检测模型的INT8量化部署。项目提供详细基准测试,展示不同配置下的精度和速度表现。
stable-diffusion-3.5-large-turbo-gguf - 直接量化的图像生成模型
StabilityAIAI社区量化开源项目模型stable-diffusion图像生成GithubHuggingface
stable-diffusion-3.5-large-turbo-gguf项目提供了对stabilityai的3.5稳定扩散模型的直接量化处理。模型文件可以在ComfyUI-GGUF自定义节点中运用,通过简单的文件部署即可实现。量化处理保持了原模型的许可证要求,提升了图像生成的运算效率,适用于文本到图像的生成任务。更多技术细节可以参考GitHub上的安装说明和量化类型概览。
llama2_70b_chat_uncensored-GGUF - Llama2 70B Chat Uncensored推出全新GGUF格式
开源项目GGUF模型Llama2Huggingface量化GithubLLM
Llama2 70B Chat Uncensored项目引入了采用GGUF格式的新模型文件,与传统GGML相比,增强了性能与功能。GGUF格式在词元化和特殊标记支持方面表现出色,并支持元数据,提升了第三方UI和库的兼容性。由llama.cpp团队于2023年8月21日发布的此新格式,适合用于聊天机器人、文本生成等机器学习应用。
Swallow-7B-Instruct-GGUF - 适用于多平台的高效量化模型
GGUF格式Swallow 7B InstructHuggingface文本生成量化开源项目模型GithubGPU加速
Swallow 7B Instruct 采用GGUF格式,以高效的量化技术实现文本生成。该模型支持多种位数和硬件平台,可通过llama.cpp及text-generation-webui等软件使用并提供GPU加速,适合于需要高质量文本生成的多种应用。
Hermes-2-Theta-Llama-3-8B-GGUF - Hermes-2-Theta量化文件的选择与使用指南
I-quantsHuggingfaceHermes-2-Theta-Llama-3-8B量化K-quants开源项目模型Github模型大小
Hermes-2-Theta-Llama-3-8B项目使用llama.cpp技术产生多种量化文件,适合多种硬件架构和性能需求。用户可依据设备的RAM和VRAM选择恰当的量化文件。项目提供Q和I两种量化格式,涵盖从低到高的质量选项,并可通过huggingface-cli轻松下载。项目还包括性能表现图表及功能矩阵,为用户优化模型提供指南。
storytime-13B-GGUF - 深入了解Storytime 13B的GGUF格式及其量化方法的多样选择
Hugging FaceStorytime 13B量化HuggingfaceGithub开源项目模型文件模型兼容性
本项目提供由Charles Goddard开发的Storytime 13B模型的GGUF格式文件,进一步扩展了与多种UI和库的兼容性,以便在多平台上实现高效的GPU加速推理。用户可以基于不同的需求选择从Q2_K到Q8_0的量化模型,覆盖高效到高质量的多样化选项。文件已经过优化量化处理,提供从轻量化性能提升到极低质量损失的选择。此外,还提供了模型的下载与运行指南,帮助用户更快速上手。
TinyLlama-1.1B-Chat-v1.0-GPTQ-Marlin-4bit - 量化版4-bit模型采用GPTQ提升效率及性能
TinyLlamaGPTQ量化模型4-bitGithub开源项目配置Huggingface
该项目使用AutoGPTQ以4-bit Marlin格式对大型语言模型进行量化,旨在提升性能与效率。量化配置涵盖4位量化、128组大小及0.01%阻尼比等技术细节,适用于寻求高效深度学习模型的用户,为复杂任务提供节省资源的方案。
Llama-3-Hercules-5.1-8B-GGUF - 量化文本生成模型的高效选择指南
Github量化transformers模型开源项目性能优化Llama-3-Hercules-5.1-8BHuggingface文件下载
Llama-3-Hercules-5.1-8B-GGUF项目通过llama.cpp工具实现文本生成模型的量化,提供多种量化类型,以满足不同内存和性能的需求。用户可以在包括Q8_0、Q6_K、Q5_K_M等量化选项中,根据具体条件选择合适版本。建议用户通过合理的内存配置,在GPU或CPU上实现高效的模型运行。推荐使用K-quants格式以获取较高性能,而I-quants则适用于内存优化。
Codestral-22B-v0.1-IMat-GGUF - Codestral-22B-v0.1量化模型及IMatrix文件下载指南
IMatrix下载步骤Github量化模型开源项目代码生成Codestral-22B-v0.1Huggingface
Codestral-22B-v0.1项目提供了多种量化版本,包括Q8_0、Q6_K、Q4_K等,并支持IMatrix数据集的应用。用户可通过huggingface-cli下载这些文件,对于较大的文件,可使用gguf-split工具进行合并。更新版本修复了FIM标记缺失,并通过部分量化方法提升性能。项目涵盖的量化文件类型多样且灵活,满足不同的应用需求。
MohamedRashad-Arabic-Orpo-Llama-3-8B-Instruct-GGUF - 阿拉伯语Llama模型优化量化文件提升性能
Huggingface文本生成Featherless AI量化开源项目模型模型性能优化MohamedRashad/Arabic-Orpo-Llama-3-8B-InstructGithub
项目提供优化的GGUF量化文件,以提升阿拉伯语Llama模型性能,支持多种量化类型如Q8_0、Q4_K_S、Q2_K等供选择。由Featherless AI支持,具备即时部署、零基础设施需求及高兼容性,支持超2400种模型,每月服务起价10美元。
SuperNova-Medius-GGUF - 多种量化方法提升模型性能与适配性
ARMHuggingface量化开源项目模型性能GithubSuperNova-MediusRAM
SuperNova-Medius-GGUF项目通过llama.cpp工具对SuperNova-Medius模型进行多种量化处理,是以多样化版本满足不同应用的需求。精细化量化过程依托imatrix选项,提供了多种质量和性能的选择。用户可以根据自身硬件环境,如ARM架构设备、低RAM或需最大化GPU VRAM使用的场景,选择相应版本。此外,项目为文件选择提供了详细指南,确保用户能够找到适合其系统性能的最佳模型版本。这些量化技术为不同硬件上的文本生成任务提供了广泛的支持。
Mistral-Small-22B-ArliAI-RPMax-v1.1-GGUF - AI模型量化方法提升硬件性能与资源效率
Huggingface模型下载基于ARM的优化量化开源项目模型性能GithubMistral-Small-22B-ArliAI-RPMax-v1.1
通过llama.cpp进行量化优化,AI模型适用于各种RAM配置和资源受限环境。多种量化选项可供选择,从高质量到低资源占用,确保最佳性能表现。适用于ARM以及其他特定硬件,通过选择I-quant和K-quant格式实现速度与质量的平衡,优化AI推理性能。
Replete-LLM-V2.5-Qwen-32b-GGUF - 量化模型文件下载指南,通过选择适合的文件优化性能
Github量化模型开源项目视觉处理嵌入输出权重Huggingface文本生成Replete-LLM-V2.5-Qwen-32b
该项目使用llama.cpp工具进行模型量化,提供多种Replete-LLM-V2.5-Qwen-32b模型文件下载选项。每种文件类型均说明其特性,如高质量和性能等,并适应不同硬件环境,以帮助用户根据需求优化模型质量或速度。文件适用于多种RAM和VRAM配置,便于在不同系统中实现优异性能。
Midnight-Miqu-70B-v1.5-i1-GGUF - Midnight-Miqu-70B-v1.5量化模型:优化AI实施的多样化策略
Github量化合并工具变压器库模型开源项目Midnight-Miqu-70B-v1.5Huggingface模型使用
此项目提供Midnight-Miqu-70B-v1.5的多种GGUF量化文件,采用权重和imatrix量化,支持多种规格和类型如IQ1至IQ4及Q5、Q6,适应速度、质量和空间需求的平衡。用户可参考TheBloke的README获取操作指南,适合寻求优化AI模型效率的开发者,助力高效机器学习模型部署。
Llama-3.1-8B-Lexi-Uncensored-V2-GGUF - Llama-3.1-8B-Lexi开源量化模型概览
高质量权重量化模型文件Github模型开源项目HuggingfaceLlama-3.1-8B-Lexi-Uncensored-V2
项目介绍了Llama-3.1-8B-Lexi不同量化模型版本,涵盖从高性能到轻量化版本。基于llama.cpp的imatrix量化选项,模型支持在LM Studio中运行。项目提供从完整F32权重到轻量化IQ2_M版本的多种选择,适合不同内存及质量需求的用户,并提供详细的下载和性能指引,帮助在系统RAM与GPU VRAM间找到平衡。
Mixtral-8x7B-v0.1-GGUF - Mixtral模型的多平台兼容量化文件
Github量化模型推理开源项目Mixtral 8X7BHuggingface模型格式Mistral AI
Mixtral GGUF模型文件采用新量化格式,支持2至8位模型,适用于多平台的CPU和GPU推理。文件兼容llama.cpp、KoboldCpp和LM Studio等平台。由Mistral AI创建,Apache-2.0协议许可,支持多语言,高效推理。
dolphin-2.6-mistral-7B-GGUF - 兼容多平台的量化AI模型格式
Dolphin 2.6 Mistral 7BGithub开源项目量化Huggingface深度学习框架模型兼容性文件下载模型
该项目提供多平台兼容的GGUF格式模型文件,包括对GGML的量化替代方案,支持多种比特量化,适用于Windows、Linux和macOS平台的模型推理和GPU加速。用户可以选择合适的量化参数文件,并通过多种工具和命令行进行下载和运行,提升模型推理性能。
Qwen2.5-7B-Instruct-Uncensored-GGUF - 中英文无删减指令模型的最新静态量化版本,适合多语言支持
数据集Github量化模型Qwen2.5-7B-Instruct-Uncensored开源项目Hugging FaceHuggingface
该项目为Qwen2.5-7B-Instruct-Uncensored模型提供多种质量和大小的静态量化文件,支持中英文双语功能。用户可选择合适的量化类型,包括快速的Q4_K_S与Q4_K_M以及高质量的Q8_0和Q6_K。这些文件可提升模型性能,尤其在敏感内容处理及多语言支持方面。使用说明可参考TheBloke的文档。项目得益于nethype公司的资源支持。
gemma-2-9b-it-abliterated-GGUF - 文本生成性能优化的多种量化方法
Github量化模型开源项目gemma-2-9b-it-abliteratedHuggingface嵌入/输出权重文本生成ARM芯片
该项目使用llama.cpp进行gemma-2-9b-it-abliterated模型的多种量化实现,能够适应不同的内存和硬件需求。用户可根据设备的RAM和GPU VRAM选择适合的模型文件大小。项目支持多种量化格式,如Q5_K_M和IQ3_M等,以满足不同的性能需求。通过huggingface-cli,用户可以轻松下载特定量化模型,并实现高效推理。建议在LM Studio中运行,并分享使用体验,以帮助优化模型质量和性能。
Mistral-Nemo-Instruct-2407-GGUF - Mistral-Nemo模型在多语言文本生成中的量化应用
性能优化Huggingface模型下载Mistral-Nemo-Instruct-2407量化开源项目模型Github内存需求
Mistral-Nemo-Instruct-2407项目通过llama.cpp进行了高效的量化处理,优化了模型性能和文件大小。该模型适用于多种RAM和VRAM配置,提供不同量化格式以满足各种需求,尤其推荐使用Q6_K_L和Q5_K_L格式。这些量化后的模型可在LM Studio中执行,适合高质量文本生成任务。
Xwin-LM-70B-V0.1-GGUF - 提升AI模型兼容性的最新GGUF格式
Huggingface模型文件人工智能量化开源项目模型GithubGPU加速Xwin-LM 70B V0.1
Xwin-LM 70B V0.1采用全新的GGUF格式,取代了GGML,支持多种量化方法如Q2_K、Q3_K、Q4_K等,提升GPU和CPU兼容性。该模型兼容多种平台,如llama.cpp、text-generation-webui、KoboldCpp等,应用场景多样。提供详细的量化文件下载和使用说明,适合开发者和研究人员进行AI模型优化。
Daredevil-8B-abliterated - 开源8B模型,适用于无对齐需求的应用和角色扮演
应用Daredevil-8B-abliterated量化评估模型Github开源项目Huggingface
Daredevil-8B-abliterated是一个无审查的开源模型,衍生自mlabonne项目,通过failspy笔记本实现。适用于不需要对齐的应用场景,如角色扮演。该模型在Open LLM排行榜上表现出色,MMLU评分名列前茅,并通过LLM AutoEval进行了全面评估,还在LM Studio中使用了Llama 3预设进行测试。研究者可通过该模型探索大型语言模型中不依赖单一方向的拒绝机制。
codegeex4-all-9b-GGUF - 模型量化优化概览与比较指南
下载性能量化文件选择codegeex4模型Github开源项目Huggingface
Codegeex4项目通过llama.cpp优化实现多种量化模型文件选择,满足不同硬件下的最佳性能需求。建议根据系统的RAM和GPU的VRAM来选择合适的K-quant和I-quant格式文件。若使用Nvidia或AMD显卡,可选择相应的量化文件格式以提升效率。查阅提供的链接以了解详细的性能比较与选择指南。
Codestral-22B-v0.1-GGUF - Codestral-22B量化实现代码生成的多样化选择
Huggingface文本生成量化RAM管理开源项目模型GithubCodestral-22B-v0.1huggingface-cli
Codestral-22B-v0.1模型通过llama.cpp量化,为代码生成提供多种文件选择,适应不同的硬件配置和性能需求。推荐使用高质量的Q6_K和Q5_K量化文件,以获取最佳效果。同时,文中介绍了I-quant与K-quant选择依据,帮助使用者在速度与效果之间找到平衡。文章还详细说明了如何使用huggingface-cli下载文件,以简化获取资源的流程。
Qwen2-1.5B-Instruct-IMat-GGUF - 运用量化技术优化Qwen2-1.5B-Instruct模型的文本生成能力
IMatrixHuggingface文本生成量化开源项目模型Qwen2-1.5B-InstructGithub
项目利用llama.cpp对Qwen2-1.5B-Instruct模型进行量化,支持从8bit到1bit的多种位数及IMatrix数据集。这种方法能减少模型体积且保持性能多样,适用于不同文本生成任务。用户可使用huggingface-cli简便下载及合并文件,以满足不同应用需求。项目因其灵活性及高效性,适宜不同计算资源的使用者,为其提供多样选择。
Qwen2.5-0.5B-Instruct-GGUF - 支持29种语言的多功能语言处理模型
量化开源项目模型Github多语言支持HuggingfaceQwen2.5大语言模型生成长文本
Qwen2.5系列大幅提升了编码、数学和指令跟随能力,支持长上下文的多语言处理,覆盖29种语言。该模型以GGUF格式提供因果语言模型,支持预训练和后训练,非常适合灵活的对话设计。其指令调整能力强,能有效应对多样化的系统提示,尤其在生成结构化输出(如JSON)方面表现突出。模型具备0.49B参数,24层结构,支持多种量化方法。
Meta-Llama-3-70B-Instruct-abliterated-v3.5-IMat-GGUF - 提升量化效率及IMatrix集成以增强文本生成性能
量化开源项目模型GithubHuggingface文本生成Meta-Llama-3-70B-Instruct-abliterated-v3.5IMatrix
本项目应用Llama.cpp的量化技术结合IMatrix数据集,对Meta-Llama-3-70B-Instruct-abliterated-v3.5模型进行优化。支持BF16到Q2_K等多种量化格式,用户可根据需求选择下载不同版本,适用于多种文本生成场景。IMatrix集成提升了低比特位的性能表现,适合现代高效计算需求。提供全面的下载指南和FAQ,帮助用户有效地理解和使用文件,实现文本生成任务的高效推理。
Halu-8B-Llama3-v0.35-GGUF - Halu-8B-Llama3-v0.35量化版本选择指南,助力性能优化
量化开源项目模型GithubHuggingface文本生成huggingface-cliHalu-8B-Llama3-v0.35transformers
项目Halu-8B-Llama3-v0.35提供多种量化版本,通过不同的量化类型优化模型性能,以适应各类RAM和VRAM的需求。可选择K-quants或I-quants,满足特定场景下的性能需求。高质量的I-quants适用于CPU和Apple Metal,性能优于传统K-quants但不兼容Vulcan,并附有详细的性能图表和量化指南,帮助选择适合的量化版本。
Guanaco-13B-Uncensored-GGUF - 新型GGUF格式提高推理性能,兼容多种用户界面
兼容性陈旧模型量化GGUF格式模型Guanaco 13B UncensoredGithub开源项目Huggingface
Guanaco 13B Uncensored采用了新的GGUF格式,增强了令牌化和特殊令牌的支持。此格式由llama.cpp团队于2023年推出,替代不再支持的GGML。项目兼容多种客户端和库,如llama.cpp、text-generation-webui及KoboldCpp,适合于多种GPU加速场景。用户可以通过text-generation-webui下载所需模型,或利用huggingface-hub获取特定文件。项目还提供与编程语言如Python的集成方案,支持LangChain等框架。此项目提供多种形式的模型文件及下载途径,适用于多种用户界面和使用场景,为开发者提供了灵活的选择和集成方案。
deepseek-coder-6.7B-instruct-GGUF - Deepseek全新GGUF格式 高效代码智能助手专注计算机科学
Huggingface量化开源项目模型Github计算机科学GPU加速模型格式Deepseek Coder 6.7B Instruct
DeepSeek引入新型GGUF格式,提供高效代码助手,专注计算机科学问题。该模型经Massed Compute硬件进行量化优化,兼容llama.cpp、text-generation-webui及KoboldCpp等多种框架,并支持GPU加速。用户能接触到从小尺寸到高保真度的量化模型文件,多样化应用场景支持丰富。资源库还提供未量化的DeepSeek原始fp16模型及适用于GPU推理的AWQ和GPTQ模型。
text-generation-inference - 生产级高性能文本生成推理工具
Text Generation InferenceHugging Face大语言模型分布式追踪量化Github开源项目
Text Generation Inference (TGI) 是一个部署和服务大型语言模型的工具包。它支持Llama、Falcon、StarCoder、BLOOM、GPT-NeoX等流行的开源模型,提供简便的启动器、分布式追踪、张量并行、多GPU推理加速、令牌流等特性。TGI还支持权重量化和安全张量加载,具备自定义提示生成和微调功能,兼容Nvidia、AMD、Inferentia、Intel GPU、Gaudi和Google TPU等硬件平台。