#模型量化
mistral.rs - 支持多种设备、模型量化的大型语言模型(LLM)推理平台,配备与Open-AI API兼容的HTTP服务器和Python绑定
mistral.rsLLM推理模型量化Python APIHTTP服务器Github开源项目
mistral.rs是一款支持多种设备、模型量化的大型语言模型(LLM)推理平台,配备与Open-AI API兼容的HTTP服务器和Python绑定,提供快速、精确的模型推理服务。平台支持文本和视觉模型,如AnyMoE、Llama等,采用LoRA技术和动态适配器,提高推理效率。用户可通过API在多种加速器上部署模型,实现快速计算和灵活应用。
hqq - 无需校准数据即可快速精确量化大模型的工具
HQQ模型量化torch.compileCUDA8,4,3,2,1 bitsGithub开源项目
HQQ是一种无需校准数据即可快速精确量化大模型的工具,支持从8bit到1bit的多种量化模式。兼容LLMs和视觉模型,并与多种优化的CUDA和Triton内核兼容,同时支持PEFT训练和Pytorch编译,提升推理和训练速度。详细基准测试和使用指南请访问官方博客。
chatglm.cpp - C++实现的ChatGLM实时聊天工具
ChatGLMC++实时聊天模型量化机器学习Github开源项目
ChatGLM.cpp 是一个使用C++实现的实时聊天项目,支持ChatGLM-6B、ChatGLM2-6B、ChatGLM3和GLM-4模型,兼容多种硬件和操作系统。项目通过int4/int8量化、优化的KV缓存和并行计算技术,实现了高效的CPU推理,并支持P-Tuning v2和LoRA微调模型。该项目还提供Python绑定、网络演示和API服务器,扩展了使用场景,适用于高效实时聊天。
deepsparse - 优化CPU上深度学习推理的高效稀疏性使用
DeepSparseCPU推理稀疏性模型量化LLM支持Github开源项目
DeepSparse是一个专为CPU优化的深度学习推理运行时,通过使用稀疏性显著加快模型推理速度。结合SparseML优化库,DeepSparse支持模型剪枝和量化,在CPU上实现卓越性能。支持各种计算机视觉和自然语言处理模型,包括BERT、ViT、ResNet、YOLOv5/8等。此外,DeepSparse现已支持高效的LLM推理,对稀疏量化模型实现多倍加速。可通过PyPI安装,并提供多种API便于部署。
ao - 优化PyTorch工作流,实现高性能和内存占用减少
torchaoPyTorch模型量化推理训练Github开源项目
torchao是一个用于PyTorch工作流的高性能库,能够创建并集成自定义数据类型和优化技术,实现推理速度提升至2倍,显存减少65%。无需大幅修改代码,保持准确度。支持量化、稀疏化及浮点数优化,适用于HuggingFace等模型。用户可以轻松优化模型,提高计算效率。支持int8、int4和float8等多种数据类型,兼容torch.compile()和FSDP。
aimet - 深度学习模型优化的量化与压缩工具
AIMET模型量化模型压缩深度学习PyTorchGithub开源项目
AI Model Efficiency Toolkit (AIMET) 提供先进的模型量化和压缩技术,专注于优化已训练的神经网络模型。其主要功能包括跨层均衡、偏差校正、自适应舍入和量化感知训练,显著提升模型运行性能,降低计算和内存要求,并保持任务精度。AIMET 兼容 PyTorch、TensorFlow 和 ONNX 模型,通过 AIMET Model Zoo 提供优化的8位推理神经网络模型。同时,AIMET 支持空间SVD和通道剪枝等压缩技术,并提供可视化工具检查模型量化和压缩效果。
gpt-fast - PyTorch原生高效文本生成项目
gpt-fastPyTorch性能优化模型量化文本生成Github开源项目
gpt-fast是一个基于PyTorch的高效Transformer文本生成项目,代码精简(<1000行Python),仅依赖PyTorch和sentencepiece。项目特点包括极低延迟、int8/int4量化、推测解码和张量并行,支持NVIDIA和AMD GPU。gpt-fast不是框架或库,而是展示原生PyTorch性能的示例。它支持LLaMA系列和Mixtral 8x7B等模型,提供详细基准测试和多种优化技术。该项目实现了高效的文本生成,展现了PyTorch在AI领域的强大性能。
dash-infer - 面向x86和ARMv9的高性能大语言模型推理引擎
DashInferLLM推理CPU优化模型量化高性能计算Github开源项目
DashInfer是一款针对x86和ARMv9硬件架构优化的C++推理引擎,支持连续批处理和NUMA感知功能。该引擎可充分发挥现代服务器CPU性能,支持推理参数规模达14B的大语言模型。DashInfer采用轻量架构,提供高精度推理和标准LLM推理技术,兼容主流开源大语言模型,并集成了量化加速和优化计算内核等功能。
llm-awq - 激活感知权重量化技术实现大语言模型高效压缩与加速
AWQLLM模型量化视觉语言模型边缘设备Github开源项目
AWQ是一种高效的大语言模型低比特权重量化技术,支持INT3/4量化,适用于指令微调和多模态模型。它提供预计算模型库、内存高效的4位线性层和快速推理CUDA内核。AWQ使TinyChat可在边缘设备上实现大模型高效本地推理。该技术已被Google、Amazon等采用,并获MLSys 2024最佳论文奖。
mlc-MiniCPM - Android设备上运行MiniCPM轻量级AI模型
MiniCPMAndroidMLC-LLM模型量化移动端部署Github开源项目
mlc-MiniCPM项目基于MLC-LLM技术,实现了MiniCPM和MiniCPM-V模型在Android设备上的运行。该项目开发了Android应用程序,支持用户与AI模型进行文本和图像交互。通过4位量化技术,项目将模型压缩以适应移动设备资源,在保持性能的同时提高运行效率。
MiniCPM - 轻量级大语言模型实现高性能端侧部署
MiniCPM端侧大语言模型开源模型多模态模型量化Github开源项目
MiniCPM是一系列高效的端侧大语言模型,仅有2.4B非词嵌入参数。经过优化后,在多项评测中表现优异,甚至超越了一些参数量更大的模型。该项目支持多模态功能,可在移动设备上流畅运行。MiniCPM开源了多个版本,涵盖文本、多模态、量化和长文本等应用场景,适用于学术研究和特定商业用途。这一开源项目由面壁智能与清华大学自然语言处理实验室联合开发。
CodeFuse-DevOps-Model - 中文DevOps大模型助力开发运维全生命周期
DevOps-Model中文开发运维大模型模型评测模型训练模型量化Github开源项目
CodeFuse-DevOps-Model作为首个开源中文开发运维大模型,专注于DevOps全生命周期问题解决。基于Qwen系列并经高质量中文DevOps语料训练,模型在同规模对比中表现卓越。项目囊括7B和14B基座及对齐模型,并配备在线试用和评测基准。在多个DevOps评测数据集中,模型均取得优异成绩,为开发者提供了可靠的DevOps智能支持。
Embedded-Neural-Network - 深度神经网络压缩与加速技术综述
神经网络压缩硬件加速器模型量化稀疏化剪枝Github开源项目
Embedded-Neural-Network项目汇集了减小深度神经网络模型大小和加速ASIC/FPGA应用的前沿研究。内容涵盖网络压缩、硬件加速等领域,包括参数共享、知识蒸馏、定点训练、稀疏正则化和剪枝等技术。项目还整理了相关教程和重要会议论文。
Awesome-Quantization-Papers - 深度学习模型量化研究论文综合列表
模型量化深度学习神经网络Transformer低比特量化Github开源项目
Awesome-Quantization-Papers是一个全面的深度学习模型量化研究论文列表,涵盖AI会议、期刊和arXiv上的最新成果。项目根据模型结构和应用场景进行分类,重点关注Transformer和CNN在视觉、语言处理等领域的量化方法。通过定期更新,为研究人员提供模型量化领域的最新进展。
nncase - 神经网络编译器 优化AI加速器性能
nncaseAI加速器神经网络编译器K230模型量化Github开源项目
nncase是专为AI加速器设计的神经网络编译器,支持多输入输出和多分支结构。它采用静态内存分配,提供算子融合优化,支持浮点和uint8量化推理,以及基于校准数据集的后量化。nncase支持零拷贝加载平面模型,适用于K230、K510和K210等芯片。它提供丰富的操作符支持、使用指南和示例,以及完整的生态系统资源,有助于高效部署AI模型。
CodeLlama-7B-GGUF - 采用GGUF格式的CodeLlama 7B模型提高编码效率与多平台兼容性
CodeLlama代码生成MetaHuggingfaceGithub开源项目模型LLM模型量化
该项目展示了Meta的CodeLlama 7B模型在GGUF格式中的优势,取代不再支持的GGML格式。GGUF提供了更好的标记和特别符号支持,并具有元数据和扩展性。适用于多种第三方客户端和库,如llama.cpp和text-generation-webui。量化模型可满足不同计算需求,实现CPU+GPU推理的最佳性能,适配多种平台,为高性能编码需求提供多样化解决方案。
WizardLM-1.0-Uncensored-CodeLlama-34B-GGUF - GGUF格式提供AI应用的新选择
Github开源项目模型模型格式AI助手量化方法Huggingface模型量化WizardLM 1.0 Uncensored CodeLlama 34B
GGUF格式由llama.cpp团队在2023年8月推出,旨在取代不再支持的GGML格式。新格式提升了分词能力,支持特殊标记并包含元数据,设计得更加可扩展。多个客户端和库已兼容GGUF格式,例如llama.cpp、text-generation-webui和KoboldCpp等,为用户提供了更强大的AI模型选择和应用功能。此外,该项目包含具有不同量化参数的AWQ和GPTQ模型,用于GPU推理,并支持多位GGUF模型文件,以满足不同的应用场景需求。
Qwen-7B-Chat-Int4 - 大规模语言模型的高效应用
Github中文评测开源项目通义千问Huggingface训练数据Qwen-7B-Chat模型量化模型
Qwen-7B-Chat-Int4由阿里云基于Transformer架构开发,利用对齐机制和广泛的数据集进行训练,更新版在语言理解及数学和代码任务中表现出色。模型在多个任务中展现出较高的推理速度和低显存占用得益于其广泛预训练数据和先进的量化技术。优化后的分词器及加速方案便于多语言应用。更多信息请参见官方GitHub库。
gemma-2-27b-it-GGUF - gemma-2-27b-it模型的GGUF量化版本适配多种硬件配置
模型量化模型Github开源项目HuggingfaceGGUF格式gemma-2-27b-it大语言模型文件下载
本项目提供gemma-2-27b-it模型的多种GGUF量化版本,涵盖从高质量Q8_0到紧凑型IQ2_M。用户可根据RAM和VRAM选择适合的模型。项目包含下载指南、模型选择建议和性能对比,便于部署和使用这些优化模型。
Qwen2.5-0.5B-Instruct-q4f16_1-MLC - 支持跨平台部署的轻量级对话系统
模型量化Huggingface聊天机器人模型MLC-LLMGithubREST服务Qwen2.5开源项目
Qwen2.5-0.5B-Instruct-q4f16_1-MLC是Qwen2.5-0.5B-Instruct模型的MLC格式版本,专为MLC-LLM和WebLLM项目设计。这个轻量级指令对话模型支持命令行、REST服务器和Python API多种部署方式。通过q4f16_1量化技术,模型在保持性能的同时显著减小体积,适合资源受限环境。它可轻松集成到各类应用中,高效执行自然语言处理任务。
Qwen2-7B-Instruct-GGUF - 高效量化AI模型 多平台支持 便捷本地部署
Qwen2-7B-Instruct开源项目Huggingface文本生成Github模型量化模型GGUFGPU加速
Qwen2-7B-Instruct-GGUF是Qwen2-7B-Instruct模型的GGUF格式量化版本。该模型支持2至8比特量化,可在llama.cpp、LM Studio等多个平台上本地部署。GGUF格式具有高效性能和广泛兼容性,便于在个人设备上进行AI文本生成。该项目为用户提供了多种比特率的量化选项,以适应不同的硬件环境和性能需求。
starcoder2-15b-instruct-GPTQ - GPTQ量化的StarCoder2指令微调代码生成模型
模型模型量化GithubStarcoder2指令微调Huggingface开源项目代码生成自然语言处理
starcoder2-15b-instruct模型的GPTQ量化版本,经0.7亿高质量代码token微调,HumanEval-Python性能达77.4 pass@1。采用Alpaca指令格式,支持代码生成等任务。提供transformers库和text-generation pipeline使用示例。注意:实际应用前需进行额外安全测试。
stablelm-2-12b-chat-GGUF - 多样化质量需求的文本生成解决方案
Github模型stablelm-2-12b-chat开源项目HuggingfaceLlamaEdge文本生成稳定性AI模型量化
Stablelm-2-12b-chat-GGUF项目提供多种量化策略,支持多样化文本生成需求。项目由Second State Inc.完成量化,优化性能同时缩小模型体积。推荐Q5_K_M和Q5_K_S版本,以其低损失特性适合高精度文本生成。集成LlamaEdge服务和命令行应用,支持灵活的上下文配置,助力优化文本处理。
Codestral-22B-v0.1-GGUF - 支持80+编程语言的22B代码生成模型
填补查询代码生成Mistral AICodestral 22BHuggingfaceGithub开源项目模型模型量化
Codestral-22B由Mistral团队发布,支持Python等80多种编程语言,专为编码任务设计,兼具指令和中间填充查询能力。
t5-v1_1-xxl-encoder-gguf - T5-v1_1-XXL编码器适用于NLP和图像生成任务
模型量化模型GGUF开源项目Huggingfacellama.cppT5ComfyUIGithub
Google T5-v1_1-XXL编码器模型的GGUF转换版本,兼容llama-embedding和ComfyUI-GGUF。适用于自然语言处理和图像生成任务,推荐使用Q5_K_M或更高量化版本。该模型为开发者提供强大的文本编码能力,可应用于多种NLP场景。
Qwen2.5-Math-7B-Instruct-4.0bpw-exl2 - 基于Qwen2.5的4位精度量化数学指令模型
模型量化Huggingface模型Github开源项目开源许可DiscordQwen2.5-Math-7B-Instruct捐赠
Qwen2.5-Math-7B-Instruct-4.0bpw-exl2是一个基于Qwen2.5-Math-7B-Instruct模型的4.0位精度量化版本。该项目利用exllamav2技术实现了高效压缩,在保持原模型数学指令性能的同时大幅减小了模型体积。项目采用Apache 2.0许可证开源,并提供Discord社区支持。这一量化模型为需要在资源受限环境下部署大型数学指令模型的用户提供了实用解决方案。
FLUX.1-dev-gguf - ComfyUI环境下的高效量化图像生成模型
模型量化Huggingface模型GithubAI绘图FLUX.1-dev开源项目ComfyUIGGUF
FLUX.1-dev-gguf是black-forest-labs/FLUX.1-dev模型的GGUF量化版本,主要用于文本到图像的生成。此模型与ComfyUI-GGUF自定义节点完全兼容,并严格遵守原始许可条款。它为ComfyUI环境中的图像创作者提供了高效的生成工具。模型文件可以轻松部署到ComfyUI/models/unet目录中。通过量化技术,FLUX.1-dev-gguf在保持原模型性能的同时,提高了运行效率,使其成为图像生成任务的理想选择。
Mistral-Nemo-Instruct-2407-GGUF - 多语言高性能指令型语言模型的GGUF量化方案
提示模板模型硬件需求模型量化大型语言模型GithubMistral-Nemo-Instruct-2407Huggingface开源项目
Mistral-Nemo-Instruct-2407-GGUF是Mistral AI和NVIDIA联合开发的指令微调大语言模型的量化版本。该模型支持多语言处理,性能优于同等规模模型。项目提供多种GGUF量化方案,文件大小从4.79GB到24.50GB不等,适用于不同硬件配置,方便在各类设备上部署。
medicine-LLM-13B-GGUF - 专业级医学大语言模型GGUF格式量化版本
Medicine LLM模型量化Huggingface模型大语言模型医学人工智能Github开源项目GGUF
本项目提供AdaptLLM开发的Medicine LLM 13B模型的GGUF量化版本。GGUF是llama.cpp团队推出的新格式,替代了旧有的GGML。项目包含2位到8位精度的多种量化版本,可适应不同硬件配置和性能需求。GGUF文件兼容多种客户端和库,便于用户灵活使用。量化版本在优化资源使用的同时,也保证了模型质量。
Mistral-7B-Instruct-v0.2-AWQ - Mistral-7B-Instruct-v0.2改进版指令微调大语言模型
模型AI推理AWQ模型量化Mistral-7B-Instruct-v0.2Github文本生成Huggingface开源项目
Mistral-7B-Instruct-v0.2是Mistral AI团队开发的改进版指令微调大语言模型。基于Mistral-7B-v0.1架构,采用分组查询注意力和滑动窗口注意力技术。支持[INST]和[/INST]标记的指令格式,提供聊天模板功能。模型性能出色,但缺乏审核机制。适用于需要无限制输出的应用场景,展示了基础模型易于微调并获得优秀性能。
bagel-8b-v1.0-GGUF - 多样化量化文件助力文本生成
开源项目RAM需求模型bagel-8b-v1.0Huggingface文件下载模型量化Github高质量
bagel-8b-v1.0-GGUF项目通过llama.cpp量化技术,提供多种优化的模型文件,涵盖从高品质到低内存的多层次需求。用户可根据硬件条件选择合适的K-quants或I-quants版本,详细对比信息参见Artefact2的分析。
distilbert-base-uncased-go-emotions-onnx - 优化为ONNX格式的轻量级情感分析模型
模型量化模型情感分析Github零样本分类开源项目Huggingface自然语言处理ONNX
该模型是基于distilbert-base-uncased架构,通过零样本蒸馏技术在GoEmotions数据集上训练的情感分类工具。经ONNX格式转换和量化处理,模型性能得到显著提升。这一创新方法展示了如何将复杂的NLI零样本模型简化为高效的学生模型,实现了仅依靠未标记数据即可训练分类器的技术突破。尽管在精度上可能略逊于全监督模型,但为处理无标签数据的情感分析任务提供了实用解决方案。
Ministral-3b-instruct-GGUF - 更高效的量化语言模型,为文本生成带来显著性能提升
开源项目NLP模型语言模型Apache 2.0Huggingfacetransformers模型量化Github
Ministral-3b-instruct-GGUF是一个基于llama.cpp的高效量化模型,专为Ministral系列的3B参数设计优化,并从Mistral-7B进行微调。它使用混合数据集,主要用于英语文本生成。通过量化技术,该模型在保持精度的同时,显著减少了存储和计算需求,理想应用于高效文本生成场景。项目遵循Apache 2.0许可协议,以确保合规使用。
CodeFuse-CodeLlama-34B-GGUF - 基于Llama2打造的高性能代码生成模型,多量化格式任您选择
大语言模型CodeLlama代码生成GGUF模型量化模型GithubHuggingface开源项目
CodeFuse-CodeLlama-34B是一款基于Llama2架构的代码生成模型,提供2位至8位多种GGUF量化格式。该模型支持CPU和GPU推理,具有优秀的代码理解与生成能力。开发者可根据硬件和性能需求选择合适的量化版本,实现高效部署。模型兼容llama.cpp、text-generation-webui等主流框架,便于快速集成使用。
gemma-2-2b-it-bnb-4bit - Gemma模型量化优化实现快速微调与内存高效管理
模型微调机器学习GemmaGithub模型量化Huggingface开源项目transformers模型
这是一个面向Gemma-2-2b模型的量化优化项目,集成了bitsandbytes和Unsloth技术,显著提升了模型微调效率并降低内存占用。项目通过Google Colab提供开箱即用的运行环境,支持一键式模型优化,并可将优化后的模型导出为GGUF格式或部署至vLLM平台。该方案特别适合资源受限环境下的模型优化需求。
LLaMA-Factory - 提升语言模型微调效率的统一平台
LLaMA Factory大语言模型快速微调模型量化性能优化Github开源项目热门
LLaMA-Factory是一个高效的语言模型微调工具,支持多种模型和算法。该平台专注于提高微调速度,支持连续预训练、监督微调和激励建模等策略。LLaMA-Factory利用LoRA技术实现高效训练,并提供详尽的数据监控和快速推理能力。此外,新版本还增加了PiSSA算法,且支持多种开发平台如Colab和DSW,适合高质量文本生成和智能应用开发。
相关文章
Mistral.rs: 高性能LLM推理平台的革新之作
2024年08月30日
HQQ: 快速高效的大型机器学习模型量化方法
2024年08月30日
AI模型效率工具包(AIMET):深度神经网络优化的利器
2024年09月04日
GPT-Fast: 高性能原生PyTorch文本生成的简洁实现
2024年09月04日
DashInfer: 高性能原生LLM推理引擎
2024年09月04日
AWQ: 提升大语言模型推理效率的激活感知权重量化技术
2024年09月05日
mlc-MiniCPM:在Android设备上运行的轻量级大语言模型
2024年09月05日
MiniCPM: 突破性的端侧大语言模型
2024年09月05日
CodeFuse-DevOps-Model: 赋能DevOps全生命周期的开源中文大模型
2024年09月05日