Project Icon

brevitas

面向神经网络量化的PyTorch库

Brevitas是一个开源的神经网络量化PyTorch库,支持PTQ和QAT。它为常见PyTorch层提供量化版本,如QuantConv和QuantLSTM等,允许精细调整量化参数。兼容Python 3.8+和PyTorch 1.9.1-2.1,跨平台支持,推荐GPU加速。作为研究项目,Brevitas在深度学习模型压缩和效率优化方面具有重要应用价值。

GPTFast - Hugging Face Transformers模型推理加速工具
GPTFastGithubHugging Face开源项目推理加速量化静态键值缓存
GPTFast是一个为Hugging Face Transformers模型优化推理速度的开源Python库。它集成了多种加速技术,如静态键值缓存、int4量化和推测解码,可将模型推理速度提升7.6-9倍。GPTFast支持torch.compile、int8量化、GPTQ int4量化等优化方法,通过简单的API调用即可应用于各类Hugging Face模型。该项目持续更新,未来计划引入更多先进的加速技术。
nncf - Neural Network Compression Framework:高效神经网络推理压缩算法
GithubNeural Network Compression FrameworkONNXOpenVINOPyTorchTensorFlow开源项目
Neural Network Compression Framework (NNCF) 提供一套后训练和训练时的优化算法,用于在 OpenVINO 中优化神经网络推理,保证最小的精度损失。NNCF 支持 PyTorch、TensorFlow 和 ONNX 等模型,并提供示例展示不同压缩算法的使用案例。NNCF 还支持自动化模型图转换、分布式训练和多种算法的无缝组合,支持将压缩后的 PyTorch 模型导出为 ONNX 检查点及将 TensorFlow 模型导出为 SavedModel 格式。
mathstral-7B-v0.1-GGUF - Mathstral 7B的量化版本,提升数学与科学计算效率
GithubHuggingfaceMathstral 7B开源项目数学模型科学量化
Mathstral 7B的量化版本提升了数学和科学任务的效率,基于Mistral 7B开发。通过多种量化方法降低内存需求,并且提供从Q2到Q8的量化等级选择,适应不同需求。SanctumAI负责此版本的量化,提供灵活的计算资源配置供开发者选择部署。更多详情请查看官方博客或加入社区讨论。
Meta-Llama-3.1-8B-Instruct-FP8-KV - FP8量化策略提升模型计算效率
FP8GithubHuggingfaceMeta-Llama-3.1-8B-InstructQuark开源项目模型部署量化策略
项目利用Quark工具对模型的线性层进行FP8量化,实现更高效的部署和轻微的推理性能提升。使用Pile数据集进行校准,提高模型性能。支持单GPU和多GPU环境,便于在vLLM兼容后端进行高效部署,Perplexity指标略有提升。
Mistral-Nemo-Instruct-2407-gptq-4bit - 采用GPTQ技术的4位量化语言模型
GPTQModelGithubHuggingface低位量化开源项目模型模型压缩神经网络优化量化模型
Mistral-Nemo-Instruct-2407-gptq-4bit是一个使用GPTQModel进行4位量化的语言模型。该模型采用128组大小和真实顺序等技术,在维持性能的同时大幅缩减模型体积。这种量化方法提高了模型的部署效率,适用于计算资源有限的场景。
model_optimization - 开源神经网络模型压缩与优化工具集
GithubMCTModel Compression Toolkit开源项目模型压缩神经网络优化量化
Model Compression Toolkit (MCT)是一个专注于神经网络模型优化的开源项目,旨在满足高效硬件约束下的部署需求。MCT提供多种量化方法,包括训练后量化和基于梯度的训练后量化,同时支持数据生成和结构化剪枝等功能。此工具集还具备针对特定目标平台的优化能力,为研究人员和开发者提供了全面的模型压缩解决方案。
Qwen2-7B-Instruct-GGUF - 高效量化AI模型 多平台支持 便捷本地部署
GGUFGPU加速GithubHuggingfaceQwen2-7B-Instruct开源项目文本生成模型模型量化
Qwen2-7B-Instruct-GGUF是Qwen2-7B-Instruct模型的GGUF格式量化版本。该模型支持2至8比特量化,可在llama.cpp、LM Studio等多个平台上本地部署。GGUF格式具有高效性能和广泛兼容性,便于在个人设备上进行AI文本生成。该项目为用户提供了多种比特率的量化选项,以适应不同的硬件环境和性能需求。
Phi-3-mini-4k-instruct - 高效节省内存的模型微调策略,快速实现量化优化
GithubHuggingfacePhi-3免费微调内存优化开源项目机器学习模型量化模型
此项目通过Unsloth量化技术,提供高效的Mistral平台大模型微调方案,速度提升至2-5倍,内存占用降低至50-70%。提供的Colab笔记本支持Phi-3、Llama 3、Gemma 2等多种模型,简单易用,适合初学者。用户可以节省计算资源,并将微调后的模型导出至GGUF或上传至Hugging Face,方便成果共享。
Meta-Llama-3.1-8B-Instruct-AWQ-INT4 - 高性能4比特量化优化版本
AutoAWQGithubHuggingfaceMeta-Llama-3.1大语言模型开源项目推理模型量化
Meta-Llama-3.1-8B-Instruct模型的社区驱动4比特量化版本,采用AutoAWQ技术从FP16量化到INT4。该版本仅需4GB显存即可加载,大幅降低内存占用。支持Transformers、AutoAWQ、TGI和vLLM等多种推理方式,适用于不同部署场景。量化模型在保持原始性能的同时,为资源受限环境提供了高效的大语言模型方案。
llm-awq - 激活感知权重量化技术实现大语言模型高效压缩与加速
AWQGithubLLM开源项目模型量化视觉语言模型边缘设备
AWQ是一种高效的大语言模型低比特权重量化技术,支持INT3/4量化,适用于指令微调和多模态模型。它提供预计算模型库、内存高效的4位线性层和快速推理CUDA内核。AWQ使TinyChat可在边缘设备上实现大模型高效本地推理。该技术已被Google、Amazon等采用,并获MLSys 2024最佳论文奖。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号