Project Icon

brevitas

面向神经网络量化的PyTorch库

Brevitas是一个开源的神经网络量化PyTorch库,支持PTQ和QAT。它为常见PyTorch层提供量化版本,如QuantConv和QuantLSTM等,允许精细调整量化参数。兼容Python 3.8+和PyTorch 1.9.1-2.1,跨平台支持,推荐GPU加速。作为研究项目,Brevitas在深度学习模型压缩和效率优化方面具有重要应用价值。

EfficientQAT - 高效量化训练技术助力大型语言模型压缩
EfficientQATGithubPyTorch大语言模型开源项目模型压缩量化训练
EfficientQAT是一种针对大型语言模型的量化训练技术。该技术采用两阶段训练方法,包括分块训练所有参数和端到端训练量化参数,在压缩模型大小的同时保持性能。EfficientQAT支持GPTQ和BitBLAS等多种量化格式,已成功应用于Llama和Mistral等模型系列,有效降低模型存储需求,为大型语言模型的部署提供了实用方案。
qkeras - Keras 的量化扩展工具,通过替换部分 Keras 层,能够快速创建量化版深度学习模型
GithubKerasQKerasTensorFlow开源项目深度学习量化
QKeras 是一个针对 Keras 的量化扩展工具,通过替换部分 Keras 层,能够快速创建量化版深度学习模型。项目设计遵循用户友好、模块化和易扩展的原则,包括 QDense 和 QConv2D 等多种量化层。QTools 用于辅助硬件实现和能耗估算,AutoQKeras 可以自动进行模型量化和重新平衡。此项目提供简单易用的界面,适用于快速原型设计、前沿研究和生产环境。
torchquantum - 快速可扩展的PyTorch量子计算框架
GPU加速GithubPyTorchTorchQuantum开源项目量子电路模拟量子计算
TorchQuantum是基于PyTorch的开源量子计算框架,支持多达30个量子比特的GPU加速模拟。它具有动态计算图、自动梯度计算和批处理模式等特性,适用于量子算法设计、参数化量子电路训练和量子机器学习研究。与同类框架相比,TorchQuantum在GPU支持和张量化处理方面表现出色。
optimum-quanto - PyTorch模型量化框架 提升性能和效率
GithubOptimum QuantoPyTorch开源项目机器学习模型优化量化
Optimum Quanto是专为Optimum设计的PyTorch量化框架。它支持eager模式、多设备部署,自动插入量化/反量化存根和操作,实现从浮点到动态/静态量化模型的无缝转换。支持多种精度的权重和激活量化,有效提升模型性能和内存效率。该框架为Hugging Face和原生PyTorch模型提供简便的量化流程。
vector-quantize-pytorch - Pytorch向量量化库,可应用于图像和音乐生成
DeepmindGithubJukeboxOpenAIVQ-VAE-2Vector Quantization开源项目
本向量量化库来源于Deepmind的TensorFlow实现,并转化为Pytorch库,使用指数移动平均法来更新字典。它在高质量图像(如VQ-VAE-2)和音乐(如Jukebox)生成中已取得成功,支持多种残差VQ方法、代码簿初始化和正则化,显著提升了量化效果和稳定性。
hqq - 无需校准数据即可快速精确量化大模型的工具
8,4,3,2,1 bitsCUDAGithubHQQtorch.compile开源项目模型量化
HQQ是一种无需校准数据即可快速精确量化大模型的工具,支持从8bit到1bit的多种量化模式。兼容LLMs和视觉模型,并与多种优化的CUDA和Triton内核兼容,同时支持PEFT训练和Pytorch编译,提升推理和训练速度。详细基准测试和使用指南请访问官方博客。
neural-compressor - 开源深度学习模型压缩工具库
GithubIntel Neural Compressor大语言模型开源项目模型压缩深度学习框架量化
Neural Compressor是一款开源深度学习模型压缩工具库,支持TensorFlow、PyTorch和ONNX Runtime等主流框架。它提供量化、剪枝、知识蒸馏等多种压缩技术,适用于Intel等多种硬件平台。该工具支持大语言模型优化,并与主流云服务和AI生态系统集成。其自动化的精度感知量化策略有助于平衡模型性能和精度。
aimet - 深度学习模型优化的量化与压缩工具
AIMETGithubPyTorch开源项目模型压缩模型量化深度学习
AI Model Efficiency Toolkit (AIMET) 提供先进的模型量化和压缩技术,专注于优化已训练的神经网络模型。其主要功能包括跨层均衡、偏差校正、自适应舍入和量化感知训练,显著提升模型运行性能,降低计算和内存要求,并保持任务精度。AIMET 兼容 PyTorch、TensorFlow 和 ONNX 模型,通过 AIMET Model Zoo 提供优化的8位推理神经网络模型。同时,AIMET 支持空间SVD和通道剪枝等压缩技术,并提供可视化工具检查模型量化和压缩效果。
KVQuant - 提升长上下文推理效率的KV缓存量化方法
GithubKVQuantLLaMA-7B低精度量化大模型开源项目长上下文长度推断
KVQuant通过精确的低精度量化技术显著提升长上下文长度推理的效率。其创新包括每通道的RoPE前关键量化和非均匀量化,以应对不同LLM中缓存的KV值模式。KVQuant支持在单个A100-80GB GPU上进行LLaMA-7B模型的1M上下文长度推理,甚至在8-GPU系统上支持长达10M上下文长度,从而减少推理过程中KV缓存的内存瓶颈,并通过并行topK支持和注意力感知量化等多项改进提升推理性能。
ppq - 多功能的神经网络量化工具
GithubOnnxPPQTensorRT开源项目神经网络量化量化优化
PPQ 是一个适用于工业应用的神经网络量化工具。通过将浮点运算转换为定点运算,它显著提升系统功耗效率和执行速度。具备高度扩展性,用户可自定义量化过程,并结合多种硬件和推理库使用。版本 0.6.6 更新了图模式匹配、图融合功能,并新增 FP8 量化规范和 PFL 基础类库。支持 TensorRT, Openvino, Onnxruntime 等推理框架,实现高效的神经网络量化部署。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号