AWQ: 提升大语言模型推理效率的激活感知权重量化技术

Ray

AWQ: 激活感知的权重量化技术

随着大语言模型(Large Language Models, LLMs)规模的不断扩大,如何高效部署这些模型以降低计算和内存开销已成为亟待解决的问题。近期,由麻省理工学院韩松教授团队提出的 AWQ (Activation-aware Weight Quantization) 技术为此提供了一个优秀的解决方案。AWQ 是一种创新的权重量化方法,通过考虑激活值的分布来实现模型的高效压缩和加速,同时保持模型性能。本文将详细介绍 AWQ 的核心思想、技术特点以及在各类大语言模型上的应用效果。

AWQ 的核心思想

传统的权重量化方法通常基于权重自身的大小进行量化,而忽略了权重在实际推理过程中的重要性。AWQ 的创新之处在于引入了"激活感知"的概念,即在量化过程中考虑权重对应的激活值分布。

具体来说,AWQ 的核心思想包括:

  1. 权重激活幅度: AWQ 发现,在大型 Transformer 模型中,少数特征具有较大的激活幅度,对模型性能至关重要。因此,AWQ 优先保留这些"显著参数",而不是简单地基于权重大小进行量化。

  2. 混合精度实现: 为了避免保留部分全精度权重带来的实现复杂性,AWQ 提出了一种巧妙的方法 - 对应于主要特征的权重通道进行缩放,使其在整数量化后仍能保持较高的精度。

AWQ 的技术特点

  1. 高效压缩: AWQ 支持将模型权重量化至 3 位或 4 位整数,大幅降低模型存储空间和内存占用。

  2. 精度保持: 得益于其激活感知的设计,AWQ 在低比特量化的同时能够很好地保持模型性能,相比传统量化方法精度损失更小。

  3. 广泛适用性: AWQ 可应用于各种类型的大语言模型,包括指令微调模型和多模态模型,具有很强的通用性。

  4. 易于部署: AWQ 量化后的模型可直接用于推理,无需额外的反量化步骤,有利于在各种硬件平台上高效部署。

AWQ 在大语言模型上的应用

AWQ 技术已在多个主流大语言模型系列上进行了验证,包括:

  • LLaMA 系列 (LLaMA, LLaMA 2, LLaMA 3)
  • OPT
  • Vicuna
  • CodeLlama
  • StarCoder
  • VILA (视觉语言模型)

研究结果表明,AWQ 在这些模型上均取得了出色的压缩效果和推理加速,同时保持了接近原模型的性能。

AWQ overview

AWQ 的性能提升

以 VILA-1.5 模型系列为例,AWQ 量化后的模型在各项评测任务上均表现出色:

模型精度VQA-v2GQAVizWizScienceQATextVQA
VILA-1.5-13BFP1682.864.362.680.165.0
VILA-1.5-13BAWQ-INT482.764.563.379.764.7

可以看到,4 位整数量化后的模型性能与原 FP16 模型几乎相当,个别任务甚至有小幅提升。

在推理速度方面,AWQ 也带来了显著提升:

模型精度A100 GPU (tokens/s)RTX 4090 (tokens/s)Jetson Orin (tokens/s)
VILA1.5-13BFP1650.9OOM6.1
VILA1.5-13BAWQ-INT4115.9105.720.6

AWQ 量化后,模型在各类硬件平台上的推理速度均有大幅提升,尤其是在内存受限的设备上,能够成功运行原本无法加载的大型模型。

AWQ 的实际应用

基于 AWQ 技术,研究团队开发了 TinyChat 系统,实现了大语言模型在边缘设备上的高效部署。例如,在 NVIDIA Jetson Orin 上,TinyChat 可以实现 38 tokens/s 的推理速度,使得在资源受限的边缘设备上运行大型语言模型成为可能。

TinyChat on Orin

此外,AWQ 还支持多模态大语言模型的量化和加速。下图展示了 AWQ 量化后的 VILA 模型在 Jetson Orin 上进行多图像输入推理的效果:

TinyChat with VILA on Orin

AWQ 的影响力

AWQ 技术的出色表现已引起学术界和工业界的广泛关注。目前,AWQ 已被集成到多个主流的 AI 框架和平台中,包括:

  • Google Vertex AI
  • Amazon SageMaker
  • NVIDIA TensorRT-LLM
  • Hugging Face Transformers
  • Intel Neural Compressor
  • vLLM

这些集成进一步推动了 AWQ 在实际生产环境中的应用,为大语言模型的高效部署提供了有力支持。

总结与展望

AWQ 技术为大语言模型的压缩和加速提供了一种高效、通用的解决方案。通过巧妙地利用激活值分布信息,AWQ 在保持模型性能的同时,实现了显著的存储节省和推理加速。这一技术不仅适用于各类文本大语言模型,还可扩展到多模态模型,展现出广阔的应用前景。

随着 AWQ 不断发展和优化,我们可以期待看到更多基于该技术的创新应用,如更高效的边缘 AI 系统、资源受限设备上的大模型部署等。AWQ 的成功也为我们提供了一个重要启示:在模型压缩和加速领域,考虑模型在实际推理过程中的行为特征,往往能带来比单纯关注模型参数更好的效果。

未来,AWQ 技术有望进一步推动大语言模型在更广泛的场景中的应用,为 AI 技术的普及和创新注入新的动力。研究者们也将继续探索如何将 AWQ 的思想扩展到其他类型的深度学习模型,以及如何进一步提高量化效果和推理效率。

如果你对 AWQ 技术感兴趣,可以访问 AWQ GitHub 仓库 了解更多技术细节和使用方法。AWQ 的出现无疑为大语言模型的高效部署开辟了新的道路,让我们拭目以待它在未来会带来更多令人兴奋的突破和应用。

avatar
0
0
0
相关项目
Project Cover

llm-awq

AWQ是一种高效的大语言模型低比特权重量化技术,支持INT3/4量化,适用于指令微调和多模态模型。它提供预计算模型库、内存高效的4位线性层和快速推理CUDA内核。AWQ使TinyChat可在边缘设备上实现大模型高效本地推理。该技术已被Google、Amazon等采用,并获MLSys 2024最佳论文奖。

Project Cover

TinyChatEngine

TinyChatEngine是一个专为边缘设备设计的语言模型推理库,支持运行大型语言模型(LLM)和视觉语言模型(VLM)。该库采用SmoothQuant和AWQ等先进的模型压缩技术,兼容x86、ARM和CUDA等多种平台架构,无需依赖外部库。TinyChatEngine具备跨平台兼容性、高性能和易用性等特点,能在笔记本电脑、汽车和机器人等设备上实现实时推理,提供快速响应的同时保护数据隐私。

Project Cover

Mistral-7B-Instruct-v0.2-AWQ

Mistral-7B-Instruct-v0.2是Mistral AI团队开发的改进版指令微调大语言模型。基于Mistral-7B-v0.1架构,采用分组查询注意力和滑动窗口注意力技术。支持[INST]和[/INST]标记的指令格式,提供聊天模板功能。模型性能出色,但缺乏审核机制。适用于需要无限制输出的应用场景,展示了基础模型易于微调并获得优秀性能。

Project Cover

LlamaGuard-7B-AWQ

LlamaGuard-7B-AWQ采用了AWQ的4位量化技术,提升了模型在Linux和Windows平台上的推理效率和精度,需使用NVidia GPU。此模型相较于传统GPTQ设置,具备更快速度和良好的输出质量,兼容Text Generation Webui、vLLM及Transformers等系统,支持多用户推理服务,适合对时延和精度有较高要求的应用场景。

Project Cover

zephyr-7B-alpha-AWQ

Zephyr 7B Alpha是一个基于Mistral-7B训练的对话助手模型。本版本采用AWQ量化技术将模型压缩至4位精度,使用wikitext数据集和128g量化参数进行优化。相比GPTQ,AWQ量化能提供更快的推理速度,同时显著降低显存占用,使模型可以在配置较低的GPU上高效部署运行。

Project Cover

Mistral-7B-OpenOrca-AWQ

项目提供OpenOrca的Mistral 7B模型的AWQ版本。AWQ是一种4比特的低比特量化方法,在Transformers推理中更快速,与GPTQ相比具有效率优势。AWQ支持在多用户环境中实现高效的并发推理,有助于使用更小的GPU进行部署,减少整体成本,尽管总体吞吐量仍略低于未量化模型。

最新项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号