#矩阵乘法
matmulfreellm - 高效的无矩阵乘法语言模型,完全兼容Transformers库
MatMul-Free LMTransformer++语言模型矩阵乘法深度学习Github开源项目
MatMul-Free LM是一种无需矩阵乘法操作的高效语言模型架构,兼容🤗 Transformers库,支持370M至2.7B参数的模型。该模型使用高效的三值权重,在计算效率和性能提升方面表现优异。安装需求包括PyTorch、Triton和einops。用户可以轻松初始化模型,并使用预训练模型进行文本生成,适用于各种高效语言建模应用场景。
CUDA-GEMM-Optimization - CUDA实现的GEMM优化与性能分析
CUDAGEMM矩阵乘法GPU优化性能分析Github开源项目
该项目展示了一系列针对通用矩阵乘法(GEMM)的CUDA内核优化实现。内容涵盖从基础到高度优化的多个GEMM内核版本,并提供了详细的性能分析。这些内核适用于任意矩阵大小,并针对NVIDIA GeForce RTX 3090 GPU进行了参数调优。项目包含Docker环境配置说明、编译运行指南,以及FP32和FP16 GEMM的性能对比,直观展示了不同优化技术对性能的影响。
FBGEMM - 针对服务器端推理的高性能低精度矩阵运算库
FBGEMM矩阵乘法低精度计算PyTorch服务器推理Github开源项目
FBGEMM是一个专注于服务器端推理的高性能低精度矩阵运算库。它提供小批量的高效低精度矩阵乘法,支持行级量化等技术以最小化精度损失,并通过操作融合解决低精度计算的挑战。作为PyTorch在x86平台上量化算子的后端,FBGEMM为深度学习推理提供了关键支持。
T-MAC - 优化低比特量化LLM推理的CPU加速框架
T-MAC低比特量化CPU加速LLM推理矩阵乘法Github开源项目
T-MAC是一个创新的内核库,采用查找表技术实现混合精度矩阵乘法,无需反量化即可加速CPU上的低比特LLM推理。该框架支持多种低比特模型,包括GPTQ/gguf的W4A16、BitDistiller/EfficientQAT的W2A16和BitNet的W1(.58)A8。T-MAC在多种设备上展现出显著性能提升,例如在Surface Laptop 7上,单核处理速度可达20 tokens/s,四核可达48 tokens/s,比llama.cpp快4~5倍。
effort - LLM模型计算量实时优化的开源实现
bucketMul算法LLM模型推理计算效率优化矩阵乘法权重加载Github开源项目
Effort是bucketMul算法的开源实现,支持实时调整LLM模型推理过程中的计算量。在Apple Silicon芯片上,50%effort可匹配常规矩阵乘法速度,25%effort则提供双倍速度,同时保持大部分输出质量。项目支持跳过加载次要权重,实现性能与质量的灵活平衡。Effort Engine提供预编译二进制文件,源代码基于Swift和Metal开发。
相关文章