Logo

#矩阵乘法

MatMul-Free LLM入门学习资料 - 无矩阵乘法的革命性语言模型

1 个月前
Cover of MatMul-Free LLM入门学习资料 - 无矩阵乘法的革命性语言模型

Effort: 从概念到应用的深度解析

2 个月前
Cover of Effort: 从概念到应用的深度解析

FBGEMM: Facebook开源的高性能低精度矩阵运算库

2 个月前
Cover of FBGEMM: Facebook开源的高性能低精度矩阵运算库

MatMul-Free LLM:革新大型语言模型的计算方式

2 个月前
Cover of MatMul-Free LLM:革新大型语言模型的计算方式

T-MAC: 为边缘设备打造的低比特LLM部署神器

2 个月前
Cover of T-MAC: 为边缘设备打造的低比特LLM部署神器

Effort: 高效灵活的LLM推理引擎

2 个月前
Cover of Effort: 高效灵活的LLM推理引擎

CUDA-GEMM 优化技术:提升矩阵乘法性能的深度探索

2 个月前
Cover of CUDA-GEMM 优化技术:提升矩阵乘法性能的深度探索

相关项目

Project Cover
matmulfreellm
MatMul-Free LM是一种无需矩阵乘法操作的高效语言模型架构,兼容🤗 Transformers库,支持370M至2.7B参数的模型。该模型使用高效的三值权重,在计算效率和性能提升方面表现优异。安装需求包括PyTorch、Triton和einops。用户可以轻松初始化模型,并使用预训练模型进行文本生成,适用于各种高效语言建模应用场景。
Project Cover
CUDA-GEMM-Optimization
该项目展示了一系列针对通用矩阵乘法(GEMM)的CUDA内核优化实现。内容涵盖从基础到高度优化的多个GEMM内核版本,并提供了详细的性能分析。这些内核适用于任意矩阵大小,并针对NVIDIA GeForce RTX 3090 GPU进行了参数调优。项目包含Docker环境配置说明、编译运行指南,以及FP32和FP16 GEMM的性能对比,直观展示了不同优化技术对性能的影响。
Project Cover
FBGEMM
FBGEMM是一个专注于服务器端推理的高性能低精度矩阵运算库。它提供小批量的高效低精度矩阵乘法,支持行级量化等技术以最小化精度损失,并通过操作融合解决低精度计算的挑战。作为PyTorch在x86平台上量化算子的后端,FBGEMM为深度学习推理提供了关键支持。
Project Cover
T-MAC
T-MAC是一个创新的内核库,采用查找表技术实现混合精度矩阵乘法,无需反量化即可加速CPU上的低比特LLM推理。该框架支持多种低比特模型,包括GPTQ/gguf的W4A16、BitDistiller/EfficientQAT的W2A16和BitNet的W1(.58)A8。T-MAC在多种设备上展现出显著性能提升,例如在Surface Laptop 7上,单核处理速度可达20 tokens/s,四核可达48 tokens/s,比llama.cpp快4~5倍。
Project Cover
effort
Effort是bucketMul算法的开源实现,支持实时调整LLM模型推理过程中的计算量。在Apple Silicon芯片上,50%effort可匹配常规矩阵乘法速度,25%effort则提供双倍速度,同时保持大部分输出质量。项目支持跳过加载次要权重,实现性能与质量的灵活平衡。Effort Engine提供预编译二进制文件,源代码基于Swift和Metal开发。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号