Project Icon

LITv2

基于HiLo注意力的快速视觉Transformer

LITv2是一种基于HiLo注意力机制的高效视觉Transformer模型。它将注意力头分为两组,分别处理高频局部细节和低频全局结构,从而在多种模型规模下实现了优于现有方法的性能和更快的速度。该项目开源了图像分类、目标检测和语义分割任务的预训练模型和代码实现。

基于HiLo注意力的快速视觉Transformer👋(NeurIPS 2022 聚焦报告)

许可证 PyTorch

这是基于HiLo注意力的快速视觉Transformer的官方PyTorch实现。

作者:Zizheng PanJianfei CaiBohan Zhuang

新闻

  • 2023/11/17. 使用mmdet v3.2.0更新了检测脚本。

  • 2023/04/20. 使用PyTorch 2.0更新了训练脚本。支持ONNX和TensorRT模型转换,详见此处

  • 2022/12/15. 发布了使用不同alpha值的ImageNet预训练权重。

  • 2022/11/11. LITv2将作为聚焦报告展示!

  • 2022/10/13. 更新代码以适配更高版本的timm。兼容PyTorch 1.12.1 + CUDA 11.3 + timm 0.6.11。

  • 2022/09/30. 添加了单个注意力层的基准测试结果。HiLo在CPU和GPU上都超级快!

  • 2022/09/15. LITv2被NeurIPS 2022接收!🔥🔥🔥

  • 2022/06/16. 我们发布了分类/检测/分割的源代码,以及预训练权重。欢迎提出任何问题!

简介

hilo

我们介绍了LITv2,这是一个简单而有效的ViT,在不同模型规模下都优于现有最先进的方法,并且速度更快。

hilo

LITv2的核心:HiLo注意力 HiLo的灵感来自于这样一个洞察:图像中的高频捕捉局部细节,低频关注全局结构,而多头自注意力层忽略了不同频率的特征。因此,我们建议通过将注意力头分为两组来分离注意力层中的高/低频模式,其中一组通过每个局部窗口内的自注意力编码高频,另一组执行注意力来建模每个窗口平均池化的低频键与输入特征图中每个查询位置之间的全局关系。

简单演示

要快速理解HiLo注意力,你只需安装PyTorch并在此仓库的根目录尝试以下代码。

from hilo import HiLo
import torch

model = HiLo(dim=384, num_heads=12, window_size=2, alpha=0.5)

x = torch.randn(64, 196, 384) # batch_size x num_tokens x hidden_dimension
out = model(x, 14, 14)
print(out.shape)
print(model.flops(14, 14)) # FLOPs数量

输出:

torch.Size([64, 196, 384])
83467776

安装

要求

  • Linux,Python ≥ 3.6
  • PyTorch >= 1.8.1
  • timm >= 0.3.2
  • CUDA 11.1
  • NVIDIA GPU

Conda环境设置

注意:你可以使用相同的环境来调试LITv1。否则,你可以通过以下脚本创建一个新的Python虚拟环境。

conda create -n lit python=3.7
conda activate lit

# 安装Pytorch和TorchVision
pip install torch==1.8.1+cu111 torchvision==0.9.1+cu111 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html

pip install timm
pip install ninja
pip install tensorboard

# 安装NVIDIA apex
git clone https://github.com/NVIDIA/apex
cd apex
pip install -v --disable-pip-version-check --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./
cd ../
rm -rf apex/

# 构建可变形卷积
cd mm_modules/DCN
python setup.py build install

pip install opencv-python==4.4.0.46 termcolor==1.1.0 yacs==0.1.8

开始使用

对于ImageNet图像分类,请参考分类

对于COCO 2017目标检测,请参考检测

对于ADE20K语义分割,请参考分割

结果和模型库

注意: 为了方便,你可以从Google Drive找到所有模型和日志(总共4.8G)。或者,我们也提供了github的下载链接。

ImageNet-1K图像分类

所有模型都在8张V100 GPU上以1024的总批量大小训练300轮。

模型分辨率参数量 (百万)FLOPs (十亿)吞吐量 (图像/秒)训练内存 (GB)测试内存 (GB)Top-1 准确率 (%)下载
LITv2-S224283.71,4715.11.282.0模型日志
LITv2-M224497.58128.81.483.3模型日志
LITv2-B2248713.260212.22.183.6模型日志
LITv2-B3848739.719835.84.684.7模型

默认情况下,吞吐量和内存占用是在一块RTX 3090上基于批量大小为64进行测试的。内存是通过torch.cuda.max_memory_allocated()测量峰值内存使用量。吞吐量是30次运行的平均值。

不同Alpha值的预训练LITv2-S

Alpha值参数量 (百万)低保真头数高保真头数FLOPs (十亿)ImageNet Top1准确率 (%)下载
0.0280123.9781.16GitHub
0.2282103.8881.89GitHub
0.428483.8281.81GitHub
0.528663.7781.88GitHub
0.728843.7481.94GitHub
0.9281023.7382.03GitHub
1.0281203.7081.89GitHub

图4中基于LITv2-S的α效果实验的预训练权重。

COCO 2017目标检测

所有模型都在8块V100 GPU上使用1x调度(12个epoch)和总批量大小为16进行训练。

RetinaNet

主干网络窗口大小参数量 (百万)FLOPs (十亿)FPS边界框AP配置文件下载链接
LITv2-S23824218.744.0配置模型日志
LITv2-S43823020.443.7配置模型日志
LITv2-M25934812.246.0配置模型日志
LITv2-M45931214.845.8配置模型日志
LITv2-B2974819.546.7配置模型日志
LITv2-B49743011.846.3配置模型日志

Mask R-CNN

骨干网络窗口大小参数量 (百万)浮点运算量 (G)FPS边界框 AP掩码 AP配置文件下载链接
LITv2-S24726118.744.940.8配置模型日志
LITv2-S44724921.944.740.7配置模型日志
LITv2-M26836712.646.842.3配置模型日志
LITv2-M46831516.046.542.0配置模型日志
LITv2-B21065009.347.342.6配置模型日志
LITv2-B410644911.546.842.3配置模型日志

ADE20K数据集上的语义分割

所有模型都在8个V100 GPU上训练了80K次迭代,总批量大小为16。

主干网络参数量 (M)FLOPs (G)FPSmIoU配置文件下载
LITv2-S314142.644.3配置模型 & 日志
LITv2-M526328.545.7配置模型 & 日志
LITv2-B909327.547.2配置模型 & 日志

在更多 GPU 上的吞吐量基准测试

模型参数量 (M)FLOPs (G)A100V100RTX 6000RTX 3090Top-1 (%)
ResNet-50264.11,4241,1238771,27980.4
PVT-S253.81,4607985481,00779.8
Twins-PCPVT-S243.81,45579252999881.2
Swin-Ti284.51,5641,03971096181.3
TNT-S245.280243129853481.3
CvT-13204.51,59571637994781.6
CoAtNet-0254.21,5389626431,15181.6
CaiT-XS24275.499148429962381.8
PVTv2-B2254.01,17567045185482.0
XCiT-S12264.81,7277615041,06882.0
ConvNext-Ti284.51,6547625711,07982.1
Focal-Tiny294.947137226138482.2
LITv2-S283.71,8741,3049281,47182.0

单个注意力层基准测试

以下可视化结果可参考 vit-attention-benchmark

hilo_cpu_gpu

引用

如果您在研究中使用了 LITv2,请考虑使用以下 BibTeX 条目并给我们一个星标 🌟。

@inproceedings{pan2022hilo,
  title={Fast Vision Transformers with HiLo Attention},
  author={Pan, Zizheng and Cai, Jianfei and Zhuang, Bohan},
  booktitle={NeurIPS},
  year={2022}
}

如果您觉得代码有用,也请考虑以下 BibTeX 条目

@inproceedings{pan2022litv1,
  title={Less is More: Pay Less Attention in Vision Transformers},
  author={Pan, Zizheng and Zhuang, Bohan and He, Haoyu and Liu, Jing and Cai, Jianfei},
  booktitle={AAAI},
  year={2022}
}

许可证

本仓库在 LICENSE 文件中所列的 Apache 2.0 许可证下发布。

致谢

本仓库基于DeiTSwinLIT构建,我们感谢这些作者开源的代码。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号