随着深度学习在计算机视觉领域的快速发展,如何在保持高精度的同时提高模型的推理速度一直是研究热点。近日,NVIDIA研究团队提出了一种名为FasterViT的新型混合CNN-ViT神经网络架构,通过巧妙的设计实现了精度和速度的平衡,为快速视觉Transformer的研究开辟了新的方向。
FasterViT的核心创新在于提出了一种新的自注意力机制,称为层次注意力(Hierarchical Attention, HAT)。这种机制通过学习跨窗口载体标记来捕获短程和长程信息,有效地将全局自注意力的二次计算复杂度分解为多级注意力,从而大大降低了计算成本。
具体来说,HAT机制包含以下几个关键组成部分:
基于窗口的自注意力:将输入特征图分割成多个局部窗口,在每个窗口内部执行自注意力计算。
载体标记:为每个窗口分配专用的载体标记,参与局部和全局表示学习。
跨窗口通信:在较高层级通过全局自注意力实现窗口间的高效通信。
通过这种层次化的设计,FasterViT既保留了ViT捕获全局依赖关系的能力,又大大降低了计算复杂度,实现了更快的推理速度。
FasterViT在多个计算机视觉任务上展现出了优异的性能:
图像分类:在ImageNet-1K数据集上,FasterViT在Top-1准确率和吞吐量方面实现了新的SOTA Pareto前沿,而无需额外的训练数据。
目标检测:结合DINO检测器,FasterViT在COCO数据集上取得了competitive的性能。
语义分割:在ADE20K等分割数据集上,FasterViT同样展现出强大的性能。