Project Icon

FocalNet

突破注意力机制的新型视觉模型架构

FocalNet是一种创新的视觉模型架构,无需使用注意力机制。其核心的焦点调制技术在多项视觉任务中超越了现有的自注意力方法。该模型在ImageNet分类和COCO检测等基准测试中表现优异,同时保持了高效简洁的实现。FocalNet具有平移不变性、强输入依赖性等特点,为计算机视觉领域提供了一种全新的建模思路。

焦点调制网络

这是FocalNets的官方PyTorch实现:

"焦点调制网络",作者:Jianwei YangChunyuan LiXiyang DaiLu YuanJianfeng Gao

PWC PWC PWC PWC

新闻

  • [2023/11/07] 研究人员表明,Focal-UNet在多个地球系统分析基准测试中优于以往的方法。查看他们的代码论文项目
  • [2023/06/30] :collision: 请从huggingface查找FocalNet-DINO检查点。旧链接已废弃。
  • [2023/04/26] 通过与FocalNet-Huge骨干网络结合,Focal-Stable-DINO在COCO测试开发集上实现了64.8 AP无需任何测试时增强!查看我们的技术报告了解更多详情!
  • [2023/02/13] FocalNet已集成到Keras,查看教程
  • [2023/01/18] 查看一个精选论文列表,介绍基于现代卷积和调制的超越注意力的网络
  • [2023/01/01] 研究人员表明,Focal-UNet在多个医学图像分割基准测试中优于Swin-UNet。查看他们的代码论文,新年快乐!
  • [2022/12/16] :collision: 我们很高兴发布我们在Object365上预训练并在COCO上微调的FocalNet-Large-DINO检查点,它在COCO minival上无需测试时增强就能达到63.5 mAP!快来看看吧!
  • [2022/11/14] 我们创建了一个新的仓库FocalNet-DINO来存放使用DINO复现目标检测性能的代码。我们将在那里发布目标检测代码和检查点。敬请期待!
  • [2022/11/13] :collision: 我们发布了在ImageNet-22K上预训练的大型、超大型和巨型模型,包括我们用来在COCO目标检测排行榜上取得最佳成绩的模型!
  • [2022/11/02] 我们写了一篇博客文章,以通俗的方式介绍了FocalNets背后的见解和技术,快来看看吧!
  • [2022/10/31] :collision: 基于强大的OD方法DINO,我们在COCO minival上达到了64.2 box mAP的新最佳成绩,在COCO test-dev上达到了64.3 64.4 box mAP的新最佳成绩!我们使用的巨型模型(700M)击败了更大的基于注意力的模型,如SwinV2-G和BEIT-3。查看我们的新版本并保持关注!
  • [2022/09/20] 我们的FocalNet已被NeurIPS 2022接收!
  • [2022/04/02] 在huggingface space创建了一个gradio演示来可视化调制机制。快来看看吧!

简介

我们提出了**FocalNets:焦点调制网络**,这是一种**无注意力**架构,在各种视觉基准测试中的表现优于最先进的自注意力(SA)方法。如上所示,SA是一个先交互后聚合(FILA)的过程。我们的焦点调制则颠倒了这个过程,采用先聚合后交互(FALI)。这种颠倒带来了以下几个优点:
  • 平移不变性:对每个目标令牌执行,以其周围的上下文为中心。
  • 显式输入依赖:通过聚合输入的短程和长程上下文来计算调制器,然后应用于目标令牌。
  • 空间和通道特定:首先在空间维度聚合上下文,然后在通道维度聚合,之后进行逐元素调制。
  • 解耦特征粒度:查询令牌保留最细粒度的个体信息,而在其周围提取较粗粒度的上下文。两者通过调制操作解耦但相连。
  • 易于实现:我们可以以非常简单和轻量级的方式实现上下文聚合和交互。不需要softmax、多头注意力、特征图滚动或展开等。

在开始之前,看看我们的FocalNets学会了如何感知图像以及在哪里进行调制!

最后,FocalNets是由卷积层和线性层构建的,但通过提出一种简单、通用、有效且高效的新型调制机制而更进一步。我们在此推荐:

焦点调制可能是我们视觉建模所需要的!

入门

基准测试

ImageNet-1K上的图像分类

  • 与多尺度Swin和Focal Transformers的严格对比:
模型深度维度核大小参数量 (M)FLOPs (G)吞吐量 (图片/秒)Top-1 准确率下载
FocalNet-T[2,2,6,2]96[3,5]28.44.474382.1ckpt/config/log
FocalNet-T[2,2,6,2]96[3,5,7]28.64.569682.3ckpt/config/log
FocalNet-S[2,2,18,2]96[3,5]49.98.643483.4ckpt/config/log
FocalNet-S[2,2,18,2]96[3,5,7]50.38.740683.5ckpt/config/log
FocalNet-B[2,2,18,2]128[3,5]88.115.328083.7ckpt/config/log
FocalNet-B[2,2,18,2]128[3,5,7]88.715.426983.9ckpt/config/log
  • 与等向ViT模型的严格对比: | 模型 | 深度 | 维度 | 核大小 | 参数量 (百万) | FLOPs (十亿) | 吞吐量 (图/秒) | Top-1准确率 | 下载 | :----: | :---: | :---: | :---: | :---: | :---: | :---: | :---: |:---: | | FocalNet-T | 12 | 192 | [3,5,7] | 5.9 | 1.1 | 2334 | 74.1 | 模型/配置/日志 | FocalNet-S | 12 | 384 | [3,5,7] | 22.4 | 4.3 | 920 | 80.9 | 模型/配置/日志 | FocalNet-B | 12 | 768 | [3,5,7] | 87.2 | 16.9 | 300 | 82.4 | 模型/配置/日志

ImageNet-22K预训练

模型深度维度核大小参数量 (百万)下载
FocalNet-L[2,2,18,2]192[5,7,9]207模型/配置
FocalNet-L[2,2,18,2]192[3,5,7,9]207模型/配置
FocalNet-XL[2,2,18,2]256[5,7,9]366模型/配置
FocalNet-XL[2,2,18,2]256[3,5,7,9]366模型/配置
FocalNet-H[2,2,18,2]352[3,5,7]687模型/配置
FocalNet-H[2,2,18,2]352[3,5,7,9]689模型/配置

注意:我们重新排序了imagenet-22k的类名,以便可以直接使用前1k个logits来评估imagenet-1k。我们提醒,imagenet-1k中的第851个类(标签=850)在imagenet-22k中缺失。请参考此标签映射。更多讨论请查看此问题

COCO数据集上的目标检测

主干网络核大小方法学习率调度参数量 (M)FLOPs (G)边界框mAP下载
FocalNet-T[11,9,9,7]级联Mask R-CNN3x87.175151.5检查点/配置/日志
FocalNet-T[11,9,9,7]ATSS3x37.222049.6检查点/配置/日志
FocalNet-T[11,9,9,7]稀疏R-CNN3x111.217849.9检查点/配置/日志

ADE20K上的语义分割

  • 分辨率512x512,迭代次数160k
主干网络核大小方法参数量 (M)FLOPs (G)mIoUmIoU (多尺度)下载
FocalNet-T[9,11]UPerNet6194446.547.2检查点/配置/日志
FocalNet-T[9,11,13]UPerNet6194946.847.8检查点/配置/日志
FocalNet-S[9,11]UPerNet83103549.350.1检查点/配置/日志
FocalNet-S[9,11,13]UPerNet84104449.150.1检查点/配置/日志
FocalNet-B[9,11]UPerNet124118050.251.1检查点/配置/日志
FocalNet-B[9,11,13]UPerNet126119250.551.4检查点/配置/日志

可视化

我们的FocalNets包含三个步骤:

  1. 使用深度卷积进行上下文化;
  2. 通过门控机制进行多尺度聚合;
  3. 从上下文聚合和投影中派生调制器。

我们将逐一进行可视化展示。

  • FocalNets中学习到的深度卷积核

黄色表示较高的值。显然,FocalNets在早期阶段学习收集更多局部上下文,而在后期阶段学习收集更多全局上下文。

  • FocalNets最后一层对不同输入图像的门控图

从左到右,图像依次为输入图像、焦点级别1、2、3的门控图以及全局上下文。显然,我们的模型已经学会了根据不同位置的视觉内容来收集上下文。

  • FocalNets中对不同输入图像学习到的调制器

从我们的模型派生的调制器自动学会了关注前景区域。

如需自行进行可视化,请参考可视化笔记本

引用

如果您发现本仓库对您的项目有用,请考虑使用以下bibtex进行引用:

@misc{yang2022focal,
      title={Focal Modulation Networks}, 
      author={Jianwei Yang and Chunyuan Li and Xiyang Dai and Jianfeng Gao},
      journal={Advances in Neural Information Processing Systems (NeurIPS)},
      year={2022}
}

致谢

我们的代码库基于Swin TransformerFocal Transformer构建。为了实现最先进的目标检测性能,我们大量依赖最先进的方法DINO以及作者们的建议。我们感谢作者们组织良好的代码!

贡献

本项目欢迎贡献和建议。大多数贡献都要求您同意贡献者许可协议(CLA),声明您有权并确实授予我们使用您的贡献的权利。有关详细信息,请访问https://cla.opensource.microsoft.com。

当您提交拉取请求时,CLA机器人将自动确定您是否需要提供CLA,并适当地修饰PR(例如,状态检查、评论)。只需按照机器人提供的说明操作即可。您只需在所有使用我们CLA的仓库中执行一次此操作。

本项目已采用Microsoft开源行为准则。有关更多信息,请参阅行为准则常见问题解答或联系opencode@microsoft.com获取任何其他问题或意见。

商标

本项目可能包含项目、产品或服务的商标或标志。Microsoft商标或标志的授权使用必须遵循Microsoft商标和品牌指南。在本项目的修改版本中使用Microsoft商标或标志不得引起混淆或暗示Microsoft赞助。任何第三方商标或标志的使用均受这些第三方的政策约束。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号