FocalNet

FocalNet

突破注意力机制的新型视觉模型架构

FocalNet是一种创新的视觉模型架构,无需使用注意力机制。其核心的焦点调制技术在多项视觉任务中超越了现有的自注意力方法。该模型在ImageNet分类和COCO检测等基准测试中表现优异,同时保持了高效简洁的实现。FocalNet具有平移不变性、强输入依赖性等特点,为计算机视觉领域提供了一种全新的建模思路。

FocalNets图像分类目标检测语义分割卷积神经网络Github开源项目

焦点调制网络

这是FocalNets的官方PyTorch实现:

"焦点调制网络",作者:Jianwei YangChunyuan LiXiyang DaiLu YuanJianfeng Gao

PWC PWC PWC PWC

新闻

  • [2023/11/07] 研究人员表明,Focal-UNet在多个地球系统分析基准测试中优于以往的方法。查看他们的代码论文项目
  • [2023/06/30] :collision: 请从huggingface查找FocalNet-DINO检查点。旧链接已废弃。
  • [2023/04/26] 通过与FocalNet-Huge骨干网络结合,Focal-Stable-DINO在COCO测试开发集上实现了64.8 AP无需任何测试时增强!查看我们的技术报告了解更多详情!
  • [2023/02/13] FocalNet已集成到Keras,查看教程
  • [2023/01/18] 查看一个精选论文列表,介绍基于现代卷积和调制的超越注意力的网络
  • [2023/01/01] 研究人员表明,Focal-UNet在多个医学图像分割基准测试中优于Swin-UNet。查看他们的代码论文,新年快乐!
  • [2022/12/16] :collision: 我们很高兴发布我们在Object365上预训练并在COCO上微调的FocalNet-Large-DINO检查点,它在COCO minival上无需测试时增强就能达到63.5 mAP!快来看看吧!
  • [2022/11/14] 我们创建了一个新的仓库FocalNet-DINO来存放使用DINO复现目标检测性能的代码。我们将在那里发布目标检测代码和检查点。敬请期待!
  • [2022/11/13] :collision: 我们发布了在ImageNet-22K上预训练的大型、超大型和巨型模型,包括我们用来在COCO目标检测排行榜上取得最佳成绩的模型!
  • [2022/11/02] 我们写了一篇博客文章,以通俗的方式介绍了FocalNets背后的见解和技术,快来看看吧!
  • [2022/10/31] :collision: 基于强大的OD方法DINO,我们在COCO minival上达到了64.2 box mAP的新最佳成绩,在COCO test-dev上达到了<strike>64.3</strike> 64.4 box mAP的新最佳成绩!我们使用的巨型模型(700M)击败了更大的基于注意力的模型,如SwinV2-G和BEIT-3。查看我们的新版本并保持关注!
  • [2022/09/20] 我们的FocalNet已被NeurIPS 2022接收!
  • [2022/04/02] 在huggingface space创建了一个gradio演示来可视化调制机制。快来看看吧!

简介

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/b3cc1b2d-27b8-40f2-863c-7eabb96164c8.png" width=95% height=95% class="center"> </p> 我们提出了**FocalNets:焦点调制网络**,这是一种**无注意力**架构,在各种视觉基准测试中的表现优于最先进的自注意力(SA)方法。如上所示,SA是一个先交互后聚合(FILA)的过程。我们的焦点调制则颠倒了这个过程,采用先聚合后交互(FALI)。这种颠倒带来了以下几个优点:
  • 平移不变性:对每个目标令牌执行,以其周围的上下文为中心。
  • 显式输入依赖:通过聚合输入的短程和长程上下文来计算调制器,然后应用于目标令牌。
  • 空间和通道特定:首先在空间维度聚合上下文,然后在通道维度聚合,之后进行逐元素调制。
  • 解耦特征粒度:查询令牌保留最细粒度的个体信息,而在其周围提取较粗粒度的上下文。两者通过调制操作解耦但相连。
  • 易于实现:我们可以以非常简单和轻量级的方式实现上下文聚合和交互。不需要softmax、多头注意力、特征图滚动或展开等。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/ec225c93-55d5-4ef9-b2c8-61af35d34c94.png" width=80% height=80% class="center"> </p>

在开始之前,看看我们的FocalNets学会了如何感知图像以及在哪里进行调制!

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/ec202c51-dfc1-4e31-9602-1b5f438ce222.png" width=90% class="center"> </p>

最后,FocalNets是由卷积层和线性层构建的,但通过提出一种简单、通用、有效且高效的新型调制机制而更进一步。我们在此推荐:

焦点调制可能是我们视觉建模所需要的!

入门

基准测试

ImageNet-1K上的图像分类

  • 与多尺度Swin和Focal Transformers的严格对比:
模型深度维度核大小参数量 (M)FLOPs (G)吞吐量 (图片/秒)Top-1 准确率下载
FocalNet-T[2,2,6,2]96[3,5]28.44.474382.1ckpt/config/log
FocalNet-T[2,2,6,2]96[3,5,7]28.64.569682.3ckpt/config/log
FocalNet-S[2,2,18,2]96[3,5]49.98.643483.4ckpt/config/log
FocalNet-S[2,2,18,2]96[3,5,7]50.38.740683.5ckpt/config/log
FocalNet-B[2,2,18,2]128[3,5]88.115.328083.7ckpt/config/log
FocalNet-B[2,2,18,2]128[3,5,7]88.715.426983.9ckpt/config/log
  • 与等向ViT模型的严格对比: | 模型 | 深度 | 维度 | 核大小 | 参数量 (百万) | FLOPs (十亿) | 吞吐量 (图/秒) | Top-1准确率 | 下载 | :----: | :---: | :---: | :---: | :---: | :---: | :---: | :---: |:---: | | FocalNet-T | 12 | 192 | [3,5,7] | 5.9 | 1.1 | 2334 | 74.1 | 模型/配置/日志 | FocalNet-S | 12 | 384 | [3,5,7] | 22.4 | 4.3 | 920 | 80.9 | 模型/配置/日志 | FocalNet-B | 12 | 768 | [3,5,7] | 87.2 | 16.9 | 300 | 82.4 | 模型/配置/日志

ImageNet-22K预训练

模型深度维度核大小参数量 (百万)下载
FocalNet-L[2,2,18,2]192[5,7,9]207模型/配置
FocalNet-L[2,2,18,2]192[3,5,7,9]207模型/配置
FocalNet-XL[2,2,18,2]256[5,7,9]366模型/配置
FocalNet-XL[2,2,18,2]256[3,5,7,9]366模型/配置
FocalNet-H[2,2,18,2]352[3,5,7]687模型/配置
FocalNet-H[2,2,18,2]352[3,5,7,9]689模型/配置

注意:我们重新排序了imagenet-22k的类名,以便可以直接使用前1k个logits来评估imagenet-1k。我们提醒,imagenet-1k中的第851个类(标签=850)在imagenet-22k中缺失。请参考此标签映射。更多讨论请查看此问题

COCO数据集上的目标检测

主干网络核大小方法学习率调度参数量 (M)FLOPs (G)边界框mAP下载
FocalNet-T[11,9,9,7]级联Mask R-CNN3x87.175151.5检查点/配置/日志
FocalNet-T[11,9,9,7]ATSS3x37.222049.6检查点/配置/日志
FocalNet-T[11,9,9,7]稀疏R-CNN3x111.217849.9检查点/配置/日志

ADE20K上的语义分割

  • 分辨率512x512,迭代次数160k
主干网络核大小方法参数量 (M)FLOPs (G)mIoUmIoU (多尺度)下载
FocalNet-T[9,11]UPerNet6194446.547.2检查点/配置/日志
FocalNet-T[9,11,13]UPerNet6194946.847.8检查点/配置/日志
FocalNet-S[9,11]UPerNet83103549.350.1检查点/配置/日志
FocalNet-S[9,11,13]UPerNet84104449.150.1检查点/配置/日志
FocalNet-B[9,11]UPerNet124118050.251.1检查点/配置/日志
FocalNet-B[9,11,13]UPerNet126119250.551.4检查点/配置/日志

可视化

我们的FocalNets包含三个步骤:

  1. 使用深度卷积进行上下文化;
  2. 通过门控机制进行多尺度聚合;
  3. 从上下文聚合和投影中派生调制器。

我们将逐一进行可视化展示。

  • FocalNets中学习到的深度卷积核
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/c6398229-5ff1-4087-a81d-523ee0d36026.png" width=70% height=70% class="center"> </p>

黄色表示较高的值。显然,FocalNets在早期阶段学习收集更多局部上下文,而在后期阶段学习收集更多全局上下文。

  • FocalNets最后一层对不同输入图像的门控图
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/ea1b9c83-0211-4fe8-b333-4d21386e2365.png" width=70% height=70% class="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/51c12771-b097-4f0a-af9f-23bcf15b11df.png" width=70% height=70% class="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/26166767-d7cc-4733-815e-20b1c655460d.png" width=70% height=70% class="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/f23ba003-bae4-42bd-a7e6-0e515dd83475.png" width=70% height=70% class="center"> </p>

从左到右,图像依次为输入图像、焦点级别1、2、3的门控图以及全局上下文。显然,我们的模型已经学会了根据不同位置的视觉内容来收集上下文。

  • FocalNets中对不同输入图像学习到的调制器
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/457fb38d-5739-45bf-bde0-88e634fab590.png" width=70% height=70% class="center"> </p>

从我们的模型派生的调制器自动学会了关注前景区域。

如需自行进行可视化,请参考可视化笔记本

引用

如果您发现本仓库对您的项目有用,请考虑使用以下bibtex进行引用:

@misc{yang2022focal,
      title={Focal Modulation Networks}, 
      author={Jianwei Yang and Chunyuan Li and Xiyang Dai and Jianfeng Gao},
      journal={Advances in Neural Information Processing Systems (NeurIPS)},
      year={2022}
}

致谢

我们的代码库基于Swin TransformerFocal Transformer构建。为了实现最先进的目标检测性能,我们大量依赖最先进的方法DINO以及作者们的建议。我们感谢作者们组织良好的代码!

贡献

本项目欢迎贡献和建议。大多数贡献都要求您同意贡献者许可协议(CLA),声明您有权并确实授予我们使用您的贡献的权利。有关详细信息,请访问https://cla.opensource.microsoft.com。

当您提交拉取请求时,CLA机器人将自动确定您是否需要提供CLA,并适当地修饰PR(例如,状态检查、评论)。只需按照机器人提供的说明操作即可。您只需在所有使用我们CLA的仓库中执行一次此操作。

本项目已采用Microsoft开源行为准则。有关更多信息,请参阅行为准则常见问题解答或联系opencode@microsoft.com获取任何其他问题或意见。

商标

本项目可能包含项目、产品或服务的商标或标志。Microsoft商标或标志的授权使用必须遵循Microsoft商标和品牌指南。在本项目的修改版本中使用Microsoft商标或标志不得引起混淆或暗示Microsoft赞助。任何第三方商标或标志的使用均受这些第三方的政策约束。

编辑推荐精选

Manus

Manus

全面超越基准的 AI Agent助手

Manus 是一款通用人工智能代理平台,能够将您的创意和想法迅速转化为实际成果。无论是定制旅行规划、深入的数据分析,还是教育支持与商业决策,Manus 都能高效整合信息,提供精准解决方案。它以直观的交互体验和领先的技术,为用户开启了一个智慧驱动、轻松高效的新时代,让每个灵感都能得到完美落地。

飞书知识问答

飞书知识问答

飞书官方推出的AI知识库 上传word pdf即可部署AI私有知识库

基于DeepSeek R1大模型构建的知识管理系统,支持PDF、Word、PPT等常见文档格式解析,实现云端与本地数据的双向同步。系统具备实时网络检索能力,可自动关联外部信息源,通过语义理解技术处理结构化与非结构化数据。免费版本提供基础知识库搭建功能,适用于企业文档管理和个人学习资料整理场景。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

TraeAI IDE协作生产力转型热门AI工具
酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

使用教程AI工具酷表ChatExcelAI智能客服AI营销产品
DeepEP

DeepEP

DeepSeek开源的专家并行通信优化框架

DeepEP是一个专为大规模分布式计算设计的通信库,重点解决专家并行模式中的通信瓶颈问题。其核心架构采用分层拓扑感知技术,能够自动识别节点间物理连接关系,优化数据传输路径。通过实现动态路由选择与负载均衡机制,系统在千卡级计算集群中维持稳定的低延迟特性,同时兼容主流深度学习框架的通信接口。

DeepSeek

DeepSeek

全球领先开源大模型,高效智能助手

DeepSeek是一家幻方量化创办的专注于通用人工智能的中国科技公司,主攻大模型研发与应用。DeepSeek-R1是开源的推理模型,擅长处理复杂任务且可免费商用。

KnowS

KnowS

AI医学搜索引擎 整合4000万+实时更新的全球医学文献

医学领域专用搜索引擎整合4000万+实时更新的全球医学文献,通过自主研发AI模型实现精准知识检索。系统每日更新指南、中英文文献及会议资料,搜索准确率较传统工具提升80%,同时将大模型幻觉率控制在8%以下。支持临床建议生成、文献深度解析、学术报告制作等全流程科研辅助,典型用户反馈显示每周可节省医疗工作者70%时间。

Windsurf Wave 3

Windsurf Wave 3

Windsurf Editor推出第三次重大更新Wave 3

新增模型上下文协议支持与智能编辑功能。本次更新包含五项核心改进:支持接入MCP协议扩展工具生态,Tab键智能跳转提升编码效率,Turbo模式实现自动化终端操作,图片拖拽功能优化多模态交互,以及面向付费用户的个性化图标定制。系统同步集成DeepSeek、Gemini等新模型,并通过信用点数机制实现差异化的资源调配。

AI IDE
腾讯元宝

腾讯元宝

腾讯自研的混元大模型AI助手

腾讯元宝是腾讯基于自研的混元大模型推出的一款多功能AI应用,旨在通过人工智能技术提升用户在写作、绘画、翻译、编程、搜索、阅读总结等多个领域的工作与生活效率。

AI 办公助手AI对话AI助手AI工具腾讯元宝智能体热门
Grok3

Grok3

埃隆·马斯克旗下的人工智能公司 xAI 推出的第三代大规模语言模型

Grok3 是由埃隆·马斯克旗下的人工智能公司 xAI 推出的第三代大规模语言模型,常被马斯克称为“地球上最聪明的 AI”。它不仅是在前代产品 Grok 1 和 Grok 2 基础上的一次飞跃,还在多个关键技术上实现了创新突破。

下拉加载更多