Project Icon

HRDA

突破性多分辨率域适应语义分割方法

HRDA是一种创新的多分辨率训练方法,用于无监督域适应的语义分割。它结合高分辨率裁剪保留细节和低分辨率裁剪捕获长程上下文,同时控制GPU内存占用。HRDA在多个基准测试中显著超越现有方法,并可扩展至域泛化。这种方法为自动驾驶等实际应用中的域适应问题提供新思路,推动了计算机视觉技术在复杂场景下的应用。

HRDA:上下文感知的高分辨率域自适应语义分割

作者:Lukas HoyerDengxin DaiLuc Van Gool

[ECCV22 论文] [扩展论文]

:bell: 新闻:

  • [2024-07-03] 我们很高兴地宣布,我们的工作SemiVL,关于视觉语言引导的半监督语义分割,已被ECCV24接受。
  • [2024-07-03] 我们很高兴地宣布,我们的后续工作DGInStyle,关于用于域泛化语义分割的图像扩散,已被ECCV24接受。
  • [2023-09-26] 我们很高兴地宣布,我们的扩展论文,关于域泛化和晴朗到恶劣天气的UDA,已被PAMI接受。
  • [2023-08-25] 我们很高兴地宣布,我们的后续工作EDAPS,关于全景分割UDA,已被ICCV23接受。
  • [2023-04-27] 我们在扩展论文中进一步将HRDA扩展到域泛化和晴朗到恶劣天气的UDA。
  • [2023-02-28] 我们很高兴地宣布,我们的后续工作MIC,关于上下文增强的UDA,已被CVPR23接受。
  • [2022-07-05] 我们很高兴地宣布HRDA已被ECCV22接受。

概述

**无监督域适应(UDA)**旨在将在合成数据上训练的模型适应到真实世界的数据,而无需对真实世界图像进行昂贵的标注。由于用于语义分割的UDA方法通常需要大量GPU内存,大多数先前的方法仅在缩小尺寸的图像上操作。我们质疑这种设计,因为低分辨率预测常常无法保留精细细节。使用高分辨率图像的随机裁剪进行训练可以缓解这个问题,但在捕捉长距离、域鲁棒的上下文信息方面仍有不足。

因此,我们提出了HRDA,一种用于UDA的多分辨率训练方法,它结合了小型高分辨率裁剪以保留精细分割细节和大型低分辨率裁剪以捕捉长距离上下文依赖的优势,并通过学习的尺度注意力机制来实现,同时保持可控的GPU内存占用。

HRDA概览

HRDA能够适应小物体并保留精细的分割细节。它显著提高了最先进的性能,在GTA→Cityscapes上提高了5.5 mIoU在Synthia→Cityscapes上提高了4.9 mIoU,分别达到了73.8和65.8 mIoU的前所未有的性能。

UDA随时间变化

与之前最先进的UDA方法DAFormer相比,HRDA更详细的域自适应语义分割效果也可以在Cityscapes验证集的示例预测中观察到。

演示

https://user-images.githubusercontent.com/1277888/181128057-27b8039f-a4c9-4f6d-9aa8-9b7f364d8921.mp4

颜色调色板

HRDA可以进一步扩展到域泛化,消除了访问目标图像的需求。在域泛化中,HRDA也显著提高了最先进的性能,提高了4.2 mIoU

有关HRDA的更多信息,请查看我们的[ECCV论文][扩展论文]

如果您在研究中发现HRDA有用,请考虑引用:

@InProceedings{hoyer2022hrda,
  title={{HRDA}: Context-Aware High-Resolution Domain-Adaptive Semantic Segmentation},
  author={Hoyer, Lukas and Dai, Dengxin and Van Gool, Luc},
  booktitle={Proceedings of the European Conference on Computer Vision (ECCV)},
  pages={372--391},
  year={2022}
}

@Article{hoyer2024domain,
  title={Domain Adaptive and Generalizable Network Architectures and Training Strategies for Semantic Image Segmentation},
  author={Hoyer, Lukas and Dai, Dengxin and Van Gool, Luc},
  journal={IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI)}, 
  year={2024},
  volume={46},
  number={1},
  pages={220-235},
  doi={10.1109/TPAMI.2023.3320613}
}

与最先进UDA的比较

HRDA在多个UDA基准测试上显著优于之前的工作。这包括GTA→Cityscapes和Synthia→Cityscapes的合成到真实适应,以及Cityscapes→ACDC和Cityscapes→DarkZurich的晴朗到恶劣天气适应。

GTA→CS(val)Synthia→CS(val)CS→ACDC(test)CS→DarkZurich(test)
ADVENT [1]45.541.232.729.7
BDL [2]48.5--37.730.8
FDA [3]50.5--45.7--
DACS [4]52.148.3----
ProDA [5]57.555.5----
MGCDA [6]----48.742.5
DANNet [7]----50.045.2
DAFormer (我们的) [8]68.360.955.4*53.8*
HRDA (我们的)73.865.868.0*55.9*

* 我们扩展论文的新结果

参考文献:

  1. Vu等人,"Advent: 语义分割中域适应的对抗熵最小化",CVPR 2019。
  2. Li等人,"语义分割域适应的双向学习",CVPR 2019。
  3. Yang等人,"FDA: 语义分割的傅里叶域适应",CVPR 2020。
  4. Tranheden等人,"DACS: 通过跨域混合采样进行域适应",WACV 2021。
  5. Zhang等人,"用于域自适应语义分割的原型伪标签去噪和目标结构学习",CVPR 2021。
  6. Sakaridis等人,"基于地图引导的课程域适应和不确定性感知评估,用于夜间图像语义分割",TPAMI,2020。
  7. Wu等人,"DANNet: 用于无监督夜间语义分割的一阶段域适应网络",CVPR,2021。
  8. Hoyer等人,"DAFormer: 改进域自适应语义分割的网络架构和训练策略",CVPR,2022。

与最先进域泛化(DG)的比较

HRDA和DAFormer在从GTA到真实街景的域泛化方面显著优于之前的工作。

DG方法CityscapesBDD100KMapillary平均
IBN-Net [1,5]37.3734.2136.8136.13
DRPC [2]42.5338.7238.0539.77
ISW [3,5]37.2033.3635.5735.38
SAN-SAW [4]45.3341.1840.7742.43
SHADE [5]46.6643.6645.5045.27
DAFormer (我们的) [6]52.65*47.89*54.66*51.73*
HRDA (我们的)57.41*49.11*61.16*55.90*

* 我们扩展论文的新结果

参考文献:

  1. Pan等人,"Two at once: Enhancing learning and generalization capacities via IBN-Net",ECCV,2018。
  2. Yue等人,"Domain randomization and pyramid consistency: Simulation-to-real generalization without accessing target domain data",ICCV,2019。
  3. Choi等人,"RobustNet: Improving Domain Generalization in Urban-Scene Segmentation via Instance Selective Whitening",CVPR,2021。
  4. Peng等人,"Semantic-aware domain generalized segmentation",CVPR,2022。
  5. Zhao等人,"Style-Hallucinated Dual Consistency Learning for Domain Generalized Semantic Segmentation",ECCV,2022。
  6. Hoyer等人,"DAFormer: Improving Network Architectures and Training Strategies for Domain-Adaptive Semantic Segmentation",CVPR,2022。

环境设置

本项目使用Python 3.8.5。我们建议设置一个新的虚拟环境:

python -m venv ~/venv/hrda
source ~/venv/hrda/bin/activate

在该环境中,可以通过以下命令安装所需依赖:

pip install -r requirements.txt -f https://download.pytorch.org/whl/torch_stable.html
pip install mmcv-full==1.3.7  # 需要先安装其他包

请从SegFormer提供的OneDrive下载MiT-B5 ImageNet权重,并将其放入pretrained/文件夹。 此外,下载HRDA on GTA→Cityscapes的检查点并解压到work_dirs/文件夹。

数据集设置

Cityscapes: 请从这里下载leftImg8bit_trainvaltest.zip和gt_trainvaltest.zip,并解压到data/cityscapes

GTA: 请从这里下载所有图像和标签包,并解压到data/gta

Synthia (可选): 请从这里下载SYNTHIA-RAND-CITYSCAPES,并解压到data/synthia

ACDC (可选): 请从这里下载rgb_anon_trainvaltest.zip和gt_trainval.zip,并解压到data/acdc。然后,请使用以下命令将文件夹从condition/split/sequence/重组为split/

rsync -a data/acdc/rgb_anon/*/train/*/* data/acdc/rgb_anon/train/
rsync -a data/acdc/rgb_anon/*/val/*/* data/acdc/rgb_anon/val/
rsync -a data/acdc/gt/*/train/*/*_labelTrainIds.png data/acdc/gt/train/
rsync -a data/acdc/gt/*/val/*/*_labelTrainIds.png data/acdc/gt/val/

Dark Zurich (可选): 请从这里下载Dark_Zurich_train_anon.zip和Dark_Zurich_val_anon.zip,并解压到data/dark_zurich

BDD100K (可选): 请从这里下载10K ImagesSegmentation,并解压到data/bdd100k

Mapillary (可选): 请从这里下载mapillary-vistas-dataset_public_v1.2.zip,并解压到data/mapillary

最终的文件夹结构应如下所示:

HRDA
├── ...
├── data
│   ├── acdc (可选)
│   │   ├── gt
│   │   │   ├── train
│   │   │   ├── val
│   │   ├── rgb_anon
│   │   │   ├── train
│   │   │   ├── val
│   ├── bdd100k (可选)
│   │   ├── images/10k/val
│   │   ├── labels/sem_seg/masks/val
│   ├── cityscapes
│   │   ├── leftImg8bit
│   │   │   ├── train
│   │   │   ├── val
│   │   ├── gtFine
│   │   │   ├── train
│   │   │   ├── val
│   ├── dark_zurich (可选)
│   │   ├── gt
│   │   │   ├── val
│   │   ├── rgb_anon
│   │   │   ├── train
│   │   │   ├── val
│   ├── gta
│   │   ├── images
│   │   ├── labels
│   ├── mapillary (可选)
│   │   ├── validation/images
│   │   ├── validation/labels
│   ├── synthia (可选)
│   │   ├── RGB
│   │   ├── GT
│   │   │   ├── LABELS
├── ...

数据预处理: 最后,请运行以下脚本以将标签ID转换为训练ID,并为RCS生成类别索引:

python tools/convert_datasets/gta.py data/gta --nproc 8
python tools/convert_datasets/cityscapes.py data/cityscapes --nproc 8
python tools/convert_datasets/synthia.py data/synthia/ --nproc 8
python tools/convert_datasets/mapillary.py data/mapillary/ --nproc 8

测试与预测

可以使用以下命令在Cityscapes验证集上测试提供的GTA→Cityscapes训练的HRDA检查点:

sh test.sh work_dirs/gtaHR2csHR_hrda_246ef

预测结果保存在work_dirs/gtaHR2csHR_hrda_246ef/preds以供检查,模型的mIoU会打印到控制台。提供的检查点应达到73.79 mIoU。请参阅work_dirs/gtaHR2csHR_hrda_246ef/20220215_002056.log末尾以获取更多信息,如各类别的IoU。

如果您想在验证集上可视化HRDA的LR预测、HR预测或尺度注意力,请参阅test.sh以获取更多说明。

训练

为方便起见,我们提供了最终HRDA的带注释配置文件。可以使用以下命令启动训练任务:

python run_experiments.py --config configs/hrda/gtaHR2csHR_hrda.py

日志和检查点存储在work_dirs/中。

对于我们论文中的其他实验,我们使用脚本自动生成和训练配置:

python run_experiments.py --exp <ID>

有关可用实验及其分配的ID的更多信息,请参见experiments.py。生成的配置将存储在configs/generated/中。

评估在Synthia→Cityscapes上训练的模型时,请注意评估脚本计算的是所有19个Cityscapes类别的mIoU。然而,Synthia只包含其中16个类别的标签。因此,在UDA中通常的做法是仅报告这16个类别的Synthia→Cityscapes mIoU。由于缺失的3个类别的IoU为0,您可以使用mIoU16 = mIoU19 * 19 / 16进行转换。 Cityscapes→ACDC和Cityscapes→DarkZurich的结果在目标数据集的测试集上报告。要生成测试集的预测结果,请运行:

python -m tools.test path/to/config_file path/to/checkpoint_file --test-set --format-only --eval-option imgfile_prefix=labelTrainIds to_label_id=False

预测结果可以提交到相应数据集的公开评估服务器以获取测试分数。

域泛化

HRDA/DAFormer用于域泛化(DG)的版本位于DG分支,可以通过以下命令检出:

git checkout dg

可以使用以下命令进行DG训练:

python run_experiments.py --exp 50

更多详细信息,请参阅experiment.py。该模型在训练过程中仅使用GTA数据直接在Cityscapes上进行评估。还可以使用tools/test.py在BDD100K和Mapillary上进行额外评估:

python -m tools.test path/to/config_file path/to/checkpoint_file --eval mIoU --dataset BDD100K
python -m tools.test path/to/config_file path/to/checkpoint_file --eval mIoU --dataset Mapillary --eval-option efficient_test=True

检查点

以下我们提供了HRDA在不同基准测试上的检查点。 这些检查点附带了训练日志文件。 由于论文中的结果是三个随机种子的平均值,这里我们提供验证性能中位数的检查点。

检查点附带训练日志。请注意:

  • 日志提供19个类别的mIoU。对于Synthia→Cityscapes,需要将mIoU转换为16个有效类别。请阅读上面关于转换mIoU的部分。
  • 日志提供验证集上的mIoU。对于Cityscapes→ACDC和Cityscapes→DarkZurich,论文中报告的结果是在测试集上计算的。对于DarkZurich,验证集和测试集之间的性能差异显著。请阅读上面关于如何获得测试mIoU的部分。
  • 域泛化(DG)的日志提供Cityscapes上的验证性能。请参考上面的部分在BDD100K和Mapillary上评估检查点。

框架结构

本项目基于mmsegmentation 0.16.0版本。 有关框架结构和配置系统的更多信息,请参阅mmsegmentation文档mmcv文档

HRDA最相关的文件有:

致谢

HRDA基于以下开源项目。我们感谢这些项目的作者公开源代码。

许可证

本项目基于Apache License 2.0发布,但本仓库中的一些特定功能使用其他许可证。如果您将我们的代码用于商业用途,请仔细查看LICENSES.md

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号