MeViS:基于运动表达的大规模视频分割基准
🏠[项目主页] 📄[arXiv] 📄[PDF] 🔥[数据集下载] 🔥[评估服务器]
本仓库包含ICCV2023论文的代码:
MeViS:基于运动表达的大规模视频分割基准
丁恒辉、刘畅、何舒婷、江旭东、陈庆龙
ICCV 2023
摘要
本研究致力于基于运动表达的视频分割,重点关注根据描述物体运动的句子对视频内容中的物体进行分割。现有的指代视频对象分割数据集忽视了运动在语言引导视频对象分割中的重要性。为了研究使用运动表达定位和分割视频中物体的可行性,我们提出了一个名为MeViS的大规模数据集,其中包含了大量用于指示复杂环境中目标对象的运动表达。MeViS基准的目标是提供一个平台,以促进开发有效的语言引导视频分割算法,这些算法将运动表达作为复杂视频场景中对象分割的主要线索。
图1. 运动表达视频分割(MeViS)的视频剪辑示例,用于说明数据集的性质和复杂性。MeViS中的表达主要关注运动属性和无法通过单帧识别的指代目标对象。例如,第一个示例中有三只外观相似的鹦鹉,目标对象被描述为"正在飞走的鸟"。这个对象只能通过捕捉整个视频中的运动来识别。
数据集 | 发表年份 | 视频数 | 物体数 | 表达式数 | 掩码数 | 物体/视频 | 物体/表达式 | 目标 |
---|---|---|---|---|---|---|---|---|
A2D Sentence | CVPR 2018 | 3,782 | 4,825 | 6,656 | 58k | 1.28 | 1 | 演员 |
DAVIS17-RVOS | ACCV 2018 | 90 | 205 | 205 | 13.5k | 2.27 | 1 | 物体 |
ReferYoutubeVOS | ECCV 2020 | 3,978 | 7,451 | 15,009 | 131k | 1.86 | 1 | 物体 |
MeViS (我们的) | ICCV 2023 | 2,006 | 8,171 | 28,570 | 443k | 4.28 | 1.59 | 物体 |
MeViS数据集下载
⬇️ 点击这里下载数据集☁️。
数据集划分
- 总共2,006个视频和28,570个句子;
- 训练集: 1662个视频和23,051个句子,用于训练;
- 验证集u: 50个视频和793个句子,供用户在训练期间进行离线评估(如消融研究);
- 验证集: 140个视频和2,236个句子,用于CodaLab在线评估;
- 测试集: 154个视频和2,490个句子(尚未发布),用于比赛期间的评估; 建议在验证集u和验证集上报告结果。
在线评估
请在以下平台提交您的验证集结果:
- 💯 CodaLab
强烈建议在向在线评估系统提交验证集结果之前,先使用**验证集u**在本地评估您的模型。
文件结构
该数据集的结构与Refer-YouTube-VOS类似。每个数据集划分包含三个部分:JPEGImages
,存放帧图像;meta_expressions.json
,提供指代表达式和视频元数据;以及mask_dict.json
,包含物体的地面真实掩码。地面真实分割掩码以COCO RLE格式保存,表达式的组织方式类似于Refer-Youtube-VOS。
请注意,虽然训练集和验证集u提供了所有帧的注释,但验证集仅提供用于推理的帧图像和指代表达式。
mevis
├── train // 训练集
│ ├── JPEGImages
│ │ ├── <视频 #1 >
│ │ ├── <视频 #2 >
│ │ └── <视频 #...>
│ │
│ ├── mask_dict.json
│ └── meta_expressions.json
│
├── valid_u // 验证集^u
│ ├── JPEGImages
│ │ └── <视频 ...>
│ │
│ ├── mask_dict.json
│ └── meta_expressions.json
│
└── valid // 验证集
├── JPEGImages
│ └── <视频 ...>
│
└── meta_expressions.json
方法代码安装:
请参见 INSTALL.md
推理
1. Valu集
获取Valu集的输出掩码:
python train_net_lmpm.py \
--config-file configs/lmpm_SWIN_bs8.yaml \
--num-gpus 8 --dist-url auto --eval-only \
MODEL.WEIGHTS [权重路径] \
OUTPUT_DIR [输出目录]
获取Valu集的J&F结果:
python tools/eval_mevis.py
2. Val集
获取Val集的输出掩码以进行CodaLab在线评估:
python train_net_lmpm.py \
--config-file configs/lmpm_SWIN_bs8.yaml \
--num-gpus 8 --dist-url auto --eval-only \
MODEL.WEIGHTS [权重路径] \
OUTPUT_DIR [输出目录] DATASETS.TEST '("mevis_test",)'
CodaLab评估提交指南
提交格式应为包含Val集预测.PNG结果的**.zip**文件(适用于当前比赛阶段)。
你可以使用以下命令准备.zip提交文件
cd [输出目录]
zip -r ../xxx.zip *
可以从CodaLab找到名为sample_submission_valid.zip的提交示例。
sample_submission_valid.zip // .zip文件,直接打包140个验证集视频文件夹
├── 0ab4afe7fb46 // 视频文件夹名
│ ├── 0 // 表达式id文件夹名
│ │ ├── 00000.png // .png文件
│ │ ├── 00001.png
│ │ └── ....
│ │
│ ├── 1
│ │ └── 00000.png
│ │ └── ....
│ │
│ └── ....
│
├── 0fea0cb75a25
│ ├── 0
│ │ ├── 00000.png
│ │ └── ....
│ │
│ └── ....
│
└── ....
训练
首先,下载骨干网络权重(model_final_86143f.pkl
)并使用脚本进行转换:
wget https://dl.fbaipublicfiles.com/maskformer/mask2former/coco/instance/maskformer2_swin_tiny_bs16_50ep/model_final_86143f.pkl
python tools/process_ckpt.py
然后开始训练:
python train_net_lmpm.py \
--config-file configs/lmpm_SWIN_bs8.yaml \
--num-gpus 8 --dist-url auto \
MODEL.WEIGHTS [权重路径] \
OUTPUT_DIR [权重路径]
注意:我们还通过提供ReferFormer_dataset.py
支持训练ReferFormer
模型
我们在MeViS数据集的Valu集和Val集上的结果。
- Valu集用于用户自行离线评估,如进行消融研究
- Val集用于MeViS数据集组织者在CodaLab上进行在线评估
骨干网络 | Valu | Val | ||||
---|---|---|---|---|---|---|
J&F | J | F | J&F | J | F | |
Swin-Tiny & RoBERTa | 40.23 | 36.51 | 43.90 | 37.21 | 34.25 | 40.17 |
☁️ 谷歌云盘
致谢
本项目基于 VITA、GRES、Mask2Former 和 VLT。非常感谢这些作者的杰出工作!
BibTeX
如果 MeViS 对您的研究有帮助,请考虑引用。
@inproceedings{MeViS,
title={{MeViS}: A Large-scale Benchmark for Video Segmentation with Motion Expressions},
author={Ding, Henghui and Liu, Chang and He, Shuting and Jiang, Xudong and Loy, Chen Change},
booktitle={ICCV},
year={2023}
}
@inproceedings{GRES,
title={{GRES}: Generalized Referring Expression Segmentation},
author={Liu, Chang and Ding, Henghui and Jiang, Xudong},
booktitle={CVPR},
year={2023}
}
@article{VLT,
title={{VLT}: Vision-language transformer and query generation for referring segmentation},
author={Ding, Henghui and Liu, Chang and Wang, Suchen and Jiang, Xudong},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
year={2023},
publisher={IEEE}
}
MeViS 中的大多数视频来自 MOSE: Complex Video Object Segmentation Dataset。
@inproceedings{MOSE,
title={{MOSE}: A New Dataset for Video Object Segmentation in Complex Scenes},
author={Ding, Henghui and Liu, Chang and He, Shuting and Jiang, Xudong and Torr, Philip HS and Bai, Song},
booktitle={ICCV},
year={2023}
}
MeViS 采用 CC BY-NC-SA 4.0 许可协议。MeViS 的数据仅供非商业研究目的使用。