:fire: [ICLR2023, ECCV2022, TPAMI2024] 用于场景理解的强大多任务Transformer模型
:scroll: 简介
本仓库提供了两个用于场景理解的强大多任务Transformer模型的代码和模型。详情请查看以下页面:
叶翰荣和徐丹,TaskPrompter:用于密集场景理解的空间-通道多任务提示。 ICLR 2023
叶翰荣和徐丹,用于密集场景理解的倒金字塔多任务Transformer。 ECCV 2022
引用
BibTex:
@InProceedings{invpt2022,
title={Inverted Pyramid Multi-task Transformer for Dense Scene Understanding},
author={Ye, Hanrong and Xu, Dan},
booktitle={ECCV},
year={2022}
}
@InProceedings{taskprompter2023,
title={TaskPrompter: Spatial-Channel Multi-Task Prompting for Dense Scene Understanding},
author={Ye, Hanrong and Xu, Dan},
booktitle={ICLR},
year={2023}
}
@article{ye2023invpt++,
title={InvPT++: Inverted Pyramid Multi-Task Transformer for Visual Scene Understanding},
author={Ye, Hanrong and Xu, Dan},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
year={2024}
}
如果您觉得这个仓库有帮助,请考虑 :star2: 给我们的项目点个星,以便与您的社区分享!
联系方式
如有任何问题,请联系叶翰荣。
相关项目
多任务少样本学习:Visual Token Matching(ICLR 2023杰出论文奖)