项目介绍:owlv2-base-patch16-finetuned
项目背景
OWLv2 是一种开放世界的目标检测模型,由Matthias Minderer、Alexey Gritsenko和Neil Houlsby提议,旨在提升开放词汇物体检测的能力。与以前的OWL-ViT类似,OWLv2是一种零样本文本条件下的目标检测模型,可以通过一个或多个文本查询检测图像中的目标。
模型简介
OWLv2模型使用CLIP作为其多模态骨干网络。视觉特征通过类ViT(Vision Transformer)的Transformer获取,而文本特征则通过因果语言模型提取。为了让CLIP适用于检测,OWLv2在视觉模型中去除了最后的token池化层,并在每个Transformer输出的token上附加了轻量级的分类和边框检测头。开启开放词汇分类的方式是用从文本模型获得的类名嵌入替换固定的分类层权重。模型采用一种称为双边匹配损失的机制,先从零开始训练CLIP,再与检测头进行端到端的微调。在检测过程中,模型允许用一个或多个文本查询执行零样本的文本条件目标检测。
模型结构
OWLv2模型使用CLIP作为其骨干网,使用ViT-B/16 Transformer架构作为图像编码器,并使用掩码自注意力Transformer作为文本编码器。通过对比损失,这些编码器训练的目标是最大化图像和文本对的相似性。CLIP骨干网络从头开始训练,并与目标检测任务一起微调,进一步提升了模型的能力。
使用场景
OWLv2模型主要面向研究社群,希望能够帮助研究人员更深度地探索和理解零样本、文本条件下的物体检测。此外,该模型也可以用于跨学科研究,特别是在那些需要识别训练时无法提供标签物体的领域。其主要用户群体是人工智能研究者,这些用户可以通过模型深入研究计算机视觉模型的鲁棒性、泛化能力及其偏见和限制。
数据来源
模型的CLIP骨干部分通过公开可用的图像-描述数据进行训练,这些数据来自一些网站的抓取和常用的现有图像数据集,例如YFCC100M。大量的数据来自于互联网的爬取,因此这些数据更具代表性,能够反映与互联网最紧密联系的人群和社群。OWL-ViT的预测头与CLIP骨干一起在公开的目标检测数据集(例如COCO和OpenImages)上进行了微调。
通过OWLv2模型,研究者可以在不同领域、尤其是在需要快速识别图片内容的应用场景中,进一步探索和实验这一先进的AI模型。