Project Icon

GroundingDINO

语言驱动的开放集目标检测模型

GroundingDINO是一个基于语言的开放集目标检测模型,能够检测图像中的任意物体。该模型在COCO数据集上实现了零样本52.5 AP和微调后63.0 AP的性能。GroundingDINO支持CPU模式,可与Stable Diffusion等模型集成用于图像编辑,还能与SAM结合实现分割功能。此外,项目提供了丰富的演示和教程资源,为开放世界目标检测领域带来了新的解决方案。

:sauropod: Grounding DINO

PWC PWC
PWC PWC

IDEA-CVR, IDEA-Research

Shilong LiuZhaoyang ZengTianhe RenFeng LiHao ZhangJie YangChunyuan LiJianwei YangHang SuJun ZhuLei Zhang:email:

[论文] [演示] [引用]

Grounding DINO的PyTorch实现和预训练模型。详情请参阅论文**Grounding DINO: 将DINO与基于地面真实标注的预训练结合用于开放集目标检测**。

:sun_with_face: 有用的教程

:sparkles: 亮点项目

:bulb: 亮点

  • 开放集检测。 用语言检测一切
  • 高性能。 COCO零样本52.5 AP(无COCO数据训练!)。COCO微调63.0 AP
  • 灵活。 与Stable Diffusion合作进行图像编辑。

:fire: 新闻

  • 2023/07/18: 我们发布了 Semantic-SAM,这是一个通用图像分割模型,能够以任何所需粒度对任何物体进行分割和识别。代码检查点现已可用!
  • 2023/06/17: 我们提供了一个示例来评估 Grounding DINO 在 COCO 零样本性能上的表现。
  • 2023/04/15: 对于那些对开放集识别感兴趣的人,请参考 CV in the Wild Readings
  • 2023/04/08: 我们发布了 演示,将 Grounding DINOGLIGEN 结合,实现更可控的图像编辑。
  • 2023/04/08: 我们发布了 演示,将 Grounding DINOStable Diffusion 结合用于图像编辑。
  • 2023/04/06: 我们将 GroundingDINO 与 Segment-Anything 结合,建立了一个名为 Grounded-Segment-Anything 的新演示,旨在支持 GroundingDINO 中的分割功能。
  • 2023/03/28: 关于 Grounding DINO 和基础目标检测提示工程的 YouTube 视频。[SkalskiP]
  • 2023/03/28: 在 Hugging Face Space 上添加了一个 演示
  • 2023/03/27: 支持仅 CPU 模式。现在模型可以在没有 GPU 的机器上运行。
  • 2023/03/25: Grounding DINO 的 演示 在 Colab 上可用。[SkalskiP]
  • 2023/03/22: 代码现已可用!
描述 论文介绍。 ODinW 结合 Grounding DINOGLIGEN gd_gligen

:star: Grounding DINO 输入和输出的解释/提示

  • Grounding DINO 接受一对(图像, 文本)作为输入。
  • 它输出900个(默认情况下)目标框。每个框都有跨所有输入词的相似度分数。(如下图所示)
  • 我们默认选择最高相似度高于box_threshold的框。
  • 我们提取相似度高于text_threshold的词作为预测标签。
  • 如果你想获取特定短语的对象,比如句子two dogs with a stick.中的dogs,你可以选择与dogs文本相似度最高的框作为最终输出。
  • 注意,每个词可能会被不同的分词器拆分为多个标记。句子中的词数可能不等于文本标记的数量。
  • 我们建议在 Grounding DINO 中用.分隔不同的类别名称。 model_explain1 model_explain2

:label: 待办事项

  • 发布推理代码和演示。
  • 发布检查点。
  • Grounding DINO 与 Stable Diffusion 和 GLIGEN 的演示。
  • 发布训练代码。

:hammer_and_wrench: 安装

注意:

  1. 如果你有 CUDA 环境,请确保环境变量 CUDA_HOME 已设置。如果没有可用的 CUDA,将在仅 CPU 模式下编译。

请确保严格按照安装步骤进行,否则程序可能会产生:

NameError: name '_C' is not defined

如果发生这种情况,请重新克隆 git 并重新安装 groundingDINO,再次执行所有安装步骤。

如何检查 cuda:

echo $CUDA_HOME

如果没有输出,则表示你还没有设置路径。

运行以下命令,使环境变量在当前 shell 中设置:

export CUDA_HOME=/path/to/cuda-11.3

注意 cuda 的版本应与你的 CUDA 运行时一致,因为可能同时存在多个 cuda 版本。

如果你想永久设置 CUDA_HOME,使用以下命令:

echo 'export CUDA_HOME=/path/to/cuda' >> ~/.bashrc

然后,source bashrc 文件并检查 CUDA_HOME:

source ~/.bashrc
echo $CUDA_HOME

在这个例子中,/path/to/cuda-11.3 应替换为你安装 CUDA 工具包的路径。你可以在终端中输入 which nvcc 来找到这个路径:

例如, 如果输出是 /usr/local/cuda/bin/nvcc,那么:

export CUDA_HOME=/usr/local/cuda

安装:

1.从 GitHub 克隆 GroundingDINO 仓库。

git clone https://github.com/IDEA-Research/GroundingDINO.git
  1. 切换到 GroundingDINO 文件夹。
cd GroundingDINO/
  1. 在当前目录安装所需依赖。
pip install -e .
  1. 下载预训练模型权重。
mkdir weights
cd weights
wget -q https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth
cd ..

:arrow_forward: 演示

检查你的 GPU ID(仅当你使用 GPU 时)

nvidia-smi

在以下命令中,将 {GPU ID}image_you_want_to_detect.jpg"dir you want to save the output" 替换为适当的值

CUDA_VISIBLE_DEVICES={GPU ID} python demo/inference_on_a_image.py \
-c groundingdino/config/GroundingDINO_SwinT_OGC.py \
-p weights/groundingdino_swint_ogc.pth \
-i image_you_want_to_detect.jpg \
-o "dir you want to save the output" \
-t "chair"
 [--cpu-only] # 在 cpu 模式下打开它

如果你想指定要检测的短语,这里有一个演示:

CUDA_VISIBLE_DEVICES={GPU ID} python demo/inference_on_a_image.py \
-c groundingdino/config/GroundingDINO_SwinT_OGC.py \
-p ./groundingdino_swint_ogc.pth \
-i .asset/cat_dog.jpeg \
-o logs/1111 \
-t "There is a cat and a dog in the image ." \
--token_spans "[[[9, 10], [11, 14]], [[19, 20], [21, 24]]]"
 [--cpu-only] # 在 cpu 模式下打开它

token_spans 指定短语的起始和结束位置。例如,第一个短语是 [[9, 10], [11, 14]]"There is a cat and a dog in the image ."[9:10] = 'a'"There is a cat and a dog in the image ."[11:14] = 'cat'。因此它指的是短语 a cat。同样,[[19, 20], [21, 24]] 指的是短语 a dog

更多详情请参见 demo/inference_on_a_image.py

使用 Python 运行:

from groundingdino.util.inference import load_model, load_image, predict, annotate
import cv2

model = load_model("groundingdino/config/GroundingDINO_SwinT_OGC.py", "weights/groundingdino_swint_ogc.pth")
IMAGE_PATH = "weights/dog-3.jpeg"
TEXT_PROMPT = "chair . person . dog ."
BOX_TRESHOLD = 0.35
TEXT_TRESHOLD = 0.25

image_source, image = load_image(IMAGE_PATH)

boxes, logits, phrases = predict(
    model=model,
    image=image,
    caption=TEXT_PROMPT,
    box_threshold=BOX_TRESHOLD,
    text_threshold=TEXT_TRESHOLD
)

annotated_frame = annotate(image_source=image_source, boxes=boxes, logits=logits, phrases=phrases)
cv2.imwrite("annotated_image.jpg", annotated_frame)

Web UI

我们还提供了一个演示代码,将 Grounding DINO 与 Gradio Web UI 集成。更多详情请参见文件 demo/gradio_app.py

笔记本

COCO 零样本评估

我们提供了一个示例来评估 Grounding DINO 在 COCO 上的零样本性能。结果应该是 48.5

CUDA_VISIBLE_DEVICES=0 \
python demo/test_ap_on_coco.py \
 -c groundingdino/config/GroundingDINO_SwinT_OGC.py \
 -p weights/groundingdino_swint_ogc.pth \
 --anno_path /path/to/annoataions/ie/instances_val2017.json \
 --image_dir /path/to/imagedir/ie/val2017

:luggage: 检查点

名称骨干网络数据COCO数据集上的边界框AP检查点配置
1GroundingDINO-TSwin-TO365,GoldG,Cap4M48.4(零样本)/ 57.2(微调)GitHub链接 | HF链接链接
2GroundingDINO-BSwin-BCOCO,O365,GoldG,Cap4M,OpenImage,ODinW-35,RefCOCO56.7GitHub链接 | HF链接 链接

:medal_military: 结果

COCO目标检测结果 COCO
ODinW目标检测结果 ODinW
将Grounding DINO与Stable Diffusion结合用于图像编辑 查看我们的示例笔记本以获取更多详细信息。 GD_SD
将Grounding DINO与GLIGEN结合用于更详细的图像编辑 查看我们的示例笔记本以获取更多详细信息。 GD_GLIGEN

:sauropod: 模型:Grounding DINO

包括:文本骨干网络、图像骨干网络、特征增强器、语言引导的查询选择和跨模态解码器。

架构

:hearts: 致谢

我们的模型与DINOGLIP有关。感谢他们的出色工作!

我们还要感谢以下优秀的前期工作,包括DETR、Deformable DETR、SMCA、Conditional DETR、Anchor DETR、Dynamic DETR、DAB-DETR、DN-DETR等。更多相关工作可在Awesome Detection Transformer中找到。另外还有一个新的工具箱detrex可供使用。

感谢Stable DiffusionGLIGEN提供的出色模型。

:black_nib: 引用

如果您认为我们的工作对您的研究有帮助,请考虑引用以下BibTeX条目。

@article{liu2023grounding,
  title={Grounding dino: Marrying dino with grounded pre-training for open-set object detection},
  author={Liu, Shilong and Zeng, Zhaoyang and Ren, Tianhe and Li, Feng and Zhang, Hao and Yang, Jie and Li, Chunyuan and Yang, Jianwei and Su, Hang and Zhu, Jun and others},
  journal={arXiv preprint arXiv:2303.05499},
  year={2023}
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号