Segment-Everything-Everywhere-All-At-Once

Segment-Everything-Everywhere-All-At-Once

基于多模态提示的图像分割模型

SEEM是一种新型图像分割模型,支持多种交互方式如点击、框选、涂鸦、文本和音频提示。该模型可接受任意组合的提示输入,精确分割图像中的目标对象并赋予语义标签。SEEM采用统一架构,具备多模态交互、语义理解和泛化能力,为图像分割任务提供了灵活通用的解决方案。

SEEM分割多模态交互式图像处理Github开源项目

👀SEEM: 一次性分割一切事物

:grapes: [阅读我们的arXiv论文]   :apple: [体验我们的演示]

我们介绍了SEEM,它可以使用多模态提示一次性Segment Everything Everywhere with Multi-modal prompts(分割任何地方的任何事物)。SEEM允许用户使用不同类型的提示轻松分割图像,包括视觉提示(点、标记、框、涂鸦和图像分割)和语言提示(文本和音频)等。它还可以与任何组合的提示一起使用,或扩展到自定义提示!

作者:Xueyan Zou*Jianwei Yang*Hao Zhang*Feng Li*Linjie LiJianfeng WangLijuan WangJianfeng Gao^Yong Jae Lee^,发表于 NeurIPS 2023

简要介绍我们可以执行的所有通用和交互式分割任务!

SEEM设计

:rocket: 更新

:bookmark_tabs: 目录

我们为SEEM和X-Decoder发布以下内容:exclamation:

  • 演示代码
  • 模型检查点
  • 全面的用户指南
  • 训练代码
  • 评估代码

:point_right: Linux下的一键SEEM演示:

git clone git@github.com:UX-Decoder/Segment-Everything-Everywhere-All-At-Once.git && sh assets/scripts/run_demo.sh

:round_pushpin: [新] 入门指南:

  • INSTALL.md <br>
  • DATASET.md <br>
  • TRAIN.md <br>
  • EVAL.md :round_pushpin: [新] 最新检查点和数据: | | | | COCO | | | Ref-COCOg | | | VOC | | SBD | | |-----------------|---------------------------------------------------------------------------------------------|------------|------|------|------|-----------|------|------|-------|-------|-------|-------| | 方法 | 检查点 | 骨干网络 | PQ ↑ | mAP ↑ | mIoU ↑ | cIoU ↑ | mIoU ↑ | AP50 ↑ | NoC85 ↓ | NoC90 ↓| NoC85 ↓| NoC90 ↓| | X-Decoder | ckpt | Focal-T | 50.8 | 39.5 | 62.4 | 57.6 | 63.2 | 71.6 | - | - | - | - | | X-Decoder-oq201 | ckpt | Focal-L | 56.5 | 46.7 | 67.2 | 62.8 | 67.5 | 76.3 | - | - | - | - | | SEEM_v0 | ckpt | Focal-T | 50.6 | 39.4 | 60.9 | 58.5 | 63.5 | 71.6 | 3.54 | 4.59 | * | * | | SEEM_v0 | - | Davit-d3 | 56.2 | 46.8 | 65.3 | 63.2 | 68.3 | 76.6 | 2.99 | 3.89 | 5.93 | 9.23 | | SEEM_v0 | ckpt | Focal-L | 56.2 | 46.4 | 65.5 | 62.8 | 67.7 | 76.2 | 3.04 | 3.85 | * | * | | SEEM_v1 | ckpt | SAM-ViT-B | 52.0 | 43.5 | 60.2 | 54.1 | 62.2 | 69.3 | 2.53 | 3.23 | * | * | | SEEM_v1 | ckpt | SAM-ViT-L | 49.0 | 41.6 | 58.2 | 53.8 | 62.2 | 69.5 | 2.40 | 2.96 | * | * | | SEEM_v1 | ckpt/log | Focal-T | 50.8 | 39.4 | 60.7 | 58.5 | 63.7 | 72.0 | 3.19 | 4.13 | * | * | | SEEM_v1 | ckpt/log | Focal-L | 56.1 | 46.3 | 65.8 | 62.4 | 67.8 | 76.0 | 2.66 | 3.44 | * | * |

SEEM_v0: 支持单一交互对象的训练和推理 SEEM_v1: 支持多个交互对象的训练和推理

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/78551c4e-d96b-4a3c-83fb-ef604a2011b5.gif" width="400" /> <img src="https://yellow-cdn.veclightyear.com/835a84d5/252f56e7-be64-41da-b7a0-7d24fd1f40a1.gif" width="400" /> </div>

:fire: 相关项目:

  • FocalNetDaViT:我们使用FocalNet和DaViT作为视觉骨干网络。
  • UniCL:我们使用统一对比学习技术来学习图像-文本表示。
  • X-Decoder:我们基于X-Decoder构建了SEEM,X-Decoder是一个通用解码器,可以用一个模型完成多个任务。

:fire: 其他你可能感兴趣的项目:

  • Semantic-SAM,一个通用图像分割模型,可以在任何所需粒度下分割和识别任何物体
  • OpenSeed:强大的开放集分割方法。
  • Grounding SAM:结合Grounding DINO和Segment Anything;Grounding DINO:一个强大的开放集检测模型。
  • X-GPT:由X-Decoder支持的对话式视觉代理。
  • LLaVA:大型语言和视觉助手。

:bulb: 亮点

受到大语言模型中通用接口的启发,我们倡导单一模型实现任何类型分割的通用、交互式多模态接口。我们强调SEEM4个重要特征如下。

  1. 多功能性:适用于各种类型的提示,例如点击、框、多边形、涂鸦、文本和参考图像;
  2. 组合性:处理任何提示的组合;
  3. 交互性:与用户进行多轮交互,得益于SEEM的记忆提示存储会话历史;
  4. 语义感知:为任何预测的掩码提供语义标签;

:unicorn: 如何使用演示

  • 首先尝试我们的默认示例;
  • 上传一张图片;
  • 选择至少一种你喜欢的提示类型(如果你想使用另一张图片的参考区域,请选中"示例"并在参考图像面板中上传另一张图片);
  • 记得为你选择的每种提示类型提供实际提示,否则你会遇到错误(例如,记得在参考图像上绘画);
  • 我们的模型默认支持COCO 80类别的词汇表,其他类别将被归类为"其他"或被错误分类。如果你想使用开放词汇标签进行分割,请在画完涂鸦后在"文本"按钮中包含文本标签。
  • 点击"提交"并等待几秒钟。

:volcano: 一个有趣的例子

一个变形金刚的例子。参考图像是擎天柱的卡车形态。无论擎天柱是什么形态,我们的模型都能在目标图像中分割出擎天柱。感谢Hongyang Li提供这个有趣的例子。

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/dee60b45-b01e-4a4e-9709-b60100fca57f.png" width = "700" alt="assets/images/transformers_gh.png" align=center /> </div>

:tulip: NERF示例

  • SA3D中示例的启发,我们在NERF示例上尝试了SEEM,效果很好 :)
<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/8b956506-159a-4413-86f8-38d25f4f9376.gif" width="400" /> <img src="https://yellow-cdn.veclightyear.com/835a84d5/cb50fc80-469b-4cb6-8ae7-c9a80f9e8e98.gif" width="400" /> </div>

:camping: 点击、涂鸦生成遮罩

用户只需简单点击或涂抹,我们就能生成相应的遮罩及其类别标签。

SEEM设计

:mountain_snow: 文本生成遮罩

SEEM可以根据用户的文本输入生成遮罩,实现与人类的多模态交互。

示例

:mosque: 参考图像生成遮罩

在参考图像上简单点击或涂抹,模型就能在目标图像上分割出具有相似语义的物体。 示例

SEEM对空间关系的理解非常出色。看看这三只斑马!分割出的斑马与参考斑马的位置相似。例如,当上排最左边的斑马被指定时,下排最左边的斑马就被分割出来。 示例

:blossom: 参考图像生成视频遮罩

无需在视频数据上训练,SEEM可以完美地根据您指定的任何查询为视频分割! 示例

:sunflower: 音频生成遮罩

我们使用Whisper将音频转换为文本提示来分割物体。在我们的演示中试试吧!

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/7e58b3e1-fb72-4c54-938f-eaec08184fae.png" width = "900" alt="assets/images/audio.png" align=center /> </div>

:deciduous_tree: 不同风格的示例

分割表情包的示例。

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/72fb5f2a-2328-47d7-b74b-f554fd839b83.png" width = "500" alt="assets/images/emoj.png" align=center /> </div>

分割卡通风格树木的示例。

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/7a801832-9b43-49d8-a58c-a2d2a95c4b46.png" width = "700" alt="assets/images/trees_text.png" align=center /> </div>

分割Minecraft图像的示例。

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/db16c018-f923-4831-b006-43fda2c7175d.png" width = "700" alt="assets/images/minecraft.png" align=center /> </div>

在流行的泰迪熊上使用参考图像的示例。

示例

模型

SEEM设计

与SAM的比较

在下图中,我们比较了三种分割任务(边缘检测、开放集和交互式分割)的交互和语义水平。开放集分割通常需要较高的语义水平,但不需要交互。与SAM相比,SEEM涵盖了更广泛的交互和语义水平。例如,SAM仅支持有限的交互类型,如点和框,而由于它本身不输出语义标签,因此缺少高语义任务。原因如下:首先,SEEM有一个统一的提示编码器,将所有视觉和语言提示编码到一个联合表示空间中。因此,SEEM可以支持更广泛的用途。它有潜力扩展到自定义提示。其次,SEEM在文本到遮罩(基于定位的分割)方面表现出色,并输出具有语义意识的预测。

<div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/69999e91-f363-4e20-94d9-2d43449b88d7.jpg" width = "500" alt="assets/images/compare.jpg" align=center /> </div>

:cupid: 致谢

  • 我们感谢hugging face为演示提供的GPU支持!

编辑推荐精选

AEE

AEE

AI Excel全自动制表工具

AEE 在线 AI 全自动 Excel 编辑器,提供智能录入、自动公式、数据整理、图表生成等功能,高效处理 Excel 任务,提升办公效率。支持自动高亮数据、批量计算、不规则数据录入,适用于企业、教育、金融等多场景。

UI-TARS-desktop

UI-TARS-desktop

基于 UI-TARS 视觉语言模型的桌面应用,可通过自然语言控制计算机进行多模态操作。

UI-TARS-desktop 是一款功能强大的桌面应用,基于 UI-TARS(视觉语言模型)构建。它具备自然语言控制、截图与视觉识别、精确的鼠标键盘控制等功能,支持跨平台使用(Windows/MacOS),能提供实时反馈和状态显示,且数据完全本地处理,保障隐私安全。该应用集成了多种大语言模型和搜索方式,还可进行文件系统操作。适用于需要智能交互和自动化任务的场景,如信息检索、文件管理等。其提供了详细的文档,包括快速启动、部署、贡献指南和 SDK 使用说明等,方便开发者使用和扩展。

Wan2.1

Wan2.1

开源且先进的大规模视频生成模型项目

Wan2.1 是一个开源且先进的大规模视频生成模型项目,支持文本到图像、文本到视频、图像到视频等多种生成任务。它具备丰富的配置选项,可调整分辨率、扩散步数等参数,还能对提示词进行增强。使用了多种先进技术和工具,在视频和图像生成领域具有广泛应用前景,适合研究人员和开发者使用。

爱图表

爱图表

全流程 AI 驱动的数据可视化工具,助力用户轻松创作高颜值图表

爱图表(aitubiao.com)就是AI图表,是由镝数科技推出的一款创新型智能数据可视化平台,专注于为用户提供便捷的图表生成、数据分析和报告撰写服务。爱图表是中国首个在图表场景接入DeepSeek的产品。通过接入前沿的DeepSeek系列AI模型,爱图表结合强大的数据处理能力与智能化功能,致力于帮助职场人士高效处理和表达数据,提升工作效率和报告质量。

Qwen2.5-VL

Qwen2.5-VL

一款强大的视觉语言模型,支持图像和视频输入

Qwen2.5-VL 是一款强大的视觉语言模型,支持图像和视频输入,可用于多种场景,如商品特点总结、图像文字识别等。项目提供了 OpenAI API 服务、Web UI 示例等部署方式,还包含了视觉处理工具,有助于开发者快速集成和使用,提升工作效率。

HunyuanVideo

HunyuanVideo

HunyuanVideo 是一个可基于文本生成高质量图像和视频的项目。

HunyuanVideo 是一个专注于文本到图像及视频生成的项目。它具备强大的视频生成能力,支持多种分辨率和视频长度选择,能根据用户输入的文本生成逼真的图像和视频。使用先进的技术架构和算法,可灵活调整生成参数,满足不同场景的需求,是文本生成图像视频领域的优质工具。

WebUI for Browser Use

WebUI for Browser Use

一个基于 Gradio 构建的 WebUI,支持与浏览器智能体进行便捷交互。

WebUI for Browser Use 是一个强大的项目,它集成了多种大型语言模型,支持自定义浏览器使用,具备持久化浏览器会话等功能。用户可以通过简洁友好的界面轻松控制浏览器智能体完成各类任务,无论是数据提取、网页导航还是表单填写等操作都能高效实现,有利于提高工作效率和获取信息的便捷性。该项目适合开发者、研究人员以及需要自动化浏览器操作的人群使用,在 SEO 优化方面,其关键词涵盖浏览器使用、WebUI、大型语言模型集成等,有助于提高网页在搜索引擎中的曝光度。

xiaozhi-esp32

xiaozhi-esp32

基于 ESP32 的小智 AI 开发项目,支持多种网络连接与协议,实现语音交互等功能。

xiaozhi-esp32 是一个极具创新性的基于 ESP32 的开发项目,专注于人工智能语音交互领域。项目涵盖了丰富的功能,如网络连接、OTA 升级、设备激活等,同时支持多种语言。无论是开发爱好者还是专业开发者,都能借助该项目快速搭建起高效的 AI 语音交互系统,为智能设备开发提供强大助力。

olmocr

olmocr

一个用于 OCR 的项目,支持多种模型和服务器进行 PDF 到 Markdown 的转换,并提供测试和报告功能。

olmocr 是一个专注于光学字符识别(OCR)的 Python 项目,由 Allen Institute for Artificial Intelligence 开发。它支持多种模型和服务器,如 vllm、sglang、OpenAI 等,可将 PDF 文件的页面转换为 Markdown 格式。项目还提供了测试框架和 HTML 报告生成功能,方便用户对 OCR 结果进行评估和分析。适用于科研、文档处理等领域,有助于提高工作效率和准确性。

飞书多维表格

飞书多维表格

飞书多维表格 ×DeepSeek R1 满血版

飞书多维表格联合 DeepSeek R1 模型,提供 AI 自动化解决方案,支持批量写作、数据分析、跨模态处理等功能,适用于电商、短视频、影视创作等场景,提升企业生产力与创作效率。关键词:飞书多维表格、DeepSeek R1、AI 自动化、批量处理、企业协同工具。

下拉加载更多