Meta的Segment Anything Model 2 (SAM 2): 图像和视频分割的新突破

Ray

SAM 2简介

Meta AI最近发布了Segment Anything Model 2 (SAM 2),这是一个突破性的人工智能模型,旨在解决图像和视频中的可提示视觉分割问题。作为原始SAM模型的successor,SAM 2在多个方面都有显著改进,尤其是将视频分割能力整合到了一个统一的模型中。

SAM 2的核心思想是将图像视为单帧视频,从而将图像分割的能力无缝扩展到视频领域。该模型采用了简洁而强大的Transformer架构,并结合了流式内存机制,实现了实时的视频处理能力。

SAM 2 architecture

主要特性和优势

SAM 2相比原始SAM模型有以下几个显著的改进:

  1. 统一的图像和视频分割能力:SAM 2是首个能够同时处理图像和视频分割任务的统一模型。

  2. 实时视频处理:通过优化的架构设计,SAM 2能够以约44帧/秒的速度实时处理视频,使其适用于各种实时应用场景。

  3. 改进的交互性:SAM 2支持更高级的提示技术,包括使用掩码作为输入提示,提高了模型处理复杂场景的能力。

  4. 增强的记忆机制:SAM 2引入了基于会话的记忆模块,能够在视频帧之间跟踪目标对象,即使对象暂时消失也能保持连贯性。

  5. 灵活的提示和修正:用户可以在任何视频帧上添加提示或进行修正,模型会实时更新分割结果。

SA-V数据集

为了训练SAM 2,研究团队构建了迄今为止规模最大的视频分割数据集SA-V。该数据集包含:

  • 超过600,000个masklet注释
  • 跨越51,000个视频
  • 来自47个国家的地理多样性场景
  • 包括完整对象、部件和具有挑战性的遮挡情况

SA-V dataset

这个庞大而多样化的数据集使SAM 2能够在各种复杂场景中表现出色,具有很强的泛化能力。

性能和对比

SAM 2在多个基准测试中展现出卓越的性能:

  • 在图像分割任务上,SAM 2相比原始SAM模型准确度更高,速度提升了6倍。
  • 在视频对象分割任务上,SAM 2的表现优于现有的专门视频分割模型,特别是在跟踪物体部件方面。
  • 在交互式视频分割任务中,SAM 2所需的交互时间比现有方法少。

以下是不同规模SAM 2模型的性能对比:

模型参数量 (M)速度 (FPS)SA-V测试 (J&F)MOSE验证 (J&F)LVOS v2 (J&F)
sam2_hiera_tiny38.947.275.070.975.3
sam2_hiera_small4643.3 (53.0*)74.971.576.4
sam2_hiera_base_plus80.834.8 (43.8*)74.772.875.8
sam2_hiera_large224.424.2 (30.2*)76.074.679.8

*使用编译优化后的速度

应用场景

SAM 2的强大功能为多个领域带来了新的可能性:

  1. 创意产业:简化了图像和视频编辑中的对象选择、背景替换和高级合成等任务。

  2. 科学研究:在医学成像中精确识别和分离不同身体部位,或在环境研究中分析卫星图像。

  3. 自动驾驶:提高自动驾驶车辆感知系统的准确性,更好地识别和追踪行人、车辆和障碍物。

  4. 增强现实:通过实时精确跟踪对象,创造更加沉浸式的AR体验。

  5. AI模型训练:自动化大规模数据集的分割过程,提高训练数据的质量和效率。

开始使用SAM 2

要开始使用SAM 2,您需要按照以下步骤操作:

  1. 安装依赖:

    git clone https://github.com/facebookresearch/segment-anything-2.git
    cd segment-anything-2
    pip install -e .
    
  2. 下载模型权重:

    cd checkpoints
    ./download_ckpts.sh
    cd ..
    
  3. 使用示例代码进行图像或视频分割:

    图像分割:

    import torch
    from sam2.build_sam import build_sam2
    from sam2.sam2_image_predictor import SAM2ImagePredictor
    
    checkpoint = "./checkpoints/sam2_hiera_large.pt"
    model_cfg = "sam2_hiera_l.yaml"
    predictor = SAM2ImagePredictor(build_sam2(model_cfg, checkpoint))
    
    with torch.inference_mode(), torch.autocast("cuda", dtype=torch.bfloat16):
        predictor.set_image(<your_image>)
        masks, _, _ = predictor.predict(<input_prompts>)
    

    视频分割:

    import torch
    from sam2.build_sam import build_sam2_video_predictor
    
    checkpoint = "./checkpoints/sam2_hiera_large.pt"
    model_cfg = "sam2_hiera_l.yaml"
    predictor = build_sam2_video_predictor(model_cfg, checkpoint)
    
    with torch.inference_mode(), torch.autocast("cuda", dtype=torch.bfloat16):
        state = predictor.init_state(<your_video>)
        frame_idx, object_ids, masks = predictor.add_new_points_or_box(state, <your_prompts>)
        for frame_idx, object_ids, masks in predictor.propagate_in_video(state):
            # 处理每一帧的分割结果
    

更多详细示例和用法,请参考官方GitHub仓库中的Jupyter Notebook示例。

结论与展望

SAM 2代表了计算机视觉领域的重要进展,它将图像和视频分割任务统一到一个高效的模型中,为众多应用场景提供了新的可能性。随着研究人员和开发者开始探索SAM 2的潜力,我们可以期待看到更多创新性的应用出现。

然而,SAM 2也面临一些挑战和局限性。例如,在处理大幅度视角变化、长时间遮挡或复杂场景时可能需要额外的人工干预。此外,同时分割多个对象的效率还有提升空间。

未来的研究方向可能包括:

  • 进一步提高模型在复杂场景下的鲁棒性
  • 优化多对象同时分割的性能
  • 探索与其他AI技术(如生成式AI)的结合
  • 开发更多针对特定领域的应用和优化

总的来说,SAM 2为计算机视觉领域带来了令人兴奋的新可能性,它的开源性质也将推动整个AI社区的创新和进步。随着技术的不断发展,我们可以期待看到更多基于SAM 2的突破性应用出现在各个领域。

avatar
0
0
0
相关项目
Project Cover

Grounded-SAM-2

Grounded-SAM-2是一个开源项目,结合Grounding DINO和SAM 2技术,实现图像和视频中的目标检测、分割和跟踪。该项目支持自定义视频输入和多种提示类型,适用于广泛的视觉任务。通过简化代码实现和提供详细文档,Grounded-SAM-2提高了易用性。项目展示了开放世界模型在处理复杂视觉任务中的潜力,为研究人员和开发者提供了强大的工具。

Project Cover

segment-anything-2

SAM 2是Meta AI研发的图像和视频分割基础模型,扩展了SAM的功能。它采用transformer架构和流式内存,实现实时视频处理。通过模型循环数据引擎,研究团队构建了大规模视频分割数据集SA-V。SAM 2在多种视觉任务中展现出卓越性能,为计算机视觉领域带来新的可能。

Project Cover

sam2-hiera-small

SAM 2是FAIR推出的一款模型,专注于实现图像和视频的可提示视觉分割。官方代码库支持图像和视频预测任务,允许利用SAM2ImagePredictor生成图像遮罩,并使用SAM2VideoPredictor实现视频中遮罩的传播和处理。该模型在学术研究和工业应用中具有广泛功能。如需深入了解,可查阅相关论文和资源。

Project Cover

sam2-hiera-large

SAM2-hiera-large是FAIR开发的图像和视频分割基础模型,支持可提示的视觉分割任务。模型提供简单API,适用于图像和视频预测。通过添加提示点或边界框,用户可实时获取分割结果,并在视频中传播提示。该模型为计算机视觉研究和应用提供了新的可能性。

Project Cover

sam2-hiera-tiny

SAM 2模型提供图像和视频的可提示视觉分割功能,开源代码库支持图像和视频预测。通过提示实现精准的掩码生成及传播,在高效推理中表现出色。该项目适合视觉识别与处理领域的研究者和开发者进行应用。

最新项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号