#视频分割
segment-anything-2
SAM 2是Meta AI研发的图像和视频分割基础模型,扩展了SAM的功能。它采用transformer架构和流式内存,实现实时视频处理。通过模型循环数据引擎,研究团队构建了大规模视频分割数据集SA-V。SAM 2在多种视觉任务中展现出卓越性能,为计算机视觉领域带来新的可能。
MeViS
MeViS是一个专注于运动表达引导目标分割的大规模视频数据集。它包含2,006个视频和28,570个描述性句子,为开发利用运动表达进行复杂视频场景分割的算法提供了平台。该数据集突出了运动在语言引导视频目标分割中的重要性,为相关研究提供了新的基准。
Segment-and-Track-Anything
Segment-and-Track-Anything是一个专注于视频中任意对象分割和追踪的开源项目。该系统集成了SAM模型的关键帧分割能力和DeAOT模型的多目标追踪功能。它支持自动检测新对象、交互式修改、文本提示等多种操作模式,适用于街景分析、增强现实、细胞追踪等领域。项目提供了直观的WebUI界面和灵活的参数设置,使用户能够轻松实现复杂的视频对象分割和追踪任务。
XMem2
XMem2是一个开源的交互式视频分割工具,通过永久记忆模块和创新帧选择算法,只需少量标注即可实现高质量分割。它能以30+ FPS的速度处理物体部件、流体、可变形物体等复杂场景。XMem2提供改进的GUI和Python接口,适用于电影制作等领域。项目还包含PUMaVOS数据集,涵盖23个具挑战性的视频分割场景。
sam2-hiera-small
SAM 2是FAIR推出的一款模型,专注于实现图像和视频的可提示视觉分割。官方代码库支持图像和视频预测任务,允许利用SAM2ImagePredictor生成图像遮罩,并使用SAM2VideoPredictor实现视频中遮罩的传播和处理。该模型在学术研究和工业应用中具有广泛功能。如需深入了解,可查阅相关论文和资源。
sam2-hiera-large
SAM2-hiera-large是FAIR开发的图像和视频分割基础模型,支持可提示的视觉分割任务。模型提供简单API,适用于图像和视频预测。通过添加提示点或边界框,用户可实时获取分割结果,并在视频中传播提示。该模型为计算机视觉研究和应用提供了新的可能性。
sam2-hiera-tiny
SAM 2模型提供图像和视频的可提示视觉分割功能,开源代码库支持图像和视频预测。通过提示实现精准的掩码生成及传播,在高效推理中表现出色。该项目适合视觉识别与处理领域的研究者和开发者进行应用。
sam2.1-hiera-large
sam2.1-hiera-large是Meta AI推出的SAM 2项目的核心模型,专注于图像和视频的智能分割任务。模型支持图像和视频预测功能,可通过Python接口快速集成。基于提示式交互,模型能实现自动生成分割掩码,在需要精确物体分割的计算机视觉应用中具有广泛应用价值。