#视频分割

segment-anything-2 - 新一代图像和视频分割基础模型
SAM 2图像分割视频分割AI模型计算机视觉Github开源项目
SAM 2是Meta AI研发的图像和视频分割基础模型,扩展了SAM的功能。它采用transformer架构和流式内存,实现实时视频处理。通过模型循环数据引擎,研究团队构建了大规模视频分割数据集SA-V。SAM 2在多种视觉任务中展现出卓越性能,为计算机视觉领域带来新的可能。
MeViS - 基于运动表达的大规模视频目标分割数据集
MeViS视频分割运动表达数据集基准测试Github开源项目
MeViS是一个专注于运动表达引导目标分割的大规模视频数据集。它包含2,006个视频和28,570个描述性句子,为开发利用运动表达进行复杂视频场景分割的算法提供了平台。该数据集突出了运动在语言引导视频目标分割中的重要性,为相关研究提供了新的基准。
Segment-and-Track-Anything - 视频中任意对象的自动分割与追踪系统
SAM-Track视频分割目标跟踪交互式分割AI视觉Github开源项目
Segment-and-Track-Anything是一个专注于视频中任意对象分割和追踪的开源项目。该系统集成了SAM模型的关键帧分割能力和DeAOT模型的多目标追踪功能。它支持自动检测新对象、交互式修改、文本提示等多种操作模式,适用于街景分析、增强现实、细胞追踪等领域。项目提供了直观的WebUI界面和灵活的参数设置,使用户能够轻松实现复杂的视频对象分割和追踪任务。
XMem2 - 少量标注实现高精度视频分割的开源工具
XMem++视频分割人工智能计算机视觉交互式标注Github开源项目
XMem2是一个开源的交互式视频分割工具,通过永久记忆模块和创新帧选择算法,只需少量标注即可实现高质量分割。它能以30+ FPS的速度处理物体部件、流体、可变形物体等复杂场景。XMem2提供改进的GUI和Python接口,适用于电影制作等领域。项目还包含PUMaVOS数据集,涵盖23个具挑战性的视频分割场景。
sam2-hiera-small - 下一代图像和视频可提示视觉分割技术
视觉分割开源项目FAIR模型HuggingfaceSAM 2图像分割视频分割Github
SAM 2是FAIR推出的一款模型,专注于实现图像和视频的可提示视觉分割。官方代码库支持图像和视频预测任务,允许利用SAM2ImagePredictor生成图像遮罩,并使用SAM2VideoPredictor实现视频中遮罩的传播和处理。该模型在学术研究和工业应用中具有广泛功能。如需深入了解,可查阅相关论文和资源。
sam2-hiera-large - SAM2模型实现图像和视频智能分割
模型视频分割计算机视觉Github图像分割开源项目Huggingface机器学习SAM 2
SAM2-hiera-large是FAIR开发的图像和视频分割基础模型,支持可提示的视觉分割任务。模型提供简单API,适用于图像和视频预测。通过添加提示点或边界框,用户可实时获取分割结果,并在视频中传播提示。该模型为计算机视觉研究和应用提供了新的可能性。
sam2-hiera-tiny - 提供图像和视频分割功能的开放源码基础模型
视觉分割SAM 2深度学习图像分割HuggingfaceGithub开源项目模型视频分割
SAM 2模型提供图像和视频的可提示视觉分割功能,开源代码库支持图像和视频预测。通过提示实现精准的掩码生成及传播,在高效推理中表现出色。该项目适合视觉识别与处理领域的研究者和开发者进行应用。
sam2.1-hiera-large - Meta开源的新一代图像视频智能分割模型
计算机视觉Github开源项目模型Huggingface图像分割视频分割SAM2机器学习
sam2.1-hiera-large是Meta AI推出的SAM 2项目的核心模型,专注于图像和视频的智能分割任务。模型支持图像和视频预测功能,可通过Python接口快速集成。基于提示式交互,模型能实现自动生成分割掩码,在需要精确物体分割的计算机视觉应用中具有广泛应用价值。