#实例分割

labelme - Python图像标注工具,支持多种格式导出
Labelme图像标注Python实例分割语义分割Github开源项目
Labelme是一个Python图像标注工具,使用Qt构建界面,支持多边形、矩形、圆形、线条和点的标注,适用于图像分类、语义分割、实例分割和视频标注。提供GUI自定义功能,并支持导出VOC和COCO格式数据集。兼容Windows、macOS和Linux平台,安装简单,资源丰富,易于使用。
sahi - 支持小物体检测和大图像推理的轻量级视觉工具库
SAHI对象检测实例分割计算机视觉yolov5Github开源项目
SAHI是一款轻量级视觉工具库,专注于解决小物体检测和大图像推理难题,支持多种框架如YOLOv5、MMDetection和Detectron2。提供丰富的命令行工具及COCO数据集处理功能,适用于精细化的计算机视觉应用,特别在复杂图像处理中表现优异。通过多种教程和示例,帮助开发者快速上手并优化视觉任务。
ultralytics - 适用于对象检测、跟踪、实例分割和图像分类等多种应用场景的多功能对象检测模型
YOLOv8Ultralytics目标检测实例分割姿态估计Github开源项目
Ultralytics的YOLOv8是一款前沿对象识别模型,提供了与前代产品相比更优化的特性。适用于对象检测、跟踪、实例分割和图像分类等多种应用场景,其高速准确性和用户友好性使其成为AI领域开发者的优选。更多细节,请参阅官方文档或参与Discord社区互动。
MIMDet - 掩码图像建模应用于目标检测的开源项目
MIMDet物体检测视觉变换器实例分割卷积神经网络Github开源项目
MIMDet是一个利用掩码图像建模技术的开源项目,能够提升预训练的Vanilla Vision Transformer在目标检测中的表现。此框架采用混合架构,用随机初始化的卷积体系取代预训练的大核Patchify体系,实现多尺度表示无需上采样。在COCO数据集上的表现亮眼,使用ViT-Base和Mask R-CNN模型时,分别达到51.7的框AP和46.2的掩码AP;使用ViT-L模型时,成绩分别是54.3的框AP和48.2的掩码AP。
ComfyUI-YoloWorld-EfficientSAM - YOLO-World + EfficientSAM for ComfyUI 的非官方实现,提供高效的对象检测与实例分割功能
YOLO-WorldEfficientSAM对象检测实例分割ComfyUIGithub开源项目
该项目非官方实现了YOLO-World和EfficientSAM,通过融合这两个模型,提供高效的对象检测与实例分割功能。版本V2.0新增了蒙版分离与提取功能,支持指定蒙版单独输出,可处理图像和视频。项目特点包括支持加载多种YOLO-World和EfficientSAM模型,提供检测框厚度、置信度阈值、IoU阈值等配置选项,以提升检测与分割的精准性。详细的视频演示和安装指南,使用户能够轻松上手,体验高效的图像处理能力。
QueryInst - 简洁高效的实例分割策略
QueryInst实例分割mmdetectionCOCO数据集目标检测Github开源项目
QueryInst是一种由动态掩码头并行监督驱动的查询实例分割方法,在准确性和速度上具有显著优势。该项目涵盖对象检测、实例分割和视频实例分割等多种实例级别识别任务,并提供详细的功能介绍和模型训练指导。目前本项目仍在积极开发中,计划扩展至更多实例级别识别任务。
mmyolo - YOLO算法与实时对象识别工具包
OpenMMLabMMYOLOYOLO系列算法实例分割目标检测Github开源项目
MMYOLO是一个基于PyTorch和MMDetection的开源工具包,专注于YOLO系列算法,适用于对象检测和旋转对象检测任务。该项目提供统一的基准测试、详细文档和模块化设计,便于用户构建和扩展模型。支持YOLOv5实例分割和YOLOX-Pose等功能,显著提升训练速度,并在RTMDet模型上实现了先进的性能。
GLEE - 实现多任务图像和视频处理的通用视觉基础模型
GLEE计算机视觉目标检测实例分割多任务模型Github开源项目
GLEE是一个通用对象基础模型,在超过1000万张来自多个数据集的图像上进行联合训练。该模型能同时处理多种以对象为中心的视觉任务,并在多个基准测试中保持领先性能。GLEE具有出色的通用性和零样本迁移能力,可作为增强其他架构或模型的基础组件。这项研究被CVPR2024接受为亮点论文,研究团队计划开源相关代码和预训练模型。
ISBNet - 高效准确的3D点云实例分割网络实现先进场景理解
3D点云实例分割ISBNet深度学习计算机视觉Github开源项目
ISBNet是一种创新的3D点云实例分割网络,采用实例感知采样和框感知动态卷积技术。通过多任务学习方法和轴对齐边界框预测,ISBNet在ScanNetV2、S3DIS和STPLS3D等数据集上实现了领先的分割精度,同时保持快速推理速度。该方法有效解决了密集场景中相同语义类别物体的分割问题,为3D场景理解提供了新的解决方案。
AdelaiDet - 多任务实例级识别开源工具包
实例分割目标检测计算机视觉深度学习AdelaiDetGithub开源项目
AdelaiDet是基于Detectron2的开源工具包,实现了FCOS、BlendMask、MEInst、ABCNet等多种实例级识别算法。它为目标检测、实例分割、场景文本识别等任务提供高性能解决方案,包含预训练模型和训练接口,便于研究和开发。
YOLO-Patch-Based-Inference - 补丁式推理优化小物体检测和实例分割
YOLO深度学习实例分割目标检测计算机视觉Github开源项目
这个Python库实现了基于补丁的推理方法,用于改进小物体检测和实例分割。它支持多种Ultralytics模型,包括YOLOv8/v9/v10、FastSAM和RTDETR,可用于对象检测和实例分割任务。库提供了推理结果可视化功能,并通过优化的补丁处理和结果合并提高了小物体检测准确性。项目还包含交互式笔记本和教程,方便用户学习和使用。
ffn - 专为大脑组织体积EM数据集实例分割的神经网络
Flood-Filling Networks实例分割神经网络TensorFlow图像处理Github开源项目
Flood-Filling Networks (FFNs) 是一种专为复杂大型形状实例分割设计的神经网络模型,特别适用于大脑组织的体积电子显微镜数据集。FFN模型在处理大规模、高分辨率的神经影像数据时表现出色,能够准确识别和分割复杂的神经元结构。该开源项目在FIB-25数据集上展现了优秀性能,为神经科学研究提供了强大的分割工具,适合需要高精度神经元分割的研究人员使用。
panoptic-segment-anything - 零样本全景分割融合SAM、Grounding DINO和CLIPSeg的创新方法
SAM零样本全景分割Grounding DINOCLIPSeg实例分割Github开源项目
panoptic-segment-anything项目提出了一种创新的零样本全景分割方法。该方法巧妙结合Segment Anything Model (SAM)、Grounding DINO和CLIPSeg三个模型,克服了SAM在文本感知和语义分割方面的局限性。项目提供Colab notebook和Hugging Face Spaces上的Gradio演示,方便用户体验这一pipeline。此外,预测结果可上传至Segments.ai进行微调,为计算机视觉研究开辟了新的可能性。
mask2former-swin-large-coco-instance - 使用Swin骨干的高效图像分割Transformer模型
图像分割Github模型开源项目COCOMask2FormerHuggingface语义分割实例分割
Mask2Former在COCO数据集上的实例分割中表现出色,采用Swin骨干网,通过掩码预测和标签分类统一处理多种分割任务。相比MaskFormer,其改进的多尺度变形注意力机制提升了性能,并且不增加计算量的情况下优化了训练效率。此模型可以用于实例分割,提供多种微调版本供不同需求使用。
oneformer_coco_swin_large - 单一模型实现多任务图像分割
模型语义分割实例分割GithubOneFormer图像分割多任务模型Huggingface开源项目
OneFormer COCO Swin Large是一款基于COCO数据集训练的多任务图像分割模型。它采用单一架构,通过一次训练就能在语义、实例和全景分割任务中表现出色。模型利用任务令牌技术实现训练引导和动态推理,提供了高效的图像分割方案。此外,它还提供了便捷的API接口,适合各类研究和开发需求。
oneformer_ade20k_swin_large - OneFormer 多任务通用图像分割模型
模型语义分割全景分割实例分割GithubOneFormer图像分割Huggingface开源项目
OneFormer是一个基于ADE20k数据集和Swin大型骨干网络训练的通用图像分割框架。它通过单一模型和单次训练,实现了语义、实例和全景分割多任务处理,性能超越现有专用模型。该模型采用任务令牌技术,实现了训练时的任务引导和推理时的任务动态适应。OneFormer为图像分割领域带来了新的解决方案,可应用于多种图像分割任务。
mask2former-swin-tiny-coco-instance - Mask2Former模型:统一处理实例、语义和全景图像分割
模型Github图像分割实例分割开源项目HuggingfaceMask2Former计算机视觉深度学习
Mask2Former是一个先进的图像分割模型,基于Swin骨干网络在COCO数据集上训练。它采用统一的方法处理实例、语义和全景分割任务,通过预测掩码和标签来完成分割。该模型引入多尺度可变形注意力Transformer和掩码注意力Transformer解码器,在性能和效率上超越了先前的MaskFormer模型。Mask2Former提供了简单的使用方法和代码示例,方便研究人员和开发者在图像分割领域进行应用和研究。
oneformer_ade20k_swin_tiny - 通过单一模型实现多任务图像分割的统一框架
图像分割实例分割模型深度学习OneFormerGithub语义分割Huggingface开源项目
OneFormer通过单一架构实现语义、实例和全景分割的统一处理。基于ADE20k数据集训练并采用Swin主干网络,这个紧凑型模型仅需一次训练即可完成多种图像分割任务。其独特的任务令牌机制实现了训练引导和推理动态化,为图像分割领域提供了高效的解决方案。
maskformer-swin-large-ade - MaskFormer模型提升语义分割效率与精确度的创新方案
实例分割开源项目模型Huggingfacepanoptic分割语义分割ADE20kMaskFormerGithub
MaskFormer通过ADE20k数据集训练,利用Swin结构提升语义、实例和全景分割性能。该模型适用于多种分割任务,采用统一的掩码及标签预测方式处理三类分割,促进图像细分任务的研究和应用,如建筑物和场景的精确分割。项目由Hugging Face团队支持,可在模型中心找到其他版本进行适用性调优。
oneformer_ade20k_dinat_large - OneFormer单一模型在多任务图像分割中实现卓越表现
语义分割实例分割OneFormer图像分割模型Github开源项目ADE20kHuggingface
OneFormer模型借助单一架构和模块在ADE20k数据集上进行训练,适用于语义、实例和全景分割。通过使用任务令牌,该模型能够动态调整以满足不同任务要求,不仅显著优化了分割效果,还具备替代专门化模型的潜力。