#图像分割

UNetPlusPlus - 嵌套U-Net架构优化医学图像分割
UNet++图像分割医学影像深度学习卷积神经网络Github开源项目
UNet++是一种改进的医学图像分割架构,通过重新设计跳跃连接和密集连接解码器,解决了U-Net的架构深度和连接设计问题。项目提供Keras和PyTorch实现,并获得多个第三方支持。UNet++在医学图像分割任务中表现优异,为研究提供了有力工具。该项目已在GitHub开源,欢迎研究者使用和贡献。
nnUNet - 自适应医学图像分割深度学习框架
nnU-Net图像分割深度学习医学影像自动化Github开源项目
nnUNet是一个自适应深度学习框架,专注于医学图像分割。它可自动分析训练数据并优化U-Net分割流程,无需专业知识即可使用。支持2D和3D图像,处理多种模态和输入通道,并能应对不平衡类别分布。在多个生物医学图像分割挑战中表现出色,广泛用作基线方法和开发框架。适用于领域科学家和AI研究人员,为医学图像分析提供强大支持。
pytorch_connectomics - PyTorch Connectomics加速大脑神经连接图谱构建
PyTorch Connectomics深度学习框架连接组学图像分割神经连接重建Github开源项目
PyTorch Connectomics是一个面向神经科学领域的开源深度学习框架,专门用于处理电子显微镜采集的大脑图像数据。该框架支持连接组学中的自动和半自动语义及实例分割,提供多任务学习、主动学习和半监督学习功能。它采用分布式和混合精度优化技术,能高效处理大规模数据集。框架包含多种编码器-解码器架构,如定制3D UNet和特征金字塔网络模型,并提供全面的体积数据增强功能。由哈佛大学视觉计算组维护,PyTorch Connectomics致力于加速大脑神经连接图谱的重建过程。
Geo-SAM - 地理图像实时分割QGIS插件,实现毫秒级响应
Geo SAMQGIS插件图像分割遥感图像SAM模型Github开源项目
Geo-SAM是一个基于Segment Anything Model的QGIS插件,用于地理空间图像分割和地貌标记。通过预编码图像特征和精简模型,实现普通笔记本CPU上毫秒级的实时交互式分割。插件包含图像编码和交互式分割两个模块,支持多波段图像处理,无需编程即可使用。Geo-SAM提高了地理图像处理效率,为地理空间分析提供了便捷工具。
awesome-camouflaged-object-detection - 伪装物体检测研究进展综述与资源汇总
伪装物体检测计算机视觉深度学习图像分割数据集Github开源项目
本项目全面总结伪装物体检测(COD)领域的研究进展,涵盖检测、分割、场景理解等方向。汇集顶级论文、数据集和代码资源,定期更新最新成果。为研究人员提供了解COD前沿进展的重要参考。
Awesome-Transformer-in-Medical-Imaging - Transformer在医学图像分析中的应用进展综述
Vision Transformer医学图像分析图像分割图像分类深度学习Github开源项目
本项目整理了Transformer模型在医学图像分析中的最新研究进展。内容涵盖图像分类、分割、重建、合成等多个领域,系统地归纳和分类了相关论文。项目提供了医学图像分析中Transformer应用的分类体系,详细的参考文献,以及开源代码库链接,为研究人员提供了全面的学习和实践资源。
LibtorchSegmentation - 高性能C++图像分割库
LibTorch图像分割神经网络C++库预训练模型Github开源项目
LibtorchSegmentation是基于LibTorch的C++图像分割库,提供高级API和多种模型架构。支持15种预训练编码器,推理速度比PyTorch CUDA快35%。该库简单易用yet功能强大,适合快速开发和部署各类图像分割应用。
Entity - 开源工具箱实现开放世界高质量图像分割
EntitySeg图像分割开源工具箱高质量分割开放世界分割Github开源项目
EntitySeg是一个专注于开放世界和高质量图像分割的开源工具箱。它集成了多种前沿算法,如开放世界实体分割、超高分辨率图像分割和类别无关半监督学习。该工具箱支持多个研究项目,应用范围广泛,从基础图像分割到复杂场景理解。EntitySeg为计算机视觉领域的研究人员和开发者提供了实用的工具和资源。
sam2-hiera-small - 下一代图像和视频可提示视觉分割技术
视觉分割开源项目FAIR模型HuggingfaceSAM 2图像分割视频分割Github
SAM 2是FAIR推出的一款模型,专注于实现图像和视频的可提示视觉分割。官方代码库支持图像和视频预测任务,允许利用SAM2ImagePredictor生成图像遮罩,并使用SAM2VideoPredictor实现视频中遮罩的传播和处理。该模型在学术研究和工业应用中具有广泛功能。如需深入了解,可查阅相关论文和资源。
Awesome-Anything - 通用AI方法的精选资源库
Segment Anything人工智能计算机视觉图像分割目标检测Github开源项目
Awesome-Anything是一个精选的通用人工智能资源库,涵盖对象分割、图像生成、3D处理、模型优化和多任务学习等领域。该项目汇集了各种创新技术和工具,为AI研究和开发提供全面支持,助力人工智能技术的进步。
mask2former-swin-large-coco-instance - 使用Swin骨干的高效图像分割Transformer模型
图像分割Github模型开源项目COCOMask2FormerHuggingface语义分割实例分割
Mask2Former在COCO数据集上的实例分割中表现出色,采用Swin骨干网,通过掩码预测和标签分类统一处理多种分割任务。相比MaskFormer,其改进的多尺度变形注意力机制提升了性能,并且不增加计算量的情况下优化了训练效率。此模型可以用于实例分割,提供多种微调版本供不同需求使用。
segformer-b2-finetuned-ade-512-512 - SegFormer模型实现高效语义分割的新方法
视觉TransformerHugging Face图像分割SegFormerGithub模型开源项目Huggingface
SegFormer模型在ADE20K数据集上微调,支持512x512分辨率图像的语义分割,由层次Transformer编码器和轻量级MLP解码头构成,适用于ADE20K和Cityscapes等基准。模型先在ImageNet-1k上预训练,再在下游任务上微调,适合多种分割任务。
segformer_b3_clothes - SegFormer B3基于ATR数据集微调的服装和人体分割模型
语义分割Huggingface模型Github开源项目人体解析SegFormer图像分割衣物识别
SegFormer B3 Clothes是基于ATR数据集微调的服装和人体分割模型,可识别18个类别,包括背景、帽子、头发等。模型平均准确率80%,平均IoU 69%,在背景、头发和人脸等关键类别表现尤为出色。适用于多种服装分析和一般人体分割任务。提供简单API接口和训练代码,便于快速集成应用或进一步优化。
segformer-b3-fashion - 高效精准的时尚服饰语义分割模型
计算机视觉Huggingface模型深度学习Github开源项目SegFormer图像分割服装识别
SegFormer-b3-fashion是一个基于SegFormer架构的语义分割模型,针对时尚服饰领域进行了优化。该模型可识别和分割图像中46种不同的服饰元素,涵盖衣物、配饰和细节特征。它采用transformer技术,在保持精确度的同时提供高效设计,适用于时尚分析和虚拟试衣等应用场景。
upernet-convnext-small - 高效语义分割框架融合ConvNeXt技术
模型语义分割计算机视觉GithubConvNeXtUperNet图像分割Huggingface开源项目
UperNet是一种结合ConvNeXt骨干网络的语义分割框架,融合了特征金字塔网络(FPN)和金字塔池化模块(PPM)。它能为每个像素生成语义标签,适用于场景理解和图像分割等计算机视觉任务。该模型提供多种预训练版本,可根据具体需求应用于不同场景。UperNet的设计旨在提高语义分割的准确性和效率,为研究人员和开发者提供了强大的图像分析工具。
oneformer_coco_swin_large - 单一模型实现多任务图像分割
模型语义分割实例分割GithubOneFormer图像分割多任务模型Huggingface开源项目
OneFormer COCO Swin Large是一款基于COCO数据集训练的多任务图像分割模型。它采用单一架构,通过一次训练就能在语义、实例和全景分割任务中表现出色。模型利用任务令牌技术实现训练引导和动态推理,提供了高效的图像分割方案。此外,它还提供了便捷的API接口,适合各类研究和开发需求。
oneformer_ade20k_swin_large - OneFormer 多任务通用图像分割模型
模型语义分割全景分割实例分割GithubOneFormer图像分割Huggingface开源项目
OneFormer是一个基于ADE20k数据集和Swin大型骨干网络训练的通用图像分割框架。它通过单一模型和单次训练,实现了语义、实例和全景分割多任务处理,性能超越现有专用模型。该模型采用任务令牌技术,实现了训练时的任务引导和推理时的任务动态适应。OneFormer为图像分割领域带来了新的解决方案,可应用于多种图像分割任务。
evf-sam2-multitask - 创新视觉语言融合技术提升文本引导图像分割效果
Huggingface模型深度学习人工智能EVF-SAMGithub开源项目视觉语言融合图像分割
EVF-SAM项目引入了早期视觉语言融合技术,旨在优化文本引导的图像分割任务。通过有效结合视觉与语言信息,该技术显著提升了分割的精确度和效率。项目提供了模型检查点,使用者可通过源代码中的'inference.py'文件了解具体应用方法。值得注意的是,当前版本需要从源代码直接导入模型脚本,尚不支持'AutoModel.from_pretrained(...)'功能。
mask2former-swin-tiny-coco-instance - Mask2Former模型:统一处理实例、语义和全景图像分割
模型Github图像分割实例分割开源项目HuggingfaceMask2Former计算机视觉深度学习
Mask2Former是一个先进的图像分割模型,基于Swin骨干网络在COCO数据集上训练。它采用统一的方法处理实例、语义和全景分割任务,通过预测掩码和标签来完成分割。该模型引入多尺度可变形注意力Transformer和掩码注意力Transformer解码器,在性能和效率上超越了先前的MaskFormer模型。Mask2Former提供了简单的使用方法和代码示例,方便研究人员和开发者在图像分割领域进行应用和研究。
mask2former-swin-large-ade-semantic - Mask2Former:统一架构实现多类型图像分割
模型Github图像分割语义分割开源项目HuggingfaceTransformerMask2Former计算机视觉
Mask2Former-Swin-Large-ADE-Semantic是一款先进的图像分割模型,基于Swin backbone构建并在ADE20k数据集上训练。该模型采用统一架构处理实例、语义和全景分割任务,通过预测掩码和标签集实现多类型分割。其核心优势在于采用改进的多尺度可变形注意力Transformer和掩码注意力Transformer解码器,在性能和效率方面均优于前代MaskFormer模型。Mask2Former适用于广泛的图像分割场景,能够提供精确的分割结果。
GLaMM-GranD-Pretrained - 基于GranD数据集的区域级理解和分割预训练模型
模型计算机视觉Github深度学习图像分割GLaMM-GranD-Pretrained大规模数据集Huggingface开源项目
GLaMM-GranD-Pretrained是基于GranD数据集预训练的模型,专注于区域级理解和分割掩码生成。GranD数据集包含7.5百万个独特概念和810百万个带分割掩码的区域,通过自动化注释流程生成。该模型为计算机视觉任务提供高级像素分割能力。研究者可通过GitHub或Hugging Face获取模型,并参考相关论文和项目页面深入了解。
evf-sam2 - EVF-SAM优化文本引导的Segment Anything Model性能
模型Github图像分割视觉语言融合开源项目HuggingfaceEVF-SAM计算机视觉深度学习
EVF-SAM项目利用早期视觉语言融合技术,提高了文本引导的Segment Anything Model性能。该开源项目为图像和视频分割任务提供解决方案,支持文本提示输入。用户可在GitHub获取源代码,通过inference.py和inference_video.py文件了解使用方法。目前需从源代码导入模型脚本,尚不支持AutoModel.from_pretrained(...)功能。
SlimSAM-uniform-77 - 高效压缩分割模型实现接近原始SAM性能
模型Github图像分割SlimSAM开源项目Huggingface模型压缩计算机视觉深度学习
SlimSAM是一种创新的SAM压缩方法,通过剪枝-蒸馏框架高效重用预训练模型。该方法采用交替细化策略和无标签剪枝准则,将模型参数减至原始SAM-H的0.9%,计算量减至0.8%,仅使用0.1%的训练数据。与其他压缩方法相比,SlimSAM在使用更少训练数据的情况下实现了优越性能。
mask2former-swin-large-mapillary-vistas-panoptic - Mask2Former:集实例、语义和全景分割于一体的图像分割模型
语义分割计算机视觉Huggingface模型深度学习Mask2FormerGithub开源项目图像分割
Mask2Former是一个基于Swin主干网络的高级图像分割模型,在Mapillary Vistas数据集上训练用于全景分割。它通过预测掩码和标签集合,统一处理实例、语义和全景分割任务。该模型采用改进的Transformer架构和高效训练策略,性能和效率均优于先前的MaskFormer。Mask2Former为各类图像分割应用提供了强大支持,推动了计算机视觉技术的进步。
seggpt-vit-large - 基于上下文的单次图像分割解决方案
图像分割GithubSegGPT模型开源项目TransformerHuggingface生成模型语义分割
SegGPT项目采用了类似GPT的Transformer模型,它可以在提供输入图像和提示的情况下生成分割掩码,并在COCO-20和FSS-1000数据集上实现了优异的单次图像分割效果。此模型适合用于需要高精度和上下文整合的图像分割应用场景。
sam2-hiera-tiny - 提供图像和视频分割功能的开放源码基础模型
视觉分割SAM 2深度学习图像分割HuggingfaceGithub开源项目模型视频分割
SAM 2模型提供图像和视频的可提示视觉分割功能,开源代码库支持图像和视频预测。通过提示实现精准的掩码生成及传播,在高效推理中表现出色。该项目适合视觉识别与处理领域的研究者和开发者进行应用。
control_v11p_sd15_seg - 利用图像分割提高Stable Diffusion模型的控制策略
扩散模型开源项目图像生成模型ControlNet人工智能图像分割HuggingfaceGithub
ControlNet最新版本利用图像分割为预训练的扩散模型提供条件控制,具备在小数据集上进行端到端任务学习的能力,具有强大的鲁棒性。结合Stable Diffusion v1.5,该模型通过分割图提供附加条件,丰富控制方法。可在个人设备和大型计算集群上处理不同规模的数据,提升训练效率。
yolov8m-building-segmentation - 卫星图像中YOLOv8建筑物分割的精准实现
开源项目YOLOv8模型Github卫星建筑分割图像分割Huggingfaceultralyticsplus
该模型专注于通过Yolov8m实现卫星图像中建筑物的精准分割,借助PyTorch以提高分析准确性,mAP@0.5的精度分别为0.62261和0.61275。使用ultralyticsplus库及Python示例可实现快速图像加载与预测,适合高精度建筑物分割的应用需求。
oneformer_ade20k_swin_tiny - 通过单一模型实现多任务图像分割的统一框架
图像分割实例分割模型深度学习OneFormerGithub语义分割Huggingface开源项目
OneFormer通过单一架构实现语义、实例和全景分割的统一处理。基于ADE20k数据集训练并采用Swin主干网络,这个紧凑型模型仅需一次训练即可完成多种图像分割任务。其独特的任务令牌机制实现了训练引导和推理动态化,为图像分割领域提供了高效的解决方案。
mask2former-swin-large-coco-panoptic - 基于Transformer架构的高效图像分割模型
开源项目深度学习图像分割视觉模型模型Mask2FormerGithubCOCO数据集Huggingface
Mask2Former-Swin-Large是一个基于COCO数据集训练的图像分割模型,通过多尺度可变形注意力和掩码注意力机制,实现了实例、语义和全景分割的统一处理。相比MaskFormer具有更高的性能和计算效率
mask2former-swin-small-coco-instance - 基于Transformer架构的统一图像分割框架
Huggingface语义识别图像分割Mask2Former模型Github模型训练开源项目机器视觉
Mask2Former是一个基于COCO数据集的图像分割模型,采用Swin-Small作为基础架构。通过统一的掩码预测方法实现实例、语义和全景分割功能。该模型创新性地结合多尺度可变形注意力机制和掩码注意力技术,优化了计算效率。采用子采样点损失计算策略,使训练过程更加高效。
mit-b1 - SegFormer分层Transformer编码器用于语义分割
机器学习图像分割GithubSegFormerHuggingface语义分割开源项目模型Transformer
mit-b1是SegFormer模型的预训练编码器,采用分层Transformer结构,在ImageNet-1k数据集上完成预训练。该模型主要用于语义分割任务的微调,可通过添加轻量级全MLP解码头实现。mit-b1在ADE20K和Cityscapes等基准测试中表现优异,为语义分割提供了高效的特征提取能力,适用于多种下游任务。
segformer-b1-finetuned-cityscapes-1024-1024 - SegFormer模型在语义分割中的高效应用
Github图像分割开源项目SegFormerHugging FaceTransformerHuggingfaceCityscapes模型
SegFormer模型在CityScapes数据集上进行了微调,使用Transformer结构和轻量级MLP解码头实现高效的图像语义分割。适用于图像分割领域的研究者和开发者,可通过Python代码轻松使用。该模型支持高分辨率图像处理,展示了Transformer的潜力。
sam2.1-hiera-large - Meta开源的新一代图像视频智能分割模型
计算机视觉Github开源项目模型Huggingface图像分割视频分割SAM2机器学习
sam2.1-hiera-large是Meta AI推出的SAM 2项目的核心模型,专注于图像和视频的智能分割任务。模型支持图像和视频预测功能,可通过Python接口快速集成。基于提示式交互,模型能实现自动生成分割掩码,在需要精确物体分割的计算机视觉应用中具有广泛应用价值。
mask2former-swin-large-mapillary-vistas-semantic - Mask2Former模型整合多尺度变形和掩码注意力实现高效图像分割
深度学习Huggingface图像分割开源项目模型语义分割Github计算机视觉Mask2Former
Mask2Former是基于Swin骨干网络的大型模型,针对Mapillary Vistas数据集进行语义分割训练。该模型采用统一方法处理实例、语义和全景分割任务,通过预测掩码集合及对应标签实现。结合多尺度变形注意力Transformer和掩码注意力机制,Mask2Former在性能和效率上均优于先前的SOTA模型MaskFormer。模型支持批量处理,输出类别和掩码查询逻辑,便于后续处理和结果可视化。
BiRefNet_lite - 高效双边参考处理 解锁高分辨率图像分割技术
高分辨率BiRefNet图像分割二分法模型Github开源项目迷彩物体检测Huggingface
BiRefNet是一种基于双边参考的高分辨率二分类图像分割模型,在DIS、HRSOD和COD三项任务中表现出色。该模型支持高分辨率图像处理,提供Python接口和在线推理演示。用户可通过HuggingFace快速加载或选择本地部署。BiRefNet适用于背景去除、显著目标检测等多种图像分割场景,具有较强的通用性。