#语义分割

labelme - Python图像标注工具,支持多种格式导出
Github开源项目Python图像标注Labelme实例分割语义分割
Labelme是一个Python图像标注工具,使用Qt构建界面,支持多边形、矩形、圆形、线条和点的标注,适用于图像分类、语义分割、实例分割和视频标注。提供GUI自定义功能,并支持导出VOC和COCO格式数据集。兼容Windows、macOS和Linux平台,安装简单,资源丰富,易于使用。
Pytorch-UNet - PyTorch实现的高效U-Net语义分割模型
Github开源项目PyTorch深度学习语义分割U-NetCarvana
Pytorch-UNet项目提供定制的U-Net实现,支持多类别分割任务,包括车体遮罩、肖像分割和医学图像分割。兼容PyTorch 1.13及以上版本,提供Docker镜像和预训练模型,便于集成和使用。模型在高分辨率图像上训练,取得了0.988的Dice系数,并支持自动混合精度,可通过Weights & Biases实时监控训练进度。
openscene - 零样本3D场景理解和任务执行工具
Github开源项目语义分割OpenScene3D场景理解CVPR 2023零样本
OpenScene是一个实时交互的3D场景理解工具,支持使用开放词汇进行查询。用户可输入任意短语,系统会自动高亮相应区域。支持多种数据集和预处理选项,可执行零样本3D语义分割、稀有物体搜索和基于图像的3D物体检测。其特点包括无需GPU运行、支持多视角特征融合和模型蒸馏。所有代码和数据集均可在GitHub获取,适用于广泛的研究和开发应用。
Open3D-PointNet2-Semantic3D - 使用Open3D和PointNet++进行高效3D数据处理与语义分割
Github开源项目机器学习语义分割Open3DSemantic3DPointNet++
该项目演示了如何使用Open3D与PointNet++进行3D点云的加载、预处理及语义分割,提供了高效的点云操作方法和训练预测流程,为Semantic3D数据集提供了简洁优化的基准实现,适用于深度学习应用的快速开发。
urban_seg - 针对初学者的遥感图片语义分割项目
Github开源项目语义分割多GPU训练urban_seg遥感图片unicom模型
一个针对初学者的遥感图片语义分割项目,使用在4亿张图片上预训练的unicom模型。该模型在遥感分割中表现出色,仅需4张图片训练即可取得良好效果。提供简单的单GPU和多GPU训练代码,帮助快速上手并提升性能。
mmsegmentation - 高效的PyTorch语义分割工具箱与新特性介绍
Github开源项目PyTorch语义分割OpenMMLabMMSegmentationv1.0.0
MMSegmentation是基于PyTorch的开源语义分割框架,提供模块化设计和统一基准,支持多种算法。最新v1.2.0版本新增开放词汇语义分割和单目深度估计功能,提升训练效率和快速部署体验。
pytorch-auto-drive - 基于 PyTorch 的分割模型和车道检测模型
Github开源项目PyTorch模型部署语义分割PytorchAutoDrive车道检测
框架基于纯Python和PyTorch,提供从模型训练、测试到可视化和部署的全方位支持。特色包括多种主干网络、简洁易懂的代码、混合精度训练及ONNX和TensorRT的部署支持。该框架中模型训练速度快,性能优于其他实现,支持多种数据集和模型方法,为自动驾驶研究提供可靠的基准测试和高效工具。
DAFormer - 提升域适应语义分割的网络架构与训练策略
Github开源项目Transformer语义分割网络架构DAFormer域自适应语义分割
通过Transformer编码器和多级上下文感知特征融合解码器,显著提升域适应语义分割性能。DAFormer使用稀有类采样、ImageNet特征距离和学习率预热等策略,提升GTA→Cityscapes和Synthia→Cityscapes的分割效果,并扩展至域泛化领域。在多个UDA基准上,DAFormer显著超越了前沿方法,成为领域推广和不受目标图像限制的语义分割任务中新的性能标杆。
Satellite-Imagery-Datasets-Containing-Ships - 完整版雷达和光学卫星图像船舶检测分类数据集
Github开源项目分类语义分割雷达卫星数据集光学卫星数据集船舶检测
本页面列举了多个用于船舶检测、分类、语义分割和实例分割任务的雷达和光学卫星图像数据集,包括SSDD、OpenSARship、HRSID等。这些数据集涵盖了RadarSat-2、TerraSAR-X和Sentinel-1等卫星,提供了丰富的图像和详细的标注信息,非常适合多个船舶检测和分析任务。
bpycv - Blender中的计算机视觉与深度学习实用工具,支持标注和深度数据的生成
Github开源项目深度学习计算机视觉Blender语义分割bpycv
bpycv是Blender中用于计算机视觉和深度学习的实用工具,提供语义分割、实例分割和全景分割的标注生成,以及6DoF姿态和深度数据的渲染。支持简单安装和Docker环境,适用于大规模合成数据集的构建,包含Cityscapes标注格式转换和域随机化功能。提供便捷的演示示例,方便开发与调试,适合计算机视觉研究人员和开发者。
Open3D-ML - Open3D 的扩展,用于处理 3D 机器学习任务
Github开源项目PyTorchTensorFlow语义分割Open3D-ML3D机器学习
Open3D-ML基于Open3D库,扩展了3D机器学习工具,支持语义点云分割和目标检测等应用。提供预训练模型和训练管道,兼容TensorFlow和PyTorch框架,易于集成到现有项目中。同时,提供数据可视化等通用功能,覆盖多种数据集和算法,提高3D数据处理效率和效果。
PyTorch-Encoding - 基于PyTorch的高效深度学习编码网络
Github开源项目深度学习图像分类语义分割PyTorch-EncodingResNeSt
PyTorch-Encoding由Hang Zhang创建,提供了详细的安装和使用说明,包含图像分类和语义分割模型。项目集成了ResNeSt和Deep TEN等编码网络,在ADE20K和PASCAL Context等数据集上取得了出色表现。其高效的上下文编码方法为深度学习提供了新的解决方案,是计算机视觉领域的重要工具。
ScanNet - 包含2.5百万视图的RGB-D视频数据集及其3D重建
Github开源项目语义分割3D重建ScanNetRGB-D视频数据集BundleFusion
ScanNet是一个丰富的RGB-D视频数据集,包含超过1500次扫描和2.5百万个视图,包括3D相机姿态、表面重建和实例级语义分割标签。用户需通过机构邮箱填写使用协议以下载数据。数据按RGB-D序列组织,包含多种格式的重建网格和注释文件。附带工具有ScanNet C++工具包、相机参数估计代码和网格分割代码。本数据集支持多项场景理解基准任务,并提供相关代码与文档。
sssegmentation - 开源语义分割工具箱 集成多种先进算法和模型
Github开源项目PyTorch深度学习计算机视觉语义分割开源工具
sssegmentation是基于PyTorch的开源语义分割工具箱,提供高性能、模块化设计和统一基准测试。它集成多种流行分割框架,支持各类backbone网络和分割器模型,包括SAM、MobileSAM等最新技术。该项目为语义分割研究和应用开发提供灵活易用的平台。
PointTransformerV3 - 先进的点云处理框架
Github开源项目深度学习计算机视觉语义分割点云处理Point Transformer V3
PointTransformerV3是一个创新的点云处理框架,在多个基准测试中展现出卓越性能。该项目优化了模型结构,提升了运行速度和处理能力。它适用于室内外场景的语义分割,通过多数据集预训练进一步增强了效果。研究人员可利用开源代码和预训练模型轻松复现结果或应用于自身项目。
YOLOv8-multi-task - 轻量级神经网络实现实时多任务目标检测与分割
Github开源项目目标检测自动驾驶语义分割YOLOv8多任务学习
YOLOv8-multi-task项目提出了一种轻量级神经网络模型,可同时执行目标检测、可行驶区域分割和车道线检测等多任务。该模型使用自适应拼接模块和通用分割头设计,在提高性能的同时保持高效率。实验表明,该模型在推理速度和可视化效果方面优于现有方法,适用于需要实时处理的多任务场景。
EVF-SAM - 基于早期视觉语言融合的文本引导图像分割模型
Github开源项目图像分割语义分割SAM模型EVF-SAM视觉语言融合
EVF-SAM项目通过早期视觉语言融合技术扩展了SAM模型的能力,实现高精度的文本引导图像分割。该模型在T4 GPU上可在几秒内完成推理,计算效率高。最新版本基于SAM-2支持视频分割,展现了零样本文本引导视频分割能力。EVF-SAM在多个数据集上表现出色,为计算机视觉领域提供了新的解决方案。
ReLA - 先进的泛化引用表达分割技术
Github开源项目深度学习计算机视觉语义分割GRES引用表达分割
GRES项目提出了一种新颖的泛化引用表达分割方法,在CVPR 2023会议上被评为亮点论文。该项目采用Swin Transformer骨干网络,在gIoU指标上达到63.60%的性能。GRES项目不仅发布了新数据集,还开源了代码实现,支持ResNet-50和Swin-Tiny等多种骨干网络,为研究人员提供了多样化选择。项目的GitHub仓库提供了详细的安装说明、推理和训练代码,以及预训练模型。
Awesome-Open-Vocabulary-Semantic-Segmentation - 开放词汇语义分割研究成果汇总
Github开源项目深度学习计算机视觉CLIP语义分割开放词汇
这是一个汇总开放词汇语义分割领域研究成果的项目。内容涵盖全监督、弱监督和无需训练等多种方法,同时收录零样本语义分割、指代图像分割和开放词汇目标检测等相关任务的论文。项目旨在为研究者提供该领域的最新进展概览。
MIC - 基于遮蔽图像一致性的域自适应方法
Github开源项目目标检测图像分类语义分割域适应MIC
MIC(Masked Image Consistency)是一种新型无监督域自适应方法,通过学习目标域的空间上下文关系来提高视觉识别性能。该方法对遮蔽目标图像的预测与完整图像的伪标签保持一致性,使网络能够从上下文推断遮蔽区域的内容。MIC适用于图像分类、语义分割和目标检测等多个视觉任务,在合成到真实、白天到夜间、晴朗到恶劣天气等场景的域自适应中取得了显著的性能提升。
HRDA - 突破性多分辨率域适应语义分割方法
Github开源项目语义分割高分辨率域适应HRDA多尺度
HRDA是一种创新的多分辨率训练方法,用于无监督域适应的语义分割。它结合高分辨率裁剪保留细节和低分辨率裁剪捕获长程上下文,同时控制GPU内存占用。HRDA在多个基准测试中显著超越现有方法,并可扩展至域泛化。这种方法为自动驾驶等实际应用中的域适应问题提供新思路,推动了计算机视觉技术在复杂场景下的应用。
SAN - 轻量高效的开放词汇语义分割框架
Github开源项目CLIP模型语义分割视觉语言模型开放词汇语义分割Side Adapter Network
Side Adapter Network (SAN)是一个开放词汇语义分割框架,将分割任务建模为区域识别问题。它在冻结的CLIP模型旁附加轻量级侧网络,实现高效准确的分割。SAN在多个语义分割基准测试中表现优异,具有更少的可训练参数和更快的推理速度。这一方法为开放词汇语义分割领域提供了新的解决思路。
UniMatch - 革新半监督语义分割的弱到强一致性方法
Github开源项目深度学习计算机视觉语义分割半监督学习UniMatch
UniMatch是一个创新的半监督语义分割模型,适用于自然、遥感和医学图像分析。该模型重新定义了弱到强的一致性概念,在Pascal VOC、Cityscapes和COCO等多个标准数据集上实现了领先性能。UniMatch在各种标注比例下均优于现有方法,推动了半监督语义分割技术的发展。
Official_Remote_Sensing_Mamba - 创新的大型遥感图像密集预测模型
Github开源项目语义分割RS-Mamba遥感图像密集预测变化检测
RS-Mamba是一种专门针对大型遥感图像密集预测任务的创新模型。该模型首次将状态空间模型引入遥感领域,通过循环状态空间模型实现全局有效感受野,同时保持线性复杂度。RS-Mamba采用多方向选择性扫描技术,有效捕捉遥感图像的空间特征分布。在语义分割和变化检测任务中,RS-Mamba展现出卓越性能。项目提供开源代码和训练框架,为遥感图像分析研究提供了新的工具和方法。
SePiCo - 基于语义引导像素对比的域自适应语义分割方法
Github开源项目深度学习语义分割域适应SePiCo像素对比
SePiCo是一种创新的域适应语义分割框架,通过语义引导的像素对比学习促进跨域像素嵌入空间的类别判别和平衡。该方法在多个域适应任务中显著提升了性能,包括GTAV到Cityscapes、SYNTHIA到Cityscapes和Cityscapes到Dark Zurich。SePiCo的突出表现使其被选为ESI高被引论文,展现了其在计算机视觉领域的重要影响。
FocalNet - 突破注意力机制的新型视觉模型架构
Github开源项目卷积神经网络目标检测图像分类语义分割FocalNets
FocalNet是一种创新的视觉模型架构,无需使用注意力机制。其核心的焦点调制技术在多项视觉任务中超越了现有的自注意力方法。该模型在ImageNet分类和COCO检测等基准测试中表现优异,同时保持了高效简洁的实现。FocalNet具有平移不变性、强输入依赖性等特点,为计算机视觉领域提供了一种全新的建模思路。
MagNet - 多尺度语义分割框架提升图像精度
Github开源项目卷积神经网络语义分割高分辨率数据集多尺度框架MagNet
MagNet是一种多尺度语义分割框架,采用多阶段处理方法解决高分辨率图像中的局部歧义问题。每个处理阶段对应一个放大级别,实现从粗到细的信息传播。在城市景观、航拍场景和医学图像等高分辨率数据集上的实验显示,MagNet的性能显著超越现有方法,为高分辨率图像的精确语义分割提供了新的技术方案。
InternImage - 突破大规模视觉基础模型性能极限
Github开源项目目标检测图像分类语义分割InternImage大规模视觉模型
InternImage是一款采用可变形卷积技术的大规模视觉基础模型。它在ImageNet分类任务上实现90.1%的Top1准确率,创下开源模型新纪录。在COCO目标检测基准测试中,InternImage达到65.5 mAP,成为唯一突破65.0 mAP的模型。此外,该模型在涵盖分类、检测和分割等任务的16个重要视觉基准数据集上均展现出卓越性能,树立了多个领域的新标杆。
lang-seg - 语言驱动的零样本语义图像分割模型
Github开源项目计算机视觉CLIP语义分割零样本学习LSeg
LSeg是一种语言驱动的语义图像分割模型,结合文本编码器和Transformer图像编码器。它能将描述性标签与图像像素对齐,实现高效零样本分割。LSeg在多个数据集上表现出色,无需额外训练即可泛化到新类别。该模型在固定标签集上可与传统算法媲美,为语义分割任务提供了灵活有力的解决方案。
VoxFormer - 基于稀疏体素变换器的相机驱动3D语义场景补全方法
Github开源项目计算机视觉语义分割CVPRVoxFormer3D语义场景补全
VoxFormer是一种基于Transformer的创新框架,仅通过2D图像即可生成完整的3D语义体素。它采用两阶段设计:先从深度估计生成可见占据体素查询,再通过密集化阶段生成完整3D体素。在SemanticKITTI数据集上,VoxFormer在几何和语义方面分别提升了20.0%和18.1%,同时将训练所需GPU内存减少约45%。这为相机驱动的3D语义场景补全任务提供了一个强有力的基线。
MogaNet - 多阶门控聚合网络在计算机视觉领域的创新应用
Github开源项目目标检测图像分类语义分割人体姿态估计视频预测MogaNet
MogaNet是一种创新的卷积神经网络架构,采用多阶门控聚合机制实现高效的上下文信息挖掘。这一设计在保持较低计算复杂度的同时,显著提升了模型性能。MogaNet在图像分类、目标检测、语义分割等多项计算机视觉任务中展现出优异的可扩展性和效率,达到了与当前最先进模型相当的水平。该项目开源了PyTorch实现代码和预训练模型,便于研究者进行进一步探索和应用。
GeoSeg - 遥感图像语义分割框架 支持多种数据集和先进模型
Github开源项目深度学习语义分割Vision Transformer遥感图像GeoSeg
GeoSeg是一个开源的遥感图像语义分割工具箱,基于PyTorch等框架开发。它专注于先进视觉Transformer模型,支持多个遥感数据集,提供统一训练脚本和多尺度训练测试功能。项目实现了Mamba、Vision Transformer和CNN等多种网络架构,为遥感图像分割研究提供统一基准平台。
RevCol - 多任务计算机视觉的新型架构
Github开源项目目标检测计算机视觉图像分类语义分割RevCol
RevCol是一种新型神经网络架构,采用多个子网络(列)通过多层可逆连接组成。作为基础模型骨干,RevCol适用于图像分类、目标检测和语义分割等计算机视觉任务。该架构在ImageNet等基准测试中表现优异,项目提供了训练和评估代码,以及多个数据集上的预训练模型权重,方便研究人员进行进一步探索。
3D-PointCloud - 点云技术研究进展与应用综述
Github开源项目目标检测自动驾驶语义分割点云3D视觉
该项目汇总了3D点云处理相关的研究论文和数据集。内容涵盖目标检测、语义分割、点云配准和完成等多个任务。同时收录了自动驾驶、3D视觉变换器等领域的综述文献。这一资源有助于研究人员和工程师了解点云技术的最新进展。
CV - 全面的计算机视觉深度学习模型集合
Github开源项目深度学习目标检测计算机视觉图像分类语义分割
这个项目收集了多个计算机视觉领域的深度学习模型,包括图像分类、目标检测、语义分割和生成模型。项目为每个模型提供论文链接、详细解析和代码实现,涵盖从AlexNet到YOLO系列等经典算法。这是一个面向研究人员和开发者的综合性学习资源,有助于理解和应用先进的计算机视觉技术。
AbSViT - 创新视觉注意力模型实现自适应分析合成
Github开源项目计算机视觉图像分类语义分割AbSViT视觉注意力
AbSViT是一个创新视觉注意力模型,采用分析合成方法实现自适应的自上而下注意力机制。该模型在ImageNet分类和语义分割任务中表现优异,尤其在鲁棒性测试中展现出色性能。AbSViT能够适应单目标和多目标场景,并根据不同问题动态调整注意力。这一模型为计算机视觉领域开辟了新的研究方向,有望在多种视觉任务中发挥重要作用。