#Swin Transformer
swin - 使用Habana Gaudi实现高效Transformer部署与训练
Optimum HabanaSwin TransformerHuggingface训练开源项目模型混合精度GithubHabana
Optimum Habana是Hugging Face Transformers和Diffusers库与Habana Gaudi处理器之间的接口,提供针对单一和多HPU的高效模型加载、训练和推理工具。该项目包含Swin Transformer模型的GaudiConfig,支持Habana定制的AdamW优化器、梯度剪裁和Torch Autocast混合精度。采用bf16混合精度训练以提升性能,并提供图像分类示例脚本供开发者参考。
swin_large_patch4_window7_224.ms_in22k_ft_in1k - 分层视觉Transformer模型 基于ImageNet-22k预训练和ImageNet-1k微调
特征提取Huggingface图像分类模型timmImageNetGithub开源项目Swin Transformer
swin_large_patch4_window7_224.ms_in22k_ft_in1k是基于Swin Transformer架构的图像分类模型。该模型在ImageNet-22k上预训练,ImageNet-1k上微调,拥有1.965亿参数,34.5 GMACs计算量。它支持224x224输入图像,适用于图像分类、特征提取和图像嵌入。模型采用分层结构和移位窗口机制,平衡了计算效率和性能。
upernet-swin-small - UperNet结合Swin Transformer实现精确语义分割
视觉转换Github场景理解开源项目Swin TransformerUperNetHuggingface语义分割模型
UperNet结合Swin Transformer骨干网络,提供高效的语义分割解决方案,适用于多种视觉任务,实现每像素精确语义标签预测。
swin-base-patch4-window7-224 - 微软开源分层视觉Transformer图像分类模型
开源项目深度学习模型视觉模型ImageNetSwin Transformer图像分类GithubHuggingface
Swin Transformer是Microsoft开发的图像分类模型,通过层级特征图构建和局部窗口注意力机制实现线性计算复杂度。模型在ImageNet-1k数据集上完成224x224分辨率训练,可作为通用主干网络支持图像分类和密集识别任务。其创新的窗口划分策略使模型在处理大尺寸图像时具有更高的效率。
cards-top_left_swin-tiny-patch4-window7-224-finetuned-dough_100_epoch - Swin-Tiny模型微调的图像分类系统 在ImageFolder数据集达58.16%准确率
模型微调机器学习Github图像分类Swin TransformerHuggingface开源项目模型准确率
本项目基于microsoft/swin-tiny-patch4-window7-224模型微调,构建了一个图像分类系统。经过100轮训练,在ImageFolder数据集上达到58.16%的分类准确率。项目使用Adam优化器和线性学习率调度器,总批量大小为128。系统基于PyTorch框架开发,为图像分类任务提供了实用的基础模型。
swin-base-patch4-window7-224-in22k - 基于shifted windows的分层视觉Transformer图像处理模型
图像识别开源项目模型GithubHuggingface计算机视觉深度学习Swin Transformer图像分类
Swin Transformer是一个在ImageNet-21k数据集上预训练的视觉模型,通过shifted windows机制实现局部特征提取,降低计算复杂度。模型采用分层特征图构建和局部注意力计算方式,适用于图像分类和密集识别任务,计算复杂度与输入图像大小呈线性关系
upernet-swin-large - Swin Transformer 与 UperNet 结合的语义分割方法
特征金字塔网络Huggingface语义分割Swin Transformer视觉GithubUperNet开源项目模型
UperNet 利用 Swin Transformer 大型网络进行语义分割,框架包含组件如主干网络、特征金字塔网络及金字塔池模块。可与各种视觉主干结合使用,对每个像素预测语义标签,适合语义分割任务,并可在 Hugging Face 平台找到特定任务的优化版本。通过 Swin Transformer 与 UperNet 的结合,用户可在场景理解中实现精确的语义分割。
swin-base-patch4-window12-384 - 高效图像分类的Swin Transformer视觉模型
自注意力机制Swin Transformer视觉转换器图像分类Huggingface层次特征图开源项目模型Github
Swin Transformer是一款视觉Transformer,通过使用层级特征图和移窗技术,进行高效图像分类。模型在ImageNet-1k数据集上以384x384分辨率训练,具备线性计算复杂度,使其适用于图像分类和密集识别任务。模型可用于原始图像分类,或者在模型集中寻找细化版本,适合处理计算密集型任务。
swinv2-base-patch4-window8-256 - 增强视觉Transformer模型,提供升级的容量与图像分辨率
Swin Transformer自监督预训练Github模型ImageNet开源项目图像分类Huggingface视觉Transformer
Swin Transformer v2是为图像分类和密集识别任务而设计的视觉Transformer模型。它在ImageNet-1k上进行256x256分辨率的预训练,具有通过局部窗口自注意力机制实现线性计算复杂度的特性。相比前代,Swin Transformer v2加入了残差后范数加余弦注意力以提升训练稳定性、日志距离连续位置偏置以提升低分辨率预训练模型在高分辨率任务中的表现,以及SimMIM自我监督预训练方法以减少对大规模标注图像的依赖。