#timm

vit_base_patch32_clip_384.openai_ft_in12k_in1k - 采用ViT技术的视觉Transformer模型
timm图像分类Huggingface开源项目模型预训练GithubVision TransformerFine-tuning
这款视觉Transformer图像分类模型由OpenAI基于WIT-400M数据集使用CLIP技术预训练,并经过ImageNet-12k和ImageNet-1k数据集微调。作为一种强大的图像分类和嵌入模型,其参数量达88.3M,计算量为12.7 GMACs,设计用于384x384图像。支持通过`timm`库接口调用,满足多种视觉任务需求,在图像识别和分析领域表现出稳定性能。
resnetrs152.tf_in1k - ResNetRS-B模型提供的图像信息处理新选择
ResNetRS-B开源项目图像分类timmTensorflowHuggingfaceGithub模型ImageNet
ResNetRS-B是一款图像分类模型,具备ReLU激活、单层7x7卷积池化和1x1卷积下采样功能。该模型由论文作者在ImageNet-1k上使用Tensorflow训练,拥有86.6M的参数量,支持320x320图像测试。其多功能性使其适用于图像分类、特征提取和图像嵌入任务,通过timm库可便捷地在Python中实现应用。
resnest14d.gluon_in1k - ResNeSt14d:基于分割注意力机制的深度学习模型
timm特征提取ImageNet-1k模型Github开源项目图像分类ResNeStHuggingface
ResNeSt14d是一款基于ResNet的分割注意力图像分类模型,由研究团队在ImageNet-1k数据集上训练。此模型拥有10.6M的参数和2.8 GMACs,支持224x224的图像尺寸。提供多种功能,包括图像分类、特征提取和图像嵌入。通过timm库实现预训练模型调用,支持快速有效的图像分析和计算机视觉任务。
convnext_small.fb_in22k - 支持多任务图像处理的预训练模型
ImageNetGithub开源项目特征提取图像分类ConvNeXttimmHuggingface模型
ConvNeXt是一个经过ImageNet-22k预训练的图像分类模型,具备66.3M参数和8.7 GMACs。本文介绍其关键特性及在图像特征提取中的应用,旨在帮助专业用户理解和有效利用该模型进行视觉任务。
tf_efficientnet_b0.in1k - 基于EfficientNet架构的tf_efficientnet_b0.in1k模型解析
图像分类ImageNet-1kHuggingfacetimmGithub开源项目模型特征提取EfficientNet
tf_efficientnet_b0.in1k是一个基于EfficientNet架构的图像分类模型,在ImageNet-1k数据集上使用Tensorflow训练,并由Ross Wightman移植到PyTorch。该模型具有5.3M参数和0.4 GMACs,支持细节丰富的224x224像素图像应用。其功能包括图像分类、特征映射提取和图像嵌入,非常适合在timm库中进行各种深度学习研究和应用,提供一种高效的图像处理方案。
vit_base_patch32_224.augreg_in21k_ft_in1k - 基于ViT架构的图像分类模型,兼容PyTorch
timmImageNet模型Github开源项目图像分类Vision TransformersViTHuggingface
ViT图像分类模型在ImageNet-21k上训练并在ImageNet-1k上微调,采用数据增强和正则化,适用于图像识别和特征提取。模型包含88.2M参数,通过PyTorch实现,支持多种应用场景。
efficientnetv2_rw_m.agc_in1k - EfficientNetV2模型:图像分类与多功能特征提取
timm模型使用图像分类EfficientNet-v2Huggingface开源项目模型GithubImageNet-1k
EfficientNetV2是一个在timm库中实现的高效图像分类模型。通过使用以ResNet Strikes Back为基础的训练策略和SGD优化器(带Nesterov动量),结合自适应梯度剪裁,模型在ImageNet-1k数据集上进行训练。这一架构轻量且强大,支持包括图像分类、特征提取和图像嵌入的多种图像处理任务。
mobilenetv4_conv_aa_large.e230_r448_in12k_ft_in1k - 高效图像分类与特征提取模型 支持移动设备应用
MobileNetV4ImageNetGithub开源项目图像分类timmHuggingface预训练模型模型
MobileNet-V4图像分类模型经过ImageNet-12k预训练和ImageNet-1k精细调整,优化了参数和图像处理能力。该模型适用于移动设备,并支持特征提取和图像嵌入。凭借出色的Top-1准确率和参数效率,它在同类模型中表现突出,提供快速准确的图像识别能力。
mobilevit_xs.cvnets_in1k - MobileViT 轻量级通用移动友好的视觉Transformer
特征提取Huggingface图像分类MobileViT模型timmGithub开源项目ImageNet-1k
MobileViT是一种轻量级视觉Transformer模型,专为移动设备设计。mobilevit_xs.cvnets_in1k版本在ImageNet-1k数据集上训练,仅有2.3M参数和1.1 GMACs计算量。该模型适用于图像分类、特征提取和嵌入生成等任务,平衡了性能和资源消耗。它融合了MobileNet的轻量化结构和Vision Transformer的强大特性,为资源受限环境提供了高效解决方案。
convnextv2_base.fcmae_ft_in22k_in1k - 多功能图像分类与特征提取模型
ImageNet模型图像分类Githubtimm预训练模型开源项目HuggingfaceConvNeXt-V2
ConvNeXt-V2是一款先进的图像分类模型,通过全卷积掩码自编码器框架(FCMAE)预训练,并在ImageNet-22k和ImageNet-1k数据集上微调。除图像分类外,该模型还可用于特征图提取和图像嵌入。拥有8870万参数,ConvNeXt-V2在ImageNet-1k验证集上实现86.74%的Top-1准确率。凭借在多项基准测试中的卓越表现,ConvNeXt-V2成为各类计算机视觉任务的优秀选择。
swin_large_patch4_window7_224.ms_in22k_ft_in1k - 分层视觉Transformer模型 基于ImageNet-22k预训练和ImageNet-1k微调
特征提取Huggingface图像分类模型timmImageNetGithub开源项目Swin Transformer
swin_large_patch4_window7_224.ms_in22k_ft_in1k是基于Swin Transformer架构的图像分类模型。该模型在ImageNet-22k上预训练,ImageNet-1k上微调,拥有1.965亿参数,34.5 GMACs计算量。它支持224x224输入图像,适用于图像分类、特征提取和图像嵌入。模型采用分层结构和移位窗口机制,平衡了计算效率和性能。
mobilenetv3_small_075.lamb_in1k - 移动网络V3小型模型的图像分类与优化方法
特征提取开源项目模型timmGithubHuggingfaceMobileNet-v3ImageNet-1k图像分类
该项目采用MobileNet-v3模型进行图像分类,在ImageNet-1k数据集上通过LAMB优化器和RMSProp优化器进行微调。利用指数衰减学习率调度和EMA权重平均,提高性能表现。模型在特征提取和图像嵌入方面表现出色,适合开发轻量级视觉识别应用。
eva02_base_patch14_224.mim_in22k - EVA02模型利用遮掩图像建模增强特征提取
图像分类Huggingfacetimm视觉TransformerGithub开源项目模型EVA-02ImageNet-22k
EVA02模型在ImageNet-22k数据集上通过遮掩图像建模预训练,结合EVA-CLIP作为教师,具有平均池化、SwiGLU等特性,支持图像分类和特征嵌入,参数量为85.8M,适用于224x224图像输入,在复杂视觉任务中表现出色。
tf_efficientnetv2_xl.in21k_ft_in1k - EfficientNet-v2开源图像分类与特征抽取模型
开源项目模型timmGithubHuggingfaceEfficientNet-v2TensorFlowImageNet-21k图像分类
EfficientNet-v2模型在ImageNet-21k上预训练并在ImageNet-1k上微调,具备图像分类、特征提取与图像嵌入功能。初始使用Tensorflow训练,后由Ross Wightman移植至PyTorch。模型拥有208.1百万参数与52.8 GMACs计算量,支持训练时384x384与测试时512x512的图像尺寸。通过timm库,便可创建预训练模型,用于图像分类及特征映射。本模型在研究与应用中表现出强大的性能及灵活性。
xception41.tf_in1k - Xception架构的高效图像分类神经网络
模型XceptionImageNet-1k开源项目Huggingface图像分类深度学习Githubtimm
xception41.tf_in1k是一款基于Xception架构的图像分类模型,在ImageNet-1k数据集上训练而成。该模型采用深度可分离卷积技术,拥有2700万参数和9.3 GMACs的计算量,支持图像分类、特征图提取和图像嵌入等功能。通过timm库,研究者可以方便地加载预训练模型进行推理或微调。xception41.tf_in1k在维持高精度的同时优化了计算效率,适用于多种计算机视觉任务。
efficientnet_b4.ra2_in1k - EfficientNet B4图像分类模型 ImageNet-1k数据集训练
模型开源项目Huggingface图像分类EfficientNetImageNet深度学习Githubtimm
efficientnet_b4.ra2_in1k是基于EfficientNet架构的图像分类模型,在ImageNet-1k数据集上训练。该模型采用RandAugment RA2增强方法,使用RMSProp优化器,具有1930万参数和3.1 GMACs计算量。支持320x320训练图像和384x384测试图像,可用于图像分类、特征提取和嵌入等任务,为计算机视觉领域提供高效解决方案。
tf_efficientnet_b7.ns_jft_in1k - EfficientNet B7图像分类模型 基于Noisy Student半监督学习
Huggingface开源项目模型卡模型EfficientNetImageNet图像分类Githubtimm
模型采用EfficientNet B7架构,结合Noisy Student半监督学习,在ImageNet-1k和JFT-300m数据集上训练。参数量66.3M,输入图像尺寸600x600,支持图像分类、特征提取和嵌入向量生成。已从TensorFlow移植至PyTorch,可应用于高精度图像识别任务。
resnet152d.ra2_in1k - ResNet152d.ra2_in1k模型在图像分类中的应用与特点
图像分类ResNet-DImageNet-1kRandAugmentHuggingfacetimmGithub开源项目模型
ResNet152d.ra2_in1k是基于ResNet-D架构的图像分类模型,采用ReLU激活和三层3x3卷积stem结构。该模型在ImageNet-1k上训练,并使用RandAugment RA2策略、RMSProp优化器和EMA权重平均进行优化,支持动态学习率调度和特征映射提取,其性能在复杂图像处理任务中表现优秀。
convnext_small.in12k_ft_in1k_384 - 高效的ConvNeXt图像分类与特征提取预训练模型介绍
开源项目模型timmImageNetGithubHuggingfaceConvNeXt预训练图像分类
ConvNeXt图像分类模型,通过timm库在ImageNet-12k及ImageNet-1k上进行预训练与微调,提供图像特征提取与分类功能。支持TPU和8xGPU训练方式,适合大规模数据集处理。模型拥有50.2M参数和25.6 GMACs,支持384x384图像输入,并兼具特征图提取与图像嵌入功能,适用于高效图像处理需求。更多性能数据及结果可在timm库查阅。
vit_base_patch32_clip_448.laion2b_ft_in12k_in1k - LAION-2B预训练的ViT图像分类模型
ImageNetGithub开源项目图像分类LAION-2BtimmHuggingface视觉Transformer模型
这是一个基于Vision Transformer架构的图像分类模型,在LAION-2B数据集预训练后在ImageNet-12k和ImageNet-1k上微调。模型包含8830万参数,支持448x448输入图像,可用于图像分类和特征提取。该模型通过timm库实现,提供简单使用示例,采用Apache-2.0许可。
mobilenetv3_small_050.lamb_in1k - 探索资源有效利用的MobileNet-v3图像分类模型
图像分类Github开源项目timm模型Huggingface特征提取ImageNet-1kMobileNet-v3
该项目展示了在ImageNet-1k上训练的MobileNet-v3图像分类模型,强调其在资源受限环境中的适用性。使用LAMB优化器和EMA权重平均化,该模型参照ResNet Strikes Back设计,通过简化预处理流程,支持图像分类、特征提取和图像嵌入等多种深度学习任务,增强模型性能。
deit_tiny_patch16_224.fb_in1k - 高效数据处理的DeiT图像分类和特征提取模型
ImageNetTransformerDeiT图像分类开源项目timm模型HuggingfaceGithub
DeiT图像分类模型经过在ImageNet-1k数据集上的训练,通过注意力机制提高数据处理效率。它的紧凑架构具有5.7百万参数和1.3 GMACs,适用于224x224像素图像,可用于图像分类和嵌入生成。此项目具备广泛的库支持,易于集成,是研究者获取高效图像处理能力的理想工具。
vit_small_r26_s32_384.augreg_in21k_ft_in1k - ResNet与Vision Transformer结合的图像分类模型解析
ImageNetGithub开源项目图像分类timmViTHuggingface增广正则化模型
该模型结合ResNet与Vision Transformer(ViT)的特点,专用于图像分类。最初在ImageNet-21k上训练,后在ImageNet-1k上微调,并在JAX中创建,由Ross Wightman移植到PyTorch环境中。模型采用了36.5M参数和27.7M激活,针对384x384图像进行了优化,通过增强和正则化技术提升了处理复杂图像任务的能力,适用于多种图像识别应用。
ese_vovnet39b.ra_in1k - 高效实时的VoVNet-v2图像分类解决方案
图像分类Github开源项目timm模型VoVNet-v2Huggingface特征提取ImageNet-1k
VoVNet-v2是一种预训练于ImageNet-1k的图像分类模型,含高效计算和低能耗优点,并采用RandAugment优化。适用于特征骨干网络,支持图像分类、特征提取和图像嵌入。其关键性能包括24.6M参数、7.1 GMACs等。通过`timm`库,用户可以实现高效的图像分类和特征提取。模型使用ResNet Strikes Back的训练方案,提高了准确度和应用多样性。
vit_base_patch16_224.orig_in21k - Vision Transformer图像特征提取模型无分类头版本
timm图像分类Huggingface特征提取开源项目模型预训练模型GithubVision Transformer
vit_base_patch16_224.orig_in21k是一个基于Vision Transformer架构的图像特征提取模型,在ImageNet-21k数据集上预训练。模型采用16x16图像块处理,支持224x224输入尺寸,包含8580万参数。移除分类头设计使其专注于特征提取,适合迁移学习和微调。通过timm库可轻松应用于图像分类和特征提取任务,为计算机视觉研究提供有力支持。
resnet50d.ra2_in1k - 基于ResNet-D架构的高效图像分类与特征提取模型
Github神经网络模型开源项目图像分类深度学习timmResNetHuggingface
ResNet-D是一款在ImageNet-1k数据集训练的图像分类模型,采用ReLU激活函数和三层卷积结构,包含2560万参数。模型支持224x224尺寸训练输入和288x288测试输入,集成RandAugment增强技术,可实现图像分类、特征提取等计算机视觉任务。
efficientnet_b2.ra_in1k - EfficientNet B2模型的图像分类能力分析
timmEfficientNetImageNet-1k模型GithubRandAugment开源项目图像分类Huggingface
EfficientNet B2模型在ImageNet-1k数据集上训练,结合RandAugment增强策略和RMSProp优化器,实现卓越的图像分类与特征提取性能。
repvit_m1.dist_in1k - ImageNet-1k高效图像分类与特征提取开源项目
图像分类Github开源项目timmRepViT模型Huggingface特征提取ImageNet-1k
repvit_m1.dist_in1k是RepViT家族中的高效图像分类模型,专为ImageNet-1k数据集优化,应用蒸馏技术增强性能。模型参数为5.5M,0.8 GMACs,支持224x224图像尺寸。设计灵感源于对移动CNN的创新探索,结合ViT视角。详情请参考相关arXiv文献。该模型能够执行图像分类、特征提取和图像嵌入等任务,适合的研究和工程应用。
vit_large_patch14_dinov2.lvd142m - 基于DINOv2的大规模Vision Transformer视觉特征提取模型
timmDINOv2特征提取模型Github开源项目图像分类ViTHuggingface
这是一个基于Vision Transformer架构的图像特征提取模型,采用DINOv2自监督学习方法在LVD-142M数据集上预训练。模型包含3.044亿参数,支持518x518像素输入,适用于图像分类和特征提取任务。该模型提供了完整的加载、预处理和推理示例代码,可应用于需要高质量视觉特征表示的各种计算机视觉场景。
regnetz_c16.ra3_in1k - 采用灵活配置的RegNetZ模型实现高效图像分类
BYOBNet开源项目模型timmGithubHuggingfaceRegNetZImageNet-1k图像分类
RegNetZ模型在ImageNet-1k上训练后,展现出色的图像分类性能。该模型基于timm库实现,通过BYOBNet灵活配置支持,包括block/stage布局、激活层、归一化层及自注意层等自定义选项。提供多种应用,如图像分类、特征提取及嵌入生成,设计适合处理不同组宽及层配置需求,尤其适用于高精度及灵活性任务。
inception_next_tiny.sail_in1k - InceptionNeXt架构的轻量级图像分类模型
特征提取开源项目模型timmGithubHuggingfaceImageNet-1kInceptionNeXt图像分类
inception_next_tiny.sail_in1k是基于InceptionNeXt架构的图像分类模型,在ImageNet-1k数据集上训练。该模型结合Inception和ConvNeXt的特点,提供图像分类、特征图提取和图像嵌入功能。模型参数为28.1M,GMACs为4.2,适用于224x224大小的图像输入。它通过timm库提供简洁的API,支持预训练权重,可轻松应用于多种计算机视觉任务。
tinynet_e.in1k - TinyNet模型在ImageNet-1k上的应用与性能分析
timm特征提取ImageNet-1k模型Github开源项目图像分类tinynet_e.in1kHuggingface
TinyNet是一个旨在优化图像分类和特征提取的模型,通过调整分辨率、深度和宽度,在ImageNet-1k上进行训练。模型参数量为2.0M,并具有低计算负荷。提供简便的代码示例以支持图像分类、特征图提取和图像嵌入,可用于多种图像处理场景。同时,通过timm库探索其指标表现,更深入了解其在神经信息处理中的应用。
vit_small_patch32_224.augreg_in21k_ft_in1k - Vision Transformer图像分类模型 预训练于ImageNet-21k并微调于ImageNet-1k
Vision TransformertimmImageNet深度学习模型Github开源项目图像分类Huggingface
这是一个基于Vision Transformer (ViT)架构的图像分类模型,在ImageNet-21k上进行预训练,并在ImageNet-1k上微调。模型包含2290万参数,处理224x224尺寸的图像输入。通过额外的数据增强和正则化技术提升性能,最初在JAX框架中训练,后移植至PyTorch。该模型提供简洁的API,支持图像分类和特征提取两大功能,可广泛应用于多种计算机视觉任务。
vit_base_patch16_224.orig_in21k_ft_in1k - 基于ImageNet大规模数据集的Vision Transformer模型
Vision TransformertimmPyTorchImageNet模型Github开源项目图像分类Huggingface
该Vision Transformer模型经过ImageNet-21k数据集预训练并在ImageNet-1k上微调,采用86.6M参数,适用于224x224图像的分类与特征提取。最初由论文作者在JAX上训练,并由Ross Wightman移植到PyTorch环境,可应用于图像分类和嵌入场景。
wd-eva02-large-tagger-v3 - 开源图像标签分类模型 支持评级角色和通用标签
数据集开源项目模型timmGithubHuggingface深度学习模型图像标注ONNX
WD EVA02-Large Tagger v3是一个开源的图像标签分类模型,支持评级、角色和通用标签分类。该模型基于Danbooru数据集训练,涵盖720万张图像。采用JAX-CV和timm库实现,支持ONNX推理,兼容性强。模型在验证集上达到0.4772的F1分数,支持批量推理,并提供了timm、ONNX和JAX等多种接口示例。最新版本更新了训练数据和标签至2024年2月,适用于图像分类、内容审核等多种应用场景,为开发者提供了实用的图像分析工具。
efficientnetv2_rw_t.ra2_in1k - EfficientNet-v2的模型特点与应用分析
Github模型ImageNet-1k开源项目图像分类EfficientNet-v2timmHuggingface特征提取
EfficientNet-v2是一个专注于图像分类的高效模型,采用RandAugment策略在ImageNet-1k数据集上训练,具有参数少、训练快的特点。通过timm库实现,支持特征图提取和图像嵌入等多种功能。其结构设计为强大的特征骨干提供了基础。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号