#ImageNet-21k
vit-base-patch16-224-in21k - 基于ImageNet-21k预训练的视觉Transformer模型
ImageNet-21kGithubHuggingface图像识别Vision Transformer开源项目模型预训练模型深度学习
这是一个基于Transformer架构的视觉模型,在包含1400万图像和21843个类别的ImageNet-21k数据集上预训练。模型将图像转换为16x16像素的固定大小patch序列,通过自注意力机制处理。它可用于图像分类等多种视觉任务,提供强大的特征提取能力。模型支持PyTorch和JAX/Flax框架,适用于需要高性能视觉理解的应用场景。
vit-huge-patch14-224-in21k - 大型视觉Transformer模型实现高效图像识别与特征提取
图像识别Huggingface模型深度学习Vision TransformerGithub预训练模型ImageNet-21k开源项目
vit-huge-patch14-224-in21k是基于ImageNet-21k数据集预训练的大型视觉Transformer模型。它将图像分割为固定大小的块,通过Transformer编码器处理,可用于图像分类等多种计算机视觉任务。该模型提供了强大的图像特征提取能力,适用于各类下游视觉应用。
vit_base_patch16_224.augreg_in21k - 基于ImageNet-21k训练的Vision Transformer图像分类模型
模型嵌入模型图像分类ImageNet-21kGithubtimmVision TransformerHuggingface开源项目
这是一个基于Vision Transformer架构的图像分类模型,在ImageNet-21k数据集上训练。模型采用额外的数据增强和正则化技术,参数量1.026亿,处理224x224像素图像。除图像分类外,还可用作特征提取器生成图像嵌入。基于PyTorch实现,提供简洁API,适用于多种计算机视觉任务。模型由Google Research开发,Ross Wightman将其移植到PyTorch。
tf_efficientnetv2_s.in21k - EfficientNetV2图像分类模型 支持多种计算机视觉应用
模型图像分类ImageNet-21kGithubtimmEfficientNet-v2特征提取开源项目Huggingface
tf_efficientnetv2_s.in21k是一个基于EfficientNet-v2架构的图像分类模型,在ImageNet-21k数据集上训练。该模型由TensorFlow原始训练,后移植至PyTorch,拥有4820万参数。模型支持图像分类、特征提取和图像嵌入等功能,适用于多种计算机视觉应用场景。通过timm库,开发者可以便捷地加载此预训练模型,实现图像分类、特征图提取或生成图像嵌入等任务。
vit-large-patch16-224-in21k - 基于ImageNet-21k预训练的大型Vision Transformer模型
模型计算机视觉ImageNet-21kGithub图像识别预训练模型Vision TransformerHuggingface开源项目
该模型是在ImageNet-21k数据集(1400万图像,21843类别)上预训练的大型Vision Transformer (ViT)。它采用Transformer架构,将224x224分辨率的图像分割成16x16的patch序列进行处理。模型可提取强大的图像特征,适用于分类等多种下游视觉任务。用户可直接用于图像嵌入或在特定任务上微调。
tf_efficientnetv2_xl.in21k_ft_in1k - EfficientNet-v2开源图像分类与特征抽取模型
开源项目模型timmGithubHuggingfaceEfficientNet-v2TensorFlowImageNet-21k图像分类
EfficientNet-v2模型在ImageNet-21k上预训练并在ImageNet-1k上微调,具备图像分类、特征提取与图像嵌入功能。初始使用Tensorflow训练,后由Ross Wightman移植至PyTorch。模型拥有208.1百万参数与52.8 GMACs计算量,支持训练时384x384与测试时512x512的图像尺寸。通过timm库,便可创建预训练模型,用于图像分类及特征映射。本模型在研究与应用中表现出强大的性能及灵活性。
vit_tiny_patch16_224.augreg_in21k - 增强与正则化的ViT图像分类模型
开源项目特征骨干模型GithubHuggingfaceVision TransformerImageNet-21k图像分类数据增强
这是一个高效的Vision Transformer(ViT)图像分类模型,经过增强和正则化,在ImageNet-21k上进行了训练。由论文作者在JAX中开发,并由Ross Wightman移植到PyTorch。模型的类型包括图像分类和特征提取,参数量为9.7百万,1.1 GMACs,处理图像尺寸为224x224。项目中有图像分类和嵌入的代码示例,以及支持特定数据转换的功能,提升模型性能。该模型适用于高效图像识别应用,并提供开发者比较参考的方法。
vit-base-patch32-224-in21k - Vision Transformer模型在2100万图像数据集上预训练
Vision Transformer计算机视觉图像识别ImageNet-21k深度学习模型Github开源项目Huggingface
Vision Transformer (ViT) 是一种基于transformer架构的视觉模型,在ImageNet-21k数据集上预训练。该模型将图像转换为固定大小的patch序列,通过线性嵌入和位置编码输入transformer编码器。ViT可应用于图像分类等多种视觉任务,只需在预训练编码器上添加任务特定层。模型在224x224分辨率下训练,批量大小为4096,在多项图像分类基准测试中展现出优秀性能。