Project Icon

vit_small_r26_s32_384.augreg_in21k_ft_in1k

ResNet与Vision Transformer结合的图像分类模型解析

该模型结合ResNet与Vision Transformer(ViT)的特点,专用于图像分类。最初在ImageNet-21k上训练,后在ImageNet-1k上微调,并在JAX中创建,由Ross Wightman移植到PyTorch环境中。模型采用了36.5M参数和27.7M激活,针对384x384图像进行了优化,通过增强和正则化技术提升了处理复杂图像任务的能力,适用于多种图像识别应用。

vit_small_r26_s32_384.augreg_in21k_ft_in1k项目介绍

项目背景

vit_small_r26_s32_384.augreg_in21k_ft_in1k是一个图像分类模型,它将ResNet与视觉Transformer(Vision Transformer, ViT)相结合。这一模型的设计和训练依赖于强大的数据集和精细的调整,以提高图像识别的精确度。模型最初由论文作者在JAX平台上进行训练,然后Ross Wightman将其移植到PyTorch中。

模型详情

  • 模型类型:用于图像分类,亦可作为特征提取的骨干网络。
  • 参数统计
    • 参数数量(百万):36.5
    • GMACs:10.2(计算复杂度衡量单位)
    • 激活(百万):27.7
    • 输入图像大小:384 x 384像素
  • 相关文献
    • 文章《How to train your ViT? Data, Augmentation, and Regularization in Vision Transformers》探讨了如何通过数据扩增和正则化来优化ViT训练。
    • 文章《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》介绍了Transformer在大规模图像识别中的应用。
  • 使用数据集
    • 训练数据集:ImageNet-21k
    • 微调数据集:ImageNet-1k

模型使用

图像分类

用户可以通过加载预训练模型来进行图像分类。该模型支持在标准图像输入上进行预测,并输出图像属于不同类别的概率,其中最高的5个类别概率通常被作为最终输出。

from urllib.request import urlopen
from PIL import Image
import timm

img = Image.open(urlopen('图像URL'))
model = timm.create_model('vit_small_r26_s32_384.augreg_in21k_ft_in1k', pretrained=True)
model = model.eval()

data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)

output = model(transforms(img).unsqueeze(0))
top5_probabilities, top5_class_indices = torch.topk(output.softmax(dim=1) * 100, k=5)

图像嵌入

除了分类之外,模型还可以用于提取图像嵌入(image embeddings),以供进一步的图像分析或下游任务使用。这种方法允许用户在不需要分类头的情况下获取潜在特征。

from urllib.request import urlopen
from PIL import Image
import timm

img = Image.open(urlopen('图像URL'))

model = timm.create_model(
    'vit_small_r26_s32_384.augreg_in21k_ft_in1k',
    pretrained=True,
    num_classes=0,  # 移除分类层
)
model = model.eval()

data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)

output = model(transforms(img).unsqueeze(0))

模型比较

用户可以通过timm库的模型结果页面,浏览该模型在不同数据集和运行环境下的表现,以便进行合理的模型选择和应用。

推荐引用

在学术研究或项目中使用本模型时,建议引用以下文献,这些文献为模型的开发和性能提升提供了理论基础。

@article{steiner2021augreg,
  title={How to train your ViT? Data, Augmentation, and Regularization in Vision Transformers},
  author={Steiner, Andreas et al.},
  journal={arXiv preprint arXiv:2106.10270},
  year={2021}
}

@article{dosovitskiy2020vit,
  title={An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale},
  author={Dosovitskiy, Alexey et al.},
  journal={ICLR},
  year={2021}
}

@misc{rw2019timm,
  author = {Ross Wightman},
  title = {PyTorch Image Models},
  year = {2019},
  doi = {10.5281/zenodo.4414861},
  url = {https://github.com/huggingface/pytorch-image-models}
}

这个项目的目标是将Transformer应用于图像领域,并探索其在图像分类任务中的有效性。通过整合丰富的数据集和先进的理论研究,该模型展示了在视觉任务上的显著性能。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号