Project Icon

vit-large-patch16-224

大型视觉Transformer模型在ImageNet数据集上的图像分类实现

Vision Transformer大型模型在ImageNet-21k数据集上完成预训练,包含1400万张图像和21,843个分类。模型通过将图像分割为16x16像素块进行处理,支持224x224分辨率输入,并在ImageNet 2012数据集上进行微调。该模型基于PyTorch框架实现,可用于图像分类等视觉任务。

vit_base_patch16_224.augreg_in21k - 基于ImageNet-21k训练的Vision Transformer图像分类模型
GithubHuggingfaceImageNet-21kVision Transformertimm图像分类开源项目模型模型嵌入
这是一个基于Vision Transformer架构的图像分类模型,在ImageNet-21k数据集上训练。模型采用额外的数据增强和正则化技术,参数量1.026亿,处理224x224像素图像。除图像分类外,还可用作特征提取器生成图像嵌入。基于PyTorch实现,提供简洁API,适用于多种计算机视觉任务。模型由Google Research开发,Ross Wightman将其移植到PyTorch。
vit-base-patch32-224-in21k - Vision Transformer模型在2100万图像数据集上预训练
GithubHuggingfaceImageNet-21kVision Transformer图像识别开源项目模型深度学习计算机视觉
Vision Transformer (ViT) 是一种基于transformer架构的视觉模型,在ImageNet-21k数据集上预训练。该模型将图像转换为固定大小的patch序列,通过线性嵌入和位置编码输入transformer编码器。ViT可应用于图像分类等多种视觉任务,只需在预训练编码器上添加任务特定层。模型在224x224分辨率下训练,批量大小为4096,在多项图像分类基准测试中展现出优秀性能。
vit_large_patch16_224.augreg_in21k_ft_in1k - 预训练ViT大模型实现高性能图像分类与特征提取
GithubHuggingfaceImageNettimm图像分类开源项目模型视觉转换器迁移学习
这是一个基于Vision Transformer (ViT)架构的大型图像处理模型,在ImageNet-21k数据集上预训练,并在ImageNet-1k上微调。模型采用了先进的数据增强和正则化技术,适用于图像分类和特征提取任务。它包含3.04亿参数,处理224x224尺寸的输入图像。通过TIMM库,用户可以方便地使用该模型进行图像分类和特征嵌入提取。由于在大规模数据集上训练,该模型展现出卓越的图像理解能力。
vit_small_patch16_224.augreg_in21k_ft_in1k - 视觉Transformer模型实现图像分类与特征提取
GithubHuggingfaceImageNetViT图像分类开源项目模型深度学习神经网络
vit_small_patch16_224.augreg_in21k_ft_in1k是一个经过ImageNet-21k预训练和ImageNet-1k微调的Vision Transformer模型。它采用额外数据增强和正则化技术,适用于图像分类和特征提取。该模型拥有2210万参数,支持224x224图像输入,可通过timm库轻松加载使用。模型原始在JAX训练,后由Ross Wightman移植至PyTorch,为计算机视觉任务提供了强大的基础工具。
vit-small-patch16-224 - Google开发的轻量级视觉Transformer模型用于高效图像分类
GithubHuggingfaceImageNetVision Transformerpytorch-image-modelssafetensors图像分类开源项目模型
vit-small-patch16-224是Google开发的轻量级视觉Transformer模型,针对高效图像分类任务进行了优化。该模型由社区成员从timm仓库转换并上传至Hugging Face平台。它与ViT-base模型具有相同的使用方式,特别适合计算资源有限的应用场景。模型在ImageNet数据集上经过训练,可用于各种计算机视觉任务,如图像识别和分类。相比ViT-base,它具有更小的模型尺寸和更快的推理速度,同时保持了良好的性能表现。需要注意的是,模型的safetensors版本要求torch 2.0或更高版本的运行环境。
vit-tiny-patch16-224 - 轻量级ViT模型实现高效图像分类
GithubHugging FaceHuggingfaceImageNetVision Transformer图像分类开源项目权重转换模型
vit-tiny-patch16-224是一个轻量级视觉transformer模型,专注于图像分类任务。这个模型采用16x16的patch大小和224x224的输入分辨率,在保持分类准确性的同时大幅降低了计算资源需求。其小型结构使其特别适合在资源受限环境中使用或需要快速推理的场景。值得注意的是,该模型是基于Google的ViT架构,由第三方研究者使用timm仓库的权重进行转换和发布。
vit_base_patch16_224.augreg2_in21k_ft_in1k - 高性能Vision Transformer图像分类与特征提取模型
GithubHuggingfaceImageNetVision Transformerpytorch-image-modelstimm图像分类开源项目模型
该模型基于Vision Transformer架构,在ImageNet-21k上预训练并在ImageNet-1k上微调,采用额外的数据增强和正则化技术。适用于图像分类和特征提取,具有8660万参数,支持224x224输入尺寸。模型在性能和效率间取得平衡,可满足多样化的计算机视觉任务需求。
vit_small_patch16_384.augreg_in21k_ft_in1k - 增强的视觉转换器模型及其在图像分类中的应用
GithubHuggingfaceImageNetPyTorchVision Transformer图像分类开源项目数据增强模型
ViT图像分类模型结合增强与正则化技术,基于ImageNet-21k训练后在ImageNet-1k微调。模型通过JAX进行训练并移植至PyTorch,拥有22.2M参数和384x384图像输入,展示了12.4 GMACs的高效性。适用于图像分类与特征提取,在视觉识别和嵌入生成中表现出色。
vit_base_patch16_clip_384.laion2b_ft_in12k_in1k - LAION-2B预训练的Vision Transformer图像分类模型
GithubHuggingfaceImageNetLAION-2BVision Transformer图像分类开源项目模型深度学习
该模型基于Vision Transformer架构,在LAION-2B数据集上预训练,随后在ImageNet-12k和ImageNet-1k上微调。模型接受384x384像素的输入图像,包含8690万个参数。除图像分类外,还可用于生成图像特征嵌入。通过timm框架实现,提供灵活配置和简便使用,适用于多种计算机视觉任务。
vit_base_patch16_224.orig_in21k - Vision Transformer图像特征提取模型无分类头版本
GithubHuggingfaceVision Transformertimm图像分类开源项目模型特征提取预训练模型
vit_base_patch16_224.orig_in21k是一个基于Vision Transformer架构的图像特征提取模型,在ImageNet-21k数据集上预训练。模型采用16x16图像块处理,支持224x224输入尺寸,包含8580万参数。移除分类头设计使其专注于特征提取,适合迁移学习和微调。通过timm库可轻松应用于图像分类和特征提取任务,为计算机视觉研究提供有力支持。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号