Project Icon

vit_giant_patch14_dinov2.lvd142m

基于Vision Transformer的无监督视觉特征提取模型

该项目介绍了使用DINOv2方法的Vision Transformer(ViT)模型,通过无监督学习在LVD-142M数据集上进行预训练。这一模型适用于图像分类和嵌入,帮助提取稳健的视觉特征以及实现高效的图像识别。ViT模型的参数量为1136.5M和1784.2 GMACs,显现出其出色的性能和灵活性。用户可以在GitHub查看和下载该模型的代码和更多资源。

vit_small_patch32_224.augreg_in21k_ft_in1k - Vision Transformer图像分类模型 预训练于ImageNet-21k并微调于ImageNet-1k
GithubHuggingfaceImageNetVision Transformertimm图像分类开源项目模型深度学习
这是一个基于Vision Transformer (ViT)架构的图像分类模型,在ImageNet-21k上进行预训练,并在ImageNet-1k上微调。模型包含2290万参数,处理224x224尺寸的图像输入。通过额外的数据增强和正则化技术提升性能,最初在JAX框架中训练,后移植至PyTorch。该模型提供简洁的API,支持图像分类和特征提取两大功能,可广泛应用于多种计算机视觉任务。
vit-small-patch16-224 - Google开发的轻量级视觉Transformer模型用于高效图像分类
GithubHuggingfaceImageNetVision Transformerpytorch-image-modelssafetensors图像分类开源项目模型
vit-small-patch16-224是Google开发的轻量级视觉Transformer模型,针对高效图像分类任务进行了优化。该模型由社区成员从timm仓库转换并上传至Hugging Face平台。它与ViT-base模型具有相同的使用方式,特别适合计算资源有限的应用场景。模型在ImageNet数据集上经过训练,可用于各种计算机视觉任务,如图像识别和分类。相比ViT-base,它具有更小的模型尺寸和更快的推理速度,同时保持了良好的性能表现。需要注意的是,模型的safetensors版本要求torch 2.0或更高版本的运行环境。
owlvit-large-patch14 - 基于Vision Transformer的零样本目标检测模型
GithubHuggingfaceOWL-ViT多模态模型开源项目模型物体检测视觉变换器零样本学习
OWL-ViT模型采用CLIP和Vision Transformer架构,实现了零样本文本条件目标检测。它可以根据文本查询识别图像中的物体,无需预先定义类别。该模型在大规模图像-文本数据集上进行训练,并在COCO和OpenImages等数据集上微调。OWL-ViT为计算机视觉研究提供了新的可能性,尤其在零样本目标检测领域。
vit_base_patch16_224.augreg_in21k - 基于ImageNet-21k训练的Vision Transformer图像分类模型
GithubHuggingfaceImageNet-21kVision Transformertimm图像分类开源项目模型模型嵌入
这是一个基于Vision Transformer架构的图像分类模型,在ImageNet-21k数据集上训练。模型采用额外的数据增强和正则化技术,参数量1.026亿,处理224x224像素图像。除图像分类外,还可用作特征提取器生成图像嵌入。基于PyTorch实现,提供简洁API,适用于多种计算机视觉任务。模型由Google Research开发,Ross Wightman将其移植到PyTorch。
clip-vit-large-patch14-336 - 大规模视觉语言预训练模型CLIP-ViT-Large
CLIPGithubHuggingfaceViT开源项目模型模型卡片深度学习计算机视觉
CLIP-ViT-Large-Patch14-336是一个基于Vision Transformer架构的视觉语言预训练模型。该模型采用ViT-Large结构,patch大小14x14,输入图像尺寸336x336。它能同时处理图像和文本信息,适用于图像分类、图文检索等多模态任务。虽然训练数据和具体性能未知,但该模型有潜力在视觉语言任务中取得良好表现。
mobilevitv2_075.cvnets_in1k - MobileViT-v2:高效的移动视觉变换器图像分类解决方案
GithubHuggingfaceImageNet-1kMobileViT-v2Separable Self-attention图像分类开源项目模型特征提取
MobileViT-v2是一个高效的移动视觉变换器模型,利用分离自注意力机制优化了图像分类与特征提取。经过ImageNet-1k数据集训练,该模型适配多种计算机视觉任务。模型规格包括2.9M参数和1.1 GMAC,支持256x256图像输入。借助timm库,模型可轻松集成至移动设备的视觉处理应用中。
vit-tiny-patch16-224 - 轻量级ViT模型实现高效图像分类
GithubHugging FaceHuggingfaceImageNetVision Transformer图像分类开源项目权重转换模型
vit-tiny-patch16-224是一个轻量级视觉transformer模型,专注于图像分类任务。这个模型采用16x16的patch大小和224x224的输入分辨率,在保持分类准确性的同时大幅降低了计算资源需求。其小型结构使其特别适合在资源受限环境中使用或需要快速推理的场景。值得注意的是,该模型是基于Google的ViT架构,由第三方研究者使用timm仓库的权重进行转换和发布。
vit_large_patch14_clip_336.openai - 通过CLIP模型探索计算机视觉鲁棒性
CLIPGithubHuggingfaceOpenAI偏见开源项目数据集模型计算机视觉
OpenAI开发的CLIP模型通过ViT-L/14 (336x336)架构提高视觉任务的鲁棒性,专注于零样本图像分类,供研究人员深入探索。这个模型针对英语场景,其数据主要源自发达国家的互联网用户,目前不建议用于商用部署,但在学术界具备多学科研究的重要价值。
vit_base_r50_s16_384.orig_in21k_ft_in1k - ResNet-Vision Transformer混合模型用于高精度图像分类
GithubHuggingfaceImageNetResNetVision Transformertimm图像分类开源项目模型
本模型结合ResNet与Vision Transformer优势,在大规模ImageNet-21k数据集上预训练,并在ImageNet-1k上微调,实现高效准确的图像分类。具备9900万参数,支持384x384像素输入,可用于分类任务和特征提取。研究人员可通过timm库轻松应用此模型,进行推理或深入研究。
vit-pytorch - 通过PyTorch实现多种视觉Transformer变体
GithubPytorchVision Transformer卷积神经网络图像分类开源项目深度学习
本项目展示了如何在PyTorch中实现和使用视觉Transformer(ViT)模型,包括Simple ViT、NaViT、Distillation、Deep ViT等多种变体。利用基于Transformer架构的简单编码器,本项目在视觉分类任务中达到了先进水平。用户可以通过pip进行安装,并参考提供的代码示例进行模型加载和预测。项目还支持高级功能如知识蒸馏、变分图像尺寸训练和深度模型优化,适用于多种视觉任务场景。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号