Project Icon

swinv2-tiny-patch4-window8-256

基于分层特征图的轻量级视觉Transformer模型

Swin Transformer V2是一个在ImageNet-1k数据集上预训练的视觉模型,采用分层特征图结构和局部窗口注意力机制,实现线性计算复杂度。模型整合了残差后归一化和余弦注意力等技术,在保持256x256分辨率输入的同时,提供了稳定的图像分类和特征提取能力。

vit_small_patch16_224.augreg_in21k_ft_in1k - 视觉Transformer模型实现图像分类与特征提取
GithubHuggingfaceImageNetViT图像分类开源项目模型深度学习神经网络
vit_small_patch16_224.augreg_in21k_ft_in1k是一个经过ImageNet-21k预训练和ImageNet-1k微调的Vision Transformer模型。它采用额外数据增强和正则化技术,适用于图像分类和特征提取。该模型拥有2210万参数,支持224x224图像输入,可通过timm库轻松加载使用。模型原始在JAX训练,后由Ross Wightman移植至PyTorch,为计算机视觉任务提供了强大的基础工具。
eva02_base_patch14_448.mim_in22k_ft_in22k_in1k - EVA02视觉Transformer的图像分类与特征提取模型
EVA02GithubHuggingfaceImageNet图像分类开源项目模型模型微调视觉变换器
EVA02是一款基于视觉Transformer架构的图像分类和特征提取模型。它结合了平均池化、SwiGLU和旋转位置嵌入技术,在ImageNet-22k数据集上进行预训练并在ImageNet-1k上微调。兼容timm库,以确保在不同设备上的一致性和高效性,广泛适用于多种图像分类和特征提取任务。
vit-base-patch16-224-cifar10 - 视觉Transformer在CIFAR10上的图像分类优化
CIFAR10GithubHuggingfaceVision Transformer图像分类开源项目模型模型微调深度学习
Vision Transformer (ViT) 模型经过ImageNet-21k数据集的预训练,并在CIFAR10数据集上微调,适用于224x224分辨率的图像分类任务。采用16x16像素的固定大小图像补丁进行特征提取,为下游任务提供了有效支持。在GitHub上访问相关代码,了解如何将该技术应用到各种项目中。
vit_base_patch8_224.dino - 将自监督DINO方法应用于视觉变换器以增强图像特征提取能力
GithubHuggingfaceImageNetVision Transformer图像分类开源项目模型特征提取自监督学习
该项目利用Vision Transformer (ViT) 和自监督DINO方法进行图像特征提取,支持图像分类和嵌入应用。模型在ImageNet-1k数据集上进行了预训练,具有85.8M参数,能够处理224 x 224分辨率的图像。由于其参数利用效率高,该模型在大规模数据集上表现良好,适合精确特征提取的视觉任务,增强图像识别及分析能力。通过`timm`库可轻松实现模型调用和图像处理,满足多种计算机视觉应用需求。
swin2SR-realworld-sr-x4-64-bsrgan-psnr - 基于SwinV2的实景图像4倍超分辨率模型
GithubHuggingfaceSwin2SR图像处理图像超分辨率开源项目模型深度学习计算机视觉
Swin2SR是一款图像超分辨率模型,支持图像4倍放大。该模型由Conde等人开发,基于SwinV2 Transformer架构,专注于解决实际场景中的图像超分辨率问题,可有效处理压缩图像的放大和修复。模型提供完整的官方文档支持。
vit_large_patch14_reg4_dinov2.lvd142m - 带寄存器的视觉Transformer模型用于图像特征提取
DINOv2GithubHuggingfaceVision Transformertimm图像分类开源项目模型特征提取
vit_large_patch14_reg4_dinov2.lvd142m是一个带寄存器的视觉Transformer模型,在LVD-142M数据集上使用自监督DINOv2方法预训练。该模型具有3.044亿参数,可处理518x518大小的图像,适用于图像分类和特征提取任务。它结合了ViT和DINOv2技术,为计算机视觉应用提供了高效的解决方案。
samvit_base_patch16.sa1b - 高效的图像特征提取与分类工具
GithubHuggingfaceVision Transformersamvit_base_patch16.sa1b图像分类图像特征提取开源项目模型预训练
Segment-Anything Vision Transformer(SAM ViT)模型专注于图像特征提取与分类,不含分割头。使用MAE权重进行初始化,并通过SA-1B数据集的预训练,展示出89.7M的参数量及486.4 GMACs的计算性能,适宜处理1024x1024图像。Python代码示例提供了图像分类与嵌入应用方式,用户可通过timm库使用预训练模型‘samvit_base_patch16.sa1b’以提升图像分析效率。
vit-base-patch32-224-in21k - Vision Transformer模型在2100万图像数据集上预训练
GithubHuggingfaceImageNet-21kVision Transformer图像识别开源项目模型深度学习计算机视觉
Vision Transformer (ViT) 是一种基于transformer架构的视觉模型,在ImageNet-21k数据集上预训练。该模型将图像转换为固定大小的patch序列,通过线性嵌入和位置编码输入transformer编码器。ViT可应用于图像分类等多种视觉任务,只需在预训练编码器上添加任务特定层。模型在224x224分辨率下训练,批量大小为4096,在多项图像分类基准测试中展现出优秀性能。
dinov2-small-imagenet1k-1-layer - 视觉特征学习的Transformer模型
DINOv2GithubHuggingfaceVision Transformer图像分类开源项目模型特征提取自监督学习
DINOv2方法无监督预训练的Vision Transformer,适用于影像特征学习增强场景。此小尺寸模型能在ImageNet-1k数据集上执行分类任务,通过提取特征来辅助下游任务。尽管模型未包含微调头,但可附加线性层进行标准分类,适合高精度视觉特征需求的应用。
vit_base_patch16_224.orig_in21k_ft_in1k - 基于ImageNet大规模数据集的Vision Transformer模型
GithubHuggingfaceImageNetPyTorchVision Transformertimm图像分类开源项目模型
该Vision Transformer模型经过ImageNet-21k数据集预训练并在ImageNet-1k上微调,采用86.6M参数,适用于224x224图像的分类与特征提取。最初由论文作者在JAX上训练,并由Ross Wightman移植到PyTorch环境,可应用于图像分类和嵌入场景。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号