#ImageNet

Stylized-ImageNet - 介绍如何在卷积神经网络中创建和使用风格化的ImageNet数据集
ImageNetStylized-ImageNetCNNPyTorchTensorFlowGithub开源项目
项目详细介绍了如何创建Stylized-ImageNet,一个经风格化处理的ImageNet版本,用于诱导卷积神经网络(CNN)的形状偏向。Stylized-ImageNet通过改变图像的局部纹理而保持整体形状完整,并有助于提高模型的准确性和鲁棒性。项目提供了使用说明、训练细节和Docker镜像,简化实现过程。用户还可使用提供的代码对任何图像数据集进行风格化处理,提升研究效率。
HorNet - 基于递归门控卷积的高效视觉骨干网络
HorNet高阶空间交互Recursive Gated ConvolutionImageNetPyTorchGithub开源项目
HorNet是一个基于递归门控卷积的视觉骨干网络家族,专注于高效的高阶空间交互。项目提供了多个在ImageNet数据集上训练和评估的模型,如HorNet-T、HorNet-S和HorNet-B,广泛应用于图像分类和点云理解等领域。项目页面提供详细的训练和评估说明及模型下载链接。HorNet在提升图像和3D对象分类精度方面表现优异,是计算机视觉研究中的重要工具。
mtt-distillation - 合成数据集优化训练性能,广泛适用于多个领域
Dataset DistillationCVPR 2022CIFAR-100ImageNetSynthetic DataGithub开源项目
通过匹配训练轨迹实现数据集蒸馏,减少模型训练所需的真实数据集数量并保持高性能。适用于ImageNet等大规模数据集,可生成低支撑的合成数据集和可拼接纹理。项目提供详细的实现步骤和代码,从下载仓库、生成专家轨迹到数据集蒸馏,帮助用户快速开始应用。还提供可视化工具和超参数设置指南,满足不同需求。此方法显著提高了模型训练效率,适合学术研究和工业应用。
amc - 自动化模型压缩技术提升移动设备AI性能
模型压缩AutoMLMobileNetImageNet剪枝Github开源项目
AMC (AutoML for Model Compression) 是一种创新的自动化模型压缩方法,专为优化移动设备上的深度学习模型而设计。该方法通过自动搜索剪枝策略、导出压缩权重和微调,成功将MobileNet等模型的计算量减少50%,同时维持或提升准确率。AMC不仅适用于MobileNet-V1和V2,还提供PyTorch和TensorFlow格式的压缩模型,为移动设备上的高效AI应用提供了新的可能性。
Diffusion_models_from_scratch - 完整实现扩散模型的开源框架与教程
Diffusion模型图像生成ImageNetU-Net预训练模型Github开源项目
该项目提供了一个完整的扩散模型实现框架,包含DDPM、DDIM和无分类器引导模型。项目特点包括:基于ImageNet 64x64数据集的预训练模型、详细的环境配置和数据准备指南、全面的训练和推理脚本,以及多种模型架构和优化策略。开发者可以利用此框架轻松训练自定义扩散模型或使用预训练模型生成图像。
SRe2L - 创新的ImageNet规模数据集压缩技术
数据集蒸馏大规模数据自监督压缩ImageNetNeurIPSGithub开源项目
SRe2L项目提出了一种新颖的大规模数据集压缩方法,通过'挤压'、'恢复'和'重新标记'三个步骤实现ImageNet规模数据的高效压缩。该方法在NeurIPS 2023会议上获得spotlight展示,为数据集蒸馏领域带来新的研究视角。项目还包括SCDD和CDA等相关工作,共同推动数据集蒸馏技术在大数据时代的应用和发展。
TransferAttackEval - 转移攻击研究的系统性评估与新发现
对抗样本迁移攻击模型安全评估方法ImageNetGithub开源项目
TransferAttackEval项目对转移攻击进行系统性评估,揭示现有评估方法的问题。项目引入完整攻击分类方法,公平分析攻击可转移性和隐蔽性,获得多项新发现。研究表明部分早期攻击方法优于后续方法,同时指出某些流行防御方法存在安全缺陷。该研究为转移攻击领域提供重要参考,推动相关研究进展。
moco - 基于动量对比的无监督视觉表示学习
MoCo无监督视觉表示学习对比学习ResNet-50ImageNetGithub开源项目
MoCo是一种创新的无监督视觉表示学习方法,利用动量对比在大规模未标注数据上进行预训练。该方法在ImageNet数据集上训练ResNet-50模型,无需标注即可学习出高质量的视觉特征。MoCo v2版本在原基础上进一步优化,线性分类准确率达67.5%。项目开源了PyTorch实现,支持分布式训练,并提供预训练权重。
ffcv-imagenet - 高效ImageNet训练框架提升模型性能
ImageNetffcvResNetPyTorch深度学习Github开源项目
ffcv-imagenet是一个高效的ImageNet训练框架,采用单文件PyTorch脚本实现。该项目能在标准方法1/10的时间内达到相同精度,支持多GPU并行和多模型同时训练。框架提供丰富的配置选项,结合FFCV数据加载和优化训练流程,使研究人员能更快迭代实验并获得高质量模型。项目还包含多种预设配置,适用于不同的训练需求和硬件环境。
vit_small_patch16_384.augreg_in21k_ft_in1k - 增强的视觉转换器模型及其在图像分类中的应用
ImageNet图像分类开源项目Vision TransformerPyTorch模型Huggingface数据增强Github
ViT图像分类模型结合增强与正则化技术,基于ImageNet-21k训练后在ImageNet-1k微调。模型通过JAX进行训练并移植至PyTorch,拥有22.2M参数和384x384图像输入,展示了12.4 GMACs的高效性。适用于图像分类与特征提取,在视觉识别和嵌入生成中表现出色。
convnext_small.fb_in22k - 支持多任务图像处理的预训练模型
ImageNetGithub开源项目特征提取图像分类ConvNeXttimmHuggingface模型
ConvNeXt是一个经过ImageNet-22k预训练的图像分类模型,具备66.3M参数和8.7 GMACs。本文介绍其关键特性及在图像特征提取中的应用,旨在帮助专业用户理解和有效利用该模型进行视觉任务。
resnet50.tv_in1k - ResNet-B模型实现高效图像识别与分析
图像分类Huggingface特征提取开源项目模型ResNet-BGithubImageNetTimm
ResNet-B模型是一款专为图像分类和特征提取而设计的工具,其特点包括ReLU激活和7x7卷积,适合224x224像素图像。在ImageNet-1k数据集上训练,具备优异的参数和计算性能。通过timm库,用户可以轻松将其应用于图像分类、特征提取和图像嵌入等多种场景。
bit-50 - 大规模增强视觉学习的预训练模型
开源项目模型GithubImageNetBig TransferHuggingface迁移学习ResNet图像分类
Big Transfer (BiT) 是一种通过扩展预训练提升视觉任务中深度神经网络表现的方法,优化样本效率和超参数调整。该方法在超过20个数据集上具备优异的迁移能力,并可适应不同数据规模的需求。在ILSVRC-2012数据集上,BiT达到了87.5%的top-1准确率,在CIFAR-10数据集上取得99.4%的准确率,并在19项视觉任务基准测试中获得76.3%的成绩。这使得BiT在图像分类任务中得到广泛应用。
resnet-50 - ResNet v1.5模型及其应用于图像识别
ImageNet卷积神经网络模型图像分类GithubResNet-50残差学习Huggingface开源项目
ResNet v1.5模型采用残差学习和跳跃连接技术,可以训练更深的网络,提升图像识别精度。该版本在3x3卷积中进行下采样,与v1版相比略降性能但提升准确率。在ImageNet-1k数据集上预训练后,适合用于图像分类任务,并可通过Hugging Face平台进行微调。
vit_base_patch32_224.augreg_in21k_ft_in1k - 基于ViT架构的图像分类模型,兼容PyTorch
timmImageNet模型Github开源项目图像分类Vision TransformersViTHuggingface
ViT图像分类模型在ImageNet-21k上训练并在ImageNet-1k上微调,采用数据增强和正则化,适用于图像识别和特征提取。模型包含88.2M参数,通过PyTorch实现,支持多种应用场景。
beit-base-patch16-224-pt22k-ft22k - BEiT 基于Transformer的自监督图像分类模型
模型BEiT开源项目自监督学习图像分类HuggingfaceImageNet视觉转换器Github
BEiT是一种基于Transformer的图像分类模型,在ImageNet-22k数据集上进行自监督预训练和微调。它采用掩码预测目标和相对位置编码,有效学习图像表示。该模型在多个图像分类基准测试中表现出色,为计算机视觉任务提供了强大的基础。
vit-base-patch16-224 - Vision Transformer图像分类模型在ImageNet数据集上的应用
模型神经网络开源项目Huggingface图像分类机器学习Vision TransformerImageNetGithub
vit-base-patch16-224是一个基于Vision Transformer架构的图像分类模型,在ImageNet-21k数据集上预训练并在ImageNet 2012上微调。该模型采用16x16像素的图像分块和序列化处理方法,可高效处理224x224分辨率的图像。在多个图像分类基准测试中,vit-base-patch16-224展现出较好的性能,为计算机视觉任务提供了一种基于Transformer的新方案。
vit-tiny-patch16-224 - 轻量级ViT模型实现高效图像分类
Huggingface图像分类模型权重转换ImageNetVision TransformerGithub开源项目Hugging Face
vit-tiny-patch16-224是一个轻量级视觉transformer模型,专注于图像分类任务。这个模型采用16x16的patch大小和224x224的输入分辨率,在保持分类准确性的同时大幅降低了计算资源需求。其小型结构使其特别适合在资源受限环境中使用或需要快速推理的场景。值得注意的是,该模型是基于Google的ViT架构,由第三方研究者使用timm仓库的权重进行转换和发布。
vit-large-patch32-384 - 基于Transformer架构的大规模图像分类模型
模型Github开源项目Huggingface图像分类Vision TransformerImageNet计算机视觉深度学习
Vision Transformer (ViT) 是一个基于Transformer架构的大型视觉模型,在ImageNet-21k数据集上预训练,并在ImageNet 2012数据集上微调。模型采用图像分块和序列化处理方法,支持384x384分辨率的输入。ViT在多个图像分类基准测试中表现优异,可用于图像分类、特征提取等计算机视觉任务。该模型支持PyTorch框架,适合研究人员和开发者使用。
vit_base_patch16_224.augreg2_in21k_ft_in1k - 高性能Vision Transformer图像分类与特征提取模型
模型开源项目Huggingface图像分类pytorch-image-modelsVision TransformerImageNetGithubtimm
该模型基于Vision Transformer架构,在ImageNet-21k上预训练并在ImageNet-1k上微调,采用额外的数据增强和正则化技术。适用于图像分类和特征提取,具有8660万参数,支持224x224输入尺寸。模型在性能和效率间取得平衡,可满足多样化的计算机视觉任务需求。
tf_mobilenetv3_large_minimal_100.in1k - MobileNetV3轻量级图像分类模型
ImageNet模型图像分类MobileNet-v3GithubtimmpytorchHuggingface开源项目
tf_mobilenetv3_large_minimal_100.in1k是基于MobileNet-v3架构的图像分类模型,在ImageNet-1k数据集上训练。该模型参数量为3.9M,计算复杂度为0.2 GMACs,适用于资源受限的移动设备。模型支持图像分类、特征图提取和图像嵌入等功能。最初由TensorFlow团队开发,后由Ross Wightman移植到PyTorch平台,为开发者提供了多平台使用选择。
vit-small-patch16-224 - Google开发的轻量级视觉Transformer模型用于高效图像分类
ImageNet模型图像分类pytorch-image-modelsGithubsafetensorsVision TransformerHuggingface开源项目
vit-small-patch16-224是Google开发的轻量级视觉Transformer模型,针对高效图像分类任务进行了优化。该模型由社区成员从timm仓库转换并上传至Hugging Face平台。它与ViT-base模型具有相同的使用方式,特别适合计算资源有限的应用场景。模型在ImageNet数据集上经过训练,可用于各种计算机视觉任务,如图像识别和分类。相比ViT-base,它具有更小的模型尺寸和更快的推理速度,同时保持了良好的性能表现。需要注意的是,模型的safetensors版本要求torch 2.0或更高版本的运行环境。
vit_tiny_patch16_384.augreg_in21k_ft_in1k - ViT-Tiny 轻量级视觉转换器模型实现图像分类与特征提取
ImageNet模型图像分类Githubtimm深度学习Vision TransformerHuggingface开源项目
ViT-Tiny是一款轻量级视觉转换器模型,专为图像分类和特征提取而设计。该模型在ImageNet-21k上预训练,并在ImageNet-1k上微调,采用了先进的数据增强和正则化技术。模型仅有5.8M参数,能处理384x384尺寸的图像,通过timm库可轻松加载用于推理或进一步微调。ViT-Tiny在保持高性能的同时,大幅降低了计算资源需求,适合各类图像识别应用场景。
vit-base-patch16-384 - Vision Transformer:基于图像分块的高效视觉识别模型
ImageNet模型图像分类计算机视觉Github深度学习Vision TransformerHuggingface开源项目
Vision Transformer (ViT) 是一种基于Transformer架构的视觉识别模型,在ImageNet-21k上进行预训练,并在ImageNet 2012上微调。模型采用图像分块和序列化处理方法,有效处理384x384分辨率的图像。ViT在多个图像分类基准测试中表现优异,适用于各种计算机视觉任务。该预训练模型为研究人员和开发者提供了快速开发高精度图像识别应用的基础。
mobilenetv3_large_100.miil_in21k_ft_in1k - MobileNet-v3图像分类模型结合大规模和标准数据集优势
特征提取Huggingface图像分类模型timmImageNetGithub开源项目MobileNet-v3
MobileNet-v3是一款轻量级图像分类模型,由阿里巴巴MIIL团队在ImageNet-21k-P上预训练并在ImageNet-1k上微调。模型参数仅5.5M,适合资源受限设备。除图像分类外,还可用于特征图提取和图像嵌入,为视觉任务提供基础。该模型结合了大规模和标准数据集的优势,在保持高效性的同时提升了性能。
vit_base_patch8_224.dino - 将自监督DINO方法应用于视觉变换器以增强图像特征提取能力
Github模型ImageNet开源项目图像分类自监督学习Vision TransformerHuggingface特征提取
该项目利用Vision Transformer (ViT) 和自监督DINO方法进行图像特征提取,支持图像分类和嵌入应用。模型在ImageNet-1k数据集上进行了预训练,具有85.8M参数,能够处理224 x 224分辨率的图像。由于其参数利用效率高,该模型在大规模数据集上表现良好,适合精确特征提取的视觉任务,增强图像识别及分析能力。通过`timm`库可轻松实现模型调用和图像处理,满足多种计算机视觉应用需求。
efficientnet_lite0.ra_in1k - 轻量级EfficientNet模型用于图像分类和特征提取
ImageNet模型图像分类Githubtimm深度学习EfficientNetHuggingface开源项目
efficientnet_lite0.ra_in1k是一个在ImageNet-1k数据集上训练的轻量级图像分类模型。它使用RandAugment数据增强和RMSProp优化器,仅有4.7M参数和0.4 GMACs,适合资源受限环境。该模型支持图像分类、特征图提取和图像嵌入,通过timm库实现,提供简洁API接口,便于快速部署。
vit_base_patch16_384.augreg_in21k_ft_in1k - Vision Transformer用于图像分类和特征提取的先进模型
ImageNet模型图像分类Githubtimm深度学习Vision TransformerHuggingface开源项目
此Vision Transformer模型专注于图像分类和特征提取任务。经ImageNet-21k预训练和ImageNet-1k微调,采用先进的数据增强和正则化方法。支持384x384像素输入,拥有8690万参数。不仅可进行图像分类,还能生成图像嵌入。源自Google Research,经Ross Wightman移植到PyTorch,现已成为timm库的重要组成部分。
mobilevit-small - 高效轻量的移动端视觉转换器
模型神经网络MobileViT开源项目Huggingface图像分类机器学习ImageNetGithub
MobileViT-small是一款轻量级视觉模型,在ImageNet-1k数据集上预训练。该模型融合MobileNetV2结构和transformer块,实现高效全局图像处理。仅5.6M参数量,却在ImageNet上获得78.4%的top-1准确率。适用于移动设备的图像分类等任务,平衡了性能与效率。
resnet50_gn.a1h_in1k - ResNet-B架构图像分类模型结合先进训练方法
模型神经网络开源项目ResNetHuggingface图像分类ImageNetGithubtimm
resnet50_gn.a1h_in1k是基于ResNet-B架构的图像分类模型,集成了多项先进训练技术。模型采用ReLU激活函数、单层7x7卷积与池化、1x1卷积快捷连接下采样等结构。在ImageNet-1k数据集上训练时,应用了LAMB优化器、增强型dropout、随机深度和RandAugment等方法。模型参数量为25.6M,GMACs为4.1,训练输入尺寸为224x224,测试输入尺寸为288x288。该模型可应用于图像分类、特征提取和图像嵌入等多种计算机视觉任务。
swin_base_patch4_window7_224.ms_in22k_ft_in1k - Swin Transformer模型:用于图像分类和特征提取的层级视觉架构
特征提取Huggingface图像分类模型timmImageNetGithub开源项目Swin Transformer
swin_base_patch4_window7_224.ms_in22k_ft_in1k是一个基于Swin Transformer架构的图像分类模型,在ImageNet-22k上预训练并在ImageNet-1k上微调。该模型拥有8780万参数,支持224x224像素图像处理,可用于图像分类和特征提取。通过timm库,研究人员可以方便地加载预训练模型,进行图像分类、特征图提取或生成图像嵌入。这一模型在计算效率和性能之间实现了良好平衡,适用于各种计算机视觉任务。
mobilenetv4_conv_aa_large.e230_r448_in12k_ft_in1k - 高效图像分类与特征提取模型 支持移动设备应用
MobileNetV4ImageNetGithub开源项目图像分类timmHuggingface预训练模型模型
MobileNet-V4图像分类模型经过ImageNet-12k预训练和ImageNet-1k精细调整,优化了参数和图像处理能力。该模型适用于移动设备,并支持特征提取和图像嵌入。凭借出色的Top-1准确率和参数效率,它在同类模型中表现突出,提供快速准确的图像识别能力。
efficientnet-b0 - EfficientNet的复合系数法在资源有限设备上提升图像分类效果
EfficientNet卷积神经网络模型缩放ImageNet模型Github开源项目图像分类Huggingface
EfficientNet是一种训练于ImageNet-1k数据集、分辨率为224x224的卷积模型。该模型提出了复合系数方法,以均衡缩放模型的深度、宽度和分辨率。在移动设备上表现卓越,适用于图像分类。同时,用户可在Hugging Face平台上获取特定任务的微调版本。
deit-base-distilled-patch16-224 - DeiT模型通过蒸馏技术提升ImageNet图像分类性能
视觉Transformer蒸馏图像分类Huggingface模型ImageNetGithubDeiT开源项目
DeiT-base-distilled-patch16-224是一种基于Vision Transformer的图像分类模型,通过蒸馏技术从CNN教师模型中学习。该模型在ImageNet-1k数据集上进行预训练和微调,在224x224分辨率下实现83.4%的top-1准确率。模型采用16x16图像块嵌入和蒸馏token,适用于多种计算机视觉任务,尤其在图像分类领域表现优异。
nest_base_jx.goog_in1k - NesT模型:高精度图像分类的嵌套层次Transformer架构
模型Github神经网络开源项目Huggingface图像分类ImageNetNesT深度学习
NesT (Nested Hierarchical Transformer) 是一种创新的图像分类模型,在ImageNet-1k数据集上训练。该模型拥有6770万参数,支持图像分类、特征提取和图像嵌入等多种应用。NesT模型在JAX中原始训练,后被移植到PyTorch,展现出优秀的准确性、数据效率和可解释性,为计算机视觉领域提供了新的研究方向。
DenseNet - DenseNet高效内存卷积网络
DenseNetCVPR 2017ImageNetCIFAR-10模型Github开源项目
DenseNet通过每层与其他层的直接连接,提升图像识别准确性并减少参数和计算量。最新版本内存效率更高,支持CIFAR和ImageNet数据集,提供PyTorch、TensorFlow、Keras等深度学习框架的实现代码,适合研究和应用。