#ConvNeXt V2

convnextv2_nano.fcmae_ft_in1k - 基于FCMAE的ConvNeXt-V2高效图像分类与特征提取模型
Github开源项目深度学习模型图像分类Huggingface特征提取ImageNet-1kConvNeXt V2
ConvNeXt-V2模型通过全卷积掩码自动编码器框架进行预训练,并在ImageNet-1k数据集上进行微调。该模型具备15.6百万参数,支持多种图像尺寸处理,训练尺寸为224x224,测试尺寸为288x288。借助timm库,它可执行图像分类、特征提取和图像嵌入,适用于多种应用场景。
convnextv2-base-22k-384 - 基于ImageNet-22K数据集的ConvNeXt V2全卷积模型
Github开源项目模型图像分类ImageNetHuggingface自动编码器视觉ConvNeXt V2
ConvNeXt V2模型通过FCMAE框架和新引入的GRN层提高卷积网络在图像分类中的效果,基于ImageNet-22K数据集训练,支持高分辨率和出色性能表现,适用于多种识别任务,可用于直接应用或微调以满足特定需求。
convnextv2_tiny.fcmae_ft_in22k_in1k_384 - ConvNeXt-V2:精准高效的图像分类模型
Github开源项目模型图像分类ImageNetHuggingface自动编码器卷积网络ConvNeXt V2
ConvNeXt-V2 模型具备高效的图像分类能力,通过全卷积掩码自编码器架构进行预训练,并在 ImageNet-22k 和 ImageNet-1k 数据集上进行精调。该模型具备 28.6M 参数量、13.1 GMACs 计算量,支持 384x384 的图像尺寸。通过 timm 库使用,支持图像分类、特征图提取和图像嵌入等多种视觉任务。
convnextv2-tiny-1k-224 - 基于全新框架节点,优化卷积网络的性能
Github开源项目卷积神经网络模型图像分类ImageNetHuggingfaceFCMAEConvNeXt V2
ConvNeXt V2引入了全新的全卷积掩码自动编码器框架及全局响应归一化层,提升卷积网络在多种识别基准的表现,经过ImageNet-1K数据集微调,适合高精度图像分类任务及视觉识别应用。
convnextv2-atto-1k-224 - ConvNeXt V2 提升卷积网络性能的先进图像分类模型
Github开源项目卷积神经网络模型图像分类HuggingfaceConvNeXt V2FCMAE框架ImageNet-1K
ConvNeXt V2 是一种创新的图像分类模型,利用 FCMAE 框架在 ImageNet-1K 数据集上进行微调。该模型结合了全卷积掩码自编码器和新型 GRN 层,有效提升了在多项识别基准上的性能。模型能够进行图像分类,预测应用于 ImageNet 1,000 类问题,是计算机视觉任务的高效选择。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号