#ConvNeXt-V2

convnextv2_base.fcmae_ft_in22k_in1k - 多功能图像分类与特征提取模型
ImageNet模型图像分类Githubtimm预训练模型开源项目HuggingfaceConvNeXt-V2
ConvNeXt-V2是一款先进的图像分类模型,通过全卷积掩码自编码器框架(FCMAE)预训练,并在ImageNet-22k和ImageNet-1k数据集上微调。除图像分类外,该模型还可用于特征图提取和图像嵌入。拥有8870万参数,ConvNeXt-V2在ImageNet-1k验证集上实现86.74%的Top-1准确率。凭借在多项基准测试中的卓越表现,ConvNeXt-V2成为各类计算机视觉任务的优秀选择。
convnextv2_large.fcmae - 用于图像特征提取的自监督卷积模型
图像分类ConvNeXt-V2ImageNet-1k自监督学习HuggingfaceGithub开源项目模型特征提取
ConvNeXt-V2是一种运用全卷积掩码自动编码器框架进行预训练的自监督特征表示模型,适用于微调和特征提取。模型适用于图像分类、特征图提取和图像嵌入,具备较高的参数和计算效率,可在ImageNet-1k等大规模数据集上展现出色表现。通过timm库加载,模型提供了处理多种图像任务的灵活性与精确度,是计算机视觉领域的重要工具。
convnextv2_huge.fcmae_ft_in22k_in1k_384 - 高级卷积网络用于图像分类与特征提取
图像分类HuggingfaceConvNeXt-V2开源项目模型预训练模型Github特征骨干ImageNet-1k
ConvNeXt-V2是一种先进的卷积网络模型,专为图像分类与特征提取而设计。此模型通过全卷积掩码自编码器进行预训练,并在ImageNet-22k和ImageNet-1k上进行微调。具备660.3M参数和338.0 GMACs的计算成本,专为384x384大小的图像设计,确保高效处理与高精度结果。其在主流图像分类任务中的表现卓越,达到88.668的Top-1准确率和98.738的Top-5准确率,其框架优化适配多种计算场景。
convnextv2_huge.fcmae_ft_in22k_in1k_512 - ConvNeXt-V2高效的图像分类与特征提取模型
图像分类模型预训练ConvNeXt-V2HuggingfaceImageNetGithub开源项目模型特征提取
ConvNeXt-V2模型在全卷积掩码自动编码器框架下进行预训练,并在ImageNet-22k和ImageNet-1k数据集上微调,提升了图像分类和特征提取的效率。模型拥有660.3M参数,处理512x512图像,适合复杂计算需求。支持图像分类、特征图提取和图像嵌入,确保高准确率和多样化应用,结合timm库简化操作,适用于研究和工业应用。
convnextv2_large.fcmae_ft_in22k_in1k - ConvNeXt-V2图像分类模型结合FCMAE预训练架构
ConvNeXt-V2模型比较ImageNet深度学习模型Github开源项目图像分类Huggingface
ConvNeXt-V2是一个大型图像分类模型,通过FCMAE框架预训练并在ImageNet数据集上微调。模型包含1.98亿参数,Top1准确率达87.26%,可用于图像分类、特征提取和嵌入等计算机视觉任务。其224x224的标准训练分辨率和多功能性使其成为视觉处理的实用选择。
convnextv2_base.fcmae_ft_in22k_in1k_384 - 高效图像识别与特征开发的开源解决方案
ImageNet图像分类卷积神经网络开源项目模型Huggingface特征提取ConvNeXt-V2Github
ConvNeXt-V2是一款基于全卷积掩码自编码器(FCMAE)预训练的图像分类模型,能够高效处理ImageNet-22k和ImageNet-1k数据集。模型拥有88.7M的参数和45.21 GMACs,适合精准的图像识别和特征开发。兼容timm库,支持图像分类、特征图提取和图像嵌入生成等应用场景。通过简单的Python代码即可调用该模型,提升开发效率。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号