项目介绍:ConvNeXT-Tiny-224
ConvNeXT-tiny-224是一个视觉相关的深度学习项目,专注于图像分类任务。这个项目构建了一个基于纯卷积模型(ConvNet)的神经网络,并且在ImageNet-1k数据集上进行训练,同时以224x224像素的分辨率来处理图像。该模型首次在论文A ConvNet for the 2020s中被提出,并发布在该仓库中。
模型描述
ConvNeXT是受Vision Transformers设计启发而开发的一种纯卷积神经网络。研究人员从传统的ResNet网络开始,将其设计进行了现代化更新,并从Swin Transforme中汲取了灵感。他们声称这种更新后的设计在性能上超越了Vision Transformers。在其架构设计中,他们注重了模型的简化和高效性,使其更适合现代的计算需求。
使用意图与限制
ConvNeXT模型主要用于原始图像分类任务。如果用户需要在特定任务上使用,可以查看模型中心以寻找针对该任务优化的模型版本。
使用方法
以下是如何使用ConvNeXT-tiny-224模型将COCO 2017数据集中的一张图像分类为1,000个ImageNet类别之一的代码示例:
from transformers import ConvNextImageProcessor, ConvNextForImageClassification
import torch
from datasets import load_dataset
dataset = load_dataset("huggingface/cats-image")
image = dataset["test"]["image"][0]
processor = ConvNextImageProcessor.from_pretrained("facebook/convnext-tiny-224")
model = ConvNextForImageClassification.from_pretrained("facebook/convnext-tiny-224")
inputs = processor(image, return_tensors="pt")
with torch.no_grad():
logits = model(**inputs).logits
# 模型预测出1,000个ImageNet类别中的一个
predicted_label = logits.argmax(-1).item()
print(model.config.id2label[predicted_label]),
更多的代码示例可以参考文档。
引用信息
如果需要在文献中引用该模型,请使用以下BibTeX条目:
@article{DBLP:journals/corr/abs-2201-03545,
author = {Zhuang Liu and
Hanzi Mao and
Chao{-}Yuan Wu and
Christoph Feichtenhofer and
Trevor Darrell and
Saining Xie},
title = {A ConvNet for the 2020s},
journal = {CoRR},
volume = {abs/2201.03545},
year = {2022},
url = {https://arxiv.org/abs/2201.03545},
eprinttype = {arXiv},
eprint = {2201.03545},
timestamp = {Thu, 20 Jan 2022 14:21:35 +0100},
biburl = {https://dblp.org/rec/journals/corr/abs-2201-03545.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}