#DINO

DINO - 降噪锚框实现端到端目标检测
DINO目标检测图像分割深度学习COCOGithub开源项目
DINO采用改良的降噪锚框,提供先进的端到端目标检测功能,并在COCO数据集上实现了优异的性能表现。模型在较小的模型和数据规模下,达到了63.3AP的优秀成绩。DINO具有快速收敛的特点,使用ResNet-50主干网络仅在12个周期内即可达到49.4AP。项目还提供丰富的模型库和详细的性能评估,用户可以通过Google Drive或百度网盘获取模型检查点和训练日志。
dino-vits16 - DINO训练的小型Vision Transformer模型及其应用
模型开源项目Huggingface自监督学习DINO图像处理Vision Transformer特征提取Github
dino-vits16是一个基于DINO方法训练的小型Vision Transformer模型。该模型在ImageNet-1k数据集上进行自监督预训练,能够有效学习图像特征表示。它采用16x16像素的图像块作为输入,可应用于多种视觉任务。dino-vits16展示了自监督学习在计算机视觉领域的潜力,为图像分类等下游任务奠定了基础。
vit_base_patch16_224.dino - 自监督训练的ViT模型实现高效图像特征提取
DINO模型自监督学习图像分类GithubVision Transformer特征提取开源项目Huggingface
vit_base_patch16_224.dino是一个基于Vision Transformer架构的图像特征提取模型。该模型采用自监督DINO方法在ImageNet-1k数据集上预训练,可用于图像分类和特征提取。模型包含8580万参数,支持224x224像素的输入图像。通过timm库,研究人员可以便捷地将其应用于多种计算机视觉任务,深入探索自监督学习在视觉领域的潜力。
dino-vits8 - 采用DINO训练的自监督Vision Transformer模型
Github预训练模型开源项目图像分类自监督学习Vision TransformerHuggingfaceDINO
小型Vision Transformer模型使用DINO自监督方法训练,专为ImageNet-1k数据集预训练。模型通过8x8像素的固定大小图像块输入,用于图像表征,无需微调便可用于图像分类任务。ViT模型适合下游任务的特征提取,并可通过线性层进行分类。用户可在Hugging Face上找到适合特定任务的微调版本。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号