Project Icon

vit_small_patch16_384.augreg_in21k_ft_in1k

增强的视觉转换器模型及其在图像分类中的应用

ViT图像分类模型结合增强与正则化技术,基于ImageNet-21k训练后在ImageNet-1k微调。模型通过JAX进行训练并移植至PyTorch,拥有22.2M参数和384x384图像输入,展示了12.4 GMACs的高效性。适用于图像分类与特征提取,在视觉识别和嵌入生成中表现出色。

rorshark-vit-base - ViT架构图像分类模型实现99.23%精度
GithubHuggingfaceViT准确率图像分类开源项目机器学习模型训练模型
rorshark-vit-base是基于google/vit-base-patch16-224-in21k模型微调的图像分类器。该模型采用Vision Transformer架构,在imagefolder数据集上达到99.23%的分类准确率。经过5轮训练,使用Adam优化器和线性学习率调度。虽然在高精度图像分类任务中表现出色,但其具体应用场景和局限性有待进一步研究。
eva02_base_patch14_448.mim_in22k_ft_in22k_in1k - EVA02视觉Transformer的图像分类与特征提取模型
EVA02GithubHuggingfaceImageNet图像分类开源项目模型模型微调视觉变换器
EVA02是一款基于视觉Transformer架构的图像分类和特征提取模型。它结合了平均池化、SwiGLU和旋转位置嵌入技术,在ImageNet-22k数据集上进行预训练并在ImageNet-1k上微调。兼容timm库,以确保在不同设备上的一致性和高效性,广泛适用于多种图像分类和特征提取任务。
mobilevit-small - 高效轻量的移动端视觉转换器
GithubHuggingfaceImageNetMobileViT图像分类开源项目机器学习模型神经网络
MobileViT-small是一款轻量级视觉模型,在ImageNet-1k数据集上预训练。该模型融合MobileNetV2结构和transformer块,实现高效全局图像处理。仅5.6M参数量,却在ImageNet上获得78.4%的top-1准确率。适用于移动设备的图像分类等任务,平衡了性能与效率。
vit_small_patch8_224.dino - 基于自监督DINO的图像特征提取Transformer
GithubHuggingfaceVision Transformer图像分类开源项目模型模型比较特征提取自监督学习
项目提供了一种自监督DINO方法的Vision Transformer模型,用于图像特征提取。具有21.7M参数和16.8 GMACs运算量,预训练数据为ImageNet-1k。适用于多种视觉任务,支持通过PyTorch和timm库实现,确保高效处理。这项技术在视觉Transformer领域表现出色。
beitv2_base_patch16_224.in1k_ft_in22k - BEiT-v2架构的ImageNet-22k微调图像分类与特征提取模型
BEiT-v2GithubHuggingfaceImageNettimm图像分类开源项目机器学习模型模型
beitv2_base_patch16_224.in1k_ft_in22k是基于BEiT-v2架构的图像分类模型,在ImageNet-1k上进行自监督预训练,并在ImageNet-22k上微调。该模型拥有1.026亿参数,支持224x224像素输入,适用于图像分类和特征提取。通过timm库可轻松加载,为计算机视觉研究和应用提供强大工具。
dino-vitb8 - 无需微调,实现高效图像分类的自监督视觉转换器
GithubHuggingfaceImageNet-1kVision Transformer图像分类开源项目模型自监督学习预训练模型
Vision Transformer (ViT)模型通过DINO方法进行的自监督训练在ImageNet-1k数据集上预训练,注重提升图像特征提取,无需微调即可应用于图像分类,兼顾多种下游任务。可根据任务需求选择合适的微调版本。
vit-pytorch - 通过PyTorch实现多种视觉Transformer变体
GithubPytorchVision Transformer卷积神经网络图像分类开源项目深度学习
本项目展示了如何在PyTorch中实现和使用视觉Transformer(ViT)模型,包括Simple ViT、NaViT、Distillation、Deep ViT等多种变体。利用基于Transformer架构的简单编码器,本项目在视觉分类任务中达到了先进水平。用户可以通过pip进行安装,并参考提供的代码示例进行模型加载和预测。项目还支持高级功能如知识蒸馏、变分图像尺寸训练和深度模型优化,适用于多种视觉任务场景。
beit_base_patch16_224.in22k_ft_in22k_in1k - BEiT模型:基于ImageNet数据集的高效图像分类与特征提取
BEiTGithubHuggingfaceImageNettimm图像分类开源项目模型预训练模型
beit_base_patch16_224.in22k_ft_in22k_in1k是一个强大的图像分类模型,基于BEiT架构设计。该模型在ImageNet-22k数据集上进行自监督掩码图像建模预训练,并在ImageNet-22k和ImageNet-1k上微调,具有8650万个参数。它支持224x224像素的输入图像,可用于图像分类和特征提取,为计算机视觉任务提供高效解决方案。
convit_small.fb_in1k - ConViT结合软卷积特性的图像分类框架
ConViTGithubHuggingfaceImageNet-1k图像分类开源项目模型深度学习神经网络
ConViT是一个在ImageNet-1k数据集上训练的图像分类模型,结合了CNN和Transformer优势。模型参数量2780万,支持224x224图像输入,可用于分类和特征提取任务。模型提供预训练权重,适用于多种计算机视觉应用场景。
swin-base-patch4-window12-384 - 高效图像分类的Swin Transformer视觉模型
GithubHuggingfaceSwin Transformer图像分类层次特征图开源项目模型自注意力机制视觉转换器
Swin Transformer是一款视觉Transformer,通过使用层级特征图和移窗技术,进行高效图像分类。模型在ImageNet-1k数据集上以384x384分辨率训练,具备线性计算复杂度,使其适用于图像分类和密集识别任务。模型可用于原始图像分类,或者在模型集中寻找细化版本,适合处理计算密集型任务。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号