Project Icon

vit-mae-base

MAE预训练Vision Transformer模型的图像处理能力

Vision Transformer (ViT)模型采用MAE方法预训练,通过随机遮蔽75%图像块实现自监督学习。该模型能有效捕捉图像内在表示,适用于图像分类等多种计算机视觉任务。研究人员可利用其预训练编码器提取特征或进行微调,以满足特定应用需求。

samvit_base_patch16.sa1b - 高效的图像特征提取与分类工具
GithubHuggingfaceVision Transformersamvit_base_patch16.sa1b图像分类图像特征提取开源项目模型预训练
Segment-Anything Vision Transformer(SAM ViT)模型专注于图像特征提取与分类,不含分割头。使用MAE权重进行初始化,并通过SA-1B数据集的预训练,展示出89.7M的参数量及486.4 GMACs的计算性能,适宜处理1024x1024图像。Python代码示例提供了图像分类与嵌入应用方式,用户可通过timm库使用预训练模型‘samvit_base_patch16.sa1b’以提升图像分析效率。
FasterViT - 高效分层注意力的视觉transformer新突破
FasterViTGithub图像分类层级注意力机制开源项目目标检测视觉Transformer
FasterViT是一种创新的视觉transformer模型,采用分层注意力机制高效捕获短程和长程信息。在ImageNet分类任务中,FasterViT实现了精度和吞吐量的新平衡,无需额外训练数据即达到最先进水平。该项目提供多种预训练模型,适应不同计算资源和精度需求,支持任意分辨率输入,为目标检测、分割等下游任务提供灵活选择。
vit-large-patch32-384 - 基于Transformer架构的大规模图像分类模型
GithubHuggingfaceImageNetVision Transformer图像分类开源项目模型深度学习计算机视觉
Vision Transformer (ViT) 是一个基于Transformer架构的大型视觉模型,在ImageNet-21k数据集上预训练,并在ImageNet 2012数据集上微调。模型采用图像分块和序列化处理方法,支持384x384分辨率的输入。ViT在多个图像分类基准测试中表现优异,可用于图像分类、特征提取等计算机视觉任务。该模型支持PyTorch框架,适合研究人员和开发者使用。
videomae-large - 视频自监督学习的高效模型
GithubHuggingfaceVideoMAE开源项目模型自监督视频分类视频预训练
VideoMAE大型模型在Kinetics-400数据集上进行自监督预训练,采用掩码自编码器方法,有效学习视频的内在表示。利用视觉Transformer架构,通过将视频划分为固定大小的图像块,结合线性嵌入和位置编码,进行深度分析和像素预测,适用于多种后续任务和特征提取,包括视频分类和处理。
rorshark-vit-base - ViT架构图像分类模型实现99.23%精度
GithubHuggingfaceViT准确率图像分类开源项目机器学习模型训练模型
rorshark-vit-base是基于google/vit-base-patch16-224-in21k模型微调的图像分类器。该模型采用Vision Transformer架构,在imagefolder数据集上达到99.23%的分类准确率。经过5轮训练,使用Adam优化器和线性学习率调度。虽然在高精度图像分类任务中表现出色,但其具体应用场景和局限性有待进一步研究。
efficientvit - EfficientViT多尺度线性注意力用于高分辨率密集预测
EfficientViTGithub图像分割开源项目模型优化深度学习计算机视觉
EfficientViT是一种新型ViT模型,专注于高效处理高分辨率密集预测视觉任务。其核心是轻量级多尺度线性注意力模块,通过硬件友好操作实现全局感受野和多尺度学习。该项目提供图像分类、语义分割和SAM等应用的预训练模型,在性能和效率间达到平衡,适合GPU部署和TensorRT优化。
vit-base-patch16-224-cifar10 - 视觉Transformer在CIFAR10上的图像分类优化
CIFAR10GithubHuggingfaceVision Transformer图像分类开源项目模型模型微调深度学习
Vision Transformer (ViT) 模型经过ImageNet-21k数据集的预训练,并在CIFAR10数据集上微调,适用于224x224分辨率的图像分类任务。采用16x16像素的固定大小图像补丁进行特征提取,为下游任务提供了有效支持。在GitHub上访问相关代码,了解如何将该技术应用到各种项目中。
vit_base_patch32_clip_384.openai_ft_in12k_in1k - 采用ViT技术的视觉Transformer模型
Fine-tuningGithubHuggingfaceVision Transformertimm图像分类开源项目模型预训练
这款视觉Transformer图像分类模型由OpenAI基于WIT-400M数据集使用CLIP技术预训练,并经过ImageNet-12k和ImageNet-1k数据集微调。作为一种强大的图像分类和嵌入模型,其参数量达88.3M,计算量为12.7 GMACs,设计用于384x384图像。支持通过`timm`库接口调用,满足多种视觉任务需求,在图像识别和分析领域表现出稳定性能。
vit_small_r26_s32_384.augreg_in21k_ft_in1k - ResNet与Vision Transformer结合的图像分类模型解析
GithubHuggingfaceImageNetViTtimm图像分类增广正则化开源项目模型
该模型结合ResNet与Vision Transformer(ViT)的特点,专用于图像分类。最初在ImageNet-21k上训练,后在ImageNet-1k上微调,并在JAX中创建,由Ross Wightman移植到PyTorch环境中。模型采用了36.5M参数和27.7M激活,针对384x384图像进行了优化,通过增强和正则化技术提升了处理复杂图像任务的能力,适用于多种图像识别应用。
fastvit_ma36.apple_in1k - Apple开源的高性能混合视觉Transformer图像处理模型
FastViTGithubHuggingface图像分类开源项目机器学习模型神经网络计算机视觉
FastViT是Apple开源的混合视觉Transformer模型,基于结构重参数化技术构建。模型在ImageNet-1k数据集训练,参数量4410万,支持256x256图像输入。主要功能包括图像分类、特征图提取和图像嵌入表示。通过混合架构设计,在保证准确率的基础上优化了计算效率。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号