Project Icon

mobilevit-xx-small

轻量级移动端视觉转换模型,适用于通用图像分类

MobileViT模型的设计同时保证了轻量和低延迟性能,通过结合MobileNetV2和全局处理变换器块,适合各种图像分类应用。模型无需位置嵌入,已在ImageNet-1k数据集预训练并取得69%的top-1准确率。训练过程中采用简单的数据增强方法,可无须微调即可学到多尺度特征。目前支持PyTorch框架。

SPViT - 单路径自注意力剪枝,提升ViT模型效率的新方法
GithubSPViT卷积层开源项目模型剪枝自注意力机制视觉Transformer
SPViT项目提出了一种单路径自注意力剪枝方法,将预训练ViT模型中的自注意力层剪枝为卷积层,形成混合模型结构。该方法通过权重共享机制降低了模型搜索成本,在减少计算资源消耗的同时保持了模型性能。实验表明,SPViT在多个基准测试中表现良好,为Vision Transformer模型的优化设计提供了新思路。
MobileSAM - 高效轻量化图像分割模型,适用于移动设备
AI模型GithubMobileSAM图像分割开源项目深度学习计算机视觉
MobileSAM是一种轻量级图像分割模型,专为移动应用优化。它保持了与原始SAM相当的性能,同时大幅减少了模型参数和推理时间。通过将ViT-H编码器替换为TinyViT,MobileSAM将参数量从615M降至9.66M,推理速度从456ms提升至12ms。该项目提供完整的训练和使用文档,支持ONNX导出,可轻松集成到现有SAM项目中。
mobilenetv3_large_100.miil_in21k_ft_in1k - MobileNet-v3图像分类模型结合大规模和标准数据集优势
GithubHuggingfaceImageNetMobileNet-v3timm图像分类开源项目模型特征提取
MobileNet-v3是一款轻量级图像分类模型,由阿里巴巴MIIL团队在ImageNet-21k-P上预训练并在ImageNet-1k上微调。模型参数仅5.5M,适合资源受限设备。除图像分类外,还可用于特征图提取和图像嵌入,为视觉任务提供基础。该模型结合了大规模和标准数据集的优势,在保持高效性的同时提升了性能。
xcit_nano_12_p8_224.fb_in1k - 基于跨协方差转换器的轻量级图像分类模型
GithubHuggingfaceImageNet图像分类开源项目模型深度学习神经网络计算机视觉
xcit_nano_12_p8_224.fb_in1k采用跨协方差图像转换器(XCiT)架构,是一个参数量为3.0M的轻量级图像分类模型。模型在ImageNet-1k数据集上完成预训练,支持224x224尺寸的图像输入,可应用于图像分类和特征提取。模型通过跨协方差注意力机制降低计算复杂度,适合实际部署应用。
vivit-b-16x2-kinetics400 - ViViT 扩展Vision Transformer至视频分析领域的创新模型
GithubHuggingfaceViViT开源项目模型深度学习视觉变换器视频分类计算机视觉
ViViT是Arnab等人提出的视频视觉Transformer模型,将Vision Transformer的概念扩展到视频领域。这一模型主要应用于视频分类等任务的微调,在视频数据处理方面表现出色。ViViT为视频分析和理解开辟了新途径,为研究人员和开发者提供了进行视频相关任务开发的有力工具。该模型的出现推动了计算机视觉技术在视频领域的发展,为未来的视频智能分析奠定了基础。
vit_base_r50_s16_384.orig_in21k_ft_in1k - ResNet-Vision Transformer混合模型用于高精度图像分类
GithubHuggingfaceImageNetResNetVision Transformertimm图像分类开源项目模型
本模型结合ResNet与Vision Transformer优势,在大规模ImageNet-21k数据集上预训练,并在ImageNet-1k上微调,实现高效准确的图像分类。具备9900万参数,支持384x384像素输入,可用于分类任务和特征提取。研究人员可通过timm库轻松应用此模型,进行推理或深入研究。
vit_large_patch14_clip_336.openai_ft_in12k_in1k - ViT图像分类与特征提取模型
GithubHuggingfaceImageNet-1kVision TransformerWIT-400M图像分类开源项目模型预训练模型
OpenAI的ViT图像分类模型,利用CLIP在WIT-400M上预训练,并在ImageNet数据集上微调,适合多种视觉任务。其高性能参数为研究与开发提供强大支持,通过示例代码,可轻松实现图像分类与嵌入功能。
vit_base_patch32_224.augreg_in21k_ft_in1k - 基于ViT架构的图像分类模型,兼容PyTorch
GithubHuggingfaceImageNetViTVision Transformerstimm图像分类开源项目模型
ViT图像分类模型在ImageNet-21k上训练并在ImageNet-1k上微调,采用数据增强和正则化,适用于图像识别和特征提取。模型包含88.2M参数,通过PyTorch实现,支持多种应用场景。
vit-base-patch16-224-cifar10 - 视觉Transformer在CIFAR10上的图像分类优化
CIFAR10GithubHuggingfaceVision Transformer图像分类开源项目模型模型微调深度学习
Vision Transformer (ViT) 模型经过ImageNet-21k数据集的预训练,并在CIFAR10数据集上微调,适用于224x224分辨率的图像分类任务。采用16x16像素的固定大小图像补丁进行特征提取,为下游任务提供了有效支持。在GitHub上访问相关代码,了解如何将该技术应用到各种项目中。
clip-vision-model-tiny - 轻量级AI图像处理与分析视觉模型
GithubHuggingfaceMIT协议代码许可开源协议开源项目模型许可证软件授权
基于MIT许可证开发的轻量级图像视觉模型,采用紧凑架构设计,具备高效的图像处理和分析能力。该开源项目适用于快速部署场景,可在资源受限环境中保持准确的图像识别表现。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号