Project Icon

vit_base_patch16_224.orig_in21k_ft_in1k

基于ImageNet大规模数据集的Vision Transformer模型

该Vision Transformer模型经过ImageNet-21k数据集预训练并在ImageNet-1k上微调,采用86.6M参数,适用于224x224图像的分类与特征提取。最初由论文作者在JAX上训练,并由Ross Wightman移植到PyTorch环境,可应用于图像分类和嵌入场景。

big_vision - 基于Jax/Flax的大规模视觉模型训练框架
GithubJaxbig vision开源项目模型训练深度学习计算机视觉
Big Vision是一个用于训练大规模视觉模型的开源代码库。它基于Jax/Flax构建,支持在Cloud TPU VM和GPU上运行。该项目采用tf.data和TensorFlow Datasets实现高效的数据处理,可无缝扩展至2048个TPU核心的分布式环境。Big Vision涵盖了视觉Transformer、多模态学习、知识蒸馏等多个研究方向,为大规模视觉实验提供了可靠的基础。
LaVIT - 大语言模型理解生成视觉内容的统一框架
GithubLaVIT多模态大语言模型开源项目视觉内容理解视觉内容生成预训练策略
LaVIT项目是一个创新的多模态预训练框架,旨在增强大语言模型处理视觉内容的能力。该项目通过动态离散视觉标记化技术,将图像和视频转换为离散标记序列,使大语言模型能够理解和生成视觉内容。LaVIT支持图像和视频的理解、生成,以及多模态提示生成,为计算机视觉和自然语言处理的融合提供了新的可能性。
Vision-RWKV - 基于RWKV架构的高效视觉感知模型
GithubVision-RWKV图像处理开源项目深度学习神经网络计算机视觉
Vision-RWKV是一种基于RWKV架构的视觉感知模型。该模型可高效处理高分辨率图像,具有全局感受野,并通过大规模数据集预训练实现良好扩展性。在图像分类任务中,Vision-RWKV性能超越ViT模型;在密集预测任务中,它以更低计算量和更快速度胜过基于窗口的ViT,并与全局注意力ViT相当。Vision-RWKV展现出成为多种视觉任务中ViT替代方案的潜力。
GiT - 通用视觉Transformer模型实现多任务统一
GiTGithub多任务学习开源项目视觉Transformer计算机视觉语言接口
GiT是一种通用视觉Transformer模型,采用单一ViT架构处理多种视觉任务。该模型设计简洁,无需额外视觉编码器和适配器。通过统一语言接口,GiT实现了从目标检测到图像描述等多任务能力。在多任务训练中,GiT展现出任务间协同效应,性能超越单任务训练且无负迁移。GiT在零样本和少样本测试中表现优异,并随模型规模和数据量增加而持续提升性能。
LITv2 - 基于HiLo注意力的快速视觉Transformer
GithubHiLo注意力LITv2图像分类开源项目目标检测视觉Transformer
LITv2是一种基于HiLo注意力机制的高效视觉Transformer模型。它将注意力头分为两组,分别处理高频局部细节和低频全局结构,从而在多种模型规模下实现了优于现有方法的性能和更快的速度。该项目开源了图像分类、目标检测和语义分割任务的预训练模型和代码实现。
Transformer-in-Vision - 深入探索Transformer在计算机视觉领域的最新研究与资源
AI模型ChatGPTGithubTransformer-in-Vision多模态开源项目计算机视觉
本页面收录并介绍了最新的基于Transformer的计算机视觉研究和相关资源,内容涵盖机器人应用、视频生成、文本-图像检索、多模态预训练模型等领域。用户可访问开源代码和论文链接,如ChatGPT在机器人领域的应用、DIFFUSIONDB、LAION-5B、LAVIS、Imagen Video和Phenaki等。页面会不定期更新,提供Transformer在视觉领域应用的全面信息和资源汇总。
MambaVision - 高效且灵活的视觉骨干网络,适用于各种分辨率的图像处理
GithubHugging FaceMambaVision图像分类开源项目深度学习计算机视觉
MambaVision采用混合Mamba-Transformer架构,结合自注意力和混合块,实现了卓越的图像分类和特征提取效果。其创新的对称路径设计提升了全局上下文的建模能力,并提供多种预训练模型。MambaVision支持多种分辨率图像处理,适用于分类、检测和分割等任务。最新模型支持Hugging Face和pip包,详细信息见[官网](https://huggingface.co/collections/nvidia/mambavision-66943871a6b36c9e78b327d3)。
transformers - 机器学习库,覆盖文本、视觉与音频处理
GithubHugging Face人工智能多模态开源项目机器学习自然语言处理
探索🤗 Transformers——一个功能全面的机器学习库,覆盖文本、视觉与音频处理。该库提供数千种可对接JAX、PyTorch或TensorFlow的预训练模型,适用于多种语言处理与多模态任务。主要功能包括: - 文本分类 - 信息提取 - 问答系统 - 摘要生成 - 翻译 - 文本生成 此外,还能处理表格问答、OCR及视觉问答等多模态任务。Transformers库易于使用,支持模型间的快速切换与无缝整合。
tensorflow-image-models - 将PyTorch图像模型移植到TensorFlow的预训练模型库
GithubTensorFlow图像模型开源项目机器学习深度学习预训练权重
tensorflow-image-models是一个将PyTorch图像模型移植到TensorFlow的开源项目。它提供了多种预训练模型,包括ViT、DeiT、ResNet等,可用于图像分类和分割。该项目为开发者提供了简单的API来创建、预处理和保存/加载模型,并支持调整类别数量以适应不同任务。通过这个模型库,研究人员和开发者可以更方便地在TensorFlow中使用先进的图像模型。
Awesome-Backbones - 图像分类的主干网络库及其使用教程
Awesome-BackbonesGithubPyTorch图像分类开源项目模型训练预训练权重
提供丰富的图像分类主干网络,包括TinyViT、DeiT3、EdgeNeXt、RevVisionTransformer等,兼容Pytorch 1.7.1+及Python 3.6+。项目包含环境搭建、数据集准备、训练和评估的详细教程,适合科研和实际应用,提升图像分类模型性能。提供快速开始指南和预训练权重,帮助开发者高效部署与测试。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号