Project Icon

DFN2B-CLIP-ViT-L-14

基于CLIP架构的大规模数据集训练图像识别模型

DFN2B-CLIP-ViT-L-14是一个基于CLIP架构的图像识别模型,采用数据过滤网络从128亿图像-文本对中筛选20亿高质量样本进行训练。该模型在多个基准测试中平均准确率达66.86%,可用于零样本图像分类等任务。模型提供OpenCLIP接口,便于开发者使用。DFN2B-CLIP-ViT-L-14体现了大规模数据集和先进算法在计算机视觉领域的应用,为图像理解提供有力支持。

Long-CLIP - CLIP模型长文本处理能力升级 显著提升图像检索效果
AI模型CLIPGithubLong-CLIP开源项目文本-图像检索零样本分类
Long-CLIP项目将CLIP模型的最大输入长度从77扩展到248,大幅提升了长文本图像检索性能。在长标题文本-图像检索任务中,R@5指标提高20%;传统文本-图像检索提升6%。这一改进可直接应用于需要长文本处理能力的各类任务,为图像检索和生成领域带来显著进展。
dino-vitb16 - DINO训练的ViT模型在图像识别中的应用
DINOGithubHuggingface图像分类开源项目模型特征提取自监督学习视觉Transformer
DINO-ViTB16是一个基于视觉Transformer的自监督学习模型,在ImageNet-1k数据集上预训练。它将图像分割为16x16像素的patch序列,通过Transformer编码器处理,可捕获图像的内部表示。该模型适用于图像分类等多种计算机视觉任务,通过在[CLS] token上添加线性层即可实现。DINO-ViTB16展示了自监督学习在视觉领域的巨大潜力,为图像处理提供了新的解决方案。
vit_base_patch16_clip_384.laion2b_ft_in12k_in1k - LAION-2B预训练的Vision Transformer图像分类模型
GithubHuggingfaceImageNetLAION-2BVision Transformer图像分类开源项目模型深度学习
该模型基于Vision Transformer架构,在LAION-2B数据集上预训练,随后在ImageNet-12k和ImageNet-1k上微调。模型接受384x384像素的输入图像,包含8690万个参数。除图像分类外,还可用于生成图像特征嵌入。通过timm框架实现,提供灵活配置和简便使用,适用于多种计算机视觉任务。
owlv2-large-patch14 - 开源零样本对象检测模型,支持多文本查询
AI研究CLIPGithubHuggingfaceOWLv2图像识别开源项目模型目标检测
OWLv2模型是一种零样文本感知对象检测模型,使用CLIP作为多模态骨干,通过结合视觉和文本特征实现开词汇检测。模型去除了视觉模型的最终token池化层,并附加分类和框头,能够处理多文本查询,扩展了图像识别的应用潜力。研究者通过重新训练和微调CLIP,提高了其在公开检测数据集上的性能,有助于探讨计算机视觉模型的鲁棒性。
clip-vision-model-tiny - 轻量级AI图像处理与分析视觉模型
GithubHuggingfaceMIT协议代码许可开源协议开源项目模型许可证软件授权
基于MIT许可证开发的轻量级图像视觉模型,采用紧凑架构设计,具备高效的图像处理和分析能力。该开源项目适用于快速部署场景,可在资源受限环境中保持准确的图像识别表现。
InternVL2-1B - 多模态大语言模型实现多图像和视频智能理解
GithubHuggingfaceInternVL2人工智能多模态大语言模型开源项目模型自然语言处理计算机视觉
InternVL2-1B是一款新型多模态大语言模型,结合了InternViT-300M-448px视觉模型和Qwen2-0.5B-Instruct语言模型。该模型在文档理解、图表分析和场景文字识别等任务中表现优异,能有效处理长文本、多图像和视频输入。InternVL2-1B在开源多模态模型中表现突出,部分能力可与商业模型比肩。通过采用8k上下文窗口训练,该模型大幅提升了处理长输入序列的能力。
convnextv2_large.fcmae_ft_in22k_in1k - ConvNeXt-V2图像分类模型结合FCMAE预训练架构
ConvNeXt-V2GithubHuggingfaceImageNet图像分类开源项目模型模型比较深度学习
ConvNeXt-V2是一个大型图像分类模型,通过FCMAE框架预训练并在ImageNet数据集上微调。模型包含1.98亿参数,Top1准确率达87.26%,可用于图像分类、特征提取和嵌入等计算机视觉任务。其224x224的标准训练分辨率和多功能性使其成为视觉处理的实用选择。
Chinese-CLIP - 中文多模态嵌入和检索性能优化的领先方案
Chinese-CLIPGithub图文特征提取开源项目模型下载跨模态检索零样本图像分类
Chinese-CLIP项目,基于大规模中文图文对数据,专门针对中文领域的特点进行优化,提供高效的图文特征计算与相似度测算,实现零样本分类和跨模态检索。该项目改进了多个模型,包括ViT与ResNet结构,并在多个公开数据集上展示了显著的性能提升,为中文处理场景下的企业和研究者提供强大工具。
InternVL2-26B - 全新多模态智能体实现长文本多图像及视频的智能理解
AI识别GithubHuggingfaceInternVL2多模态大语言模型开源项目模型计算机视觉
InternVL2-26B是一个基于视觉模型InternViT-6B和语言模型internlm2-chat-20b开发的多模态模型。通过8K上下文窗口支持长文本处理,同时具备多图像和视频分析能力。在文档理解、图表分析和场景文字识别等评测中表现优异,性能达到开源模型领先水平。
vit_large_patch16_224.augreg_in21k_ft_in1k - 预训练ViT大模型实现高性能图像分类与特征提取
GithubHuggingfaceImageNettimm图像分类开源项目模型视觉转换器迁移学习
这是一个基于Vision Transformer (ViT)架构的大型图像处理模型,在ImageNet-21k数据集上预训练,并在ImageNet-1k上微调。模型采用了先进的数据增强和正则化技术,适用于图像分类和特征提取任务。它包含3.04亿参数,处理224x224尺寸的输入图像。通过TIMM库,用户可以方便地使用该模型进行图像分类和特征嵌入提取。由于在大规模数据集上训练,该模型展现出卓越的图像理解能力。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号