#LAION-5B
CLIP-convnext_base_w-laion2B-s13B-b82K - ConvNeXt CLIP模型在ImageNet零样本分类中达到70.8%以上准确率
Github开源项目模型CLIPHuggingfaceOpenCLIP零样本图像分类ConvNeXtLAION-5B
这是一系列基于LAION-5B数据集训练的CLIP ConvNeXt-Base模型。经过13B样本训练后,模型在ImageNet零样本分类中实现了70.8%以上的Top-1准确率,显示出比ViT-B/16更高的样本效率。模型使用timm的ConvNeXt-Base作为图像塔,并探索了增强图像增强和正则化的效果。作为首个在CLIP ViT-B/16和RN50x4规模下训练的ConvNeXt CLIP模型,它为零样本图像分类研究提供了新的选择。
CLIP-ViT-H-14-frozen-xlm-roberta-large-laion5B-s13B-b90k - CLIP架构多语言视觉语言模型实现高效零样本图像分类与检索
Github开源项目模型CLIP图像分类Huggingface多语言模型零样本学习LAION-5B
这是一个基于CLIP架构的多语言视觉语言模型,在LAION-5B数据集上训练。模型结合了冻结的ViT-H/14视觉结构和XLM-RoBERTa大型文本模型,在多语言零样本图像分类和检索任务中表现优异。适用于零样本图像分类、图文检索等应用,也支持下游任务微调。该模型在英语及其他语言中均展现出强大性能,为跨语言视觉AI应用提供了有力支持。
CLIP-ViT-g-14-laion2B-s12B-b42K - 用于零样本图像分类的先进研究工具
Github开源项目多模态模型模型图像分类Huggingface零样本学习LAION-5BCLIP ViT-g/14
该模型专为研究社区而设计,采用LAION-5B数据集中的英语子集进行训练。它帮助研究人员探索零样本与任意图像分类的可能性,适用于跨学科的研究。该模型仅推荐用于研究目的,不适合用于商业化或未经测试的环境,并强调确保其安全和适当使用。
CLIP-ViT-B-32-xlm-roberta-base-laion5B-s13B-b90k - 具备零样本学习与多语言支持的图像模型
Github开源项目模型图像分类Huggingface零样本学习LAION-5B多语言性能CLIP ViT-B/32
该模型基于LAION-5B数据集和OpenCLIP技术,能够进行零样本图像分类和图像-文本检索。通过结合CLIP ViT-B/32和xlm roberta,这一模型在各种图像任务中显示出较高性能。同时,其多语言能力经验证,可提升imagenet1k等多语言数据集上的表现,尤其在意大利语和日语测试中效果显著。依托于高效的OpenCLIP训练,模型在mscooco和flickr30k数据集上有较大性能提升,是图像生成与分类的可靠选择。