热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#ViT-SO400M-14
ViT-SO400M-14-SigLIP-384 - 采用SigLIP技术的大规模视觉-语言预训练模型
模型
图像文本对比
WebLI
开源项目
Huggingface
ViT-SO400M-14
零样本图像分类
SigLIP
Github
ViT-SO400M-14-SigLIP-384是一个在WebLI数据集上训练的大规模视觉-语言预训练模型。该模型采用SigLIP(Sigmoid Loss for Language-Image Pre-training)技术,适用于对比学习和零样本图像分类任务。模型提供了与OpenCLIP和timm库的兼容性,支持图像和文本编码。研究人员可将其应用于图像分类、检索等多种视觉-语言任务中。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号