项目介绍:CLIP-ViT-B-32-xlm-roberta-base-laion5B-s13B-b90k
CLIP-ViT-B-32-xlm-roberta-base-laion5B-s13B-b90k是一个将视觉和文本结合的机器学习模型。它是通过OpenCLIP工具,基于LAION-5B大数据集进行训练而成的。这项工作由Romain Beaumont在stability.ai的计算集群上完成。
模型详情
模型描述
这个模型结合了CLIP技术中的视觉模块ViT-B/32和文本模块xlm roberta base。它的训练数据来自于LAION-5B,一个规模庞大的开放图像和文本数据集。模型在视觉方面使用ViT-B/32架构进行初始训练,而在文本方面则继承了预训练的xlm roberta base权重,使得模型在图像和多语言文本处理上具备强大的能力。
用途
直接用途
- 零样本图像分类:无需事先标记数据便能进行图像分类。
- 图像与文本检索:可用于从大量图像或文本中找出对方的对应内容。
下游用途
- 图像分类任务细化:继续训练以提升特定领域图像识别能力。
- 线性探测图像分类:在固定特征下进行简单线性分类实验。
- 图像生成引导和条件控制:结合自然语言进行图像生成等。
训练详情
训练数据
该模型的训练完全依托于LAION-5B数据集。训练过程中选取了130亿个样本,并使用90k的批次大小进行多轮迭代。
训练程序
模型在视觉侧采用B/32架构,文本侧则使用预训练权重从xlm roberta base开始初始化。整个训练过程详细信息可参考https://wandb.ai/rom1504/open-clip/reports/xlm-roberta-base-B-32--VmlldzoyOTQ5OTE2。
评估
评估由LAION CLIP Benchmark工具完成,使用VTAB+数据集进行分类测试,以及使用COCO和Flickr进行检索测试。
测试数据及指标
- ImageNet 1k准确率达到62.33%(基准模型为62.9%)
- MS COCO准确率为63.4%(基准模型为60.8%)
- Flickr30k准确率为86.2%(基准模型为85.4%)
初步的多语言评估显示:在ImageNet1k上意大利语达到了43%(相较于英文B/32的21%),日语为37%(相较于英文B/32的1%及B/16的50%),证明模型多语言处理能力有效。未来更大规模的模型能达到更好的表现。
致谢
特别感谢stability.ai提供的计算资源来支持本模型的训练。
如何开始使用该模型
可以通过访问https://github.com/mlfoundations/open_clip来获取更多关于如何运行和使用该模型的信息。