项目简介
CLIP-convnext_base_w-laion_aesthetic-s13B-b82K是一个基于ConvNeXt架构的CLIP模型系列。这个项目探索了一种新的替代方案,用于替代传统的ViT和ResNet架构,在模型规模和图像分辨率方面都表现出良好的扩展性。
技术特点
该模型系列具有以下显著特征:
- 首次在大规模数据集上训练ConvNeXt CLIP模型,其规模可与CLIP ViT-B/16和RN50x4模型相媲美
- 首次发布的模型权重探索了图像塔的增强和正则化技术,包括更大范围的随机裁剪、随机擦除和随机深度等
模型架构
模型采用了timm库中的ConvNeXt-Base作为图像编码器,文本编码器则采用与OpenAI CLIP RN50x4相同的架构(深度12,嵌入维度640)。基础模型在256x256分辨率下训练,在计算量和激活量上与RN50x4模型相当。
训练细节
- 训练数据集:使用LAION-2B和LAION-Aesthetic数据集
- 批量大小:81920
- 训练样本:约13B个样本
- 训练环境:在stability.ai集群和JUWELS超级计算机上进行
性能表现
- 在ImageNet-1k零样本分类任务上达到70.8%-71.7%的top-1准确率
- 相比ViT-B/16模型(34B样本训练达到70.2%)表现出更好的样本效率
- 增强正则化版本(augreg)在更广泛的分辨率范围内表现良好
应用场景
- 零样本图像分类
- 图像和文本检索
- 图像分类微调
- 线性探测图像分类
- 图像生成引导和条件控制
使用限制
- 不建议在未经充分测试的情况下部署到实际应用中
- 不适用于监视和人脸识别等场景
- 仅支持英语相关的使用场景
- 不建议直接用于工业产品的开发
重要说明
该模型主要面向研究社区,旨在帮助研究人员更好地理解和探索零样本图像分类。使用时需要注意数据集的未经筛选性质,建议仅用于研究目的。