PaliGemma-3b-pt-448项目介绍
项目概述
PaliGemma-3b-pt-448是一个由Google开发的多功能、轻量级的视觉-语言模型(VLM)。这个模型是基于开放组件如SigLIP视觉模型和Gemma语言模型而构建的。它能够同时接受图像和文本作为输入,并生成文本作为输出,支持多种语言。该模型旨在通过微调在广泛的视觉-语言任务上实现领先的性能,如图像和短视频字幕、视觉问答、文本阅读、目标检测和目标分割等。
模型架构
PaliGemma-3b-pt-448模型由一个Transformer解码器和一个Vision Transformer图像编码器组成,总共有30亿个参数。文本解码器是基于Gemma-2B初始化的,而图像编码器则是基于SigLIP-So400m/14初始化的。整个模型是按照PaLI-3的方法进行训练的。
输入与输出
- 输入:图像和文本字符串,如描述图像的提示或问题。
- 输出:根据输入生成的文本,如图像描述、问题答案、目标边界框坐标列表或分割代码字。
预训练数据集
PaliGemma-3b-pt-448模型在多个数据集上进行了预训练,包括:
- WebLI:一个大规模的多语言图像-文本数据集
- CC3M-35L:来自网页的英语图像-文本对,并翻译成34种额外语言
- VQ²A-CC3M-35L/VQG-CC3M-35L:VQ2A-CC3M的子集,翻译成34种额外语言
- OpenImages:基于OpenImages数据集生成的检测和目标感知问答
- WIT:从维基百科收集的图像和文本
数据处理
在训练过程中,项目团队对WebLI数据集应用了多种过滤方法,以确保训练数据的清洁度:
- 色情图像过滤
- 文本安全过滤
- 文本毒性过滤
- 个人信息过滤
- 其他基于内容质量和安全性的方法
使用方法
PaliGemma-3b-pt-448模型主要设计用于微调特定任务,而不是直接使用。用户可以通过任务前缀(如"detect"或"segment")来配置模型要解决的任务。对于交互式测试,可以使用经过多任务微调的"mix"系列模型。
在Transformers库中使用
该模型可以通过Transformers库轻松加载和使用。用户可以选择在CPU上运行默认精度(float32)的模型,或在CUDA设备上运行bfloat16或float16精度的模型。此外,还支持4位和8位量化推理,以进一步优化性能和内存使用。
评估结果
PaliGemma-3b-pt-448模型在多个基准测试中展现出了优秀的性能,包括图像描述、问答、视觉推理等任务。这些评估结果表明,该模型具有强大的迁移学习能力,可以适应各种视觉-语言任务。
总的来说,PaliGemma-3b-pt-448是一个功能强大、灵活多用的视觉-语言模型,为研究人员和开发者提供了一个优秀的工具,可用于各种复杂的多模态任务。