Visual-Chinese-LLaMA-Alpaca 项目介绍
项目背景
Visual-Chinese-LLaMA-Alpaca,简称VisualCLA,是一个融合了视觉和语言处理的中文多模态模型。该项目基于中文LLaMA&Alpaca大模型,通过加入图像编码模块,使模型能够理解并处理图像信息。这一改进使得LLaMA模型不仅仅局限于文本处理,还能接收到并解析视觉信息。VisualCLA通过中文图文数据的多模态预训练,实现了图像与文本表示的对齐,从而具备基本的多模态理解能力。项目的团队后续利用多模态指令数据集进行了精调,进一步提升了模型对多模态指令的理解、执行和对话能力。
项目现状
目前,该项目仍在开发阶段,现阶段发布的版本是供预览的测试版,模型效果正在不断优化。最新发布的版本是VisualCLA-7B-v0.1,用户可以通过该版本体验模型的多模态功能。
模型架构
VisualCLA模型由三个主要部分组成:
- Vision Encoder:采用ViT结构,负责将输入图像编码为序列表示。模型中使用了CLIP-ViT-L/14作为图像编码器的初始权重。
- Resampler:采用6层类BERT结构,用于通过可训练的查询向量重采样图像表示。图像表示经过线性层处理后对齐到语言模型的维度。
- LLM(大语言模型):采用LLaMA模型,并使用Chinese-Alpaca-Plus 7B进行初始化。模型将图像和文本表示结合,通过给定的指令生成结果。
训练策略
VisualCLA的训练包括两个阶段:
- 多模态预训练:使用中文图文对数据进行训练,让模型能够生成图像对应的文本描述。
- 多模态指令精调:在多种监督任务数据构建的多模态指令数据集上进一步精调,包括视觉问答、开放域问答等任务类型。
模型下载与使用
由于LLaMA模型禁止商用,VisualCLA提供的是增量权重。用户需要在Chinese-Alpaca-Plus和CLIP-ViT的基础上加载或合并模型,以获得完整功能的VisualCLA。可以通过官方提供的百度网盘和Google Drive链接下载增量权重。
模型展示与效果
VisualCLA能够处理涉及视觉元素的中文任务。项目页面提供了一些示例展示了模型在多模态指令理解任务上的效果。用户可以通过提供文本和图像指令,体验模型的对话和理解能力。
局限性
尽管VisualCLA较好地结合了图像和文本的多模态能力,但在某些方面仍存在不足,例如:可能会生成与图像内容不符的描述;对精细文字、表格等内容的理解能力可能较弱;多轮对话可能降低输出质量。
贡献声明
该项目衍生自多项开源工作,开发过程借鉴了多个优秀项目的成果,如BLIP-2、CLIP等。项目的初衷是供学术研究使用,严禁商业用途。
项目也借助了多个多模态数据集,具体细节在项目页面进行了详细说明。研究人员和开发人员对这些项目的支持表示深深感谢,并欢迎在学术领域引用其工作。