#视觉语言处理

Otter: 一个基于OpenFlamingo的多模态AI模型

2 个月前
Cover of Otter: 一个基于OpenFlamingo的多模态AI模型
相关项目
Project Cover

Otter

该项目结合了OpenFlamingo模型和MIMIC-IT数据集进行多模态指令调优,拥有280万条指令-响应对,支持图像和视频内容的精确理解与互动。该项目还包括OtterHD模型,提升高分辨率视觉输入的细粒度解释,并推出MagnifierBench评估基准测试模型的微小物体识别能力。公开的代码可用于训练和预训练,并支持GPT4V的评估和Flamingo架构的多任务处理。

Project Cover

Video-LLaVA-7B

Video-LLaVA是一种新型多模态AI模型,采用对齐后投影方法学习统一视觉表示。该模型能同时处理图像和视频,具备出色的视觉推理能力。即使没有图像-视频配对数据,Video-LLaVA也能实现图像和视频间的有效交互。通过将统一视觉表示与语言特征空间绑定,该模型在多模态学习和各类视觉任务中展现优异性能。

Project Cover

llava-med-v1.5-mistral-7b

LLaVA-Med-v1.5-Mistral-7b是一款专注生物医学领域的大型视觉语言模型。它基于PMC-15M数据集开发,采用课程学习方法训练,能处理多种医学图像类型,如显微镜、放射和组织学图像。该模型在PathVQA和VQA-RAD等基准测试中表现优异,为生物医学视觉语言研究提供了重要工具。值得注意的是,这是一个仅用于研究目的的开源项目,仅支持英语处理,不适用于临床环境。

Project Cover

vip-llava-7b-hf

VipLLaVA在LLaVA基础上引入自然视觉提示训练机制,通过边界框和指向箭头等视觉标记增强模型的图像理解能力。作为基于Transformer架构的多模态模型,VipLLaVA支持多图像输入和复杂视觉查询处理。该模型通过微调LLaMA/Vicuna实现,可集成到transformers库中实现图像文本交互,并支持4位量化和Flash Attention 2优化部署。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号