#视觉语言处理

Otter - 基于MIMIC-IT数据集和OpenFlamingo的多模态模型
OtterMIMIC-IT多模态指令微调视觉语言处理Github开源项目
该项目结合了OpenFlamingo模型和MIMIC-IT数据集进行多模态指令调优,拥有280万条指令-响应对,支持图像和视频内容的精确理解与互动。该项目还包括OtterHD模型,提升高分辨率视觉输入的细粒度解释,并推出MagnifierBench评估基准测试模型的微小物体识别能力。公开的代码可用于训练和预训练,并支持GPT4V的评估和Flamingo架构的多任务处理。
Video-LLaVA-7B - 统一图像和视频处理的多模态AI模型
多模态模型Huggingface模型大语言模型视觉语言处理视频理解Github开源项目Video-LLaVA
Video-LLaVA是一种新型多模态AI模型,采用对齐后投影方法学习统一视觉表示。该模型能同时处理图像和视频,具备出色的视觉推理能力。即使没有图像-视频配对数据,Video-LLaVA也能实现图像和视频间的有效交互。通过将统一视觉表示与语言特征空间绑定,该模型在多模态学习和各类视觉任务中展现优异性能。
llava-med-v1.5-mistral-7b - Mistral-7B驱动的生物医学视觉语言模型 快速训练的开源研究工具
生物医学人工智能模型医学图像识别Github模型LLaVA-Med视觉语言处理Huggingface开源项目
LLaVA-Med-v1.5-Mistral-7b是一款专注生物医学领域的大型视觉语言模型。它基于PMC-15M数据集开发,采用课程学习方法训练,能处理多种医学图像类型,如显微镜、放射和组织学图像。该模型在PathVQA和VQA-RAD等基准测试中表现优异,为生物医学视觉语言研究提供了重要工具。值得注意的是,这是一个仅用于研究目的的开源项目,仅支持英语处理,不适用于临床环境。
vip-llava-7b-hf - 基于自然视觉提示的多模态语言模型
ViP-LLaVAHuggingfaceGithub开源项目模型视觉语言处理多模态AIAI聊天机器人图像识别
VipLLaVA在LLaVA基础上引入自然视觉提示训练机制,通过边界框和指向箭头等视觉标记增强模型的图像理解能力。作为基于Transformer架构的多模态模型,VipLLaVA支持多图像输入和复杂视觉查询处理。该模型通过微调LLaMA/Vicuna实现,可集成到transformers库中实现图像文本交互,并支持4位量化和Flash Attention 2优化部署。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号