#视觉问答
i-Code
i-Code是一个致力于多模态人工智能研究的开源项目。它提供了多个版本的多模态基础模型,包括i-Code V1、V2和V3(CoDi),以及i-Code Studio框架。项目还涉及多模态文档智能和基于知识的视觉问答技术。i-Code为AI领域提供了集成视觉、语言和语音的多模态工具,促进了人工智能的跨领域发展。
Monkey
Monkey是一个开源的多模态大模型项目,通过提高图像分辨率和优化文本标签来改善模型性能。该项目在MMBench、CCBench和MME等基准测试中表现优异。Monkey提供完整的模型定义、训练代码和演示系统,支持离线和在线部署。此外,项目还开源了多级描述生成数据集,并提供了针对多个视觉问答数据集的评估工具,方便研究人员进行实验和改进。
KG-MM-Survey
本项目汇总了知识图谱与多模态学习融合研究的相关论文,主要包括知识图谱驱动的多模态学习(KG4MM)和多模态知识图谱(MM4KG)两个方向。KG4MM探讨知识图谱对多模态任务的支持,MM4KG研究多模态技术在知识图谱领域的应用。项目覆盖理解推理、分类、生成、检索等多种任务,提供了详细的文献列表和资源。这是一份系统全面的知识图谱与多模态学习交叉领域研究综述。
large-ocr-model.github.io
本项目研究 OCR 技术对多模态大模型性能的影响。实验表明,OCR 能显著提高模型在视觉问答任务中的表现。研究者构建了 REBU-Syn 数据集,验证了 OCR 领域的缩放法则,并开发了高精度 OCR 模型。这项工作为多模态大模型的应用开辟了新方向,揭示了 OCR 在增强模型能力方面的重要价值。
Retrieval-Augmented-Visual-Question-Answering
这个项目开发了一个基于细粒度后期交互多模态检索的视觉问答系统。系统在OK-VQA等多个基准数据集上实现了先进的检索和问答性能。它采用模块化架构,包含预训练映射网络、FLMR检索器和BLIP2读取器等关键组件。项目提供完整的代码库,支持训练和评估,并发布了预训练模型和处理后的数据集,便于研究人员进行后续研究。
LLaVA-Med
LLaVA-Med是一个针对生物医学领域的大规模语言和视觉模型。该模型通过课程学习方法对LLaVA进行了生物医学领域适应,在PathVQA和VQA-RAD等开放式生物医学问答任务中表现优异。LLaVA-Med支持多模态对话和视觉问答,为生物医学视觉语言处理研究提供了有力工具。需要注意的是,此模型仅供研究使用,不适用于临床决策。
ban-vqa
项目实现了Bilinear Attention Networks,应用于视觉问答和图像实体定位。VQA 2.0测试集上性能优异,单模型得分70.35,集成模型达71.84。Flickr30k实体任务中,Recall@1/5/10分别为69.88/84.39/86.40。基于PyTorch构建,包含预训练模型和完整工作流程,便于进行相关研究或实际应用开发。
awesome-multimodal-in-medical-imaging
该项目汇集医学影像多模态学习应用资源,涵盖数据集、综述、报告生成、视觉问答和视觉语言模型等。内容包括大语言模型相关论文,并提供最新论文和代码链接。资源库定期更新,收录超过100篇高质量论文,为医学影像多模态研究提供重要参考。
BLIVA
BLIVA是一款简单有效的多模态大语言模型,专门处理富文本视觉问题。其在多个视觉问答基准中表现出色,并公开了模型权重和训练代码。结合FlanT5和Vicuna版本,BLIVA适用于多种商业用途并提升认知和感知任务性能。演示和安装教程也非常详细。