#视觉语言模型
daclip-uir - 利用视觉语言模型控制实现通用图像修复
DA-CLIP视觉语言模型图像恢复AI技术训练数据集Github开源项目
DA-CLIP模型通过视觉语言控制实现通用图像修复。用户可以通过多种方式使用预训练模型,如Gradio应用测试图像,或通过提供的代码示例和数据准备步骤进行训练和评估。该项目提供解决多种真实世界图像退化问题的方法,并提供多种预训练模型供下载。功能和性能的持续更新显著提升了其在图像修复中的适用性。
SEED - 融合视觉与语言的多模态AI框架
SEED-LLaMA多模态AI助手视觉语言模型大语言模型Github开源项目
SEED是一个创新的多模态AI框架,通过视觉分词器和去分词器,赋予大语言模型视觉理解和生成能力。该系统支持多模态理解与生成,展现出多轮上下文多模态生成等组合能力。基于SEED开发的SEED-LLaMA在广泛的多模态任务中表现优异,为AI领域开辟了新的研究方向。
cambrian - 开创性视觉为中心的多模态AI模型研究
Cambrian-1多模态LLM视觉语言模型开源项目AI研究Github
Cambrian-1是一个开源的视觉为中心的多模态AI模型项目。采用两阶段训练方法,在8B、13B和34B参数规模上达到了与闭源模型相当的性能。项目发布了Cambrian-10M指令微调数据集和CV-Bench基准测试集,为研究提供重要资源。Cambrian-1使用较少的视觉token,在多个视觉语言任务中表现出色,促进了开放式多模态AI的进步。
florence2-finetuning - 视觉语言模型的高效微调实现
Florence-2微软视觉语言模型微调分布式训练Github开源项目
本项目展示了Florence-2模型的微调方法。Florence-2是一个基础视觉语言模型,特点是模型小且性能强。项目包含模型安装、数据准备和代码修改说明,并提供单GPU及分布式训练脚本。这些工具可用于Florence-2的特定任务训练,适用于各种计算机视觉和视觉语言任务。
VILA - 创新的视觉语言模型预训练方法
VILA视觉语言模型预训练多模态量化Github开源项目
VILA是一种新型视觉语言模型,采用大规模交错图像-文本数据预训练,增强了视频和多图像理解能力。通过AWQ 4位量化和TinyChat框架,VILA可部署到边缘设备。该模型在视频推理、上下文学习和视觉思维链等方面表现出色,并在多项基准测试中获得了优异成绩。项目完全开源,包括训练和评估代码、数据集以及模型检查点。
CLIP-ReID - 基于CLIP的无标签图像重识别新方法
CLIP-ReID图像重识别视觉语言模型人工智能计算机视觉Github开源项目
CLIP-ReID提出了一种无需具体文本标签的图像重识别新方法。该方法基于CLIP视觉-语言模型,结合CNN和ViT架构,并运用SIE和OLP等技术进行优化。在MSMT17等多个基准数据集上,CLIP-ReID展现了领先的性能,为图像重识别领域开辟了新的研究方向。
Awesome-Multimodal-Large-Language-Models - 多模态大语言模型研究资源与最新进展汇总
多模态大语言模型视觉语言模型指令微调视频理解模型评估Github开源项目
该项目汇总了多模态大语言模型(MLLMs)领域的最新研究成果,包括论文、数据集和评估基准。涵盖多模态指令微调、幻觉、上下文学习等方向,提供相关代码和演示。项目还包含MLLM调查报告及MME、Video-MME等评估基准,为研究人员提供全面参考。
Video-LLaVA - 统一视觉表示学习的新方法 增强跨模态交互能力
Video-LLaVA视觉语言模型多模态视频理解图像理解Github开源项目
Video-LLaVA项目提出了一种新的对齐方法,实现图像和视频统一视觉表示的学习。该模型在无图像-视频配对数据的情况下,展现出色的跨模态交互能力,同时提升图像和视频理解性能。研究显示多模态学习的互补性明显改善了模型在各类视觉任务上的表现,为视觉-语言模型开发提供新思路。
DeepSeek-VL - 高性能开源视觉语言模型 多模态理解与复杂场景应用
DeepSeek-VL视觉语言模型多模态理解开源人工智能Github开源项目
DeepSeek-VL是一个开源视觉语言模型,为实际应用场景而设计。它能处理逻辑图表、网页、公式、科学文献、自然图像等,并在复杂场景中展现智能。模型提供1.3B和7B两种参数规模,支持基础和对话应用,可用于学术研究和商业用途。DeepSeek-VL采用MIT许可证,为研究人员和开发者提供了强大的视觉语言处理工具。
MiniGPT-4 - 视觉语言多任务学习的统一接口
MiniGPT-v2视觉语言模型多任务学习大型语言模型图像理解Github开源项目
MiniGPT-4是一个视觉语言理解项目,整合了Llama 2和Vicuna模型以增强多模态能力。它支持图像描述、视觉问答和多任务学习,能够处理复杂的视觉理解任务。项目的开源性和灵活架构为研究人员和开发者提供了探索视觉语言AI的工具。
gRefCOCO - 泛化指代表达分割的创新数据集与评估基准
GRESgRefCOCOGREC指代表达分割视觉语言模型Github开源项目
gRefCOCO是一个面向泛化指代表达分割(GRES)任务的数据集,支持泛化指代表达理解(GREC)和泛化指代表达分割(GRES)两项主要任务。项目提供数据集下载、使用指南、评估指标代码和基于MDETR的训练推理示例,为计算机视觉研究提供了有力工具,推动了指代分割领域的进展。
LLaMA-VID - 支持长视频处理的多模态大语言模型
LLaMA-VID大语言模型视觉语言模型多模态视频理解Github开源项目
LLaMA-VID是一个新型多模态大语言模型,可处理长达数小时的视频。它通过增加上下文令牌扩展了现有框架的能力,采用编码器-解码器结构和定制令牌生成策略,实现对图像和视频的高效理解。该项目开源了完整的模型、数据集和代码,为视觉语言模型研究提供了有力工具。
LLaVA-NeXT - 大规模开源多模态模型提升视觉语言能力
LLaVA-NeXT多模态模型视觉语言模型AI助手大语言模型Github开源项目
LLaVA-NeXT是一个开源的大规模多模态模型项目,致力于提升视觉语言交互能力。该项目支持多图像、视频和3D任务的统一处理,在多个基准测试中表现卓越。LLaVA-NeXT提供了多个模型变体,包括支持高分辨率输入和视频处理的版本,以及基于不同大语言模型的实现。此外,项目还开源了训练数据和代码,为研究人员和开发者提供了宝贵资源。
colpali - 基于视觉语言模型的高效文档检索系统
ColPali文档检索视觉语言模型模型训练效率Github开源项目
ColPali是一个基于视觉语言模型的文档检索系统。该项目整合了ColBERT检索器模型、大型语言模型和图像语言模型,实现高效的文档搜索功能。ColPali支持自定义训练,安装和使用简便,适用于多种文档检索场景。系统能同时处理文本和图像信息,提供准确全面的检索结果。
CogCoM - 链式操作助力视觉语言模型精细化理解
CogCoM视觉语言模型Chain of Manipulations多模态AI推理Github开源项目
CogCoM是一个新型视觉语言模型,采用链式操作技术逐步处理复杂视觉问题。该项目包含6种基本操作、级联数据生成流程和多轮多图像模型架构。CogCoM在对话、描述、定位和推理等方面表现出色,并在GQA、TallyVQA等多项基准测试中取得优异成绩。这个开源项目为研究人员提供了完整的代码、模型和数据集,促进了视觉语言模型在细节理解领域的发展。
llm-awq - 激活感知权重量化技术实现大语言模型高效压缩与加速
AWQLLM模型量化视觉语言模型边缘设备Github开源项目
AWQ是一种高效的大语言模型低比特权重量化技术,支持INT3/4量化,适用于指令微调和多模态模型。它提供预计算模型库、内存高效的4位线性层和快速推理CUDA内核。AWQ使TinyChat可在边缘设备上实现大模型高效本地推理。该技术已被Google、Amazon等采用,并获MLSys 2024最佳论文奖。
ViTamin - 推动计算机视觉进入新时代的可扩展视觉语言模型
ViTamin视觉语言模型计算机视觉深度学习图像处理Github开源项目
ViTamin是一系列可扩展的视觉语言模型,在图像分类、开放词汇检测和分割等任务上取得突破。以436M参数量在DataComp-1B数据集训练,实现82.9%的ImageNet零样本准确率。在7个开放词汇分割基准测试中创新纪录,并提升大型多模态模型能力。获timm和OpenCLIP官方支持,提供简单接口。ViTamin为计算机视觉领域带来新的可能性。
SAN - 轻量高效的开放词汇语义分割框架
开放词汇语义分割Side Adapter NetworkCLIP模型视觉语言模型语义分割Github开源项目
Side Adapter Network (SAN)是一个开放词汇语义分割框架,将分割任务建模为区域识别问题。它在冻结的CLIP模型旁附加轻量级侧网络,实现高效准确的分割。SAN在多个语义分割基准测试中表现优异,具有更少的可训练参数和更快的推理速度。这一方法为开放词汇语义分割领域提供了新的解决思路。
plip - 病理学视觉语言基础模型 革新AI分析
PLIP病理学AI预训练模型视觉语言模型Github开源项目
PLIP是首个针对病理AI的视觉和语言基础模型,通过大规模预训练实现病理图像和文本描述的特征提取。作为CLIP模型的改进版,PLIP支持图像文本编码和相似度计算,可通过多种API方式使用。该模型为病理图像分析提供新的研究工具,助力医疗AI在病理诊断和研究中的应用。
MMBench - 全面评估多模态大模型能力的基准测试
MMBench多模态模型评估基准视觉语言模型循环评估Github开源项目
MMBench是评估视觉语言模型多模态理解能力的基准测试集。它包含近3000道多项选择题,涵盖20个能力维度,采用循环评估和LLM选项提取等创新方法,提供可靠客观的评估。通过细粒度的能力测试和可重复的评价标准,MMBench为多模态模型开发提供了有价值的反馈。
Bunny - 轻量高效多模态模型支持高分辨率图像分析
Bunny多模态模型视觉语言模型轻量级模型AI模型Github开源项目
Bunny是一个轻量高效的多模态模型家族,集成多种视觉编码器和语言骨干网络。该项目通过优化训练数据提升小规模模型性能,其中Bunny-Llama-3-8B-V模型支持1152x1152分辨率图像处理,在多项视觉语言任务中表现优异。Bunny为开发者提供了灵活的多模态AI解决方案。
Image In Words - 先进AI技术生成超详细图像文本描述
AI工具Image In Words图像描述视觉语言模型AI识别数据集
Image In Words是一款专业的图像识别工具,能够生成超详细的图像文本描述。这个在线工具采用先进的AI技术,为各种复杂场景提供准确、全面的图像解析。它不仅适用于大型语言模型的识别任务,还在提高视障用户可访问性和改进图像搜索等实际应用中表现出色。Image In Words的主要特点包括生成超详细描述、提升模型性能、减少虚构内容、增强可读性和视觉语言推理能力。该工具目前支持英语,并在多项测试中展现出优秀的质量和自然度。
ALLaVA - GPT4V合成数据集助力轻量级视觉语言模型训练
ALLaVAGPT-4V视觉语言模型数据集微调Github开源项目
ALLaVA项目推出大规模GPT4V合成数据集,旨在促进轻量级视觉语言模型的训练。项目发布了ALLaVA-Phi3-mini-128k、ALLaVA-StableLM2-1_6B和ALLaVA-Phi2-2_7B等多个模型版本,可直接从Hugging Face仓库加载。ALLaVA-4V数据集整合了LAION和Vision FLAN的图像标注与指令数据,以及GPT-4-Turbo生成的文本指令,总样本量超过140万。这一资源为视觉语言模型研究提供了丰富的训练数据和预训练模型,有望推动该领域的进一步发展。
MMStar - 大型视觉语言模型评估的新标准
MMStar多模态评估视觉语言模型基准测试人工智能Github开源项目
MMStar是一个创新的多模态评估基准,包含1500个精选的视觉关键样本。它解决了现有评估中的视觉冗余和数据泄露问题,提高了多模态性能评估的准确性。MMStar涵盖6大核心能力和18个细分维度,每个核心能力均衡分配250个样本。项目提供评估工具、数据集和在线排行榜,为视觉语言模型研究指明新方向。
GeoChat - 专为遥感领域打造的视觉语言模型
GeoChat遥感视觉语言模型AI计算机视觉Github开源项目
GeoChat是一款专门针对遥感领域开发的视觉语言模型。它采用LLaVA-1.5架构,通过新创建的遥感多模态数据集进行训练,能够处理高分辨率遥感图像并进行区域级推理。GeoChat可以完成图像描述、视觉问答和场景分类等多项遥感任务,且具备零样本学习能力。该模型在多个基准测试中表现出色,为遥感图像分析提供了新的解决方案。
cobra - 高效推理的多模态大语言模型扩展
Cobra多模态大语言模型Mamba高效推理视觉语言模型Github开源项目
Cobra项目是一个基于Mamba架构的多模态大语言模型,旨在实现高效推理。该模型支持文本和图像输入,提供预训练权重、训练代码和推理脚本。Cobra在处理视觉语言任务时保持高性能,为研究人员和开发者提供了实用的工具。项目包括模型加载、图像处理和文本生成等功能,便于用户快速上手和应用。
tokenize-anything - 基于视觉提示的多功能区域分割识别和描述模型
TAPAI分割识别视觉语言模型灵活提示多任务处理Github开源项目
Tokenize Anything via Prompting是一个多功能视觉模型,可通过点、框和草图等视觉提示对图像中的任意区域进行分割、识别和描述。该模型利用SA-1B数据集和预训练的EVA-CLIP模型进行训练,具备强大的语义理解能力。其模块化设计支持多样化的视觉语言任务,可自定义预测器和异步处理流程,适用于各种应用场景。
EVE - 无编码器视觉语言模型实现高效性能
EVE视觉语言模型无编码器预训练微调Github开源项目
EVE项目开发了一种无编码器的视觉语言模型架构,通过高效训练策略和精选数据集实现了与现有编码器基础模型相当的性能。该模型支持任意纵横比图像输入,在多项基准测试中表现优异。EVE-7B和EVE-7B-HD两个版本在视觉语言任务中展现了强大能力,为跨模态纯解码器架构提供了高效实用的开发方法。
moondream - 小巧高效的视觉语言模型 兼容多平台运行
moondream视觉语言模型图像识别AI问答深度学习Github开源项目
moondream是一款小型视觉语言模型,可在多种平台上运行。该模型在VQAv2、GQA和TextVQA等基准测试中表现优异,能够回答图像相关问题并提供详细描述。moondream支持批量处理,可通过transformers库或GitHub仓库使用。尽管体积小巧,该模型在图像理解和问答任务上表现出色。
AnomalyGPT - 突破性工业异常检测方法
AnomalyGPT工业异常检测视觉语言模型ImageBindVicunaGithub开源项目
AnomalyGPT是一种创新的工业异常检测方法,结合了大型视觉语言模型技术。该方法无需手动设置阈值,能自动检测工业图像中的异常,并指出其位置和特征。AnomalyGPT通过预训练的图像编码器和语言模型,利用模拟异常数据来分析工业图像及相关描述。此外,它还可以仅凭少量正常样本就能识别新类型的异常。
x-clip - 灵活实现的CLIP视觉语言预训练模型
CLIP对比学习视觉语言模型多模态深度学习Github开源项目
x-clip是一个简洁而全面的CLIP实现,整合了多项前沿研究成果。该项目支持灵活的模型配置,包括自定义文本和图像编码器、多视图对比学习和视觉自监督学习等功能。通过易用的API,研究人员可以快速实验各种CLIP变体和改进方案。x-clip适用于图像检索、跨模态理解等多种视觉语言任务。
ViP-LLaVA - 改进大型多模态模型的视觉提示理解能力
ViP-LLaVA视觉语言模型多模态模型视觉提示CVPR2024Github开源项目
ViP-LLaVA项目旨在提升大型多模态模型对任意视觉提示的理解能力。通过在原始图像上叠加视觉提示进行指令微调,该方法使模型能更好地处理多样化的视觉输入。项目还开发了ViP-Bench,这是首个零样本区域级基准,用于评估多模态模型性能。ViP-LLaVA提供完整的训练流程、模型权重和演示,为视觉语言模型研究提供了有力支持。
awesome-multimodal-in-medical-imaging - 医学影像多模态学习应用资源集锦
医学影像多模态学习报告生成视觉问答视觉语言模型Github开源项目
该项目汇集医学影像多模态学习应用资源,涵盖数据集、综述、报告生成、视觉问答和视觉语言模型等。内容包括大语言模型相关论文,并提供最新论文和代码链接。资源库定期更新,收录超过100篇高质量论文,为医学影像多模态研究提供重要参考。
VisualRWKV - 结合RWKV的创新视觉语言模型
VisualRWKV视觉语言模型RWKV预训练微调Github开源项目
VisualRWKV是一个创新的视觉语言模型,基于RWKV架构设计,可处理多样化的视觉任务。该模型采用两阶段训练策略:首先进行预训练,利用预训练数据集训练视觉编码器到RWKV的投影层;随后进行微调,通过视觉指令数据优化模型性能。项目提供完整的训练指南,涵盖数据准备、模型获取和训练流程,支持多GPU并行和不同规模RWKV模型的训练。
HallusionBench - 探索视觉语言模型的幻觉与错觉问题
HallusionBench视觉语言模型AI评估多模态模型图像理解Github开源项目
HallusionBench是一个诊断视觉语言模型中语言幻觉和视觉错觉的测试集。通过图像-文本推理任务,它挑战了GPT-4V和LLaVA-1.5等顶级多模态模型。项目提供案例分析,揭示模型局限性,为改进提供见解。HallusionBench设有公开评测基准,欢迎研究人员贡献失败案例,推动多模态AI发展。
Multimodal-AND-Large-Language-Models - 多模态与大语言模型前沿研究综述
多模态大语言模型视觉语言模型人工智能机器学习Github开源项目
本项目汇总了多模态和大语言模型领域的最新研究进展,涵盖结构化知识提取、事件抽取、场景图生成和属性识别等核心技术。同时探讨了视觉语言模型在推理、组合性和开放词汇等方面的前沿问题。项目还收录了大量相关综述和立场文章,为研究人员提供全面的领域概览和未来方向参考。
相关文章