#图像理解

CogVLM2 - 基于Llama3-8B的GPT4V级开源多模态模型
CogVLM2CogVLM2-VideoMeta-Llama-3-8B-Instruct视频理解图像理解Github开源项目
CogVLM2是基于Meta-Llama-3-8B-Instruct的下一代模型系列,在多项基准测试中表现优异,支持中英文内容和高分辨率图像处理。该系列模型适用于图像理解、多轮对话和视频理解,特别适合需要处理长文本和高分辨率图像的场景。CogVLM2系列还支持8K内容长度,并在TextVQA和DocVQA等任务中显著提升表现。体验更先进的CogVLM2和CogVLM2-Video模型,迎接未来视觉智能挑战。
CogVLM - 开源视觉语言模型,提升图像理解与跨模态对话功能
CogVLMCogAgent跨模态基准测试图像理解多回合对话Github开源项目
CogVLM和CogAgent是领先的开源视觉语言模型,专注于图像理解和跨模态任务。CogVLM-17B拥有100亿视觉参数和70亿语言参数,并在NoCaps、Flicker30k等十个经典跨模态基准测试上表现出色。CogAgent在CogVLM的基础上改进,增添了GUI图像代理能力,支持1120*1120分辨率的图像理解,并在VQAv2、TextVQA等九个基准测试中表现优秀。该项目提供详细的技术文档、示例代码和Web演示,用户可以方便地进行模型推理和微调。了解更多信息,请访问项目主页。
Video-LLaVA - 统一视觉表示学习的新方法 增强跨模态交互能力
Video-LLaVA视觉语言模型多模态视频理解图像理解Github开源项目
Video-LLaVA项目提出了一种新的对齐方法,实现图像和视频统一视觉表示的学习。该模型在无图像-视频配对数据的情况下,展现出色的跨模态交互能力,同时提升图像和视频理解性能。研究显示多模态学习的互补性明显改善了模型在各类视觉任务上的表现,为视觉-语言模型开发提供新思路。
MiniGPT-4 - 视觉语言多任务学习的统一接口
MiniGPT-v2视觉语言模型多任务学习大型语言模型图像理解Github开源项目
MiniGPT-4是一个视觉语言理解项目,整合了Llama 2和Vicuna模型以增强多模态能力。它支持图像描述、视觉问答和多任务学习,能够处理复杂的视觉理解任务。项目的开源性和灵活架构为研究人员和开发者提供了探索视觉语言AI的工具。
MGM - 多模态视觉语言模型的潜力挖掘与创新
Mini-Gemini多模态视觉语言模型AI绘图大语言模型图像理解Github开源项目
Mini-Gemini项目探索多模态视觉语言模型的新可能。该项目支持2B至34B规模的大语言模型,实现图像理解、推理和生成功能。基于LLaVA构建的Mini-Gemini提供完整资源,包括预训练权重、数据集和评估基准。通过双视觉编码器和patch信息挖掘等技术创新,Mini-Gemini实现了文本与图像的深度融合。
VisionLLaMA - 基于LLaMA的统一视觉模型,为图像生成和理解设立新基准
VisionLLaMA计算机视觉图像生成图像理解预训练模型Github开源项目
VisionLLaMA是一个基于LLaMA架构的统一视觉Transformer模型,专为处理2D图像而设计。该模型提供平面和金字塔两种形式,适用于广泛的视觉任务,包括图像感知和生成。通过各种预训练范式的广泛评估,VisionLLaMA在多项图像生成和理解任务中展现出卓越性能,超越了现有最先进的视觉Transformer模型,为计算机视觉领域提供了新的基准。
AITag.Photo - AI图片分析和描述生成平台
AI工具AI标签图片描述照片管理图像理解故事生成
AITag.Photo利用AI技术为图片生成详细描述、标签和社交媒体文案。该工具快速分析图片内容,提供精准标签和描述,提升照片管理效率。其图片故事创作功能激发用户创意。适合个人和专业用户,有效提高照片管理和内容创作效率。
HallusionBench - 探索视觉语言模型的幻觉与错觉问题
HallusionBench视觉语言模型AI评估多模态模型图像理解Github开源项目
HallusionBench是一个诊断视觉语言模型中语言幻觉和视觉错觉的测试集。通过图像-文本推理任务,它挑战了GPT-4V和LLaVA-1.5等顶级多模态模型。项目提供案例分析,揭示模型局限性,为改进提供见解。HallusionBench设有公开评测基准,欢迎研究人员贡献失败案例,推动多模态AI发展。
layoutlmv2-large-uncased - 提升多模态文档处理能力的先进预训练模型
开源项目模型GithubLayoutLMv2Huggingface文档AI多模态图像理解预训练
LayoutLMv2通过整合文本、布局和图像的新预训练任务,增强文档理解能力,广泛应用于FUNSD、CORD等视觉丰富文档项目,提高性能,适合多种下游任务。
Qwen2-VL-7B-Instruct-GPTQ-Int4 - 量化模型支持多分辨率视觉理解
模型图像理解Qwen2-VLGithub视频理解视觉语言模型Huggingface开源项目多模态
Qwen2-VL-7B-Instruct-GPTQ-Int4是一款量化视觉语言模型,支持多分辨率图像和20分钟以上视频理解。模型具备复杂推理能力,可应用于移动设备和机器人操作。支持多语言理解,包括欧洲语言、日语和韩语等。采用动态分辨率和多模态旋转位置嵌入技术,在视觉理解基准测试中表现出色。
idefics2-8b - 多模态AI模型实现图文交互
模型图像理解Github开源项目多模态模型HuggingfaceIdefics2视觉AI自然语言对话
Idefics2是一款多模态AI模型,支持图像和文本的任意序列输入并生成文本输出。它能回答图像问题、描述视觉内容、基于多图创作故事,也可作为纯语言模型使用。相比前代,Idefics2在OCR、文档理解和视觉推理方面有显著提升。模型提供8B参数基础版、指令微调版和长对话优化版,均以Apache 2.0许可开源发布。
llava-onevision-qwen2-7b-ov-hf - 支持单图多图和视频理解的多模态语言模型
多模态Huggingface模型视频理解图像理解人工智能GithubLLaVA-Onevision开源项目
LLaVA-Onevision-qwen2-7b-ov-hf是一个基于Qwen2微调的开源多模态大语言模型。作为首个能在单图、多图和视频场景中同时提升性能的模型,它展现了卓越的跨模态和跨场景迁移学习能力。该模型特别擅长视频理解和跨场景任务,支持多图像和多提示生成,适用于广泛的视觉理解应用。
cogvlm2-llama3-chat-19B - 支持8K内容长度和高分辨率图像的开源多模态AI模型
模型图像理解CogVLM2开源项目HuggingfaceGithub人工智能对话模型视觉语言模型
CogVLM2是基于Meta-Llama-3-8B-Instruct的开源多模态AI模型,支持8K内容长度和1344*1344图像分辨率。该模型在TextVQA、DocVQA等多项基准测试中表现优异,具备图像理解和对话能力。CogVLM2提供英文和中英双语版本,在开源模型中表现突出,部分任务性能可与非开源模型媲美。
internlm-xcomposer2d5-7b - 7B参数规模实现视觉语言理解和创作的开源多模态模型
长文本处理开源项目模型多模态InternLM-XComposer-2.5网页生成图像理解GithubHuggingface
InternLM-XComposer2.5采用7B参数规模构建,通过24K交错图文上下文训练,支持扩展至96K长文本理解。这个开源多模态模型在视频理解、多图对话、高清图像分析、网页生成和文章创作等场景中展现出强大的理解与创作能力。其优秀的长文本处理特性使其能够处理需要大量上下文的复杂任务。
Qwen-VL-Chat - 多语言视觉对话模型 支持图文交互和物体定位
视觉语言模型Github自然语言处理HuggingfaceQwen-VL多模态开源项目模型图像理解
Qwen-VL-Chat是一款视觉语言对话模型,可处理图像、文本和检测框等多模态输入。该模型支持多语言对话和跨语言图文理解,具备物体定位和细粒度图像识别能力。经过量化优化后,模型显存占用更低、推理速度更快。在图像描述、视觉问答等多项评测基准上表现优异。
llava-1.5-13b-hf - 基于Llama 2的多模态视觉语言模型集成图像理解与对话功能
LLaVAHuggingface机器学习开源项目模型Github多模态对话图像理解自然语言处理
llava-1.5-13b-hf作为开源多模态模型整合了Llama 2架构,实现图像理解和自然语言对话功能。模型通过transformers库实现多图像处理和多提示生成,并集成4位量化与Flash-Attention 2优化方案提升运行效率。在图像描述、视觉问答等任务中表现出色,体现了视觉语言模型的技术创新。
MGM-7B - 基于LLaMA的开源多模态图文理解生成模型
HuggingfaceMGM-7B人工智能开源项目模型Github图像理解多模态模型大语言模型
MGM-7B是基于LLaMA架构开发的多模态语言模型,通过Vicuna模型微调实现高清图像理解和生成能力。作为MGM系列的组成部分,该开源项目提供了从2B到34B多个参数规模版本,支持密集模型和MoE模型架构。模型使用多模态指令数据集训练,适用于计算机视觉和自然语言处理研究。
cogagent-chat-hf - 视觉多轮对话及GUI代理开源模型
CogAgentGUI操作Huggingface跨模态基准Github开源项目模型CogVLM图像理解
CogAgent是一款基于CogVLM改进的开源视觉语言模型,支持超高分辨率图像输入与OCR任务。在VQAv2等跨模态测试表现优秀,免费供学术研究,商业使用需注册许可。
llava-llama-3-8b-v1_1-gguf - 基于Llama-3的8B参数多模态模型实现图文交互
开源项目视觉语言模型LLaVA模型Huggingface大模型微调图像理解GithubXTuner
这是一个基于Llama-3和CLIP视觉模型构建的多模态系统,采用GGUF格式优化部署效率。模型在MMBench、CCBench等多个基准测试中展现了优秀的图像理解和文本生成能力。通过ollama或llama.cpp框架,可实现快速本地部署和图文交互功能。