#多模态大语言模型
MiniCPM-Llama3-V-2_5 - 手机端多模态大语言模型突破性进展:8B参数达GPT-4V水平
Huggingface模型OCR能力多模态大语言模型Github开源项目边缘设备部署多语言支持MiniCPM-Llama3-V
MiniCPM-Llama3-V-2_5是一款创新型多模态大语言模型,仅使用8B参数即达到GPT-4V级性能。该模型具备出色的OCR能力、可靠的行为表现和广泛的多语言支持,可高效部署于手机等边缘设备。支持30多种语言,并提供多种灵活部署方式,如llama.cpp、GGUF格式和LoRA微调。MiniCPM-Llama3-V-2_5标志着端侧多模态大语言模型的重要进展。
Llama-3.2-90B-Vision - 前沿视觉语言模型助力图像识别和推理
MetaGithub开源项目Llama 3.2计算机视觉自然语言处理Huggingface多模态大语言模型模型
Llama-3.2-90B-Vision是Meta开发的多模态大语言模型,支持图像和文本输入并输出文本。该模型在视觉识别、图像推理、描述和问答等任务中表现优异,性能超越多个开源和闭源多模态模型。基于Llama 3.1文本模型,通过视觉适配器实现图像理解,支持128K上下文长度。经指令微调后可用于商业和研究,适用于多种视觉语言任务。使用需遵守Llama 3.2社区许可协议。
Llama-3.2-11B-Vision-Instruct - Meta推出支持图文交互的语言模型
多模态大语言模型图像识别Llama 3.2Meta模型Github开源项目问答系统Huggingface
Llama-3.2-11B-Vision-Instruct是一款由Meta开发的大型语言模型,集成了文本理解和图像识别能力。模型采用11B和90B两种参数规模,支持128K长度的上下文处理。基于Llama 3.1架构,通过监督学习和人类反馈优化,在视觉问答、图像描述、文档理解等任务中展现出优秀性能。该项目开放商用授权,需遵循Llama 3.2社区许可协议。
Mono-InternVL-2B - 原生多模态大语言模型融合视觉与文本能力
InternLM2Github多模态大语言模型模型视觉识别开源项目语言模型原生模型Huggingface
Mono-InternVL是一个融合视觉编码和文本解码的原生多模态大语言模型。它通过专家混合机制和内生视觉预训练方法优化视觉理解能力,同时保持强大的语言能力。该模型基于InternLM2构建,拥有1.8B激活参数,在多项视觉语言基准测试中表现优异,并将首个token的延迟降低67%,大幅提升了部署效率。
VideoLLaMA2-7B - 多模态大语言模型在视频时空建模和音频理解上的应用
模型推理多模态大语言模型开源项目视频问答空间-时间建模模型VideoLLaMA 2HuggingfaceGithub
VideoLLaMA2-7B 项目聚焦于视频时空的建模与音频理解,利用先进的视觉和语音编码技术提升视频内容分析能力。项目支持视频聊天和多选视频问答,提供训练与推理代码,适用于多种场景需求,并开放模型权重及技术报告以支持研究与开发。
相关文章