#图像识别

MiniCPM-Llama3-V-2_5-int4 - 轻量级视觉问答模型实现实时图像对话
Github开源项目GPU内存优化图像识别Huggingface深度学习MiniCPM-Llama3-V模型量化模型
MiniCPM-Llama3-V-2_5-int4通过int4量化技术实现低内存视觉问答功能,仅需9GB显存即可运行。基于Hugging Face框架开发,支持实时图像对话和流式输出,为视觉AI应用提供高效且资源友好的解决方案。
doctr-crnn-vgg16-bn-fascan-v1 - VGG16-CRNN文字识别模型
开源项目PyTorch模型HuggingfaceTensorFlow深度学习图像识别GithubOCR技术
doctr-crnn-vgg16-bn-fascan-v1是一个基于CRNN架构的文字识别模型,采用VGG16作为特征提取网络。模型通过DocumentFile接口支持图像处理,结合灵活的检测架构选择机制,可实现文档OCR任务。该实现同时支持TensorFlow 2和PyTorch框架,便于开发者快速部署和使用。
swin-base-patch4-window7-224-in22k - 基于shifted windows的分层视觉Transformer图像处理模型
图像识别开源项目模型GithubHuggingface计算机视觉深度学习Swin Transformer图像分类
Swin Transformer是一个在ImageNet-21k数据集上预训练的视觉模型,通过shifted windows机制实现局部特征提取,降低计算复杂度。模型采用分层特征图构建和局部注意力计算方式,适用于图像分类和密集识别任务,计算复杂度与输入图像大小呈线性关系
Llama-3.2-11B-Vision-Instruct - Meta推出支持图文交互的语言模型
多模态大语言模型图像识别Llama 3.2Meta模型Github开源项目问答系统Huggingface
Llama-3.2-11B-Vision-Instruct是一款由Meta开发的大型语言模型,集成了文本理解和图像识别能力。模型采用11B和90B两种参数规模,支持128K长度的上下文处理。基于Llama 3.1架构,通过监督学习和人类反馈优化,在视觉问答、图像描述、文档理解等任务中展现出优秀性能。该项目开放商用授权,需遵循Llama 3.2社区许可协议。
instructblip-flan-t5-xl - InstructBLIP视觉语言模型实现智能图像理解与对话
InstructBLIP机器学习HuggingfaceGithub开源项目模型人工智能Flan-T5-xl图像识别
InstructBLIP是基于BLIP-2架构的开源视觉语言模型,集成Flan-T5-xl增强了图像理解能力。模型支持图像描述生成、视觉问答等多项任务,可实现自然的图文交互。项目文档完善,提供代码示例方便开发者使用。
fuyu-8b - 无需图像编码器的轻量级多模态开源模型
Github模型开源项目多模态模型图像识别Huggingface计算机视觉Fuyu-8B人工智能
Fuyu-8B是Adept AI开发的开源多模态模型,基于decoder-only transformer架构设计。模型无需图像编码器即可处理任意分辨率图像,处理速度在100毫秒以内。在图表解析、UI交互和视觉定位等任务中展现稳定性能,同时在标准图像理解测试中表现良好。作为基础模型,适合通过微调来满足不同场景需求。
llava-onevision-qwen2-7b-si - 多模态AI模型实现图像和视频的深度理解
Huggingface机器学习多模态开源项目模型Qwen2Github图像识别LLaVA-OneVision
LLaVA-OneVision是一个基于Qwen2语言模型的多模态AI系统,拥有32K tokens的上下文窗口。该模型能够处理单图像、多图像和视频输入,在多个基准测试中表现出色。支持英语和中文,适用于广泛的视觉理解任务。开发者可通过提供的Python代码快速集成该模型,实现图像分析和问答功能。
vit-base-patch32-224-in21k - Vision Transformer模型在2100万图像数据集上预训练
Vision Transformer计算机视觉图像识别ImageNet-21k深度学习模型Github开源项目Huggingface
Vision Transformer (ViT) 是一种基于transformer架构的视觉模型,在ImageNet-21k数据集上预训练。该模型将图像转换为固定大小的patch序列,通过线性嵌入和位置编码输入transformer编码器。ViT可应用于图像分类等多种视觉任务,只需在预训练编码器上添加任务特定层。模型在224x224分辨率下训练,批量大小为4096,在多项图像分类基准测试中展现出优秀性能。
vip-llava-7b-hf - 基于自然视觉提示的多模态语言模型
ViP-LLaVAHuggingfaceGithub开源项目模型视觉语言处理多模态AIAI聊天机器人图像识别
VipLLaVA在LLaVA基础上引入自然视觉提示训练机制,通过边界框和指向箭头等视觉标记增强模型的图像理解能力。作为基于Transformer架构的多模态模型,VipLLaVA支持多图像输入和复杂视觉查询处理。该模型通过微调LLaMA/Vicuna实现,可集成到transformers库中实现图像文本交互,并支持4位量化和Flash Attention 2优化部署。
Virchow2 - 基于神经网络的病理切片图像分析与特征提取模型
图像识别PyTorchVirchow2深度学习模型Github开源项目病理学Huggingface
Virchow2是一个专门用于病理切片分析的深度学习模型,通过310万张医学图像训练而成。模型能够自动分析不同放大倍率的病理图像,提取关键特征信息,为计算病理学研究提供基础支持。其采用先进的视觉转换器架构,具备强大的图像处理能力。目前仅向学术研究机构开放使用,需要通过机构邮箱认证。
TinyCLIP-ViT-40M-32-Text-19M-LAION400M - 基于亲和力模仿和权重继承的CLIP模型压缩方法
Github模型模型压缩TinyCLIP开源项目深度学习图像识别HuggingfaceLAION400M
TinyCLIP是一种用于压缩大规模语言-图像预训练模型的跨模态蒸馏方法,采用亲和力模仿和权重继承技术。实验显示,TinyCLIP ViT-45M/32使用ViT-B/32一半的参数达到相似的零样本性能;TinyCLIP ResNet-19M在参数量减少50%的情况下,推理速度提升2倍,在ImageNet数据集上实现56.4%的准确率。
llava-interleave-qwen-7b-hf - 领先的多模态AI模型 支持多图像视频和3D输入处理
图像识别自然语言处理开源项目模型GithubAI对话HuggingfaceLLaVA Interleave多模态模型
LLaVA Interleave是基于Qwen1.5-7B-Chat开发的多模态AI模型,支持多图像、视频和3D输入处理。模型采用transformer架构,具备4-bit量化和Flash Attention 2优化功能。目前主要面向计算机视觉、自然语言处理和人工智能领域的研究人员,仅供学术研究使用。
donut-base-finetuned-docvqa - 基于Donut架构的无OCR文档理解与问答模型
文档理解Donut开源项目模型Huggingface文本生成图像识别Github视觉编码
基于Swin Transformer和BART架构开发的文档理解模型,通过DocVQA数据集微调。模型集成了视觉编码器和文本解码器,无需OCR技术即可直接处理文档图像并回答问题。支持发票号码识别、合同金额提取等文档问答功能,可用于多种商业文档的自动化处理。
omdet-turbo-swin-tiny-hf - 实时开放词汇目标检测模型 支持批量多任务处理
目标检测Github开源项目零样本分类图像识别OmDet-TurboHuggingface机器学习模型
这是一款基于Transformer的开放词汇目标检测模型。它支持零样本检测,能够识别指定的任意类别目标。该模型的特色在于支持批量处理多张图像,允许为每张图像设置不同的检测类别和任务描述。通过简洁的API接口,该模型可以方便地集成到各种计算机视觉应用中,实现高效的实时目标检测。