#LLaVA

LLamaSharp - 跨平台本地运行LLaMA和LLaVA模型的高效库
LLamaSharpLLaMALLaVAsemantic-kernel大模型Github开源项目
LLamaSharp是一个基于llama.cpp的跨平台库,支持在本地设备上高效运行LLaMA和LLaVA等大语言模型。该库提供高级API和RAG支持,便于在应用中部署大型语言模型。LLamaSharp兼容多种后端,支持CPU和GPU推理,适用于Windows、Linux和Mac平台。通过集成semantic-kernel和kernel-memory等库,LLamaSharp简化了应用开发,并提供多个示例和教程帮助用户快速上手。
llava-cpp-server - LLaVA C++服务端,实现图像处理和查询
llama.cppAPI服务器LLaVAggml-model图像数据Github开源项目
LLaVA C++ Server是一个简便的API服务端,实现了llama.cpp的LLaVA功能。使用者可以通过下载模型并启动服务器来本地访问,支持自定义主机、端口和HTTP日志记录。API端点位于/llava,接受用户提示和图像数据,便于图像查询和处理。该项目已在macOS上测试,可通过简单构建步骤在其他平台运行。
LLaVA-Plus-Codebase - 多模态智能助手的工具使用与学习指南
LLaVA-PlusLLaVAVicuna多模态视觉助手Github开源项目
该项目介绍了LLaVA-Plus如何提升大语言和视觉助手的工具使用能力。通过代码示例、安装说明和使用指南,用户可以快速掌握运行和训练LLaVA-Plus模型的方法,并进行推理和评估。该项目适用于需要结合视觉任务和语言模型的研究人员和开发者,提供了多个知名工具的整合与使用说明,帮助用户全面了解和应用这些工具执行多模态任务。
LLaVA - 提升大型语言与视觉模型的视觉指令调优
LLaVA视觉指令调优大型语言与视觉模型GPT-4多模态交互Github开源项目
LLaVA项目通过视觉指令调优提升大型语言与视觉模型的性能,达到了GPT-4级别。最新更新包括增强版LLaVA-NeXT模型及其在视频任务上的迁移能力,以及高效的LMMs-Eval评估管道。这些更新提升了模型的多任务和像素处理能力,支持LLama-3和Qwen等不同规模的模型,并提供丰富的示例代码、模型库和数据集,方便用户快速上手和深度研究。
llava-v1.5-7b - 融合视觉与语言的开源多模态AI模型
模型Github开源项目多模态模型图像文本理解Huggingface自然语言处理人工智能LLaVA
LLaVA-v1.5-7B是一个开源的多模态AI模型,通过微调LLaMA/Vicuna实现。该模型整合了视觉和语言处理能力,能够理解图像并进行自然语言对话。LLaVA-v1.5-7B在大规模数据集上训练,包括558K图文对和158K多模态指令数据,并在12个基准测试中表现优异。这个模型主要应用于多模态大模型和聊天机器人的研究,适用于计算机视觉、自然语言处理等领域的研究人员。
llava-1.5-7b-hf - 基于Llama 2的多模态AI模型 实现图像理解与对话
模型图像文本生成LLaVAGithub模型优化Huggingface开源项目多模态Transformers
LLaVA-1.5-7B是一个基于Llama 2架构的开源多模态视觉语言模型。通过指令微调,该模型实现了图像理解和对话能力,支持多图像输入和多轮对话。LLaVA-1.5-7B可应用于图像问答、视觉推理等任务,并提供便捷的pipeline接口。模型支持4比特量化和Flash Attention 2优化,可在普通GPU上高效运行。这为研究人员和开发者提供了一个功能强大的视觉语言AI工具。
llava-v1.5-13b - 基于LLaMA的开源多模态AI模型 支持图像理解与对话
语言模型模型多模态模型LLaVAGithub人工智能研究开源项目Huggingface图像文本处理
LLaVA-v1.5-13B是一个基于LLaMA和Vicuna微调的开源多模态AI模型。该模型能够理解图像并进行自然语言对话,支持多种视觉问答任务。LLaVA于2023年9月发布,主要面向计算机视觉和自然语言处理领域的研究人员。在12个基准测试中,LLaVA展现了出色的图像理解和指令遵循能力,为多模态AI研究提供了有价值的开源资源。
llava-v1.6-mistral-7b - LLaVA-v1.6:融合图像与文本理解的开源多模态AI模型
模型HuggingfaceLLaVAGithub图像文本大语言模型指令调优开源项目多模态
LLaVA-v1.6-Mistral-7B是一个基于Mistral-7B-Instruct-v0.2的开源多模态AI模型。这个模型通过大规模多模态指令数据微调,能同时处理图像和文本输入。2023年12月发布的LLaVA-v1.6-Mistral-7B主要应用于多模态模型和AI对话系统研究。该模型在12个评估基准上表现优异,涵盖5个学术视觉问答任务和7个针对指令理解的最新多模态模型基准。
llava-v1.5-7b-llamafile - LLaVA模型实现图像理解与自然语言交互的多模态AI
模型Github开源项目多模态模型Huggingface机器学习自然语言处理人工智能LLaVA
LLaVA-v1.5-7b-llamafile作为一个开源多模态AI模型,通过微调LLaMA/Vicuna而成。它整合了图像理解和自然语言处理功能,能够执行图像相关指令和进行对话。该模型于2023年9月推出,主要用于研究大型多模态模型和聊天机器人。LLaVA的训练数据包括558K图像-文本对和多种指令数据,在12个基准测试中表现优异。这个模型为计算机视觉和自然语言处理领域的研究人员提供了探索AI前沿应用的有力工具。
llava-1.6-mistral-7b-gguf - 基于Mistral-7B的LLaVA多模态模型GGUF量化版
MistralLLaVA模型多模态模型图像识别Github机器学习开源项目Huggingface
LLaVA-1.6-Mistral-7B是一款开源的视觉语言模型GGUF量化版本,提供3bit至8bit多个压缩等级选择。该模型整合了图像理解与对话能力,通过大规模图文对和多模态指令数据训练而成。其中4bit和5bit量化版本在性能与模型体积之间取得良好平衡,适合在计算资源有限的场景下部署使用
llama3-llava-next-8b - 基于Llama 3的开源多模态视觉语言AI模型
机器学习人工智能GithubLLaVAHuggingface深度学习开源项目模型多模态模型
LLaVA-NeXT-8b是基于Meta-Llama-3-8B-Instruct的开源多模态模型,通过558K图文对和超过700K多模态指令数据训练而成。该模型集成视觉理解与文本生成能力,支持图像描述、视觉问答等任务。模型采用高效的分布式训练方法,训练时间约15-20小时。目前仅供学术研究使用,商业应用受限。
llava-v1.6-vicuna-13b - 强大的图文多模态AI模型 集成Vicuna-13b实现视觉智能对话
视觉问答开源项目LLaVA模型多模态大型语言模型Huggingface指令跟随Github
LLaVA-v1.6是基于Vicuna-13b微调的开源多模态AI模型,通过大规模图文对和指令数据训练而成。该模型擅长学术视觉问答和通用图像理解,支持自然的图文交互。采用transformer架构,为计算机视觉和自然语言处理研究提供了强大的视觉语言处理工具。
llava-1.5-13b-hf - 基于Llama 2的多模态视觉语言模型集成图像理解与对话功能
LLaVAHuggingface机器学习开源项目模型Github多模态对话图像理解自然语言处理
llava-1.5-13b-hf作为开源多模态模型整合了Llama 2架构,实现图像理解和自然语言对话功能。模型通过transformers库实现多图像处理和多提示生成,并集成4位量化与Flash-Attention 2优化方案提升运行效率。在图像描述、视觉问答等任务中表现出色,体现了视觉语言模型的技术创新。
Llava-v1.5-7B-GGUF - 轻量级多模态图文处理模型 支持多种精度量化
模型量化模型Github开源项目LLaVA大语言模型图文理解LlamaEdgeHuggingface
Llava-v1.5-7B-GGUF是Llava 1.5 7B模型的GGUF量化版本,提供2位至8位多种精度选择,可根据性能和质量需求灵活使用。项目支持通过LlamaEdge快速部署,适用于多模态AI应用场景。该模型具备图像理解和文本生成能力,在保持性能的同时实现了模型体积的压缩。
llava-v1.6-vicuna-7b - 基于Vicuna的开源多模态视觉语言模型
Github模型开源项目多模态图文理解LLaVAHuggingface视觉问答大语言模型
LLaVA-v1.6-vicuna-7b是一个基于Vicuna-7B开发的开源多模态模型,支持图像和文本的理解与处理。模型训练数据包含558K图文对和158K多模态指令等多样化数据集,通过12个基准测试验证其性能表现,可用于视觉语言研究与应用开发。
tiny-random-llava-1.5 - 基于LLaVA-1.5的轻量级多模态模型配置工具
计算机视觉开源项目TransformersLLaVA自然语言处理模型Huggingface深度学习Github
tiny-random-llava-1.5是一个基于LLaVA-1.5架构的轻量级多模态模型配置工具。通过自定义配置参数,如减少隐藏层数量、缩小中间层大小和降低注意力头数,该工具显著缩减了模型规模。它支持快速原型开发和测试,并可将模型和处理器轻松推送至Hugging Face Hub。这个工具主要用于多模态AI应用的快速验证和实验,适合开发者进行初步测试和概念验证。
llava-llama-3-8b-v1_1-gguf - 基于Llama-3的8B参数多模态模型实现图文交互
开源项目视觉语言模型LLaVA模型Huggingface大模型微调图像理解GithubXTuner
这是一个基于Llama-3和CLIP视觉模型构建的多模态系统,采用GGUF格式优化部署效率。模型在MMBench、CCBench等多个基准测试中展现了优秀的图像理解和文本生成能力。通过ollama或llama.cpp框架,可实现快速本地部署和图文交互功能。
llava-v1.6-34b - 大规模多模态模型的开源项目介绍
自然语言处理计算机视觉HuggingfaceGithubLLaVA多模态人工智能开源项目模型
模型在大规模多模态模型和聊天机器人领域的研究中有重要应用,采用多样化的数据集提升不同任务表现,适合计算机视觉、自然语言处理及人工智能的研究者使用。