Project Icon

LVM

大规模视觉模型的创新顺序建模方法

LVM是一种创新视觉预训练模型,将多种视觉数据转化为视觉句子,并进行自回归式标记预测。该模型采用顺序建模方法,无需语言数据即可学习大规模视觉模型。通过设计视觉提示,LVM可解决多种视觉任务。兼容GPU和TPU,为大规模视觉模型学习提供新方法。

llava-llama-3-8b-v1_1-gguf - 基于Llama-3的8B参数多模态模型实现图文交互
GithubHuggingfaceLLaVAXTuner图像理解大模型微调开源项目模型视觉语言模型
这是一个基于Llama-3和CLIP视觉模型构建的多模态系统,采用GGUF格式优化部署效率。模型在MMBench、CCBench等多个基准测试中展现了优秀的图像理解和文本生成能力。通过ollama或llama.cpp框架,可实现快速本地部署和图文交互功能。
Video-LLaVA - 视频多模态模型,具备像素级定位能力
GithubLMMPG-Video-LLaVA像素级别定锚开源项目视频理解音频上下文
PG-Video-LLaVA通过模块化设计,首次实现视频多模态模型具备像素级定位能力。该框架使用现成的追踪器和创新的定位模块,能够根据用户指令在视频中实现空间定位。引入新的基准测试用于评估基于提示的对象定位性能,并结合音频上下文完善视频内容理解,提高在对话和新闻视频等场景中的适用性。改进的定量基准测试确保更高的透明度和可重复性。
llava-onevision-qwen2-7b-ov-hf - 支持单图多图和视频理解的多模态语言模型
GithubHuggingfaceLLaVA-Onevision人工智能图像理解多模态开源项目模型视频理解
LLaVA-Onevision-qwen2-7b-ov-hf是一个基于Qwen2微调的开源多模态大语言模型。作为首个能在单图、多图和视频场景中同时提升性能的模型,它展现了卓越的跨模态和跨场景迁移学习能力。该模型特别擅长视频理解和跨场景任务,支持多图像和多提示生成,适用于广泛的视觉理解应用。
InternVL2-Llama3-76B - 融合视觉与语言的多模态AI模型
GithubHuggingfaceInternVL2Llama3NLP多模态大语言模型开源项目模型视觉语言模型
InternVL2-Llama3-76B是一款融合视觉和语言能力的多模态AI模型。它由InternViT-6B视觉模型和Hermes-2-Theta-Llama-3语言模型组成,在文档理解、图表分析和场景文字识别等任务中表现优异。该模型支持8k上下文窗口,可处理长文本、多图像和视频输入,为用户提供全面的多模态分析能力。
llava-v1.6-vicuna-7b - 基于Vicuna的开源多模态视觉语言模型
GithubHuggingfaceLLaVA图文理解多模态大语言模型开源项目模型视觉问答
LLaVA-v1.6-vicuna-7b是一个基于Vicuna-7B开发的开源多模态模型,支持图像和文本的理解与处理。模型训练数据包含558K图文对和158K多模态指令等多样化数据集,通过12个基准测试验证其性能表现,可用于视觉语言研究与应用开发。
LAVIS - 多任务语言与视觉模型的统一接口和便捷数据下载工具
BLIPGithubLAVISSalesforceX-InstructBLIPlanguage-vision开源项目
LAVIS是一款用于语言与视觉智能研究的Python库,提供统一接口,支持图像文本预训练、检索和视觉问答等10多种任务,并包含20多个数据集和30多个预训练模型。其模块化设计和自动下载工具简化了数据准备和模型训练,是开发多模态应用的理想选择。
Llama-3.2-11B-Vision-Instruct-FP8-dynamic - Meta-Llama视觉语言模型FP8量化版支持多语言部署
GithubHuggingfaceLlama-3.2vLLM人工智能开源项目模型视觉识别量化压缩
基于Meta-Llama-3.2架构的视觉语言模型,通过FP8动态量化技术实现模型压缩,在保持原有性能的同时将显存需求降低50%。模型支持图文输入和多语言输出,可通过vLLM实现快速部署,提供OpenAI兼容接口,适合商业场景应用。
Video-LLaMA - 指令微调的音视频语言模型实现多模态视频理解
AI对话GithubVideo-LLaMA多模态开源项目视频理解语言模型
Video-LLaMA是一个多模态AI项目,为大型语言模型赋予视频和音频理解能力。该项目基于BLIP-2和MiniGPT-4构建,包含视觉-语言和音频-语言两个分支。经过大规模视频和图像数据预训练及指令微调后,Video-LLaMA能够进行视频分析、音频理解和多轮对话。该模型支持英文和中文交互,为视频内容分析提供了新的AI解决方案。
videollm-online - 流式视频实时理解与交互的先进模型
GithubVideoLLM-online大语言模型实时交互开源项目流媒体视频视频处理
VideoLLM-online是一款针对流媒体视频的在线大语言模型。该模型支持视频流实时交互,可主动更新响应,如记录活动变化和提供实时指导。项目通过创新的数据合成方法将离线注释转化为流式对话数据,并采用并行化推理技术实现高速处理,在A100 GPU上处理速度可达10-15 FPS。VideoLLM-online在在线和离线环境中均表现出色,能高效处理长达10分钟的视频,为视频理解与交互领域带来新的可能性。
Video-LLaVA-7B-hf - 基于LLM的统一视觉模型实现图像和视频的智能处理
GithubHuggingfaceVideo-LLaVA多模态模型开源项目模型视觉识别视频分析语言模型
Video-LLaVA是一个基于Vicuna-13b的开源多模态模型,通过统一的视觉表示编码器实现图像和视频内容的并行处理。该模型采用语言对齐投影方式,无需图像-视频配对数据即可完成训练。模型支持图像和视频的混合输入,可应用于内容理解、问答和描述等视觉分析任务。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号