#视频理解

VTimeLLM: 赋予大语言模型把握视频时刻的能力

2024年09月05日
Cover of VTimeLLM: 赋予大语言模型把握视频时刻的能力

VideoMamba: 高效视频理解的状态空间模型革新

2024年09月05日
Cover of VideoMamba: 高效视频理解的状态空间模型革新

LLaMA-VID:突破性的长视频理解模型

2024年09月04日
Cover of LLaMA-VID:突破性的长视频理解模型

VideoLLaMA2: 推进视频大语言模型的时空建模与音频理解能力

2024年09月04日
Cover of VideoLLaMA2: 推进视频大语言模型的时空建模与音频理解能力

Video-LLaVA: 通过对齐和投影学习统一的视觉表示

2024年09月04日
Cover of Video-LLaVA: 通过对齐和投影学习统一的视觉表示

多模态大语言模型的最新进展:一场AI视觉与语言融合的革命

2024年09月04日
Cover of 多模态大语言模型的最新进展:一场AI视觉与语言融合的革命

MovieChat: 一款突破性的长视频理解AI系统

2024年09月04日
Cover of MovieChat: 一款突破性的长视频理解AI系统

深入探索Dolphin项目:一个基于大语言模型的视频交互平台

2024年08月31日
Cover of 深入探索Dolphin项目:一个基于大语言模型的视频交互平台

Video-LLaVA: 开创视频大语言模型的新纪元

2024年08月31日
Cover of Video-LLaVA: 开创视频大语言模型的新纪元

ShareGPT4Video:提升视频理解与生成能力的革新性项目

2024年08月30日
Cover of ShareGPT4Video:提升视频理解与生成能力的革新性项目
相关项目
Project Cover

ShareGPT4Video

ShareGPT4Video项目通过应用高精度字幕显著提升视频理解与生成的效果。该项目提供功能强大的文本至视频模型,支持多种视频时长和分辨率,并设有两种优化效率与质量的推断模式。该项目的目标是通过高质量视频字幕数据集改善文本到视频的转换效果,从而提升大型视频语言模型的理解能力。

Project Cover

dolphin

Dolphin是一个基于大型语言模型的通用视频互动平台,专注于视频理解、处理和生成。该平台支持视频问答、视频剪辑、字幕添加、音频提取及生成等功能,旨在提升视频处理的智能化水平。用户可通过文本生成视频、姿态到视频转换及视频图像转换等多种方式进行创作。项目持续更新,欢迎社区贡献和拉取请求,适用于北航和南洋理工大学的科研项目。

Project Cover

Video-LLaVA

PG-Video-LLaVA通过模块化设计,首次实现视频多模态模型具备像素级定位能力。该框架使用现成的追踪器和创新的定位模块,能够根据用户指令在视频中实现空间定位。引入新的基准测试用于评估基于提示的对象定位性能,并结合音频上下文完善视频内容理解,提高在对话和新闻视频等场景中的适用性。改进的定量基准测试确保更高的透明度和可重复性。

Project Cover

CogVLM2

CogVLM2是基于Meta-Llama-3-8B-Instruct的下一代模型系列,在多项基准测试中表现优异,支持中英文内容和高分辨率图像处理。该系列模型适用于图像理解、多轮对话和视频理解,特别适合需要处理长文本和高分辨率图像的场景。CogVLM2系列还支持8K内容长度,并在TextVQA和DocVQA等任务中显著提升表现。体验更先进的CogVLM2和CogVLM2-Video模型,迎接未来视觉智能挑战。

Project Cover

MovieChat

MovieChat能够在24GB显卡上处理超过1万帧的视频,与其他方法相比,GPU显存成本平均减少10000倍(21.3KB/f到约200MB/f)。它集成了视频问答、情感分析和场景理解等功能,显著提高了长视频处理的效率和准确性,适用于大型视频数据集和复杂视频场景的智能问答系统。

Project Cover

Ask-Anything

Ask-Anything 提供视频和图像聊天的全方位解决方案,利用指令微调技术优化聊天功能。项目支持最新的VideoChat2及其升级版,兼容EgoSchema和Video-MME测试脚本。最新版VideoChat2_HD在多任务长视频理解基准中表现优异,是顶尖的开源选择。

Project Cover

VideoMamba

VideoMamba是一种创新的视频理解模型,克服了现有技术的局限性。它能高效处理长视频和高分辨率内容,展现出可扩展性、短期动作识别敏感性、长期视频理解优势和多模态兼容性四大核心特点。VideoMamba为全面的视频理解任务提供了高效解决方案,推动了该领域的发展。

Project Cover

VTimeLLM

VTimeLLM是一种先进的视频大语言模型,专注于精细化视频时刻理解和推理。该模型采用边界感知三阶段训练策略,包括图像-文本特征对齐、多事件视频时间边界识别和高质量视频指令微调。这种方法显著提升了模型的时间理解能力,使其在多项视频理解任务中表现优异。

Project Cover

mmaction2

MMAction2为基于PyTorch的开源视频理解工具箱,涵盖动作识别、动作定位、时空动作检测等多种任务。项目特点包括模块化设计、丰富的模型库以及详尽文档,支持灵活的自定义配置。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号