Logo

#视频理解

ShareGPT4Video入门学习资料 - 提升视频理解与生成能力的大型多模态模型

1 个月前
Cover of ShareGPT4Video入门学习资料 - 提升视频理解与生成能力的大型多模态模型

OmAgent:多模态智能代理框架助力复杂视频理解

2 个月前
Cover of OmAgent:多模态智能代理框架助力复杂视频理解

Video-ChatGPT: 开创视频对话新纪元的人工智能模型

2 个月前
Cover of Video-ChatGPT: 开创视频对话新纪元的人工智能模型

MiniGPT4-video: 突破性的视频理解多模态大语言模型

2 个月前
Cover of MiniGPT4-video: 突破性的视频理解多模态大语言模型

SlowFast网络:一种高效的视频动作识别架构

2 个月前
Cover of SlowFast网络:一种高效的视频动作识别架构

mmaction2入门学习资料汇总 - OpenMMLab视频理解工具箱

1 个月前
Cover of mmaction2入门学习资料汇总 - OpenMMLab视频理解工具箱

VideoGPT+: 融合图像和视频编码器的先进视频理解技术

2 个月前
Cover of VideoGPT+: 融合图像和视频编码器的先进视频理解技术

基于大语言模型的视频理解技术研究进展

2 个月前
Cover of 基于大语言模型的视频理解技术研究进展

Video-LLaMA: 革命性的音视频理解语言模型

2 个月前
Cover of Video-LLaMA: 革命性的音视频理解语言模型

SlowFast网络:视频识别的革命性突破

2 个月前
Cover of SlowFast网络:视频识别的革命性突破

相关项目

Project Cover
ShareGPT4Video
ShareGPT4Video项目通过应用高精度字幕显著提升视频理解与生成的效果。该项目提供功能强大的文本至视频模型,支持多种视频时长和分辨率,并设有两种优化效率与质量的推断模式。该项目的目标是通过高质量视频字幕数据集改善文本到视频的转换效果,从而提升大型视频语言模型的理解能力。
Project Cover
dolphin
Dolphin是一个基于大型语言模型的通用视频互动平台,专注于视频理解、处理和生成。该平台支持视频问答、视频剪辑、字幕添加、音频提取及生成等功能,旨在提升视频处理的智能化水平。用户可通过文本生成视频、姿态到视频转换及视频图像转换等多种方式进行创作。项目持续更新,欢迎社区贡献和拉取请求,适用于北航和南洋理工大学的科研项目。
Project Cover
Video-LLaVA
PG-Video-LLaVA通过模块化设计,首次实现视频多模态模型具备像素级定位能力。该框架使用现成的追踪器和创新的定位模块,能够根据用户指令在视频中实现空间定位。引入新的基准测试用于评估基于提示的对象定位性能,并结合音频上下文完善视频内容理解,提高在对话和新闻视频等场景中的适用性。改进的定量基准测试确保更高的透明度和可重复性。
Project Cover
CogVLM2
CogVLM2是基于Meta-Llama-3-8B-Instruct的下一代模型系列,在多项基准测试中表现优异,支持中英文内容和高分辨率图像处理。该系列模型适用于图像理解、多轮对话和视频理解,特别适合需要处理长文本和高分辨率图像的场景。CogVLM2系列还支持8K内容长度,并在TextVQA和DocVQA等任务中显著提升表现。体验更先进的CogVLM2和CogVLM2-Video模型,迎接未来视觉智能挑战。
Project Cover
MovieChat
MovieChat能够在24GB显卡上处理超过1万帧的视频,与其他方法相比,GPU显存成本平均减少10000倍(21.3KB/f到约200MB/f)。它集成了视频问答、情感分析和场景理解等功能,显著提高了长视频处理的效率和准确性,适用于大型视频数据集和复杂视频场景的智能问答系统。
Project Cover
Ask-Anything
Ask-Anything 提供视频和图像聊天的全方位解决方案,利用指令微调技术优化聊天功能。项目支持最新的VideoChat2及其升级版,兼容EgoSchema和Video-MME测试脚本。最新版VideoChat2_HD在多任务长视频理解基准中表现优异,是顶尖的开源选择。
Project Cover
VideoMamba
VideoMamba是一种创新的视频理解模型,克服了现有技术的局限性。它能高效处理长视频和高分辨率内容,展现出可扩展性、短期动作识别敏感性、长期视频理解优势和多模态兼容性四大核心特点。VideoMamba为全面的视频理解任务提供了高效解决方案,推动了该领域的发展。
Project Cover
VTimeLLM
VTimeLLM是一种先进的视频大语言模型,专注于精细化视频时刻理解和推理。该模型采用边界感知三阶段训练策略,包括图像-文本特征对齐、多事件视频时间边界识别和高质量视频指令微调。这种方法显著提升了模型的时间理解能力,使其在多项视频理解任务中表现优异。
Project Cover
mmaction2
MMAction2为基于PyTorch的开源视频理解工具箱,涵盖动作识别、动作定位、时空动作检测等多种任务。项目特点包括模块化设计、丰富的模型库以及详尽文档,支持灵活的自定义配置。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号