Project Icon

videomae-large

视频自监督学习的高效模型

VideoMAE大型模型在Kinetics-400数据集上进行自监督预训练,采用掩码自编码器方法,有效学习视频的内在表示。利用视觉Transformer架构,通过将视频划分为固定大小的图像块,结合线性嵌入和位置编码,进行深度分析和像素预测,适用于多种后续任务和特征提取,包括视频分类和处理。

视频MAE大型模型项目介绍

视频MAE(VideoMAE)是一个在Kinetics-400数据集上通过自监督方式预训练了1600个epoch的视频模型。它由Tong等人在他们的论文《VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training》中首次提出,并在这个GitHub库中发布。

模型描述

视频MAE是在图像掩码自编码器(Masked Autoencoders, MAE)基础上扩展到视频领域的一个模型。其结构类似于标准的视觉转换器(Vision Transformer, ViT),顶部叠加了一个解码器,用于预测被掩盖视频片段的像素值。

在模型中,视频被分解为固定大小的片段(分辨率16x16),然后进行线性嵌入。在序列开始处添加一个[CLS]标记,以便进行分类任务。还会在传递给变压器编码器的序列之前增加固定的正弦/余弦位置嵌入。

通过预训练,模型学习到视频的内部表示,可以用于下游任务中特征的提取。例如,用户可以在有标签的视频数据集上,通过在预训练的编码器顶部放置一个线性层,进行标准分类器的训练。一般情况下,线性层放置在[CLS]标记上,因为该标记的最终隐藏状态可以被视为整个视频的表示。

预期用途与限制

视频MAE的大型模型主要用于下游任务的微调,虽然本身可以用于预测被掩盖视频片段的像素值。可访问模型中心查看在相关任务中已微调的版本。

使用方法

以下是如何用该模型预测随机掩盖的片段的像素值的示例:

from transformers import VideoMAEImageProcessor, VideoMAEForPreTraining
import numpy as np
import torch

num_frames = 16
video = list(np.random.randn(16, 3, 224, 224))

processor = VideoMAEImageProcessor.from_pretrained("MCG-NJU/videomae-large")
model = VideoMAEForPreTraining.from_pretrained("MCG-NJU/videomae-large")

pixel_values = processor(video, return_tensors="pt").pixel_values

num_patches_per_frame = (model.config.image_size // model.config.patch_size) ** 2
seq_length = (num_frames // model.config.tubelet_size) * num_patches_per_frame
bool_masked_pos = torch.randint(0, 2, (1, seq_length)).bool()

outputs = model(pixel_values, bool_masked_pos=bool_masked_pos)
loss = outputs.loss

更多代码示例请参考文档

训练数据

相关信息待更新。

训练过程

预处理

相关信息待更新。

预训练

相关信息待更新。

评估结果

相关信息待更新。

参考文献与引用信息

若要引用此项目,请参考以下BibTeX条目:

misc{https://doi.org/10.48550/arxiv.2203.12602,
  doi = {10.48550/ARXIV.2203.12602},
  url = {https://arxiv.org/abs/2203.12602},
  author = {Tong, Zhan and Song, Yibing and Wang, Jue and Wang, Limin},
  keywords = {Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences},
  title = {VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training},
  publisher = {arXiv},
  year = {2022},
  copyright = {Creative Commons Attribution 4.0 International}
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号