#视频语言
LanguageBind - 通过语言绑定实现跨模态语义对齐
LanguageBind多模态预训练视频语言零样本分类Github开源项目
LanguageBind是一种基于语言的多模态预训练方法,通过语言将不同模态进行语义关联。该方法引入了VIDAL-10M数据集,包含1000万条视频、红外、深度、音频及对应语言数据。通过多视角增强的语言描述训练,LanguageBind在多个跨模态任务上实现了先进性能,无需中间模态即可完成跨模态语义对齐。
LanguageBind_Video_FT - 基于语言的多模态预训练方法扩展到N种模态
多模态Huggingface模型预训练视频语言Github开源项目LanguageBindICLR
LanguageBind是一种基于语言的多模态预训练方法,将视频-语言预训练扩展到视频、红外、深度、音频等多种模态。该方法以语言作为不同模态间的桥梁,无需中间模态即可实现高性能。项目提出了包含1000万条数据的VIDAL-10M数据集,涵盖5种模态。通过多视角增强的描述训练,LanguageBind在多个下游任务中展现出优异性能。
LanguageBind_Video_merge - 实现多模态与语言的语义对齐
模型多模态预训练LanguageBind开源项目Huggingface应急零样本GithubVIDAL-10M视频语言
LanguageBind项目提出一种基于语言的多模态预训练方法,通过语言对齐视频、红外、深度、音频等多种模态。该方法无需中间模态,性能优异。项目构建了VIDAL-10M数据集,包含1000万条多模态数据及对应语言描述。通过多视角增强和ChatGPT优化的语言描述,为各模态创建了语义空间。该方法在多个数据集上达到了最先进水平。
LanguageBind_Audio_FT - LanguageBind:跨模态语义对齐的音频预训练模型
Huggingface模型视频语言Github开源项目多模态预训练LanguageBindVIDAL-10MICLR 2024
LanguageBind_Audio_FT是一个基于语言中心方法的音频预训练模型,通过语义对齐实现音频与语言的跨模态理解。该模型在VIDAL-10M数据集上训练,采用多视角增强的语言描述,无需中间模态即可实现高性能。在5个音频-语言数据集上,LanguageBind_Audio_FT展现了优秀的跨模态理解能力,达到了领先水平。