相关项目
LanguageBind
LanguageBind是一种基于语言的多模态预训练方法,通过语言将不同模态进行语义关联。该方法引入了VIDAL-10M数据集,包含1000万条视频、红外、深度、音频及对应语言数据。通过多视角增强的语言描述训练,LanguageBind在多个跨模态任务上实现了先进性能,无需中间模态即可完成跨模态语义对齐。
LanguageBind_Video_merge
LanguageBind项目提出一种基于语言的多模态预训练方法,通过语言对齐视频、红外、深度、音频等多种模态。该方法无需中间模态,性能优异。项目构建了VIDAL-10M数据集,包含1000万条多模态数据及对应语言描述。通过多视角增强和ChatGPT优化的语言描述,为各模态创建了语义空间。该方法在多个数据集上达到了最先进水平。
LanguageBind_Audio_FT
LanguageBind_Audio_FT是一个基于语言中心方法的音频预训练模型,通过语义对齐实现音频与语言的跨模态理解。该模型在VIDAL-10M数据集上训练,采用多视角增强的语言描述,无需中间模态即可实现高性能。在5个音频-语言数据集上,LanguageBind_Audio_FT展现了优秀的跨模态理解能力,达到了领先水平。
LanguageBind_Audio
LanguageBind是一个语言驱动的多模态预训练工具,在五个数据集上表现出色。该项目采用VIDAL-10M数据集,将视频、红外、深度、音频和语言模态结合,实现了跨越视觉模态的扩展。通过多视图增强和ChatGPT的结合,它提高了语言的语义表达,并支持在线和本地运行,包括音频与语言、视频与语言的相似性计算。