Project Icon

MAD

大规模电影音频数据集用于视频语言定位研究

MAD是一个用于视频语言定位研究的大规模数据集,源自电影音频描述。它包含384K个句子,涵盖650部电影的1.2K小时视频内容。数据集横跨22个电影类型和90年电影史,提供多样化的动作、场景和语言素材。MAD的独特之处在于其长形式定位设置,具有庞大的语言词汇量,对准确性和效率提出了挑战。这一资源为研究人员开拓了视频语言理解的新领域。

audio-dataset - LAION音频数据集收集与处理开源计划
CLAPGithubLAIONwebdataset开源项目音频数据集
LAION发起的Audio Dataset Project致力于收集和处理大规模音频-文本对数据集。项目团队由Mila和UCSD的研究人员及全球贡献者组成,专注于数据收集、标准化处理和webdataset格式存储。该项目为CLAP等模型训练提供数据支持,并设有完善的贡献指南和进度跟踪系统,欢迎更多贡献者参与。
ai-audio-datasets - 提供多语言、多情感的语音、音乐和音效数据支持AI模型训练
AI Audio DatasetsAI model trainingAIGCGenerative AIGithub开源项目音频应用
AI Audio Datasets (AI-ADS) 🎵 提供多样化的语音、音乐和音效数据集,适用于生成式AI、AIGC、AI模型训练、智能音频工具开发及音频应用。该项目包含多种数据集,如AISHELL、阿拉伯语语音语料库、AudioMNIST等,覆盖多种语言和情感,适合多种语音识别和合成研究。用于训练多语种语音识别、语音转文字及语音情感转换等AI系统,提升AI音频技术的应用和开发水平。
RedPajama-Data - 开放大规模多语言数据集助力大型语言模型训练
GithubRedPajama-Data-v2大语言模型开放数据集开源项目数据质量自然语言处理
RedPajama-Data-v2是一个包含30万亿tokens的开放数据集,用于训练大型语言模型。该数据集涵盖了超过100B的文本文档,来源于84个CommonCrawl快照。它包含英语、德语、法语、意大利语和西班牙语5种语言的内容,并提供多种质量信号和去重处理。项目提供完整的数据处理流程,包括准备工件、计算质量信号和去重等步骤,为语言模型研究提供高质量的大规模语料资源。
VideoLLaMA2 - 增强视频理解的多模态语言模型
AIGithubVideoLLaMA2多模态大语言模型开源项目视频理解
VideoLLaMA2是一款先进的视频语言模型,通过增强空间-时间建模和音频理解能力,提高了视频问答和描述任务的性能。该模型在零样本视频问答等多项基准测试中表现出色。VideoLLaMA2能处理长视频序列并理解复杂视听内容,为视频理解技术带来新进展。
MotionLLM - 融合视频和动作数据的人类行为理解先进AI模型
GithubMotionLLM人工智能人类行为理解多模态学习大语言模型开源项目
MotionLLM是一个人类行为理解框架,通过融合视频和动作序列数据来分析人类行为。该项目采用统一的视频-动作训练策略,结合粗粒度视频-文本和细粒度动作-文本数据,以获得深入的时空洞察。项目还包括MoVid数据集和MoVid-Bench评估工具,用于研究和评估人类行为理解。MotionLLM在行为描述、时空理解和推理方面展现出优越性能,为人机交互和行为分析研究提供了新的方向。
madlad400-3b-mt - 基于T5架构的多语言机器翻译模型
GithubHuggingfaceMADLAD-400T5模型多语言翻译开源项目机器学习模型自然语言处理
MADLAD-400-3B-MT是一个基于T5架构的多语言机器翻译模型,覆盖450多种语言。该模型在1万亿个token的公开数据上训练,可实现多语言间的高质量翻译。支持文本生成和翻译任务,主要面向研究社区。尽管参数量较小,性能却可与更大规模模型相媲美。MADLAD-400-3B-MT为低资源语言提供了有力的自然语言处理支持,促进了多语言NLP的进步。
MELD - 用于情感识别研究的多模态对话数据集
GithubMELD多方对话多模态情感识别对话数据集开源项目情感标注
MELD是一个基于《老友记》电视剧的多模态对话情感识别数据集,包含1400多段对话和13000多句话。数据集融合了文本、音频和视觉信息,每句话标注有7种情绪和3种情感倾向。MELD为多模态对话情感识别研究提供了丰富资源,包括详细统计信息、标注说明和基线模型。该数据集可用于开发情感对话系统等多种应用场景。
Awesome-Multimodal-LLM-Autonomous-Driving - 多模态大语言模型推动自动驾驶技术创新
GithubWACV人工智能多模态大语言模型开源项目自动驾驶计算机视觉
该资源库汇集自动驾驶领域多模态大语言模型(MLLM)相关研究,全面介绍MLLM在感知、规划和控制方面的应用。内容涵盖最新模型、数据集和基准,并总结WACV 2024 LLVM-AD研讨会成果。项目探讨了MLLM应用于自动驾驶系统的挑战和机遇,为研究人员和工程师提供了解该前沿领域发展的宝贵参考。
MMStar - 大型视觉语言模型评估的新标准
GithubMMStar人工智能基准测试多模态评估开源项目视觉语言模型
MMStar是一个创新的多模态评估基准,包含1500个精选的视觉关键样本。它解决了现有评估中的视觉冗余和数据泄露问题,提高了多模态性能评估的准确性。MMStar涵盖6大核心能力和18个细分维度,每个核心能力均衡分配250个样本。项目提供评估工具、数据集和在线排行榜,为视觉语言模型研究指明新方向。
Macaw-LLM - 多模态数据与语言模型的前沿整合技术
GithubMacaw-LLM图像集成多模态语言模型开源项目文本处理视频处理
Macaw-LLM项目通过整合图像、视频、音频和文本数据,创新了多模态语言建模。该项目基于CLIP、Whisper和LLaMA等先进模型,实现了高效的数据对齐和一步到位的指令微调,创建了丰富的多模态指令数据集,涵盖多种任务。项目强调简单快速的对齐策略,展示出强大的多模态处理能力,有效提升了跨模态数据的解析和理解。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号