MELD数据集:一个多模态多方情感识别对话数据集

RayRay
MELD多模态情感识别对话数据集情感标注多方对话Github开源项目

MELD数据集简介

MELD(Multimodal EmotionLines Dataset)是一个专为对话中情感识别研究而设计的多模态多方数据集。它由来自著名美剧《老友记》的1400多段对话和13000多条话语组成,涵盖了文本、音频和视觉三种模态数据。MELD数据集的创建旨在推动对话情感分析领域的研究发展,为研究人员提供一个全面的多模态数据资源。

数据集特点

MELD数据集具有以下主要特点:

  1. 多模态性: 包含文本、音频和视觉三种模态数据,允许研究人员探索多模态融合方法。

  2. 多方对话: 每段对话包含多个说话者,更贴近真实的交互场景。

  3. 细粒度情感标注: 每条话语都标注了7种细粒度情感(愤怒、厌恶、恐惧、喜悦、中性、悲伤、惊讶)。

  4. 情感流动: 捕捉了对话中情感的动态变化过程。

  5. 丰富的上下文: 提供了完整的对话上下文,有助于上下文相关的情感分析。

MELD数据集的创建填补了多模态多方对话情感数据集的空白,为该领域的研究提供了宝贵的资源。

数据集构建

MELD数据集是在EmotionLines数据集的基础上扩展而来的。研究人员采取了以下步骤来构建这个多模态数据集:

  1. 对原始EmotionLines数据集中的对话进行时间戳标注。

  2. 根据时间戳从《老友记》剧集中提取对应的视频片段。

  3. 从视频片段中分离出音频内容。

  4. 整合文本、音频和视觉数据,形成最终的多模态数据集。

在这个过程中,研究人员还对原始数据进行了清理和修正,以确保数据的一致性和准确性。

MELD数据集示例

数据集统计

MELD数据集的详细统计信息如下:

统计项训练集验证集测试集
模态数3 (文本、音频、视觉)33
独特词数10,6432,3844,361
平均话语长度8.037.998.28
最大话语长度693745
平均每对话情感数3.303.353.24
对话数1039114280
话语数998911092610
说话者数26047100
情感转换次数40034271003
平均话语时长3.59秒3.59秒3.58秒

这些统计数据展示了MELD数据集的规模和丰富性,为研究人员提供了充足的样本进行各种实验和分析。

情感分布

MELD数据集中7种情感的分布如下:

情感训练集验证集测试集
愤怒1109153345
厌恶2712268
恐惧2684050
喜悦1743163402
中性47104701256
悲伤683111208
惊讶1205150281

从分布可以看出,中性和喜悦是最常见的情感,而厌恶和恐惧相对较少。这种不平衡的分布反映了真实对话中情感的自然分布,也为研究不平衡分类问题提供了机会。

数据格式

MELD数据集以CSV文件的形式提供,每个文件包含以下字段:

  • 序号: 用于引用不同版本或子集中的话语
  • 话语: 来自EmotionLines的原始话语文本
  • 说话者: 与话语关联的说话者名称
  • 情感: 话语中表达的情感(7种之一)
  • 情感倾向: 话语中表达的情感倾向(积极、中性、消极)
  • 对话ID: 对话的索引,从0开始
  • 话语ID: 话语在对话中的索引,从0开始
  • 季数: 话语所属的《老友记》季数
  • 集数: 话语所属的《老友记》集数
  • 开始时间: 话语在剧集中的开始时间(格式:hh:mm:ss,ms)
  • 结束时间: 话语在剧集中的结束时间(格式:hh:mm:ss,ms)

这种结构化的数据格式使得研究人员可以方便地访问和处理数据集中的各种信息。

基线模型

MELD数据集的创建者提供了一些基线模型,以便研究人员进行比较和改进。这些基线模型包括:

  1. 文本单模态bcLSTM模型
  2. 音频单模态bcLSTM模型
  3. 文本-音频双模态bcLSTM模型

这些模型使用了不同的特征表示:

  • 文本: GloVe词嵌入的平均值和CNN特征
  • 音频: OpenSMILE提取的特征,经过基于L2的特征选择

研究人员可以使用这些基线模型作为起点,开发更先进的多模态情感识别方法。

研究应用

MELD数据集为多个研究方向提供了宝贵的资源:

  1. 多模态情感识别: 探索如何有效融合文本、音频和视觉信息来提高情感识别的准确性。

  2. 上下文感知情感分析: 研究如何利用对话上下文来改善情感预测。

  3. 情感动态建模: 分析和预测对话中情感的变化和流动。

  4. 多方互动分析: 研究多个参与者之间的情感互动和影响。

  5. 跨模态学习: 探索如何在不同模态之间转移知识,提高模型的泛化能力。

  6. 不平衡学习: 开发能够处理不平衡情感分布的算法。

  7. 多任务学习: 同时预测情感和情感倾向,探索它们之间的关系。

这些研究方向不仅对学术界具有重要意义,还可能推动情感计算在实际应用中的发展,如智能客服、社交媒体分析和人机交互等领域。

使用指南

对于想要使用MELD数据集的研究人员,以下是一些建议:

  1. 数据下载: 可以从官方链接下载原始数据。

  2. 数据预处理: 使用提供的Python脚本来读取和处理数据。

  3. 特征提取: 可以使用预处理后的特征或自行提取新的特征。

  4. 模型开发: 从基线模型开始,逐步改进和创新。

  5. 评估指标: 使用准确率、F1分数等指标评估模型性能。

  6. 结果报告: 与基线模型进行比较,突出新方法的优势。

研究人员在使用MELD数据集时,应注意遵守相关的使用条款和引用要求。

未来展望

MELD数据集的发布为对话情感识别研究开辟了新的可能性。未来的研究方向可能包括:

  1. 开发更复杂的多模态融合技术
  2. 探索自监督学习方法,减少对标注数据的依赖
  3. 引入更多的上下文信息,如角色关系和剧情背景
  4. 研究跨语言和跨文化的情感识别
  5. 将MELD与其他数据集结合,进行迁移学习研究

随着深度学习和自然语言处理技术的不断进步,我们期待看到更多基于MELD数据集的创新研究成果,推动对话情感分析领域向前发展。

结语

MELD数据集的创建填补了多模态多方对话情感数据集的空白,为情感计算研究提供了宝贵的资源。它不仅捕捉了对话中丰富的情感动态,还提供了多模态数据,使研究人员能够探索更复杂、更贴近现实的情感识别方法。随着越来越多的研究者使用这个数据集,我们有理由相信,未来会出现更多创新的算法和应用,推动对话系统和情感智能向更高水平发展。

MELD数据集的贡献不仅限于学术研究,它还为改善人机交互、提升社交媒体分析和发展情感智能应用提供了重要支持。随着这些技术的进步,我们可以期待看到更智能、更有同理心的对话系统,这将极大地改善人们的日常生活和工作体验。

在未来的研究中,我们希望看到更多跨学科的合作,将心理学、语言学和计算机科学等领域的知识结合起来,深入探讨情感在对话中的作用和表现。同时,伦理问题也不容忽视,如何在推进情感识别技术的同时保护隐私、避免偏见,将是研究者们需要持续关注的重要课题。

总之,MELD数据集的出现为对话情感识别研究注入了新的活力,我们期待看到这个领域在未来取得更多突破性的进展,为创造更智能、更人性化的人机交互体验做出贡献。

编辑推荐精选

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

TRELLIS

TRELLIS

用于可扩展和多功能 3D 生成的结构化 3D 潜在表示

TRELLIS 是一个专注于 3D 生成的项目,它利用结构化 3D 潜在表示技术,实现了可扩展且多功能的 3D 生成。项目提供了多种 3D 生成的方法和工具,包括文本到 3D、图像到 3D 等,并且支持多种输出格式,如 3D 高斯、辐射场和网格等。通过 TRELLIS,用户可以根据文本描述或图像输入快速生成高质量的 3D 资产,适用于游戏开发、动画制作、虚拟现实等多个领域。

ai-agents-for-beginners

ai-agents-for-beginners

10 节课教你开启构建 AI 代理所需的一切知识

AI Agents for Beginners 是一个专为初学者打造的课程项目,提供 10 节课程,涵盖构建 AI 代理的必备知识,支持多种语言,包含规划设计、工具使用、多代理等丰富内容,助您快速入门 AI 代理领域。

AEE

AEE

AI Excel全自动制表工具

AEE 在线 AI 全自动 Excel 编辑器,提供智能录入、自动公式、数据整理、图表生成等功能,高效处理 Excel 任务,提升办公效率。支持自动高亮数据、批量计算、不规则数据录入,适用于企业、教育、金融等多场景。

UI-TARS-desktop

UI-TARS-desktop

基于 UI-TARS 视觉语言模型的桌面应用,可通过自然语言控制计算机进行多模态操作。

UI-TARS-desktop 是一款功能强大的桌面应用,基于 UI-TARS(视觉语言模型)构建。它具备自然语言控制、截图与视觉识别、精确的鼠标键盘控制等功能,支持跨平台使用(Windows/MacOS),能提供实时反馈和状态显示,且数据完全本地处理,保障隐私安全。该应用集成了多种大语言模型和搜索方式,还可进行文件系统操作。适用于需要智能交互和自动化任务的场景,如信息检索、文件管理等。其提供了详细的文档,包括快速启动、部署、贡献指南和 SDK 使用说明等,方便开发者使用和扩展。

Wan2.1

Wan2.1

开源且先进的大规模视频生成模型项目

Wan2.1 是一个开源且先进的大规模视频生成模型项目,支持文本到图像、文本到视频、图像到视频等多种生成任务。它具备丰富的配置选项,可调整分辨率、扩散步数等参数,还能对提示词进行增强。使用了多种先进技术和工具,在视频和图像生成领域具有广泛应用前景,适合研究人员和开发者使用。

爱图表

爱图表

全流程 AI 驱动的数据可视化工具,助力用户轻松创作高颜值图表

爱图表(aitubiao.com)就是AI图表,是由镝数科技推出的一款创新型智能数据可视化平台,专注于为用户提供便捷的图表生成、数据分析和报告撰写服务。爱图表是中国首个在图表场景接入DeepSeek的产品。通过接入前沿的DeepSeek系列AI模型,爱图表结合强大的数据处理能力与智能化功能,致力于帮助职场人士高效处理和表达数据,提升工作效率和报告质量。

Qwen2.5-VL

Qwen2.5-VL

一款强大的视觉语言模型,支持图像和视频输入

Qwen2.5-VL 是一款强大的视觉语言模型,支持图像和视频输入,可用于多种场景,如商品特点总结、图像文字识别等。项目提供了 OpenAI API 服务、Web UI 示例等部署方式,还包含了视觉处理工具,有助于开发者快速集成和使用,提升工作效率。

下拉加载更多