#IEMOCAP
wav2vec2-base-superb-er - 基于Wav2Vec2的语音情感识别模型实现高精度声学特征提取
情感识别IEMOCAPHuggingfaceGithub开源项目模型SUPERBWav2Vec2语音识别
wav2vec2-base-superb-er是一个针对SUPERB情感识别任务优化的语音情感识别模型。该模型可从16kHz采样的语音中提取声学特征,识别说话者的情感状态。经IEMOCAP数据集训练后,模型能识别4种主要情感类别,测试集识别准确率为62.58%。模型提供pipeline接口和直接调用方式,便于快速部署语音情感分析应用。
emotion-recognition-wav2vec2-IEMOCAP - 基于wav2vec2的语音情感识别开源模型
深度学习IEMOCAPHuggingfaceGithub开源项目模型语音情感识别SpeechBrainwav2vec2
基于SpeechBrain框架开发的语音情感识别模型,集成wav2vec2架构并通过IEMOCAP数据集训练。模型采用卷积网络和残差结构,结合注意力机制进行特征提取,在测试集达到78.7%准确率。支持16kHz音频输入并提供自动标准化处理功能,可直接应用于语音情感分析任务。