#语音情感识别
emotion2vec - 通用语音情感表示模型开源实现
emotion2vec语音情感识别自监督预训练特征提取情感表征Github开源项目
emotion2vec是一个开源的语音情感表示模型,采用自监督预训练方法提取跨任务、跨语言和跨场景的通用情感特征。该模型在IEMOCAP等数据集上取得了领先性能,并在多语言和多任务上展现出优异表现。项目开源了预训练模型、特征提取工具和下游任务训练脚本,为语音情感分析研究提供了有力支持。
speech-emotion-recognition - 开源多模型语音情感识别系统
语音情感识别机器学习模型深度学习模型特征提取Emo-db数据集Github开源项目
speech-emotion-recognition是一个开源的语音情感识别系统,基于Emo-db数据集开发。该项目支持SVM、随机森林、神经网络、CNN和LSTM等多种机器学习和深度学习模型。系统使用Python实现,提供完整的数据预处理、特征提取和模型训练工作流程。项目设计简单易用,适合研究人员和开发者进行语音情感分析的研究和应用开发。该系统可应用于客户服务、情感计算、人机交互等领域,具有模型多样化、使用灵活、易于扩展等优点。
SER-Odyssey-Baseline-WavLM-Multi-Attributes - WavLM基线模型实现多维度语音情感分析
模型MSP-Podcast音频分类开源项目Huggingface语音情感识别多任务模型GithubWavLM
此模型是Odyssey 2024语音情感识别竞赛的基线系统,基于WavLM架构开发。它能够同时预测语音的唤醒度、支配度和效价三个维度,输出值范围在0到1之间。模型使用MSP-Podcast数据集训练,并在竞赛的Test3和Development数据集上完成了基准测试。该模型提供了简洁的使用接口,便于集成到各类语音情感分析应用中。
hubert-large-speech-emotion-recognition-russian-dusha-finetuned - HuBERT模型在俄语语音情感识别上的应用与优化
Huggingface模型语音情感识别Github预训练模型开源项目微调俄语HuBERT
该项目利用DUSHA数据集对HuBERT模型进行微调,实现了俄语语音情感识别。经优化后的模型在测试集上表现突出,准确率达0.86,宏F1分数为0.81,超越了数据集基准。模型能够识别中性、愤怒、积极、悲伤等情绪类型。项目还提供了简洁的使用示例代码,便于研究人员和开发者将其集成到语音情感分析任务中。
wav2vec2-large-robust-12-ft-emotion-msp-dim - 基于Wav2vec 2.0的多维语音情感识别模型
Wav2vec 2.0Huggingface模型语音情感识别音频分类Github开源项目神经网络模型MSP-Podcast
该模型基于Wav2vec 2.0技术,通过在MSP-Podcast数据集上微调Wav2Vec2-Large-Robust模型实现。它能够处理原始音频信号,识别语音中的唤醒度、支配度和效价三个维度,输出0-1范围内的情感预测结果。此外,模型还提供最后一个transformer层的池化状态,为语音情感分析研究提供了有力支持。
wav2vec2-xlsr-persian-speech-emotion-recognition - Wav2Vec 2.0波斯语语音情感识别模型
模型Wav2Vec 2.0GithubShEMO波斯语自动语音识别Huggingface开源项目语音情感识别
该项目开发的Wav2Vec 2.0波斯语语音情感识别模型能够识别六种基本情绪。模型在ShEMO数据集上训练,总体准确率达90%。项目提供了完整的使用说明,包括环境配置、模型加载和预测示例代码。同时还展示了模型在各情绪类别上的性能指标,如精确率、召回率和F1分数等。
wav2vec-english-speech-emotion-recognition - 英语语音情感识别模型:Wav2Vec 2.0的微调应用
模型模型微调Github开源项目Huggingface自然语言处理深度学习语音情感识别Wav2Vec 2.0
此项目展示了Wav2Vec 2.0模型在英语语音情感识别任务中的应用。通过使用SAVEE、RAVDESS和TESS数据集进行微调,模型能够识别7种基本情绪。在评估集上,模型达到了97.463%的准确率。这一成果为语音情感分析领域提供了新的可能性,可应用于语音交互系统和情感计算研究。
wav2vec2-lg-xlsr-en-speech-emotion-recognition - 微调Wav2Vec 2.0实现高精度语音情感识别
微调模型开源项目Huggingface语音情感识别Github深度学习RAVDESS数据集Wav2Vec 2.0
项目利用微调技术优化wav2vec2-large-xlsr-53-english模型,在RAVDESS数据集上训练出准确率达82.23%的语音情感识别系统。该模型可辨别8种情感状态,包括愤怒、平静和厌恶等。这一成果为语音情感分析、人机交互和情感计算领域的研究提供了新的思路和实践参考。
wav2vec2-xls-r-300m-emotion-ru - 基于XLS-R的俄语语音情感识别模型实现高精度分析
分类模型语音情感识别DUSHA模型Githubwav2vec2-xls-r-300mHuggingface开源项目情感分析
该模型是基于wav2vec2-xls-r-300m微调的俄语语音情感识别(SER)模型。利用DUSHA数据集进行训练,包含12.5万条俄语音频样本,可识别虚拟助手对话中的积极、悲伤、愤怒和中性四种基本情绪。模型在测试集上达到90.1%的准确率,为俄语语音情感分析提供了高精度解决方案。
wav2vec2-xlsr-greek-speech-emotion-recognition - 基于Wav2Vec 2.0的希腊语语音情感识别模型
希腊语Github开源项目AutoConfig语音情感识别模型Huggingface深度学习Wav2Vec 2.0
这是一个基于Wav2Vec 2.0的希腊语语音情感识别模型,支持愤怒、厌恶、恐惧、快乐和悲伤五种情绪的识别,准确率达91%。项目提供Python接口,便于集成开发。该模型适用于希腊语语音情感分析研究及应用开发。
emotion-recognition-wav2vec2-IEMOCAP - 基于wav2vec2的语音情感识别开源模型
深度学习IEMOCAPHuggingfaceGithub开源项目模型语音情感识别SpeechBrainwav2vec2
基于SpeechBrain框架开发的语音情感识别模型,集成wav2vec2架构并通过IEMOCAP数据集训练。模型采用卷积网络和残差结构,结合注意力机制进行特征提取,在测试集达到78.7%准确率。支持16kHz音频输入并提供自动标准化处理功能,可直接应用于语音情感分析任务。