#音频分类

PaSST: 高效训练音频Transformer模型的新方法

2 个月前
Cover of PaSST: 高效训练音频Transformer模型的新方法
相关项目
Project Cover

PaSST

PaSST项目开发的Patchout方法通过丢弃部分输入patch优化音频频谱图变换器模型训练。该技术显著降低训练时间和GPU内存消耗,同时提升模型性能。Patchout支持随机丢弃或丢弃整个时间帧、频率区间。项目提供预训练模型、推理和嵌入提取功能,以及下游任务微调框架,为音频AI研究和应用提供全面支持。

Project Cover

larger_clap_music_and_speech

larger_clap_music_and_speech是一个针对音乐和语音优化的CLAP模型。它结合SWINTransformer和RoBERTa处理音频和文本特征,实现潜在空间的特征映射。该模型支持零样本音频分类和特征提取,可在CPU和GPU上运行。作为音频理解和分析的有力工具,它在音乐识别和语音处理等领域具有广泛应用前景。

Project Cover

MERT-v1-95M

MERT-v1-95M模型在音乐音频预训练中应用新的范式和数据集,实现出色的任务泛化能力。与MERT-v0相比,该版本采用更高质量的伪标签,在24K Hz频率下训练了20,000小时的音频数据,支持音乐生成。95M参数的模型适合不同的硬件需求,输出75 Hz的特征速率。通过整合MLM预测和批内噪声混合技术,MERT-v1-95M在多种下游任务中表现出色。

Project Cover

wavlm-base

WavLM是基于自监督学习的语音预训练模型,旨在支持多种语音任务。模型在960小时Librispeech数据集上进行预训练,适用于语音识别和分类等任务,需在下游任务中微调。WavLM通过门控相对位置偏置和发音混合训练策略,强调说话者身份保留和内容建模,在SUPERB基准测试中表现优异。模型主要在英语环境中有良好表现,但目标是提供全语言栈的统一表示。

Project Cover

voice-safety-classifier

该项目提供了一个新的语音聊天毒性检测基准模型,基于大规模数据集开发。模型使用WavLM base plus权重,经过2,374小时语音多标签微调,输出标签包括Profanity、DatingAndSexting、Racist、Bullying等。评估显示模型在二元分类任务中的精度达到94.48%。使用者可通过特定命令运行模型权重进行应用。

Project Cover

larger_clap_music

通过对比语言音频预训练技术,CLAP模型实现高效的音频和文本特征提取和分类,适用于无监督学习环境。模型兼具SWINTransformer和RoBERTa的优点,可用来评估音频与文本间的相似性,且能满足多种音频分类和嵌入需求。

Project Cover

hubert-base-superb-ks

该语音关键词检测系统基于HuBERT预训练模型开发,可识别Speech Commands数据集中的10类预设命令词、静音和未知类别。模型在测试集达到96.72%准确率,支持16kHz采样率音频输入,集成transformers pipeline接口,便于设备端快速部署和调用。

Project Cover

wav2vec2-large-nonverbalvocalization-classification

该模型利用Nonverbal Vocalization数据集,基于wav2vec2架构,进行非语言声带的分类。可识别诸如咬牙、咳嗽、打哈欠、哭泣等声音分类。Wav2vec2模型不仅提升了语音识别的准确性,还增强了在多语言及多声学场景中的应用。该模型支持简单的部署与系统集成,优化了语音交互的体验。

Project Cover

wav2vec2-base-superb-ks

Wav2Vec2-Base模型支持SUPERB关键字识别任务,具备高准确性和快速响应的特点。该模型预训练于16kHz语音音频,采用Speech Commands数据集,通过Hugging Face的管道实现关键词检测,适应实时设备应用。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号