Project Icon

ast-finetuned-audioset-10-10-0.4593-finetuned-gtzan

基于AST的GTZAN数据集音频分类模型

该模型是在GTZAN数据集上微调的AST(Audio Spectrogram Transformer)模型,针对音频分类任务进行了优化。经过10轮训练,模型在评估集上达到92%的准确率,展现出优秀的音频分类能力。虽然缺少具体应用说明,但其高准确率表明该模型在音乐流派分类等领域可能具有良好表现。模型采用Adam优化器和线性学习率调度策略,通过精心调整的超参数实现了性能的显著提升。

tiny-bert-sst2-distilled - 轻量级BERT文本情感分类模型
BERTGithubHuggingface开源项目数据集微调文本分类机器学习模型模型训练
tiny-bert-sst2-distilled模型通过对BERT基础版本进行蒸馏优化,专注于文本情感分类任务。该模型在SST-2评估集上达到83.26%的准确率,保持了不错的性能表现。模型架构采用2层transformer结构,隐藏层维度为128,具有轻量化特点,适合在计算资源有限的环境中部署使用。
stable-audio-open-1.0 - 开源文本转音频模型支持44.1kHz立体声和最长47秒音频生成
GithubHuggingfaceStable Audio Open 1.0人工智能开源项目机器学习模型音乐创作音频生成
Stable Audio Open 1.0是Stability AI推出的开源音频生成模型,通过自编码器、T5文本嵌入和DiT扩散模型架构,将文本转换为最长47秒的44.1kHz立体声音频。模型基于48万条音频数据训练,在音效和环境音生成方面表现突出,支持stable-audio-tools和diffusers两种调用方式。现阶段仅支持英文提示词输入,不具备人声生成能力。
larger_clap_music_and_speech - 专为音乐和语音优化的CLAP音频-文本对比学习模型
CLAPGithubHuggingface开源项目机器学习模型神经网络语音处理音频分类
larger_clap_music_and_speech是一个针对音乐和语音优化的CLAP模型。它结合SWINTransformer和RoBERTa处理音频和文本特征,实现潜在空间的特征映射。该模型支持零样本音频分类和特征提取,可在CPU和GPU上运行。作为音频理解和分析的有力工具,它在音乐识别和语音处理等领域具有广泛应用前景。
wav2vec2-lg-xlsr-en-speech-emotion-recognition - 微调Wav2Vec 2.0实现高精度语音情感识别
GithubHuggingfaceRAVDESS数据集Wav2Vec 2.0开源项目微调模型深度学习语音情感识别
项目利用微调技术优化wav2vec2-large-xlsr-53-english模型,在RAVDESS数据集上训练出准确率达82.23%的语音情感识别系统。该模型可辨别8种情感状态,包括愤怒、平静和厌恶等。这一成果为语音情感分析、人机交互和情感计算领域的研究提供了新的思路和实践参考。
audiolm-pytorch - 基于Pytorch的音频生成模型AudioLM
AudioLMEnCodecGithubPytorchSoundStream开源项目音频生成
AudioLM是一个基于Pytorch的音频生成模型,具有T5引导的文本到音频转换功能。该项目还兼容SoundStream和Facebook的EnCodec,并提供了多个音频编码和解码模块。用户可以通过完整的训练和使用流程,包括SoundStream、分层Transformer和基于文本条件的音频合成,来进行音频生成技术的研究和开发。
bert-base-uncased-emotion - 情感数据集的高效文本分类模型
F1分数GithubHuggingfacebert-base-uncased-emotion准确率开源项目情感分析文本分类模型
bert-base-uncased模型针对情感数据集的微调结果显示,其在准确率和F1分数分别达到94.05%和94.06%。借助PyTorch和HuggingFace平台,该模型实现高效的情感文本分类,适用于社交媒体内容分析,特别是在Twitter环境中,为数据科学家和开发人员提供情感解析的精确工具。
clap-htsat-fused - 对比语言与音频学习中的多任务性能提升
CLAPGithubHuggingface多模态表示学习对比学习开源项目模型零样本音频分类音频表示
CLAP项目使用对比语言-音频预训练模型结合音频编码器与文本编码器,提升多模态学习表现。该模型支持文本到音频检索、零样本音频分类及监督音频分类等多项任务。通过特征融合机制和关键词到字幕增强,CLAP能高效处理不同长度的音频输入。所发布的LAION-Audio-630K数据集及模型在文本到音频检索和零样本音频分类中表现优异,适用于零样本音频分类及音频、文本特征提取。
stable-audio-metrics - 音频生成模型评估指标集合
GPU支持Githubstable-audio-metrics开源项目数据结构音频指标音频生成模型评估
stable-audio-metrics是一个评估音乐和音频生成模型的开源指标集合。它包含基于Openl3的Fréchet距离、基于PaSST的Kullback-Leibler散度和基于CLAP-LAION的CLAP分数。该项目针对长形式全频带立体声生成进行了优化,支持可变长度输入,并提供了详细文档和示例。适用于评估MusicCaps、AudioCaps和Song Describer等数据集的音频生成质量。
AudioGPT - 多功能音频生成与理解平台,支持语音、音乐、音效及虚拟人对话
AudioGPTGithub开源项目语音增强语音识别音乐生成音频合成
AudioGPT 是一个多功能音频生成与理解平台,具备语音合成、语音识别、语音分离、风格迁移、声音检测、声音提取、文本到音频转换等功能,还支持音乐生成与虚拟人对话。集成了 FastSpeech、whisper、GeneFace 等多个领先的基础模型,AudioGPT 为开发者提供强大的开源工具和预训练模型,支持多种音频相关任务,不断扩展其功能和应用场景。此平台适合音频处理、自然语言处理及多模态研究的需求。
timesformer-base-finetuned-k600 - 采用空间时间注意力的视频分类技术,提升视频理解能力
GithubHuggingfaceKinetics-600TimeSformer开源项目模型深度学习空间时间注意力视频分类
TimeSformer模型运用空间时间注意力机制进行视频分类,能够识别Kinetics-600中的600种标签。该工具旨在提升视频理解的准确性,提供简便的视觉分析能力。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号