Project Icon

TensorflowASR

Tensorflow 2和Conformer结合的端到端语音识别解决方案

Tensorflow 2和Conformer结构打造的端到端语音识别模型,支持在线流式和离线识别,实时率约为0.1。该项目提供VAD、降噪、TTS数据增强等功能,并支持ONNX推理优化。训练结果在Aishell-1测试集上表现优异,适用于语音识别。最新更新的Chunk Conformer结构进一步提升了长时间语音识别的准确性和效率。

faster-whisper-large-v1 - CTranslate2模型转换助力高效语音识别
CTranslate2GithubHuggingfaceWhisper large-v1开源开源项目模型模型转换自动语音识别
项目展示如何将openai/whisper-large模型转换为高效的CTranslate2格式,支持多语种语音转录,适合高精度及快速处理场景。
MASR - 基于Pytorch的开源自动语音识别框架
GithubMASRPytorch开源项目流式识别语音识别预训练模型
MASR是基于Pytorch开发的自动语音识别框架,支持流式和非流式识别。框架集成了多种模型,如deepspeech2、conformer等,可用于短语音和长语音识别。MASR具备集束搜索和贪心解码功能,提供预训练模型,支持多设备部署。项目设计简洁实用,支持中英文识别,并配有完整文档。
dc_tts - 基于深度卷积网络的高效文本到语音转换模型
DC-TTSGithubTensorFlow开源项目文本转语音训练模型语音样本
dc_tts,一个基于TensorFlow的文本到语音转换模型,使用深度卷积网络和引导注意力机制进行设计。项目不仅还原了相关学术论文,还对不同声音数据进行了深入研究,支持多种语言和数据集,提供完善的训练及预处理教程以及预训练模型,适用于学术研究和实际应用场景。
faster-whisper-large-v3-turbo-ct2 - 基于Whisper large-v3的多语言语音识别模型
CTranslate2GithubHuggingfaceWhisperfaster-whisper多语言支持开源项目模型语音识别
这是一个基于OpenAI Whisper large-v3模型优化的CTranslate2版本,专注于高效的语音识别。该模型支持100多种语言的转录,兼具准确性和速度。通过faster-whisper库,可以便捷地进行音频转录。模型采用FP16格式存储,计算类型可灵活调整。这为语音识别应用的开发提供了一个强大的工具。
s2t-small-librispeech-asr - 小型LibriSpeech语音识别模型的高效自动化
GithubHuggingfaceLibriSpeechSpeech2Texts2t-small-librispeech-asr开源项目模型自动语音识别语音转换文本
s2t-small-librispeech-asr是一种小型端到端语音识别模型,使用LibriSpeech ASR语料库进行训练。该模型采用自回归的方式生成转录文本,并结合Pytorch及其工具如torchaudio和sentencepiece以提高准确性。在LibriSpeech“clean”和“other”测试集上的WER分别为4.3和9.0,可满足高性能语音识别应用的需求。
Whisper-Finetune - 语音识别模型的高效微调与加速
GithubWhisper中文识别加速推理开源项目模型微调语音识别
Whisper-Finetune项目致力于优化OpenAI的Whisper语音识别模型。该项目采用Lora技术进行微调,支持多种数据类型的训练,并通过CTranslate2和GGML实现加速推理。此外,项目提供了跨平台应用和服务器部署方案,为语音识别应用开发提供了全面支持。
faster-whisper-large-v2 - 基于Whisper large-v2的高效多语言语音转文本模型
CTranslate2GithubHuggingfaceWhisper开源项目模型模型转换自然语言处理语音识别
该项目是OpenAI Whisper large-v2模型的CTranslate2转换版本,旨在提供高效的自动语音识别功能。支持超过100种语言,通过faster-whisper库实现简便调用。模型采用FP16格式存储,支持运行时计算类型调整,以优化性能。这一工具能够快速准确地完成语音到文本的转换,适用于多种应用场景,为开发者提供了强大的语音识别解决方案。
w2v-bert-2.0 - 大规模多语言语音编码器
GithubHuggingfaceSeamless CommunicationTransformersW2v-BERT 2.0开源项目模型语音编码器预训练模型
W2v-BERT 2.0是一款开源的多语言语音编码器,基于Conformer架构设计。该模型包含6亿参数,在4.5百万小时的无标签音频数据上进行预训练,涵盖143种语言。作为Seamless系列的核心组件,W2v-BERT 2.0可应用于自动语音识别和音频分类等任务。该模型支持通过Hugging Face Transformers和Seamless Communication框架使用,为多语言语音处理研究提供了有力工具。
Multilingual_Text_to_Speech - 多语言文本到语音合成技术
GithubMeta-learningTacotron 2多语言文本转语音开源项目神经网络模型语音合成
Multilingual_Text_to_Speech项目综合采用Tacotron 2模型与元学习技术,支持复杂的多语言语音合成实验,提供完善的编码器共享机制,并包含丰富的语言数据及互动示范,旨在推动学术研究及应用开发。
wav2vec2-large-xlsr-53-chinese-zh-cn - 中文自动语音识别模型提供广泛应用支持
Common VoiceGithubHuggingSoundHuggingfaceXLSR Wav2Vec2开源项目模型语音识别语音转录
该模型基于Common Voice、CSS10和ST-CMDS数据集,对facebook的wav2vec2-large-xlsr-53进行了微调,以实现中文自动语音识别。模型能够处理16kHz采样率的语音输入,可通过HuggingSound库直接进行语音转录或使用定制推理脚本。评估结果显示,模型在Common Voice测试数据集上WER为82.37%,CER为19.03%。感谢OVHcloud提供的GPU支持,该模型适用于医药、教育等领域语音数据处理。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号