Project Icon

metavoice-src

1.2B参数开源TTS模型,支持情感语音合成和跨语言声音克隆

MetaVoice-1B是一个开源的1.2B参数TTS模型,经过10万小时的语音训练,支持英语情感语音合成和零样本的美式和英式语音克隆(仅需30秒参考音频)。该模型还支持跨语言声音克隆和任意长度文本的语音合成。可通过云端或本地部署使用,并提供Hugging Face和Google Colab的演示。

llama3 - Llama 3开源大语言模型 推动AI创新与责任发展
GithubLlama 3Meta人工智能大语言模型开源开源项目
Meta推出Llama 3系列大语言模型,参数规模从8B到70B不等,包含预训练和指令微调版本。该系列面向广泛用户群体开放,旨在推动负责任的AI创新。Llama 3具备8192个token的序列处理能力,并提供便捷的加载和推理代码。模型权重和分词器可通过官方网站或Hugging Face平台获取。
Meta-Llama-3.1-70B-Instruct - 支持多语言对话的开源模型
GithubHuggingfaceLlama 3.1Meta多语言开源项目文本生成模型许可协议
Meta推出的多语言开源语言模型,支持8种语言,旨在增强商业和研究中的多语言对话能力。通过预训练和指令调优,Meta-Llama 3.1在行业基准上展现出优于现有开源和闭源模型的卓越性能。该模型采用优化的变换器架构,利用监督微调和人类反馈强化学习提升响应安全性和用户友好性。用户在使用该模型创建衍生作品时需遵循Llama 3.1许可证,应用范围包括跨语言自然语言生成任务和合成数据生成等,不仅提高了AI模型输出的质量,还能广泛用于商业和研究领域的多语言对话。
w2v-bert-2.0 - 大规模多语言语音编码器
GithubHuggingfaceSeamless CommunicationTransformersW2v-BERT 2.0开源项目模型语音编码器预训练模型
W2v-BERT 2.0是一款开源的多语言语音编码器,基于Conformer架构设计。该模型包含6亿参数,在4.5百万小时的无标签音频数据上进行预训练,涵盖143种语言。作为Seamless系列的核心组件,W2v-BERT 2.0可应用于自动语音识别和音频分类等任务。该模型支持通过Hugging Face Transformers和Seamless Communication框架使用,为多语言语音处理研究提供了有力工具。
Retrieval-based-Voice-Conversion-WebUI - 开源AI变声框架 实现实时变声和快速模型训练
GithubWebUI人工智能变声开源项目训练语音转换
Retrieval-based-Voice-Conversion-WebUI是一个基于VITS的开源变声框架。该项目支持实时变声和快速模型训练,只需少量数据即可生成高质量变声模型。框架提供多语言界面和跨平台支持,并配有详细教程。项目采用检索式方法替换输入源特征,有效防止音色泄漏。支持在中低配置GPU上快速训练,并可通过模型融合调整音色。WebUI界面简洁直观,内置UVR5模型便于人声分离。采用InterSpeech2023-RMVPE算法提取音高,性能出色且资源占用低。该框架支持多种硬件加速,适用于不同用户需求,是一个功能丰富且操作简便的AI变声工具。
wav2vec2-large-robust-12-ft-emotion-msp-dim - 基于Wav2vec 2.0的多维语音情感识别模型
GithubHuggingfaceMSP-PodcastWav2vec 2.0开源项目模型神经网络模型语音情感识别音频分类
该模型基于Wav2vec 2.0技术,通过在MSP-Podcast数据集上微调Wav2Vec2-Large-Robust模型实现。它能够处理原始音频信号,识别语音中的唤醒度、支配度和效价三个维度,输出0-1范围内的情感预测结果。此外,模型还提供最后一个transformer层的池化状态,为语音情感分析研究提供了有力支持。
speech-driven-animation - 语音驱动的端到端面部动画合成模型
GithubSpeech-Driven Animation人脸合成开源项目深度学习视频动画语音驱动
Speech-Driven Animation是一个开源项目,实现语音驱动的端到端面部合成模型。该项目根据输入图像和音频生成面部动画视频,支持GRID、TIMIT和CREMA等预训练模型。通过API可输入自定义音频和图像,输出同步动画视频。项目还提供音频和视频编码器,可用于特征提取和分类任务。
InternVL2-2B - 多模态大语言模型支持多语言及多媒体理解
GithubHuggingfaceInternVL2人工智能多模态大语言模型开源项目模型自然语言处理计算机视觉
InternVL2-2B是一个开源的多模态大语言模型,参数量为2.2B。该模型在文档理解、图表分析和场景文本识别等任务中表现优异,性能接近商业闭源模型。InternVL2-2B支持8K上下文窗口,可处理长文本、多图像和视频输入,大幅提升了多模态理解能力。作为一款出色的开源模型,InternVL2-2B为多模态人工智能研究和应用提供了新的可能性。
glow-tts - 通过单调对齐搜索进行文本转语音的生成流
GithubGlow-TTSHiFi-GAN并行合成开源项目文本转语音模型训练
Glow-TTS,一款创新的文本到语音转换模型,独立完成文本与语音的单调对齐搜索,无需外部辅助。此模型不仅大幅提升合成速度,还支持多样性与可控性,并可适应多说话人环境。更新项包括采用新技术降低噪声并优化发音,使其在速度和音质上优于传统模型。
seamless-m4t-v2-large - 跨语言跨模态机器翻译新里程碑
GithubHuggingfaceSeamlessM4T多语言翻译开源项目文本翻译模型自动语音识别语音翻译
SeamlessM4T v2是一款先进的多语言多模态机器翻译模型,支持近100种语言。它可实现语音与文本之间的多向转换,覆盖101种语音输入、96种文本处理和35种语音输出语言。新版本采用UnitY2架构,显著提升了翻译质量和语音生成效率,为跨语言交流提供了更优秀的技术支持。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号