vits-simple-api: 一个简单而强大的语音合成API
vits-simple-api是一个基于VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)模型的简单HTTP API。该项目通过扩展Moegoe项目,增加了多种功能,为开发者提供了一个便捷而强大的语音合成解决方案。
主要特性
vits-simple-api具有以下主要特性:
- 支持VITS文本到语音合成和语音转换
- 集成了HuBert-soft VITS模型
- 支持vits_chinese模型
- 集成了Bert-VITS2模型
- 支持W2V2 VITS / emotional-vits维度情感模型
- 集成了GPT-SoVITS模型
- 支持加载多个模型
- 自动语言识别和处理,可根据模型的cleaner设置语言类型识别范围,支持自定义语言类型范围
- 可自定义默认参数
- 支持长文本批处理
- GPU加速推理
- 正在开发SSML(语音合成标记语言)支持
在线演示
项目提供了在线演示,用户可以通过Hugging Face Spaces体验vits-simple-api的功能。此外,还提供了Colab Notebook,方便用户快速上手和测试。
需要注意的是,不同的ID可能支持不同的语言。用户可以通过speakers接口查看可用的说话人ID和对应的语言支持。
部署方式
vits-simple-api提供了两种部署选项:Docker部署和虚拟环境部署。无论选择哪种方式,部署后都需要导入模型才能使用应用程序。
Docker部署(推荐用于Linux)
-
拉取Docker镜像:
bash -c "$(wget -O- https://raw.githubusercontent.com/Artrajz/vits-simple-api/main/vits-simple-api-installer-latest.sh)"
-
启动容器
虚拟环境部署
-
克隆项目:
git clone https://github.com/Artrajz/vits-simple-api.git
-
安装Python依赖:
pip install -r requirements.txt
-
启动程序
Windows快速部署包
- 从releases页面下载并解压最新的部署包
- 运行
start.bat
启动程序
模型加载
vits-simple-api支持自动加载和手动加载模型两种方式。从0.6.6版本开始,默认行为是自动加载data/models
文件夹中的所有模型,这使得初学者更容易使用。
如果需要手动加载模型,可以修改config.yaml
文件中的tts_config.auto_load
为false
,然后在tts_config.models
中配置模型路径。
GPU加速
项目支持GPU加速推理,提供了Windows和Linux下的CUDA安装和PyTorch GPU版本安装指南。
WebUI
vits-simple-api提供了推理前端和管理后端两个Web界面:
- 推理前端: http://127.0.0.1:23456
- 管理后端: http://127.0.0.1:23456/admin
管理后端的初始用户名和密码可以在首次启动后在config.yaml
文件中找到。
API
vits-simple-api提供了丰富的API接口,支持GET和POST请求。主要接口包括:
- 获取说话人列表
- VITS语音合成
- VITS语音转换
- HuBert-VITS
- W2V2-VITS
- Bert-VITS2
- GPT-SoVITS语音合成
- SSML(语音合成标记语言)
每个接口都有详细的参数说明,方便开发者进行集成和使用。
常见问题
项目文档中提供了常见问题解答,包括Bert-VITS2版本兼容性等内容,帮助用户解决使用过程中可能遇到的问题。
交流与贡献
vits-simple-api项目欢迎学习和交流,目前有一个中文QQ群供用户讨论。项目也感谢所有贡献者的付出,欢迎更多开发者参与到项目的改进中来。
总的来说,vits-simple-api为开发者提供了一个功能丰富、易于使用的语音合成API解决方案。无论是个人开发者还是企业用户,都可以通过这个项目快速实现高质量的语音合成功能。随着项目的不断发展和完善,相信它将为更多语音应用的开发提供有力支持。