#Willow Inference Server
willow-inference-server - 高性能语言推理的开源自托管解决方案
Github开源项目TTSCUDAASRWebRTCWillow Inference Server
Willow Inference Server (WIS) 是一个高效的开源语言推理服务器,支持自托管并优化了CUDA和低端设备的使用。在减少内存和显存占用的前提下,能够同时加载多种语言模型。WIS 支持语音识别 (ASR)、文本到语音合成 (TTS) 以及大语言模型 (LLM),并通过 REST、WebRTC 和 WebSockets 等多种传输方式,实现实时、低延迟的语音与语言处理,适用于各类助理任务和视障用户。
willow - 用于快速语言推理任务的自托管解决方案
Github开源项目LLMTTSWillow Inference ServerWillowSTT
现在可以自托管Willow Inference Server,快速实现语言推理任务。支持与Willow和其他应用的集成,包括语音转文本(STT)、文本转语音(TTS)、大语言模型(LLM)等功能。访问Github discussions分享体验,访问heywillow.io查看详细文档。
相关文章