#模型服务
modelscope
ModelScope简化了AI模型在推理、训练和评估方面的流程,支持CV、NLP、语音、多模态和科学计算等领域的应用。该平台提供统一接口和丰富的API层级,便于开发者轻松集成和使用700多种最新开源模型。适合初学者和专业人士快速上手,体验强大功能。
mosec
Mosec是一个高效且灵活的模型服务框架,旨在简化云端机器学习模型的部署和服务构建。其采用Rust和Python,实现高速性能与易用性,支持动态批处理和流水线处理,适用于CPU和GPU的混合工作负载。Mosec还提供模型预热、优雅关闭和Prometheus监控,便于通过Kubernetes等系统进行管理。
awesome-mlops
发掘和运用顶尖MLOps工具:该项目汇集了多种自动化机器学习、数据处理、模型部署工具,供数据科学家和机器学习工程师选择使用,以简化机器学习流程,优化生产活动。
serve
TorchServe是一款高效灵活的平台,用于生产环境中PyTorch模型的部署和扩展。最新版本通过默认启用的令牌授权机制和增强的模型API控制,有效预防未授权API调用和恶意代码风险。此外,该平台还支持在不同环境(包括本地、云服务及各类硬件)中快速部署模型。
multi-model-server
Multi Model Server是一个灵活的工具,用于部署由各种ML/DL框架训练的深度学习模型。通过命令行界面或预配置的Docker镜像,可以快速设置HTTP端点处理模型推理请求。支持Python 2.7和3.6,提供适合CPU和GPU推理的不同MXNet pip包。详细的文档和使用示例,以及Slack频道和社区支持,进一步简化了用户使用体验。推荐在生产环境中使用Docker容器以提升安全性和性能。
inferflow
Inferflow是一款功能强大的大语言模型推理引擎,支持多种文件格式和网络结构。它采用3.5位量化和混合并行推理等创新技术,提高了推理效率。用户通过修改配置文件即可部署新模型,无需编写代码。Inferflow支持GPU/CPU混合推理,为模型部署提供灵活选择。该项目为研究人员和开发者提供了高效易用的LLM推理工具。