#模型服务
modelscope - 整合与应用前沿AI模型的开放平台
ModelScope模型服务API接口机器学习模型开源库Github开源项目
ModelScope简化了AI模型在推理、训练和评估方面的流程,支持CV、NLP、语音、多模态和科学计算等领域的应用。该平台提供统一接口和丰富的API层级,便于开发者轻松集成和使用700多种最新开源模型。适合初学者和专业人士快速上手,体验强大功能。
mosec - 云端机器学习模型服务框架
MOSEC模型服务高性能动态批处理云计算Github开源项目
Mosec是一个高效且灵活的模型服务框架,旨在简化云端机器学习模型的部署和服务构建。其采用Rust和Python,实现高速性能与易用性,支持动态批处理和流水线处理,适用于CPU和GPU的混合工作负载。Mosec还提供模型预热、优雅关闭和Prometheus监控,便于通过Kubernetes等系统进行管理。
awesome-mlops - 多种自动化机器学习、数据处理、模型部署工具集合
MLOps自动化机器学习数据管理模型服务数据处理Github开源项目
发掘和运用顶尖MLOps工具:该项目汇集了多种自动化机器学习、数据处理、模型部署工具,供数据科学家和机器学习工程师选择使用,以简化机器学习流程,优化生产活动。
serve - 提高PyTorch模型服务效率和安全性的关键技术
TorchServePyTorch模型服务安全性大规模模型Github开源项目
TorchServe是一款高效灵活的平台,用于生产环境中PyTorch模型的部署和扩展。最新版本通过默认启用的令牌授权机制和增强的模型API控制,有效预防未授权API调用和恶意代码风险。此外,该平台还支持在不同环境(包括本地、云服务及各类硬件)中快速部署模型。
multi-model-server - 深度学习模型的部署工具
Multi Model Server深度学习模型服务DockerPythonGithub开源项目
Multi Model Server是一个灵活的工具,用于部署由各种ML/DL框架训练的深度学习模型。通过命令行界面或预配置的Docker镜像,可以快速设置HTTP端点处理模型推理请求。支持Python 2.7和3.6,提供适合CPU和GPU推理的不同MXNet pip包。详细的文档和使用示例,以及Slack频道和社区支持,进一步简化了用户使用体验。推荐在生产环境中使用Docker容器以提升安全性和性能。
inferflow - 为大语言模型提供高效灵活的推理解决方案
Inferflow大语言模型推理引擎模型服务量化Github开源项目
Inferflow是一款功能强大的大语言模型推理引擎,支持多种文件格式和网络结构。它采用3.5位量化和混合并行推理等创新技术,提高了推理效率。用户通过修改配置文件即可部署新模型,无需编写代码。Inferflow支持GPU/CPU混合推理,为模型部署提供灵活选择。该项目为研究人员和开发者提供了高效易用的LLM推理工具。
相关文章
ModelScope: 打造人工智能模型即服务的开源生态系统
3 个月前
MOSEC: 高性能机器学习模型服务框架
3 个月前
MLOps工具和最佳实践全面指南
3 个月前
Multi-Model Server: 灵活高效的深度学习模型服务工具
3 个月前
Inferflow:高效且可配置的大型语言模型推理引擎
3 个月前
ModelScope学习资料汇总 - 让"模型即服务"的理念生动实现
2 个月前
MOSEC学习资源汇总 - 高性能机器学习模型服务框架
2 个月前
awesome-mlops学习资料汇总 - 机器学习运维的工具和资源指南
2 个月前
TorchServe学习资料汇总-灵活易用的PyTorch模型服务工具
2 个月前