热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#AI部署
OpenVINO™ Model Server:高性能可扩展的AI推理服务平台
2 个月前
OpenVINO™ Model Server是一个专为Intel架构优化的高性能AI模型服务系统,它提供了标准化的gRPC和REST API接口,支持多种深度学习框架,可以轻松部署和管理AI模型,实现高效的推理服务。
OpenVINO Model Server
模型推理
微服务架构
AI部署
模型管理
Github
开源项目
2 个月前
相关项目
model_server
OpenVINO Model Server是一个高性能AI模型部署系统,针对Intel架构优化。支持TensorFlow、PaddlePaddle和ONNX等多种框架,可在不同AI加速器上运行。系统通过gRPC和REST API提供服务,具备模型版本控制、动态输入和DAG调度等功能。适用于边缘计算和云环境,可提高资源利用率和推理效率。该系统还支持Python代码执行、gRPC流式传输和MediaPipe图形服务。OpenVINO Model Server适合微服务架构应用和Kubernetes环境部署,可实现水平和垂直推理扩展。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号