ONNX Runtime 是一个跨平台的推理和训练机器学习加速器。
ONNX Runtime 推理可以加快客户体验并降低成本,支持来自深度学习框架(如 PyTorch 和 TensorFlow/Keras)以及经典机器学习库(如 scikit-learn、LightGBM、XGBoost 等)的模型。ONNX Runtime 兼容不同的硬件、驱动程序和操作系统,通过图优化和转换结合硬件加速器(如适用)提供最佳性能。了解更多 →
ONNX Runtime 训练可以通过为现有 PyTorch 训练脚本添加一行代码,来加速多节点 NVIDIA GPU 上的 transformer 模型的训练时间。了解更多 →
开始使用 & 资源
-
常规信息: onnxruntime.ai
-
使用文档和教程: onnxruntime.ai/docs
-
YouTube 视频教程: youtube.com/@ONNXRuntime
-
相关示例库:
- ONNX Runtime 推理: microsoft/onnxruntime-inference-examples
- ONNX Runtime 训练: microsoft/onnxruntime-training-examples
内置管道状态
第三方管道状态
数据/遥测
此项目的 Windows 发行版可能会收集使用数据并将其发送给 Microsoft,以帮助改进我们的产品和服务。有关更多详情,请参阅隐私声明。
贡献和反馈
我们欢迎贡献!请参阅贡献指南。
对于功能请求或错误报告,请提交GitHub 问题。
对于一般讨论或问题,请使用GitHub 讨论。
行为准则
本项目采用了Microsoft 开源行为准则。 有关更多信息,请参阅行为准则常见问题 或通过 opencode@microsoft.com 联系我们,提出任何其他问题或意见。
许可证
此项目是根据 MIT 许可证 许可的。