NatML
NatML允许开发者只需不到五行代码就能将机器学习集成到他们的Unity应用中,无需任何基础设施。NatML完全消除了需要具备机器学习经验才能利用其功能的要求。功能包括:
-
通用机器学习。使用NatML,你可以直接将CoreML(
.mlmodel
)、TensorFlow Lite(.tflite
)和ONNX(.onnx
)模型拖放到你的Unity项目中并运行它们。 -
裸机性能。NatML利用硬件机器学习加速器,如iOS和macOS上的CoreML、Android上的NNAPI和Windows上的DirectML。因此,它比Unity自己的Barracuda引擎快数倍。
-
跨平台。NatML同时支持Android、iOS、macOS、WebGL和Windows。因此,你可以一次性构建你的应用,在编辑器中测试,然后在一个无缝工作流程中部署到各种平台和设备。
-
极易使用。NatML通过返回熟悉数据类型的简单类来暴露机器学习模型。这些被称为"预测器",它们为你处理所有繁重的工作。无需编写预处理脚本或着色器,处理张量,或任何类似的工作。
-
不断增长的目录。NatML专注于应用程序。因此,我们维护着一个不断增长的预测器目录,开发者可以快速发现并在他们的应用中部署。查看NatML Hub。
-
轻量级包。NatML以自包含的包形式分发,没有外部依赖。因此,你可以简单地导入包并开始使用——无需设置。
安装NatML
将以下项目添加到你的Unity项目的Packages/manifest.json
中:
{
"scopedRegistries": [
{
"name": "NatML",
"url": "https://registry.npmjs.com",
"scopes": ["ai.natml"]
}
],
"dependencies": {
"ai.natml.natml": "1.1.16"
}
}
使用ML模型
如果你有CoreML、ONNX或TensorFlow Lite模型,你可以简单地将其拖放到你的项目中。查看文档了解更多详情。
请注意,特定的模型格式只能在特定的平台上使用。CoreML模型只能在iOS和macOS上使用;ONNX只能在Windows上使用;TensorFlow Lite只能在Android上使用。使用NatML Hub将你的模型转换为不同的ML格式。
在NatML Hub上发现ML模型
**在NatML Hub上创建账户**以找到和下载可在你项目中使用的ML预测器!
你也可以将你的模型上传到Hub并将它们设为私有或公开。查看文档了解如何为你的模型编写预测器。
两个简单步骤使用ML模型
你总是会通过两个步骤使用NatML。首先,通过从NatML Hub获取模型数据或加载项目中的本地ML模型文件(.mlmodel
、.tflite
和.onnx
)来创建预测器:
// 创建MobileNet v2预测器
var predictor = await MobileNetv2Predictor.Create();
然后使用预测器进行预测:
// 对图像进行预测
Texture2D image = ...;
var (label, score) = predictor.Predict(image);
不同的预测器接受和产生不同的数据类型,但使用模式总是相同的。
要求
- Unity 2022.3+
支持的平台
- Android API Level 24+
- iOS 14+
- macOS 10.15+(Apple Silicon和Intel)
- Windows 10+(仅64位)
- WebGL:
- Chrome 91+
- Firefox 90+
- Safari 16.4+
资源
- 加入Discord上的NatML社区。
- 查看NatML文档。
- 查看GitHub上的NatML。
- 阅读NatML博客。
- 通过hi@natml.ai联系我们。
非常感谢!