#TensorFlow Lite

react-native-fast-tflite - React Native TensorFlow Lite库,支持JSI和GPU加速
Github开源项目VisionCameraReact NativeTensorFlow LiteJSIGPU Delegate
这是一个高效的React Native TensorFlow Lite库,支持JSI和零拷贝ArrayBuffers,采用低级C/C++ TensorFlow Lite核心API实现直接内存访问,支持运行时模型交换和GPU加速(CoreML/Metal/OpenGL),并易于集成VisionCamera。该库允许轻松添加和加载TensorFlow Lite模型,支持从本地文件系统或远程URL加载模型,非常适合需要高效且灵活AI推理功能的React Native开发者,在应用中实现先进的计算机视觉和AI功能。
ML-examples - 详细的机器学习教程和示例源代码,涵盖Android、Raspberry Pi和Arm Corstone等多种平台
Github开源项目Raspberry PiTensorFlow LiteArm NNPyArmNNCMSIS
提供详细的机器学习教程和示例源代码,涵盖Android、Raspberry Pi和Arm Corstone等多种平台。展示TensorFlow Lite模型部署、卷积神经网络训练、多手势识别和火焰检测等项目,助力开发者快速实现高效AI解决方案。源代码均可在GitHub上获取,并配有详细教程,适合所有开发者。
ModelAssistant - 专注于为嵌入式设备提供最新AI算法的开源项目
Github开源项目AI算法嵌入式设备TensorFlow LiteSeeed StudioSSCMA
Seeed Studio的SenseCraft Model Assistant是一个开源项目,专注于为嵌入式设备提供最新AI算法,帮助开发者将AI模型部署到微控制器和单板计算机等低成本硬件上。该平台用户友好,支持TensorFlow Lite和ONNX等多种格式的模型导出,并优化了OpenMMLab的算法以适应实际应用场景。最新更新包括YOLO-World和MobileNetV4算法,以及Swift YOLO轻量级目标检测算法,旨在提供高性能和高精度。
Android-TensorFlow-Lite-Example - 在Android应用中集成TensorFlow Lite的介绍,用于通过相机图像进行对象检测
Github开源项目应用程序Android机器学习对象检测TensorFlow Lite
该项目展示了如何在Android应用中集成TensorFlow Lite,用于通过相机图像进行对象检测。这是一个适合学习和实际应用的机器学习示例项目。
flutter-tflite - Flutter专用的TensorFlow Lite高效集成插件
Github开源项目机器学习跨平台FlutterTensorFlow Lite移动应用开发
flutter-tflite是Flutter生态系统中的TensorFlow Lite集成插件。它支持Android和iOS平台,可使用任何TFLite模型,并提供NNAPI和GPU加速。通过直接绑定TFLite C API,该插件实现低延迟操作,并提供类似TFLite Java和Swift的API。开发者可进行简单的模型推理,还能在独立isolate中运行以优化UI性能。
ai-edge-torch - PyTorch模型转TensorFlow Lite的开源解决方案
Github开源项目PyTorch模型转换TensorFlow LiteAI Edge Torch移动设备部署
ai-edge-torch是一个开源Python库,用于将PyTorch模型转换为TensorFlow Lite格式。它支持在Android、iOS和IoT设备上本地运行模型,提供广泛的CPU支持和初步的GPU、NPU支持。该项目还包含生成式API,用于优化大型语言模型在设备端的性能。ai-edge-torch与PyTorch紧密集成,为边缘AI开发提供了实用的工具。
armnn - 针对Arm架构优化的高性能机器学习推理引擎
Github开源项目Android机器学习推理引擎TensorFlow LiteArm NN
Arm NN是为Android和Linux平台设计的机器学习推理引擎,针对Arm Cortex-A CPU和Mali GPU进行了优化。通过Arm架构特定优化和Arm Compute Library,Arm NN在性能上表现出色。该引擎支持TensorFlow Lite和ONNX格式模型,提供TF Lite Delegate和解析器,方便开发者将机器学习模型集成到应用中。Arm NN使用C++17编写,可在多种目标平台和主机环境下构建。
compute-engine - 优化极度量化神经网络推理的高性能引擎
Github开源项目神经网络移动平台TensorFlow LiteLarq Compute Engine二值化神经网络
Larq Compute Engine是专为极度量化神经网络设计的推理引擎。它支持多种移动平台,提供优化的TensorFlow Lite自定义运算符。通过平铺、矢量化和多线程并行化技术,该引擎提高了缓存命中率、计算吞吐量和多核CPU性能。它与Larq和TensorFlow集成,实现从训练到部署的流畅过程,并兼容Larq Zoo的预训练BNN模型。