#ONNX

TensorRT - 优化深度学习推理的开源平台
Github开源项目DockerONNXNVIDIATensorRTCUDA
NVIDIA TensorRT 开源软件提供插件和 ONNX 解析器的源码,展示 TensorRT 平台功能的示例应用。这些组件是 TensorRT GA 版本的一部分,并包含扩展和修复。用户可以轻松安装 TensorRT Python 包或根据构建指南编译。企业用户可使用 NVIDIA AI Enterprise 套件,并可加入 TensorRT 社区获取最新产品更新和最佳实践。
onnx - 一个为 AI 开发人员提供支持的开放生态系统
Github开源项目深度学习机器学习AI模型ONNX推理
ONNX是一个开放生态系统,提供AI模型的开源格式,支持深度学习和传统机器学习。通过定义可扩展的计算图模型和内置操作符及标准数据类型,ONNX增强了不同框架间的互操作性,加速了从研究到生产的转化。ONNX广泛支持各种工具和硬件,助力AI社区快速创新。了解ONNX的文档、教程和预训练模型,加入社区,共同推动ONNX的发展。
mace - 移动设备优化的深度学习推理框架
Github开源项目TensorFlowONNXMACE深度学习推理框架移动端异构计算
MACE是一款专为Android、iOS、Linux和Windows设备设计的深度学习推理框架,优化了NEON、OpenCL、Hexagon等技术以提升性能。它支持多种模型格式,如TensorFlow、Caffe和ONNX,并提供高级API进行电源管理和UI响应优化。MACE设计注重内存使用、模型保护和平台覆盖,提供丰富的模型格式支持。
cortex - 适用于多引擎的OpenAI兼容AI引擎平台
Github开源项目DockerCortexAI引擎ONNXNVIDIA
Cortex是一个OpenAI兼容的多引擎AI平台,提供命令行界面和客户端库,支持构建LLM应用。支持的引擎包括GGUF、ONNX和TensorRT-LLM,兼容多种硬件平台。Cortex可作为独立服务器运行或作为库导入,适配MacOS、Windows和Ubuntu操作系统。
CNTK - 深度学习工具包,支持多种模型,包括DNN、CNN和RNN
Github开源项目深度学习开源神经网络ONNXCNTK
CNTK,微软的开源深度学习工具包,支持多种模型,包括DNN、CNN和RNN。具备自动微分和GPU并行化等高级功能,简化开发和训练流程,并完美支持ONNX,兼容多种AI框架。
uform - 用于内容理解和生成的袖珍型多模态 AI
Github开源项目多模态AI生成模型ONNX嵌入模型UForm
UForm是一个全面的多模态AI库,涵盖了从文本到图像,乃至视频剪辑的生成与理解等多种功能。支持多种语言,包含轻量级生成模型及高效的预训练变压模型,能够广泛应用于从服务器到智能手机等不同设备。主要优势包括快速的搜索性能、简易的模型部署过程及卓越的多语言应用能力,适用于快速嵌入、语义搜索、图像标题生成和视觉问答等多种场景。
silero-models - 提供预训练的企业级语音识别和合成模型
Github开源项目PyTorch文本转语音语音识别ONNXSilero Models
silero-models展示高质量预训练语音识别与合成模型,提供简化的企业级语音技术解决方案,性能匹敌谷歌STT。模型即用、支持多语言、语音合成自然,将企业和开发者的部署流程简化至极致。
fastembed-rs - 基于Rust的无需Tokio依赖,支持同步操作的高效文本嵌入工具
Github开源项目量化模型RustONNX文本嵌入FastEmbed-rs
FastEmbed-rs为基于Rust的高效文本嵌入工具,无需Tokio依赖,支持同步操作。允许使用Hugging Face等多种模型,并通过并行处理实现高效批量嵌入。支持加载自定义.ONNX模型,提供简洁API以快速实现文本嵌入和重排,适合追求高性能文本处理的开发者。
nncf - Neural Network Compression Framework:高效神经网络推理压缩算法
Github开源项目PyTorchTensorFlowOpenVINOONNXNeural Network Compression Framework
Neural Network Compression Framework (NNCF) 提供一套后训练和训练时的优化算法,用于在 OpenVINO 中优化神经网络推理,保证最小的精度损失。NNCF 支持 PyTorch、TensorFlow 和 ONNX 等模型,并提供示例展示不同压缩算法的使用案例。NNCF 还支持自动化模型图转换、分布式训练和多种算法的无缝组合,支持将压缩后的 PyTorch 模型导出为 ONNX 检查点及将 TensorFlow 模型导出为 SavedModel 格式。
neoml - 跨平台多语言支持的端到端机器学习框架
Github开源项目神经网络机器学习框架ONNXNeoMLABBYY
NeoML是一个端到端机器学习框架,可用于构建、训练和部署模型,适用于计算机视觉和自然语言处理任务,如图像预处理、分类、OCR和数据提取。支持100多种神经网络层类型和20多种传统机器学习算法,兼容CPU和GPU,并支持ONNX格式。适用的编程语言包括Python、C++、Java和Objective-C,且可运行于Windows、Linux、macOS、iOS和Android平台。
onnxmltools - 多框架机器学习模型转ONNX工具
Github开源项目ONNX模型转换依赖ONNXMLTools机器学习工具包
ONNXMLTools可将包括Tensorflow、scikit-learn、Core ML、Spark ML、LightGBM、XGBoost、H2O等在内的多种机器学习模型转换为ONNX格式。它支持通过PyPi或源码安装,依赖ONNX、NumPy和ProtoBuf,适用于Python 3.7及以上版本,提供详尽的转换示例与测试方法。更多信息请参考相关文档与教程。
wonnx - 基于Rust的多平台GPU加速ONNX推理工具
Github开源项目RustONNXGPU加速Wonnx推理运行时
Wonnx是一个完全用Rust编写的ONNX推理工具,支持Vulkan、Metal和DX12等多个平台,并通过WebGPU在浏览器中运行。用户可以通过命令行工具、Rust库、Python包和JavaScript模块操作和测试ONNX模型。Wonnx支持丰富的操作符,并持续进行性能优化和功能扩展,致力于为开发者提供高效灵活的深度学习模型推理工具。
sklearn-onnx - 将scikit-learn模型转换为ONNX格式的解决方案
Github开源项目ONNX模型转换scikit-learnsklearn-onnxonnxruntime
sklearn-onnx是一个工具,用于将scikit-learn模型转换为ONNX格式,并使用ONNX Runtime进行高性能评估。所有转换器都经过ONNX Runtime测试,用户还能注册外部转换器转换含外部库模型的scikit-learn管道。项目文档包括教程和常见问题解答,帮助用户快速上手。可通过PyPi或源码安装,支持多种操作系统,以提高机器学习模型性能。
Aimmy - 一种通用的基于 AI 的瞄准对准机制
Github开源项目ONNXYOLOv8AimmyAI瞄准校准机制DirectML
Aimmy由BabyHamsta、MarsQQ和Taylor开发,是通用的AI驱动瞄准对齐机制,专为需要瞄准辅助的玩家设计。采用DirectML、ONNX和YOLOv8技术,特别在AMD GPU上有卓越性能,提供高精度和快速响应。Aimmy拥有直观的用户界面和多种自定义选项,不需编程技能即可使用,适用于各种游戏。软件完全免费,无广告和付费障碍。加入官方Discord社区了解更多信息,提升游戏瞄准体验。
onnx-tensorrt - ONNX 的 TensorRT 后端
Github开源项目ONNXTensorRTCUDAProtobufInstanceNormalization
本项目实现对ONNX模型的高效解析,支持在最新TensorRT 10.2版本上运行。还覆盖了多个ONNX操作符,提供详细的安装和构建指南。项目中包含C++和Python的使用示例,方便用户集成和运行ONNX模型。常见问题解答和变更日志有助于解决使用中的问题。
onnx-go - 面向Go语言的ONNX模型解析和运行接口
Github开源项目深度学习神经网络Go语言ONNXGorgonia
onnx-go项目提供了一个Go语言接口,用于解析和运行ONNX二进制模型,帮助开发者轻松集成机器学习功能。虽然其API仍然是实验性的,但它不需要数据科学方面的专业知识。该项目已停止维护,且随着深度学习领域的发展,预计会被新的解决方案取代。
Paddle2ONNX - 将PaddlePaddle模型转换为ONNX格式的开源工具
Github开源项目ONNX模型转换PaddlePaddle推理引擎Paddle2ONNX
Paddle2ONNX 是一个开源工具,用于将PaddlePaddle模型转换为ONNX格式,使模型能够部署到多种ONNX支持的推理引擎如TensorRT、OpenVINO等。Paddle2ONNX不依赖其他组件,只需通过pip安装即可使用。它提供命令行接口和多种参数选项,支持模型优化与量化,适用于不同的部署需求。了解如何安装、使用及优化Paddle模型到ONNX格式,提升部署效率与性能。
hcaptcha-challenger - 使用AI技术解决hCaptcha挑战的嵌入式解决方案
Github开源项目ONNXYOLOv8hCaptcha ChallengerResNetAI对抗
hCaptcha Challenger是一款通过嵌入MoE(ONNX)技术解决hCaptcha挑战的项目,无需依赖Tampermonkey脚本或第三方反机器人服务。支持ResNet、YOLOv8和ViT等多种模型,涵盖图像分类和选择题等多种挑战类型。项目提供详细的工作流程与数据集处理方法,并持续更新模型和资源,确保解决方案的高效与先进。
YOLOv8-TensorRT - 通过TensorRT加速YOLOv8模型,提供在CUDA环境下的快速部署和推理解决方案
Github开源项目PyTorchONNXTensorRTCUDAYOLOv8
本项目通过TensorRT加速YOLOv8模型,提供在CUDA环境下的快速部署和高效推理解决方案。包括环境准备、模型导出、引擎构建和多种推理方法,支持Python和C++语言。特性涵盖ONNX模型导出、端到端引擎构建和模型推理,适用于图像和视频的不同输入源。支持Jetson设备,并附有详细的文档和脚本,便于操作,提升深度学习应用性能。
ONNX-YOLOv8-Object-Detection - 将YOLOv8模型转换为ONNX格式的方法
Github开源项目目标检测GPUONNX模型转换YOLOv8
本项目提供了一种将YOLOv8模型转换为ONNX格式的高效方法,支持在NVIDIA GPU或CPU上进行对象检测。确保输入图片尺寸与模型要求一致,以获得最佳检测精度。项目配有详细的安装指南和推理示例,包括图片、摄像头和视频推理,方便开发者快速上手并应用于实际场景。
optimizer - 一个通过预包装的优化通道对ONNX模型进行优化的C++库
Github开源项目命令行模型优化ONNX安装优化器
ONNX提供了一个C++库,通过预包装的优化通道对ONNX模型进行优化。主要目标是促进各ONNX后端实现共享工作,并支持多种直接在ONNX图上实现的优化。用户可以通过简单的函数调用使用这些通道,或添加新的优化通道。安装方式包括通过PyPI或从源代码构建。
yolort - 简易高效的YOLOv5目标检测工具
Github开源项目对象检测ONNXTensorRTYOLOv5yolort
yolort项目致力于简化和优化YOLOv5的训练与推理。采用动态形状机制,结合预处理和后处理,支持LibTorch、ONNX Runtime、TVM、TensorRT等多种后端的轻松部署。项目遵循简洁设计理念,安装与使用便捷,支持通过PyPI和源码安装。提供丰富的推理接口示例和详细文档,使目标检测更为轻松,适用于广泛的应用场景。
ppl.nn - 用于 AI 推理的高性能深度学习推理引擎
Github开源项目卷积神经网络ONNXOpenMMLab深度学习推理PPLNN
PPLNN是一款高效的深度学习推理引擎,兼容各种ONNX模型,并对OpenMMLab进行了优化。其最新的LLM引擎包括闪存注意力、分裂K注意力、动态批处理和张量并行等功能,并支持INT8分组和通道量化。项目发布了多个LLM模型,如LLaMA、ChatGLM和Baichuan,并提供详细的构建和集成指南。
onnx2tflite - 优化ONNX模型到TensorFlow Lite的转换工具,具备高一致性和自动通道对齐功能
Github开源项目PyTorchKerasONNXTFLite转换
onnx2tflite工具实现从ONNX到TensorFlow Lite和Keras的快速高效模型转换。它具备高一致性,平均误差低于1e-5,速度比其他工具提高30%。支持自动转换PyTorch和TensorFlow格式,并能输出FP16和UINT8定量模型。用户还可以自定义操作符,提升模型转换和部署的灵活性。
onnx2tf - ONNX文件转换工具,支持TensorFlow、TFLite和Keras格式
Github开源项目TensorFlowKerasONNX模型转换onnx2tf
onnx2tf工具解决了在onnx-tensorflow中大规模转置推测的问题,支持将ONNX文件从NCHW转换为TensorFlow、TFLite和Keras的NHWC格式。工具每日进行优化和修复,如遇问题建议尝试旧版本或等待最新更新。该工具兼容PyTorch生成的ONNX模型,支持多种层类型并可与TensorFlow/Keras/TFLite无缝集成。详细的环境配置和使用指南适用于Linux和Windows。
TensorflowASR - Tensorflow 2和Conformer结合的端到端语音识别解决方案
Github开源项目语音识别ONNXConformerTensorflowASRCTC
Tensorflow 2和Conformer结构打造的端到端语音识别模型,支持在线流式和离线识别,实时率约为0.1。该项目提供VAD、降噪、TTS数据增强等功能,并支持ONNX推理优化。训练结果在Aishell-1测试集上表现优异,适用于语音识别。最新更新的Chunk Conformer结构进一步提升了长时间语音识别的准确性和效率。
onnx2torch - ONNX模型转换至PyTorch的转换器
Github开源项目PyTorchONNX安装转换器onnx2torch
onnx2torch转换器使从ONNX到PyTorch的模型转换变得简单,从而简化深度学习工作流。通过简单函数调用即可完成转换,并支持自定义层扩展,且支持模型返回ONNX格式。适用于分割、检测、分类和变压器模型。尽管当前支持的模型和操作有限,用户可以通过GitHub反馈需求,以协助开发团队改进。支持通过pip或conda快速安装,并提供详细的使用示例和扩展教程。
axodox-machinelearning - 基于C++的Stable Diffusion图像生成库,支持ControlNet
Github开源项目ControlNetStable DiffusionC++ONNX图像合成
该库是一款基于Stable Diffusion的图像生成工具,支持txt2img、img2img和图像修复功能,完全采用C++实现,无需依赖Python。其高性能和简化的部署过程非常适用于实时图形应用和游戏开发。库还支持ControlNet,通过输入图像来引导生成过程,并提供GPU加速的特征提取功能,如姿势估计、深度估计和边缘检测。此外,库包含多个代码示例和预编译模型,便于开发者快速集成和测试。
PINTO_model_zoo - 提供多框架神经网络模型转换与量化的开源工具
Github开源项目PyTorchTensorFlowONNX量化PINTO_model_zoo
PINTO_model_zoo 是一个开源工具库,支持 TensorFlow、PyTorch、ONNX、OpenVINO 等多个框架的模型转换和量化。项目提供多种量化方法,包括权重量化、整数量化和浮点数量化,旨在优化模型性能以适应不同平台,如 RaspberryPi 和 EdgeTPU。它还提供大量预量化模型和详细转换指南,帮助开发者在各种设备上高效部署深度学习模型。
tensorflow-onnx - 将TensorFlow(包括tf-1.x和tf-2.x)、Keras、TensorFlow.js和TFLite模型转换为ONNX格式的工具
Github开源项目PythonTensorFlowKerasONNXtf2onnx
该工具支持将TensorFlow(包括tf-1.x和tf-2.x)、Keras、TensorFlow.js和TFLite模型转换为ONNX格式,支持命令行和Python API操作。兼容Windows和Linux操作系统,支持Python 3.7至3.10,以及多种ONNX opset(从opset 14至opset 18)和TensorFlow版本。提供详细的安装步骤、转换指南和常见问题解决方案,全面支持saved model、checkpoint和graphdef等多种模型格式。
tract - 神经网络推理工具,支持多种格式与优化
Github开源项目TensorFlowONNXtractNNEF神经网络推理
`tract`是一款神经网络推理工具,支持读取和优化ONNX与NNEF格式。它提供多种神经网络模型的支持,并附有详尽的技术文档和应用实例,适用于移动设备和微控制器等多种应用场景。
onnx-mlir - 基于LLVM/MLIR的高性能神经网络编译器
人工智能Github开源项目ONNX编译器LLVMONNX-MLIR
ONNX-MLIR是一个开源编译器项目,旨在将ONNX神经网络模型转换为高效的可执行代码。该项目基于LLVM/MLIR技术,实现了ONNX标准,并提供ONNX方言、编译器接口、驱动程序和多语言运行时环境。ONNX-MLIR支持Linux、macOS和Windows等多个平台,并提供Docker镜像以简化开发和部署流程。通过优化ONNX图,ONNX-MLIR能够生成性能卓越的神经网络实现。
espnet_onnx - 轻量级语音识别和合成库 基于ONNX格式优化
Github开源项目语音合成语音识别ONNXespnet_onnx模型导出
espnet_onnx是一个将ESPnet模型导出为ONNX格式的实用库,支持语音识别和语音合成任务。该库提供简洁的API接口,便于模型导出和推理。通过ONNX Runtime实现高效的CPU和GPU计算,并支持流式语音识别。用户可从预训练或自定义模型中轻松导出,并进行优化和量化以提升性能。无需PyTorch依赖,适合轻量级部署。
FasterLivePortrait - 高效实时AI人像动画生成框架
Github开源项目实时渲染ONNXAI换脸TensorRTFasterLivePortrait
FasterLivePortrait是一个高效的实时AI人像动画生成框架。基于TensorRT优化,在RTX 3090 GPU上可实现30+ FPS的速度。支持ONNX模型转换,便于跨平台部署。主要特性包括原生gradio应用支持、多人脸同时推理和动物模型。项目提供Docker环境,支持Windows一键运行,并兼容macOS系统。该框架为开发者提供了灵活高效的实时人像动画生成功能。
hidet - 用Python编写的开源深度学习编译器,主要优化NVIDIA GPU上的推理任务
Github开源项目PyTorchONNXCUDA深度学习编译器Hidet
Hidet是一个用Python编写的开源深度学习编译器,主要优化NVIDIA GPU上的推理任务。它能将PyTorch和ONNX模型编译成高效的CUDA内核,通过图级和算子级优化提升性能。Hidet易于集成,支持通过torch.compile优化PyTorch模型,为开发者提供了便捷的深度学习性能优化方案。
onnx2c - 为微控制器优化的神经网络部署工具
Github开源项目神经网络ONNXonnx2cC编译器微控制器
onnx2c是一款ONNX到C的编译工具,专门针对微控制器环境进行优化。它将ONNX文件转换为单一C文件,生成的代码不使用动态内存分配,仅需标准C数学库支持。该工具设计简单易用,无需学习曲线,方便开发者将训练好的神经网络快速集成到微控制器项目中。onnx2c提供多种优化功能,包括张量联合、Cast节点移除和实验性量化,有效提升代码性能和内存利用率。