#TensorRT
WhisperLive学习资料汇总 - 实时语音转文本的开源项目
NVIDIA Stable Diffusion WebUI TensorRT扩展:让AI图像生成速度翻倍
WhisperLive
WhisperLive是基于OpenAI Whisper模型开发的实时音频转写应用,能高效地将直播或预录音频转换成文本。支持多语言和自定义设置,适用于个人、教育及商业场景。项目还提供Docker部署,简化安装和服务部署过程。
jetson-inference
NVIDIA Jetson设备上的深度学习推理和实时视觉处理库。使用TensorRT优化GPU网络运行,支持C++和Python, 以及PyTorch模型训练。功能包括图像分类、物体检测、语义分割等,适用于多种应用场景,如实时摄像头流和WebRTC网络应用。
onnx-tensorrt
本项目实现对ONNX模型的高效解析,支持在最新TensorRT 10.2版本上运行。还覆盖了多个ONNX操作符,提供详细的安装和构建指南。项目中包含C++和Python的使用示例,方便用户集成和运行ONNX模型。常见问题解答和变更日志有助于解决使用中的问题。
YOLOv8-TensorRT
本项目通过TensorRT加速YOLOv8模型,提供在CUDA环境下的快速部署和高效推理解决方案。包括环境准备、模型导出、引擎构建和多种推理方法,支持Python和C++语言。特性涵盖ONNX模型导出、端到端引擎构建和模型推理,适用于图像和视频的不同输入源。支持Jetson设备,并附有详细的文档和脚本,便于操作,提升深度学习应用性能。
edgeyolo
EdgeYOLO为边缘设备优化,在Nvidia Jetson AGX Xavier上达34FPS,并通过RH loss提升小型和中型物体检测。支持COCO2017和VisDrone2019数据集,提供多种模型格式和部署代码,包括RKNN、MNN和TensorRT。项目定期更新,并集成了SAMLabeler Pro工具,支持多人远程标注。可快速上手和训练,适配不同设备和应用场景。
yolort
yolort项目致力于简化和优化YOLOv5的训练与推理。采用动态形状机制,结合预处理和后处理,支持LibTorch、ONNX Runtime、TVM、TensorRT等多种后端的轻松部署。项目遵循简洁设计理念,安装与使用便捷,支持通过PyPI和源码安装。提供丰富的推理接口示例和详细文档,使目标检测更为轻松,适用于广泛的应用场景。
tiny-tensorrt
tiny-tensorrt是一个简洁易用的nvidia TensorRT封装库,支持通过C++和Python API快速部署Onnx模型。依赖CUDA、CUDNN和TensorRT,兼容多个版本。项目已停止维护,建议使用TensorRT的Python API或trtexec/polygraphy工具。更多信息请参考项目Wiki。
Radiata
Radiata 是一个基于 diffusers 的稳定扩散 WebUI,提供稳定扩散、稳定扩散 XL 和 TensorRT 加速等功能。通过简单的 Git 和 Python 安装步骤,可以快速部署并享受高效的模型推理体验。同时支持 ControlNet 插件和 Lora & Lycoris 模型扩展,增强工具的灵活性和功能性。适用于 Windows 和 Linux 系统,详细文档参见官方网站。
TensorRT
NVIDIA TensorRT 开源软件提供插件和 ONNX 解析器的源码,展示 TensorRT 平台功能的示例应用。这些组件是 TensorRT GA 版本的一部分,并包含扩展和修复。用户可以轻松安装 TensorRT Python 包或根据构建指南编译。企业用户可使用 NVIDIA AI Enterprise 套件,并可加入 TensorRT 社区获取最新产品更新和最佳实践。