Project Icon

tiny-tensorrt

简洁易用的nvidia TensorRT封装库,支持通过C++和Python API快速部署Onnx模型

tiny-tensorrt是一个简洁易用的nvidia TensorRT封装库,支持通过C++和Python API快速部署Onnx模型。依赖CUDA、CUDNN和TensorRT,兼容多个版本。项目已停止维护,建议使用TensorRT的Python API或trtexec/polygraphy工具。更多信息请参考项目Wiki。

ComfyUI_TensorRT - 利用TensorRT优化稳定扩散模型在NVIDIA RTX显卡上的性能
AI模型优化ComfyUIGithubNVIDIA GPUTensorRT开源项目稳定扩散
ComfyUI_TensorRT项目为ComfyUI提供了TensorRT节点,旨在优化NVIDIA RTX显卡上稳定扩散模型的性能。该项目支持多个版本的稳定扩散模型,包括SDXL、SVD和AuraFlow等。通过生成GPU专用的TensorRT引擎,实现了模型运行效率的显著提升。项目支持动态和静态引擎构建,适应不同的分辨率和批量大小需求。此外,项目还提供了详细的安装和使用指南,便于用户在ComfyUI中集成和应用。
yolos-tiny - 轻量级Vision Transformer目标检测模型
COCO数据集GithubHuggingfaceYOLOS图像处理开源项目模型目标检测视觉转换器
YOLOS-tiny是基于Vision Transformer的轻量级目标检测模型,在COCO 2017数据集上微调。模型采用简单架构,通过双边匹配损失训练,可预测物体类别和边界框。在COCO验证集上达到28.7 AP,与复杂框架性能相当。YOLOS-tiny为资源受限场景提供高效目标检测方案,适用于各种计算机视觉应用。
tensorrtllm_backend - TensorRT-LLM后端 适用于Triton的大语言模型推理引擎
GPUGithubTensorRT-LLMTriton开源项目推理服务深度学习
TensorRT-LLM Backend是Triton Inference Server的专用后端,用于部署和服务TensorRT-LLM模型。它集成了in-flight batching和paged attention等先进特性,显著提升了大语言模型的推理效率。通过简洁的接口设计,此后端使TensorRT-LLM模型能无缝集成到Triton服务中,为用户提供高性能、可扩展的AI推理解决方案。
onnx-go - 面向Go语言的ONNX模型解析和运行接口
GithubGorgoniaGo语言ONNX开源项目深度学习神经网络
onnx-go项目提供了一个Go语言接口,用于解析和运行ONNX二进制模型,帮助开发者轻松集成机器学习功能。虽然其API仍然是实验性的,但它不需要数据科学方面的专业知识。该项目已停止维护,且随着深度学习领域的发展,预计会被新的解决方案取代。
onnx-web - 简化ONNX模型运行的跨平台工具
AI绘图GithubStable Diffusiononnx-web图像生成开源项目硬件加速
onnx-web是一个简化ONNX模型运行过程的开源工具,支持AMD和Nvidia GPU加速以及CPU回退。它提供用户友好的Web界面,支持txt2img、img2img等多种diffusion管道。该工具允许添加自定义模型,融合LoRA等附加网络,并具有多阶段和区域提示功能。onnx-web还提供API接口,适用于各种创作需求。
BEVFormer_tensorrt - BEVFormer和BEVDet的TensorRT高效部署方案
BEV 3D DetectionGPU内存优化GithubTensorRT开源项目推理加速量化
本项目实现BEVFormer和BEVDet在TensorRT上的高效部署,支持FP32/FP16/INT8推理。通过优化TensorRT算子,BEVFormer base模型推理速度提升4倍,模型大小减少90%,GPU内存节省80%。同时支持MMDetection中2D目标检测模型的INT8量化部署。项目提供详细基准测试,展示不同配置下的精度和速度表现。
tinyengine - 微控制器神经网络库优化内存和性能
GithubTinyEngine内存优化开源项目微控制器推理加速深度学习
TinyEngine是专为微控制器设计的神经网络库,通过原地深度卷积和基于块的推理等技术优化内存管理和推理性能。相比现有解决方案,TinyEngine将推理速度提升1.1-18.6倍,峰值内存减少1.3-3.6倍。作为微控制器AI应用的基础设施,TinyEngine在有限内存预算下实现了更高性能,为微控制器深度学习部署提供了有力支持。
onnx-tool - 专注于深度学习和自然语言处理的ONNX模型管理工具
Githubonnx-tool内存压缩开源项目形状推理模型压缩模型概要分析
ONNX-tool是一款强大的工具,支持ONNX模型的解析和编辑、推断和压缩。适用于自然语言处理和计算机视觉模型,提供模型构建、形状推断、激活压缩、权重压缩及计算图优化,以提升推理性能和存储效率。
onnx2tflite - 优化ONNX模型到TensorFlow Lite的转换工具,具备高一致性和自动通道对齐功能
GithubKerasONNXPyTorchTFLite开源项目转换
onnx2tflite工具实现从ONNX到TensorFlow Lite和Keras的快速高效模型转换。它具备高一致性,平均误差低于1e-5,速度比其他工具提高30%。支持自动转换PyTorch和TensorFlow格式,并能输出FP16和UINT8定量模型。用户还可以自定义操作符,提升模型转换和部署的灵活性。
tt-metal - Python与C++神经网络运算库
GithubGrayskull模组TT-MetaliumTT-NNWormhole模组开源项目神经网络
TT-NN 提供灵活的神经网络运算功能,支持包括ResNet-50和BERT-Large在内的多种模型,能够实现高效的端到端和设备间的数据吞吐量。其兼容N150和N300卡的Wormhole模型,及适用于TT-QuietBox和TT-LoudBox的高性能模型,能满足不同硬件需求。结合TT-Metalium低级编程模型,提供丰富的开发指导和API参考,有助于在Tenstorrent硬件上高效地进行神经网络训练和推理。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号