#NVIDIA
NVIDIA Jetson Nano Baseboard:开源硬件设计的新篇章
NVIDIA VideoProcessingFramework: 全面加速视频处理的Python框架
UltimateALPR-SDK:世界最快的自动车牌识别系统
TensorRT
NVIDIA TensorRT 开源软件提供插件和 ONNX 解析器的源码,展示 TensorRT 平台功能的示例应用。这些组件是 TensorRT GA 版本的一部分,并包含扩展和修复。用户可以轻松安装 TensorRT Python 包或根据构建指南编译。企业用户可使用 NVIDIA AI Enterprise 套件,并可加入 TensorRT 社区获取最新产品更新和最佳实践。
cortex
Cortex是一个OpenAI兼容的多引擎AI平台,提供命令行界面和客户端库,支持构建LLM应用。支持的引擎包括GGUF、ONNX和TensorRT-LLM,兼容多种硬件平台。Cortex可作为独立服务器运行或作为库导入,适配MacOS、Windows和Ubuntu操作系统。
GenerativeAIExamples
NVIDIA提供的生成式AI示例,使用CUDA-X软件栈和NVIDIA GPU,展示快速部署、测试和扩展AI模型的方法。包括最新的RAG管道构建技巧、实验性示例和企业应用,支持本地和远程推理,集成流行LLM编程框架,并附有详细开发文档。
FasterTransformer
FasterTransformer不仅支持多框架集成,还针对NVIDIA新一代GPU优化了编解码性能,极大提升了操作效率和处理速度。包含模型支持、性能对比及API演示的详细文档,有助于用户深入了解并有效使用FasterTransformer。
DIGITS
DIGITS是一个支持Caffe、Torch和Tensorflow框架的深度学习模型训练Web应用,提供详尽的用户文档和实用案例,支持Ubuntu 14.04和16.04操作系统,专为研究人员和开发者设计。
FastSpeech2
FastSpeech 2,面向精准快速的文本到语音转换,基于PyTorch与Espnet技术,配备Nvidia与MelGAN工具,极致优化语音生成效果,适合各类开发者利用和研究。
Taiwan-LLM
Llama-3-Taiwan-70B是专为繁体中文与英语环境设计的高性能语言模型,具有70亿参数规模,涵盖多个行业领域。该模型透过NVIDIA NeMo技术优化,已完成在台北一号的NVIDIA DGX H100系统上的训练,获多个企业支持。
iAI
这篇文章提供了在Ubuntu平台上设置AI实验环境的详细指导,涵盖硬件要求、双系统安装、NVIDIA驱动、CUDA、cuDNN、Anaconda、OpenCV、Docker、TensorRT、Pytorch等软件的安装与配置。内容包括从基础环境搭建到深度学习算法如YOLO V3和Faster R-CNN的实际应用,并附有常见问题解答和最佳实践,帮助用户高效构建AI开发环境。
DeepLearningExamples
提供最新的深度学习示例,使用NVIDIA CUDA-X软件栈在Volta、Turing和Ampere GPU上运行,确保最佳的可重复精度和性能。示例通过NGC容器注册表每月更新,包含最新的NVIDIA贡献和深度学习软件库,支持计算机视觉、自然语言处理、推荐系统、语音识别、文本到语音转换、图神经网络和时间序列预测模型。