Project Icon

triton

开源高效深度学习原语编程语言与编译器

Triton是一种开源编程语言和编译器,专为编写高效的自定义深度学习原语而设计。它提供了一个兼具高生产力和灵活性的开发环境,性能优于CUDA,灵活性超过其他领域特定语言。Triton支持NVIDIA和AMD GPU平台,提供完善的文档和教程。用户可通过pip轻松安装,也支持源代码构建。该项目持续更新,最新版本进行了大量性能优化和问题修复。

AITemplate - 开源高性能深度学习推理框架
AITemplateGPU加速Github开源项目推理服务模型转换深度神经网络
AITemplate是一个开源Python框架,能将深度学习模型转换为CUDA或HIP C++代码,实现高效推理。它支持NVIDIA和AMD GPU,提供接近理论峰值的fp16性能。该框架特点包括独立运行无需第三方库、独特的算子融合技术、与PyTorch兼容以及易于扩展。AITemplate支持ResNet、BERT和Stable Diffusion等多种主流模型。
replit-code-1.5 - 支持30种编程语言的AI代码补全模型
GGUF格式GithubHuggingfaceReplit Code代码补全开源项目模型编程语言语言模型
Replit Code V-1.5 3B是一个3.3B参数的代码补全模型,支持30种主流编程语言。该模型在1万亿代码token上训练,采用32768 token的优化词汇表,上下文长度为4096 token。开发者可通过transformers库使用该模型,也可选用Triton实现的Flash Attention提升性能。作为AI辅助编码工具,它能够适应多种代码补全场景,提高编程效率。
tracr - 开源编译器实现RASP程序到Transformer权重的转换
GithubRASPTracrtransformer开源项目编译器解释性
tracr是一个开源编译工具,可将RASP程序转换为Transformer权重。它通过追踪程序、推断基向量和中间表示,最终生成Haiku模型。tracr支持类别和数值表示,使用BOS标记实现多种操作,并探索了残差流压缩嵌入。研究人员可以利用tracr编译RASP程序,查看中间激活值,深入分析模型行为,为Transformer可解释性研究提供实验平台。
llm.c - 纯C和CUDA实现的高效轻量级语言模型训练框架
CUDAC语言GPU训练GithubLLM开源项目
llm.c是一个使用纯C和CUDA实现的高效轻量级语言模型训练框架。该项目不依赖PyTorch或cPython等大型框架,通过简洁代码实现GPT-2和GPT-3系列模型的预训练。llm.c支持单GPU、多GPU和多节点训练,提供详细教程和实验示例。项目在保持代码可读性的同时追求高性能,适用于教育和实际应用。此外,llm.c支持多种硬件平台,并有多个编程语言的移植版本。
accelerated-scan - GPU加速的并行扫描算法高效解决一阶递归
Accelerated ScanCUDAGPUGithubTriton并行计算开源项目
accelerated-scan是一个Python包,实现了GPU上高效的一阶并行关联扫描。该项目采用分块处理算法和GPU通信原语,能快速处理状态空间模型和线性RNN中的一阶递归问题。支持前向和后向扫描,提供C++ CUDA内核和Triton实现,在不同序列长度下均有出色性能表现。适用于深度学习和信号处理等需要高性能递归计算的领域。
lightning-flash - 跨数据领域和任务的AI模型训练与处理解决方案
AIGithubPyTorchlightning-flash开源项目模型训练深度学习
Lightning Flash提供多任务和多数据领域的AI解决方案,用户只需三步即可完成数据加载、模型配置和微调。项目支持多种预训练模型和优化策略,简化深度学习工作流程,适用于各种数据域和任务类型。其功能包括模型预测、训练策略、优化器和调度器选择,以及自定义数据变换。Flash旨在让用户无需自行开发复杂的研究框架,即可在生产环境中应用AI模型。
Transformer-TTS - 神经语音合成系统
GithubPyTorchTacotronTransformer-TTS开源项目神经网络语音合成
Transformer-TTS,一个基于Pytorch的高效神经语音合成系统。它使用Transformer网络,且训练速度是传统seq2seq模型的3到4倍。不仅提供预训练模型,其合成语音质量经实验证明优异。同时,项目支持自定义学习模型及策略,包括Noam式预热衰减学习率及关键的梯度裁剪等,是语音合成研究的理想选择。
onnxruntime - 跨平台的机器学习模型推理与训练加速工具
GithubONNX Runtime开源项目机器学习模型训练深度学习硬件加速
ONNX Runtime是一款跨平台的机器学习推理和训练加速工具,兼容PyTorch、TensorFlow/Keras、scikit-learn等深度学习框架及传统机器学习库。它支持多种硬件和操作系统,通过硬件加速和图优化实现最佳性能,显著提升模型推理和训练速度,尤其在多节点NVIDIA GPU上的Transformer模型训练中表现出色。
onnx-mlir - 基于LLVM/MLIR的高性能神经网络编译器
GithubLLVMONNXONNX-MLIR人工智能开源项目编译器
ONNX-MLIR是一个开源编译器项目,旨在将ONNX神经网络模型转换为高效的可执行代码。该项目基于LLVM/MLIR技术,实现了ONNX标准,并提供ONNX方言、编译器接口、驱动程序和多语言运行时环境。ONNX-MLIR支持Linux、macOS和Windows等多个平台,并提供Docker镜像以简化开发和部署流程。通过优化ONNX图,ONNX-MLIR能够生成性能卓越的神经网络实现。
rust - Rust语言TensorFlow绑定,支持多平台和GPU加速
GithubRustTensorFlow安装开源项目文档绑定
TensorFlow Rust提供符合Rust语言习惯的TensorFlow绑定,支持便捷下载或编译TensorFlow共享库和GPU加速。该项目仍在活跃开发,API尚未完全稳定。用户可以通过在Cargo.toml中添加依赖项并运行cargo build来构建,详见文档和示例代码。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号