Logo

Lightning Thunder:让PyTorch模型速度提升40%的强大编译器

Lightning Thunder:为PyTorch注入闪电般速度的编译器

在深度学习领域,模型训练速度一直是研究人员和工程师们关注的焦点。如何在有限的硬件资源下实现更快的训练速度,成为了一个亟待解决的问题。而今,Lightning AI 团队推出的 Lightning Thunder 项目为这个问题带来了突破性的解决方案。

Thunder简介:让PyTorch如雷霆般迅猛

Lightning Thunder 是一款为 PyTorch 量身打造的源到源编译器。它的核心目标是通过结合并使用多种硬件执行器,大幅提升 PyTorch 程序的运行速度。Thunder 支持单GPU和多GPU配置,旨在成为一个易用、可理解且可扩展的编译工具。

值得注意的是,Thunder 目前仍处于 alpha 阶段。尽管如此,它已经展现出了令人瞩目的性能提升,为 PyTorch 用户带来了新的可能性。

单GPU性能:显著提升训练吞吐量

Thunder 通过多重优化和使用顶级执行器,实现了相较于标准非编译 PyTorch 代码(即"PyTorch eager")的显著加速。以 LitGPT 中实现的 Llama 2 7B 模型为例,其预训练吞吐量有了明显提升。

Thunder单GPU性能提升

如上图所示,在 H100 GPU 上,Thunder 通过结合使用 nvFuser、torch.compile、cuDNN 和 TransformerEngine FP8 等执行器,实现了相比 eager 模式高达 40% 的训练吞吐量提升。这一成果充分展示了 Thunder 在单 GPU 场景下的强大性能优势。

多GPU性能:分布式训练的效率之选

除了单 GPU 场景,Thunder 还支持 DDP 和 FSDP 等分布式策略,使其能够在多 GPU 环境下训练模型。以下是 Llama 2 7B 模型(不使用 FP8 混合精度)的归一化吞吐量测试结果:

Thunder多GPU性能表现

从图中可以看出,Thunder 在多 GPU 配置下依然保持了优秀的扩展性。值得一提的是,Thunder 团队正在积极开发 FSDP 的支持,未来有望带来更多性能提升。

快速上手 Thunder

对于想要尝试 Thunder 的用户来说,最简单的方式是使用 Zero to Thunder Tutorial Studio。这个在线教程无需额外安装即可直接体验 Thunder 的强大功能。

对于希望在本地机器上使用 Thunder 的用户,可以按照以下步骤进行安装:

  1. 首先安装 nvFuser 和匹配的 PyTorch 稳定版:
pip install --pre nvfuser-cu121-torch24
  1. 安装 cuDNN:
pip install nvidia-cudnn-frontend
  1. 最后,安装 Thunder:
pip install lightning-thunder

对于希望使用最新版本或者想要参与 Thunder 开发的用户,项目还提供了从 GitHub 主分支安装的方法,以及可编辑模式的安装方式。这些高级安装选项为开发者提供了更大的灵活性。

Thunder 的"Hello World"

下面是一个简单的示例,展示了如何使用 Thunder 编译和运行 PyTorch 代码:

import torch
import thunder

def foo(a, b):
    return a + b

jfoo = thunder.jit(foo)

a = torch.full((2, 2), 1)
b = torch.full((2, 2), 3)

result = jfoo(a, b)

print(result)

# 输出:
# tensor([[4, 4],
#         [4, 4]])

这个例子清晰地展示了 Thunder 编译后的函数与原始 PyTorch 函数在使用上的一致性,使得 Thunder 编译的模块和函数可以无缝集成到更大的 PyTorch 程序中。

训练模型:LitGPT 的集成

尽管 Thunder 仍处于早期阶段,不建议用于生产环境,但它已经能够为 LitGPT 支持的 LLM 模型(如 Mistral、Llama 2、Gemma、Falcon 等)的预训练和微调提供出色的性能。有兴趣的用户可以查看 LitGPT 的 Thunder 集成 来了解如何同时运行 LitGPT 和 Thunder。

Thunder 的核心特性

Thunder 的强大之处不仅在于其性能提升,更在于其灵活而强大的内部架构。给定一个 Python 可调用对象或 PyTorch 模块,Thunder 能够生成一个优化后的程序,该程序可以:

  • 计算前向和反向传播
  • 将操作合并为高效的融合区域
  • 将计算分派到优化的内核
  • 在多机之间优化分布计算

为了实现这些功能,Thunder 配备了以下核心组件:

  1. 一个 JIT 编译器,用于获取针对 PyTorch 和自定义操作的 Python 程序
  2. 多层中间表示(IR),用于将操作表示为简化操作集的跟踪
  3. 可扩展的计算图跟踪转换集,如梯度计算、融合、分布式策略(如 DDP、FSDP)、函数式转换(如 vmap、vjp、jvp)
  4. 将操作分派到可扩展的执行器集合的机制

Thunder 的一个独特之处在于,它完全用 Python 编写,甚至其跟踪在所有转换阶段都表示为有效的 Python。这种设计为用户提供了前所未有的洞察和扩展能力。

Thunder 并不直接为 GPU 等加速器生成代码,而是通过获取和转换用户程序,使得可以通过快速执行器(如 torch.compile、nvFuser、cuDNN、Apex、TransformerEngine 等)最优地选择或生成设备代码。此外,Thunder 还支持通过 PyCUDA、Numba、CuPy 等工具自定义 CUDA 内核,以及使用 OpenAI Triton 编写自定义内核。

值得一提的是,使用 Thunder 编译的模块和函数可以与原生 PyTorch 完全互操作,并支持 PyTorch 的自动微分功能。Thunder 还可以与 torch.compile 协同工作,充分利用后者的先进优化。

文档与社区参与

为了帮助用户更好地理解和使用 Thunder,项目提供了详细的在线文档。用户也可以在本地构建文档,以便离线查阅。

Thunder 项目欢迎各种形式的社区参与。无论是功能请求、问题反馈,还是代码贡献,都可以通过 GitHub Issue 进行。项目团队特别强调,他们欢迎所有个人贡献者,不论经验水平或硬件条件如何。这种开放和包容的态度为 Thunder 的持续发展提供了强大的动力。

结语

Lightning Thunder 作为一款强大的 PyTorch 编译器,不仅带来了显著的性能提升,还为 PyTorch 生态系统注入了新的活力。尽管目前仍处于 alpha 阶段,但其已展现出巨大的潜力。随着项目的不断发展和完善,相信 Thunder 将为更多深度学习研究者和工程师提供强大的工具支持,推动 PyTorch 生态系统向更高效、更灵活的方向发展。

对于有兴趣深入了解或参与 Thunder 项目的读者,不妨访问其 GitHub 仓库,亲身体验这款令人兴奋的 PyTorch 编译器。让我们共同期待 Thunder 在未来带来更多惊喜,为深度学习领域的发展贡献力量。🚀⚡

相关项目

Project Cover
fastbook
本项目提供涵盖fastai和PyTorch的深度学习教程,适合初学者与进阶用户。可通过Google Colab在线运行,无需本地配置Python环境。项目还包括MOOC课程及相关书籍,系统化帮助用户学习深度学习技术。
Project Cover
pytorch-handbook
本开源书籍为使用PyTorch进行深度学习开发的用户提供系统化的入门指南。教程内容覆盖了从环境搭建到高级应用的各个方面,包括PyTorch基础、深度学习数学原理、神经网络、卷积神经网络、循环神经网络等,还包含实践案例与多GPU并行训练技巧。书籍持续更新,与PyTorch版本同步,适合所有深度学习研究者。
Project Cover
fastai
fastai是一个深度学习库,提供高层组件以快速实现高性能结果,同时为研究人员提供可组合的低层组件。通过分层架构和Python、PyTorch的灵活性,fastai在不牺牲易用性、灵活性和性能的情况下,实现了高效的深度学习。支持多种安装方式,包括Google Colab和conda,适用于Windows和Linux。学习资源丰富,包括书籍、免费课程和详细文档。
Project Cover
annotated_deep_learning_paper_implementations
该项目提供详细文档和解释的简明PyTorch神经网络及算法实现,涵盖Transformer、GPT-NeoX、GAN、扩散模型等前沿领域,并每周更新新实现,帮助研究者和开发者高效理解深度学习算法。
Project Cover
keras
Keras 3 提供高效的模型开发,支持计算机视觉、自然语言处理等任务。选择最快的后端(如JAX),性能提升高达350%。无缝扩展,从本地到大规模集群,适合企业和初创团队。安装简单,支持GPU,兼容tf.keras代码,避免框架锁定。
Project Cover
CLIP
CLIP通过对比学习训练神经网络,结合图像和文本,实现自然语言指令预测。其在ImageNet零样本测试中的表现与ResNet50相当,无需使用原始标注数据。安装便捷,支持多种API,适用于零样本预测和线性探针评估,推动计算机视觉领域发展。
Project Cover
allennlp
AllenNLP是一个基于PyTorch的Apache 2.0自然语言处理研究库,专注于开发先进的深度学习模型。该项目已进入维护模式,并将在2022年12月16日前继续修复问题和响应用户提问。推荐的替代项目包括AI2 Tango、allennlp-light、flair和torchmetrics,以帮助用户更好地管理实验和使用预训练模型。
Project Cover
pix2pix
使用条件对抗网络实现图像到图像翻译,支持从建筑立面生成到日夜转换等多种任务。该项目能在小数据集上快速产生良好结果,并提供改进版的PyTorch实现。支持多种数据集和模型,并附有详细的安装、训练和测试指南。
Project Cover
pytorch-CycleGAN-and-pix2pix
该项目提供了PyTorch框架下的CycleGAN和pix2pix图像翻译实现,支持配对和无配对的图像翻译。最新版本引入img2img-turbo和StableDiffusion-Turbo模型,提高了训练和推理效率。项目页面包含详细的安装指南、训练和测试步骤,以及常见问题解答。适用于Linux和macOS系统,兼容最新的PyTorch版本,并提供Docker和Colab支持,便于快速上手。

最新项目

Project Cover
豆包MarsCode
豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。
Project Cover
AI写歌
Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。
Project Cover
商汤小浣熊
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
Project Cover
有言AI
有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。
Project Cover
Kimi
Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。
Project Cover
吐司
探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。
Project Cover
SubCat字幕猫
SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。
Project Cover
AIWritePaper论文写作
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。
Project Cover
稿定AI
稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号