Project Icon

nanoT5

轻量高效的T5模型训练框架

nanoT5是一个开源项目,旨在提供高效训练T5模型的方案。该项目在单GPU上仅用16小时就能达到与原始T5模型相当的性能,显著降低了训练成本。nanoT5优化了数据预处理、优化器选择等训练流程,为NLP研究人员提供了易用的研究模板。作为首个PyTorch实现的T5预训练框架,nanoT5为计算资源有限的研究者提供了宝贵工具。

nanoT5(编码器-解码器 / 预训练 + 微调)

nanoT5

[论文] | 摘要 | 动机 | 设置 | 预训练 | 微调 | 附加内容 | 结论 | 参考文献 | 引用 | 问题

摘要:

本仓库包含在有限预算(1块A100 GPU,< 24小时)下在PyTorch中复现"大型语言模型"(T5)预训练的代码。我们从随机初始化的T5-base-v1.1(2.48亿参数)模型开始,在C4数据集的英文子集上进行预训练,然后在超自然指令(SNI)基准上进行微调。

在单个GPU上经过约16小时,我们在SNI测试集上达到了40.7 RougeL,相比之下,HuggingFace Hub上提供的原始模型权重在150倍更多的数据上"通过模型和数据并行的组合[...]在Cloud TPU Pod的切片上"(每个切片有1024个TPU)预训练,达到了40.9 RougeL。

我们的核心贡献不是T5模型本身,它遵循HuggingFace的实现。相反,我们优化了训练流程中的其他所有内容,为您的NLP应用/研究提供了一个用户友好的起始模板。最重要的是,我们展示了在有限预算下在PyTorch中预训练T5模型到最高性能是可能的。

动机

尽管预训练的Transformer规模不断增大,研究社区仍然需要易于复现和最新的基线,以快速测试新的研究假设并在小规模上进行。

Andrej Karpathy最近的努力,nanoGPT仓库,使研究人员能够预训练和微调GPT风格(仅解码器)的语言模型。另一方面,Cramming选择为有限计算设置找到最佳的BERT风格(仅编码器)预训练方案。

通过nanoT5,我们希望填补一个空白(社区请求:#1 #2 #3 #4 #5),提供一个可访问的研究模板来预训练和微调T5风格(编码器-解码器)模型。据我们所知,这是首次尝试在PyTorch中复现T5 v1.1预训练(之前可用的实现都是在Jax/Flax中)。

**我们创建这个仓库是为了那些想自己预训练T5风格模型并评估其在下游任务上性能的人。**这可能出于各种原因:

  • 您是计算资源有限的学术研究人员(像我一样),提出了一个基于T5模型的有前景的想法,因此需要一个流程来评估它;
  • 您有一个内部数据集,您认为比原始预训练数据集(C4)更适合您的下游任务;
  • 您想要试验持续预训练或想要在T5预训练目标的基础上构建。

如果您不需要预训练T5模型,最好从HuggingFace Hub下载权重。由于我们在有限计算资源下工作,我们的检查点性能较差。

在这个项目中,我们公开(出于研究目的)并优化了T5训练流程中的所有内容,除了模型实现。我们包含了T5模型的简化实现(这对教学和学习目的很好),但是我们没有使用最新技术(如张量或流水线并行)进行优化,因为这会使代码变得更复杂,而且在小规模上并不需要。**最重要的是,我们的代码基于PyTorch,因为对TPU的访问有限。**主要特点:

  • **数据集:**C4数据集的下载和预处理与模型训练同时进行。C4数据集大于300GB,下载需要几个小时,预处理甚至更长。这个代码库实现了即时处理,对训练时间和性能没有显著影响(我们没有观察到,尽管对于旧CPU(<8核)或慢速互联网连接可能会发生)。因此,您可以在几分钟内开始预训练您自己的T5模型。
  • 模型优化器 / 学习率调度器:原始T5使用内存高效的Adafactor优化器。另一方面,一项关于预训练T5的研究报告说使用AdamW训练不收敛,我们认为这很奇怪,因为AdamW理论上比Adafactor有更好的近似。我们通过几次消融实验分析了这种差异的来源。尽管Adafactor和AdamW之间有许多细微差别,但确保Adafactor收敛的是按其均方根(RMS)进行的矩阵级学习率缩放。我们通过RMS缩放增强了AdamW实现,观察到它在预训练期间变得更稳定,达到更好的验证损失,并且更快
  • **公开性和简洁性:**我们尝试平衡训练流程的实现,保持其可定制性的同时保留足够的抽象级别。我们使用HuggingFace Accelerator来实现检查点保存、梯度累积、梯度裁剪和将张量移动到正确设备等操作。我们使用neptune.ai进行实验跟踪,使用hydra进行超参数管理。此外,我们还公开了T5模型、训练循环、数据预处理等的简化实现
  • **效率:**我们使用混合精度训练(TF32 & BF16)、PyTorch 2.0编译,并利用了已建立的优化教程中列出的所有优化 #1 #2

设置

环境 & 硬件:

git clone https://github.com/PiotrNawrot/nanoT5.git
cd nanoT5
conda create -n nanoT5 python=3.8
conda activate nanoT5
pip install -r requirements.txt

以上命令将导致以下pip freeze,截至2023年6月18日。

我们还包含了我们的lscpunvidia-smi

预训练:

参考:

T5 v1.1的作者报告在C4的保留集上经过2^16步训练后,负对数似然(NLL)达到了1.942

传统优化器(Adafactor)和学习率调度(反平方根)

我们遵循原始的预训练实验设置,包括数据集(C4)训练目标(跨度填充)模型架构(T5-Base)优化器(Adafactor)学习率调度(反平方根)

我们在保留集上的负对数似然为1.995,略差于参考值。

AdamW和RMS缩放优化器以及余弦学习率调度

我们还尝试了AdamW优化器(而不是原始的Adafactor),因为理论上它应该在训练过程中提供更好的稳定性。它不使用梯度二阶矩的低秩近似,而是通过在内存中存储每个参数的移动平均值来直接估计。但是,使用AdamW训练会发散,类似于这项关于T5预训练的研究。通过多次消融实验,我们发现按矩阵均方根(RMS)进行学习率缩放是Adafactor收敛的关键。我们通过RMS缩放增强了AdamW的实现,观察到它收敛了,在预训练过程中变得更加稳定,而且略快(它直接从内存中检索二阶矩,而不是通过矩阵乘法近似)。

然而,当与反平方根学习率调度配对时,AdamW的表现不如Adafactor。在最终实验中,我们用余弦学习率调度替代了反平方根。我们在保留集上实现了1.953的负对数似然,显著优于使用反平方根调度的Adafactor。我们认为这是我们的默认预训练配置。

使用不同优化器(Adafactor vs AdamW)和调度器(ISR vs 余弦)的训练损失。其余超参数遵循原始T5 v1.1论文。

pt_loss

C4保留集上的负对数似然

反平方根余弦
Adafactor1.9951.993
AdamW2.0401.953

示例

要重现上述任何实验,请选择以下超参数的任意组合:

python -m nanoT5.main \
    optim.name={adafactor,adamwscale} \
    optim.lr_scheduler={legacy,cosine}

如果你能安装PyTorch 2.0,我们建议在预训练时添加model.compile=true标志。

假设你无法访问80GB的A100 GPU。在这种情况下,你可以通过optim.grad_acc=steps增加梯度累积步数,其中batch_size必须能被steps整除。

优化过程的摘要每100步以以下格式打印。例如:

[train] Step 100 out of 65536 | Loss --> 59.881 | Grad_l2 --> 61.126 | Weights_l2 --> 7042.931 | Lr --> 0.010 | Seconds_per_step --> 1.385 |

效率统计:

以下是我们预训练实验的效率统计。我们报告了模型完成1个预训练步骤所需的时间,以及根据默认配置的总预训练时间。请注意,我们需要增加optim.grad_acc steps以适应不同于BF16的精度。

混合精度格式Torch 2.0 compile梯度累积步数预训练(1步)总预训练时间
FP322~4.10s~74.6h
TF322~1.39s~25.3h
BF162~1.30s~23.7h
TF322~0.95s~17.3h
BF161~0.56s~10.2h

微调:

为了微调我们的模型,我们使用了流行的元数据集Super Natural-Instructions (SNI),它聚合了许多任务的数据集。这个元数据集被用于微调许多最近的LLM,例如FlanT5BLOOMTk-Instruct。虽然FlanT5和BLOOM除了SNI还使用了其他语料库,但Tk-Instruct的流程包括从预训练的T5模型开始,仅在SNI上进行微调。

在本仓库中,我们重现了Tk-Instruct的微调结果,并遵循他们的流程来评估我们预训练的模型。

下载Super-Natural Instructions数据:

git clone https://github.com/allenai/natural-instructions.git data

运行微调:

我们严格遵循Tk-Instruct的微调配置。目前尚不清楚Tk-Instruct是从常规检查点(google/t5-v1_1-base)初始化的,还是从专门适用于语言建模的持续训练检查点(google/t5-base-lm-adapt)初始化的。因此,我们决定评估这两种情况。运行以下命令以重现Tk-Instruct实验:

python -m nanoT5.main task=ft \
    model.name={google/t5-v1_1-base,google/t5-base-lm-adapt} \
    model.random_init={true,false} \
    model.checkpoint_path={"","/path/to/pytorch_model.bin"}

设置model.random_init=false model.checkpoint_path=""对应从HuggingFace Hub下载预训练权重。

设置model.random_init=false model.checkpoint_path="/path/to/pytorch_model.bin"对应使用nanoT5预训练的权重。

设置model.random_init=true model.checkpoint_path=""对应随机初始化。

不同预训练预算下保留测试集上的Rouge-L分数:

在下图中,我们比较了本仓库中在不同时间预算下(4812162024小时)训练的模型性能与通过Huggingface Hub获得的原始T5-base-v1.1模型权重及其为语言建模适配的版本(google/t5-base-lm-adapt)。我们观察到,在单个GPU上训练16小时的模型平均RougeL值仅比原始T5-base-v1.1模型低0.2,尽管预训练数据量少了150倍(根据T5论文,他们以2048的批量大小预训练模型一百万步。我们的16小时配置以256的批量大小进行53332步)。专门为语言建模适配的检查点(google/t5-base-lm-adapt)表现优于原始T5-base-v1.1模型和我们的模型,但这超出了本仓库的范围。

ft_rougeL

我们在HuggingFace Hub上分享了经过24小时预训练的模型权重,您可以下载并使用nanoT5在SNI上进行微调。我们还分享了微调损失曲线

单次微调步骤耗时约0.18秒,完整微调需要约1小时。

额外内容:

我们尝试过但未成功的方法:

  • 不同的优化器: 我们尝试了最新的优化器,如LionSophia,但它们都不如具有RMS缩放的AdamW表现好。
  • 位置嵌入: 我们尝试用ALiBi替换T5的学习相对位置嵌入。可能的好处包括减少参数和加快训练与推理速度。此外,如果ALiBi有效,我们可以添加Flash Attention,它目前只支持非参数化偏置(T5偏置是可训练的)。然而,使用ALiBi训练不太稳定,预训练损失也更差。
  • FP16精度: 所有使用FP16精度的实验在不同种子下都出现了发散。

结论:

我们展示了在有限预算(1个A100 GPU,< 24小时)下,使用PyTorch成功预训练"大型语言模型"(T5)是可能的。我们公开了我们的代码库、配置和训练日志,以提高NLP研究的可及性。我们期待听到您进一步改进代码库的建议。

致谢:

感谢Edoardo Maria Ponti的反馈!

参考文献:

引用

如果您发现本仓库有用,请考虑引用关于这项工作的论文。

@inproceedings{nawrot-2023-nanot5,
	title        = {nano{T}5: Fast {\&} Simple Pre-training and Fine-tuning of {T}5 Models with Limited Resources},
	author       = {Nawrot, Piotr},
	year         = 2023,
	month        = dec,
	booktitle    = {Proceedings of the 3rd Workshop for Natural Language Processing Open Source Software (NLP-OSS 2023)},
	publisher    = {Association for Computational Linguistics},
	doi          = {10.18653/v1/2023.nlposs-1.11},
	url          = {https://aclanthology.org/2023.nlposs-1.11}
}

下面您还可以找到一项使用nanoT5进行实验的出色工作。

@article{Kaddour2023NoTN,
  title={No Train No Gain: Revisiting Efficient Training Algorithms For Transformer-based Language Models},
  author={Jean Kaddour and Oscar Key and Piotr Nawrot and Pasquale Minervini and Matt J. Kusner},
  journal={ArXiv},
  year={2023},
  volume={abs/2307.06440},
}

问题:

如果您有任何问题,欢迎提出Github issue或直接联系我:piotr.nawrot@ed.ac.uk

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号