Project Icon

GPT2

PyTorch优化实现的自然语言生成模型

该项目是OpenAI GPT-2模型的PyTorch实现,提供模型训练、文本生成和指标可视化功能。代码设计兼顾可读性和性能优化,支持多GPU训练、自动混合精度和梯度检查点等特性。项目提供详细的命令行使用说明,并可在Google Colab中进行交互式文本生成和模型评估。

GPT-2 PyTorch 实现

构建 GitHub 在 Colab 中打开 codecov CodeFactor

语言模型是无监督的多任务学习器

目录

简介

本项目是 OpenAI GPT-2 模型的 PyTorch 实现。它提供了模型训练、句子生成和指标可视化功能。我们致力于使代码既易于理解又经过优化。我们设计的代码易于理解,同时我们还使用一些技术来提高性能。

依赖项

  • regex
  • tqdm
  • torch
  • numpy
  • matplotlib

使用方法

如何训练?

在训练 GPT-2 模型之前,需要准备语料库数据集。我们建议使用 Expanda 构建您自己的语料库。另外,训练模块需要分词后的训练和评估数据集以及它们的词汇表文件。

准备好数据集后,您可以按如下方式训练 GPT-2:

$ python -m gpt2 train --train_corpus           build/corpus.train.txt \
                       --eval_corpus            build/corpus.test.txt \
                       --vocab_path             build/vocab.txt \
                       --save_checkpoint_path   ckpt-gpt2.pth \
                       --save_model_path        gpt2-pretrained.pth
                       --batch_train            128 \
                       --batch_eval             128 \
                       --seq_len                64 \
                       --total_steps            1000000 \
                       --eval_steps             500 \
                       --save_steps             5000

要从上一个检查点文件恢复训练,请使用 --from_checkpoint [上一个检查点文件] 选项。 如果您想使用多个 GPU 训练 GPT-2,请使用 --gpus [GPU 数量] 选项。

命令行用法详情如下:

usage: gpt2 train [-h] --train_corpus TRAIN_CORPUS --eval_corpus EVAL_CORPUS
                  --vocab_path VOCAB_PATH [--seq_len SEQ_LEN]
                  [--layers LAYERS] [--heads HEADS] [--dims DIMS]
                  [--rate RATE] [--dropout DROPOUT]
                  [--batch_train BATCH_TRAIN] [--batch_eval BATCH_EVAL]
                  [--base_lr BASE_LR] [--wd_rate WD_RATE]
                  [--total_steps TOTAL_STEPS] [--eval_steps EVAL_STEPS]
                  [--save_steps SAVE_STEPS]
                  [--save_model_path SAVE_MODEL_PATH]
                  [--save_checkpoint_path SAVE_CHECKPOINT_PATH]
                  [--from_checkpoint FROM_CHECKPOINT]
                  [--from_pretrained FROM_PRETRAINED] [--use_amp]
                  [--use_grad_ckpt] [--gpus GPUS]

可选参数:
  -h, --help            显示此帮助信息并退出

语料库和词汇表:
  --train_corpus TRAIN_CORPUS
                        训练语料库文件路径
  --eval_corpus EVAL_CORPUS
                        评估语料库文件路径
  --vocab_path VOCAB_PATH
                        词汇表文件路径

模型配置:
  --seq_len SEQ_LEN     最大序列长度
  --layers LAYERS       transformer 层数
  --heads HEADS         注意力层中的多头数量
  --dims DIMS           每层表示的维度
  --rate RATE           瓶颈层维度增加率
  --dropout DROPOUT     每个元素被丢弃的概率

训练和评估:
  --batch_train BATCH_TRAIN
                        训练批次大小
  --batch_eval BATCH_EVAL
                        评估批次大小
  --base_lr BASE_LR     默认学习率
  --wd_rate WD_RATE     权重衰减率
  --total_steps TOTAL_STEPS
                        总训练步数
  --eval_steps EVAL_STEPS
                        评估模型和记录指标的周期
  --save_steps SAVE_STEPS
                        将训练状态保存到检查点的周期

保存和恢复:
  --save_model_path SAVE_MODEL_PATH
                        将训练好的模型权重保存到文件
  --save_checkpoint_path SAVE_CHECKPOINT_PATH
                        将训练状态保存到检查点文件
  --from_checkpoint FROM_CHECKPOINT
                        从检查点文件加载上一次训练状态
  --from_pretrained FROM_PRETRAINED
                        从预训练模型初始化参数

扩展:
  --use_amp             在训练中使用自动混合精度
  --use_grad_ckpt       在 transformer 层中使用梯度检查点
  --gpus GPUS           训练中使用的 GPU 设备数量

生成句子!

训练 GPT-2 后,您可以在交互模式下使用训练好的模型生成句子。

$ python -m gpt2 generate --vocab_path      build/vocab.txt \
                          --model_path      model.pth \
                          --seq_len         64 \
                          --nucleus_prob    0.8

命令行用法详情如下: 用法: gpt2 生成 [-h] --词表路径 词表路径 --模型 模型 [--序列长度 序列长度] [--层数 层数] [--头数 头数] [--维度 维度] [--比率 比率] [--顶部概率 顶部概率] [--使用GPU]

可选参数: -h, --帮助 显示此帮助信息并退出 --词表路径 词表路径 词表文件路径 --模型路径 模型路径 训练好的GPT-2模型文件路径

模型配置: --序列长度 序列长度 最大序列长度 --层数 层数 transformer层数 --头数 头数 注意力层中的多头数量 --维度 维度 每层表示的维度 --比率 比率 瓶颈层维度增长率

生成选项: --核采样概率 核采样概率 核采样的概率阈值 --使用GPU 在推理时使用GPU设备

评估模型

评估训练模型性能的一种方法是使用未在训练阶段使用的评估数据集计算客观指标。

$ python -m gpt2 evaluate --模型路径 model.pth --评估语料 corpus.test.txt --词表路径 vocab.txt

可视化指标

此外,您还可以通过可视化记录的指标来分析训练损失图。

$ python -m gpt2 visualize --模型路径 model.pth --交互式

示例图如下:

图片

在训练中使用apex

在训练时,您可以使用NVIDIA apex来使用融合CUDA层和混合精度优化。选项--use_amp启用训练中的自动混合精度。在使用这些性能提升之前,您应该按照仓库的说明安装NVIDIA apex库,或运行以下命令:

$ git clone https://github.com/NVIDIA/apex
$ cd apex
$ pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./

如果您无法安装该库或您的GPU设备不支持快速混合精度训练(准确地说,GPU应支持通过Tensor Cores进行混合精度加速),您可以以单精度模式训练模型。混合精度训练是一个可选项。在这种情况下,您仍然可以在训练中使用融合CUDA层,如Adam优化器和层归一化。

在Google Colab中体验!

在Colab中打开

您可以在Google Colab中体验训练好的GPT2模型!上面的notebook包含文本生成和指标评估。您需要将训练好的模型、词表文件和评估数据集上传到Google Cloud Storage

对于对韩语版GPT2感兴趣的人,我们重写了上述notebook,特别提供了gpt2-ko-302M模型的案例,该模型使用约5.04B个来自韩语文档的标记进行训练。您可以在此notebook中体验演示。

许可证

本项目采用Apache-2.0许可证

Star历史

Star历史图表

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号