Project Icon

P-tuning-v2

深度提示调优技术提升小型模型性能 媲美传统微调方法

P-tuning v2是一种创新的提示调优策略,通过深度提示调优技术为预训练Transformer的每层输入应用连续提示。这种方法显著提升了连续提示的容量,有效缩小了与传统微调方法的性能差距,尤其在小型模型和复杂任务中表现突出。研究表明,P-tuning v2在BERT和RoBERTa等模型上取得了优异成果,在多项NLP任务中达到了与微调相当的水平,为发展参数高效的模型调优技术开辟了新途径。

P-tuning v2

源代码和数据用于:

一种优化的提示调优策略,在小型/中型模型和序列标注任务上实现了与微调相当的性能。

查看我们之前的版本 P-tuning v1,用于知识探测和少样本 SuperGLUE。您的星标支持将极大地鼓励我们更加努力 :)

您可能也会对我们最近的工作 GLM-130B:开放的双语预训练模型 (2022-10-06) 感兴趣。这是一个开源的大型语言模型,在各种基准测试中表现超过 GPT-3 175B。只需 4 个 RTX 3090 或 8 个 RTX 2080 Ti 就可以免费获取模型权重、进行推理和 P-Tuning v2!

P-tuning v2 利用深度提示调优,即为预训练 Transformer 的每一层输入应用连续提示。 深度提示调优增加了连续提示的容量,缩小了与微调在各种设置下的差距,特别是对于小型模型和困难任务。

感谢 @rainatam 在重新组织代码以发布方面的共同努力!

常见问题

  1. 一些读者注意到 SuperGLUE 中 P-tuning (v1) 和 P-tuning v2 之间存在**"不匹配"**:这是因为在 P-tuning 的 SuperGLUE 实验中,为了与 PET 公平比较,我们遵循其实验设置,将主干预训练模型参数与连续提示嵌入一起调整;而在 P-tuning v2 中,我们遵循 Prefix tuning 和 Lester 等人的参数高效设置,冻结主干预训练模型参数。

复现技巧

由于我们论文中报告的实验都是在 NVIDIA DGX-A100 服务器上进行的(可能难以获得), 我们使用以下配置重新实现了 BERT-large/RoBERTa-large 的 P-tuning v2 结果:

  • 配备 NVIDIA GeForce RTX 3090 (24G) GPU 的 Ubuntu 服务器
  • cuda 11.1
  • 特定版本的软件包(如下所示)

我们注意到,最佳超参数可能对您的服务器环境和软件包版本敏感。 如果您没有完全相同的环境,我们强烈建议您基于我们在 search_script 中的超参数搜索示例脚本和结果收集脚本 search.py 在您的环境中运行超参数搜索。

设置

我们使用 Anaconda3 进行实验。如果您已安装 Anaconda3,请为 P-tuning v2 创建环境:

conda create -n pt2 python=3.8.5
conda activate pt2

设置好基本的 conda 环境后,通过以下命令安装 pytorch 相关包:

conda install -n pt2 pytorch==1.7.1 torchvision==0.8.2 torchaudio==0.7.2 cudatoolkit=11.0 -c pytorch

最后,安装我们需要的其他 Python 包:

pip install -r requirements.txt

数据

对于 SuperGLUE 和 SQuAD 数据集,我们从 Huggingface Datasets API(嵌入在我们的代码中)下载它们。

对于序列标注(NER、SRL)数据集,我们准备了一个非官方打包 在这里。 下载后,将打包文件解压到项目根目录。 请自行承担使用风险。

训练

run_script 中运行训练脚本(例如,RoBERTa 用于 RTE):

bash run_script/run_rte_roberta.sh

已实现的结果

目前我们已经发布了以下任务和数据集的重新实现。更多实现将很快发布。

BERT-large 的已发布结果

BoolQCOPARTEWiCWSCCoNLL04OntoNotes 5.0CoNLL12
结果74.377.080.175.168.384.586.485.3
总轮次10080608080403045
最佳轮次5812305617332443

RoBERTa-large 的已发布结果

BoolQCOPARTEWiCWSCCoNLL03CoNLL04OntoNotes 5.0CoNLL12CoNLL05 WSJCoNLL05 BrownSQuAD 1.1SQuAD 2.0
结果84.092.086.673.764.491.888.490.184.789.483.988.1/94.281.3/84.7
总轮次10012010050103080604515-3010
最佳轮次8678653132845593713-249

关于其他超参数,请参考训练脚本。 如果您在最佳轮次无法达到报告的结果,可能是由于环境不匹配,需要进行超参数搜索。

引用

如果您觉得我们的工作有用,请引用我们的论文:

@article{DBLP:journals/corr/abs-2110-07602,
  author    = {Xiao Liu and
               Kaixuan Ji and
               Yicheng Fu and
               Zhengxiao Du and
               Zhilin Yang and
               Jie Tang},
  title     = {P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally
               Across Scales and Tasks},
  journal   = {CoRR},
  volume    = {abs/2110.07602},
  year      = {2021},
  url       = {https://arxiv.org/abs/2110.07602},
  eprinttype = {arXiv},
  eprint    = {2110.07602},
  timestamp = {Fri, 22 Oct 2021 13:33:09 +0200},
  biburl    = {https://dblp.org/rec/journals/corr/abs-2110-07602.bib},
  bibsource = {dblp computer science bibliography, https://dblp.org}
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号