Project Icon

schedule_free

自适应训练优化器,无需预设停止时间

Schedule-Free Learning是一种新型PyTorch优化器,无需预设训练停止时间。该方法通过结合插值和平均技术取代传统动量,提高训练效率。不依赖学习率递减调度,却能达到或超越先进调度方法的效果。支持AdamW和SGD版本,并提供实验性包装器,可与各种基础优化器兼容。这种灵活的优化方法为深度学习模型训练提供了新的可能性。

无调度学习

PyTorch中的无调度优化器。

预印本:The Road Less Scheduled

作者:Aaron Defazio、Xingyu (Alice) Yang、Harsh Mehta、Konstantin Mishchenko、Ahmed Khaled、Ashok Cutkosky

简述 无需调度的更快训练 - 无需提前指定停止时间/步数!

pip install schedulefree

主要实现包括SGDScheduleFreeAdamWScheduleFree。我们还提供了一个AdamWScheduleFreeReference版本,它具有简化的实现,但使用更多内存。要与其他优化器结合使用,请使用ScheduleFreeWrapper版本。

Jax实现可作为Optax的一部分使用。

方法

无调度学习用插值和平均的组合替代了底层优化器的动量。对于梯度下降,基本的无调度更新为:

$$ \begin{align*} y_{t} & = (1-\beta)z_{t} + \beta x_{t},\ z_{t+1} & =z_{t}-\gamma\nabla f(y_{t}),\ x_{t+1} & =\left(1-\frac{1}{t+1}\right)x_{t}+\frac{1}{t+1}z_{t+1}, \end{align*} $$

这里$x$是应进行测试/验证损失评估的序列,它与主要迭代$z$和梯度评估位置$y$不同。对$z$的更新对应于底层优化器,在这种情况下是简单的梯度步骤。

顾名思义,无调度学习不需要递减的学习率调度,但通常优于或至少匹配最先进的调度,如余弦衰减和线性衰减。只需同时存储两个序列(第三个可以从其他两个实时计算),因此该方法与基础优化器具有相同的内存要求(参数缓冲区+动量)。

我们在这个仓库中提供了AdamW和SGD版本,以及一个可与任何基础优化器一起使用的实验性包装器版本。

如何使用

由于我们的优化器在梯度调用和测试/验证损失计算中使用两个不同的点,因此在训练期间需要在两者之间切换参数缓冲区。这可以通过在调用model.train()的同地方调用optimizer.train(),以及在调用model.eval()的同地方调用optimizer.eval()来完成。在存储检查点时,优化器也应该处于eval模式。

如果您的代码支持PyTorch优化器步骤闭包,您可以使用优化器的闭包形式,这不需要.train().eval()调用。

论文

如果您在工作中使用无调度训练,请引用我们的预印本

@misc{defazio2024road,
      title={The Road Less Scheduled}, 
      author={Aaron Defazio and Xingyu Yang and Harsh Mehta and Konstantin Mishchenko and Ahmed Khaled and Ashok Cutkosky},
      year={2024},
      eprint={2405.15682},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

示例

使用schedulefree包的示例可以在examples文件夹中找到。这些包括:

*示例修改自Pytorch示例仓库

注意事项

  • 如果您的模型使用BatchNorm,则需要进行额外修改以使测试/验证评估正常工作。在评估之前,需要类似以下操作:
model.train()
optimizer.eval()
with torch.no_grad():
  for batch in itertools.islice(train_loader, 50):
    model(batch)
model.eval()

这将用在$x$处计算的值替换training_mean/training_var缓存(在model.train()模式下,每次前向传播都会更新)。使用PreciseBN也可以避免这个问题。

  • 许多代码库使用可能需要额外更改才能兼容的其他功能。例如,如果参数以fp16缓存,则需要手动更新缓存版本,以确保使用正确的$x$序列进行评估,而不是$y$序列。一些GradScaler可以做到这一点。
  • 训练对$\beta$的选择比标准动量更敏感。我们默认的0.9在大多数问题上都有效,但对于非常长的训练运行,可能需要将值增加到0.95或0.98。
  • 不需要使用学习率调度器,但代码与之兼容。
  • 建议使用学习率预热。这通过warmup_steps参数支持。
  • 此方法确实需要调整 - 如果不同时调整正则化和学习率参数,它不一定会优于调度方法。
  • 对于SGD,比经典速率大10-50倍的学习率似乎是一个好的起点。
  • 对于AdamW,比基于调度的方法大1-10倍的学习率似乎有效。

包装器版本

我们提供了一个实验性的包装器版本ScheduleFreeWrapper,可以包装任何基础优化器。使用此版本时,您可以禁用基础优化器的动量,因为在使用我们的包装器动量时不再需要它(尽管如果需要,您可以同时使用两种类型的动量)。

示例用法:

base_optimizer = torch.optim.RMSprop(model.parameters(), lr=0.0025)
optimizer = ScheduleFreeWrapper(
  base_optimizer, momentum=0.9, weight_decay_at_y=0.1)

如果您在基础优化器上设置权重衰减,它会在$z$处计算权重衰减。我们通过weight_decay_at_y参数提供在$y$处计算权重衰减的选项,这在我们的实验中似乎能得到更好的结果。

我们还包括一个ScheduleFreeWrapperReference版本,它使用更多内存但数值上更稳定,我们建议将此版本用于早期实验或研究工作。

许可证

请参阅许可证文件

相关工作

无调度学习可以被视为原始平均($\beta=1$)和Polyak-Ruppert平均($\beta=0$)之间的插值。这种插值的优势在于它允许我们兼得两者之长。我们可以实现Polyak-Ruppert平均的快速早期阶段收敛(因为$z$序列移动比$x$序列快),而不会让$x$序列离$z$序列太远,这会导致不稳定。

我们的方法也与Nesterov的加速方法(Nesterov,1983)的AC-SA形式(Ghadimi & Lan 2010)相关:

$$ \begin{align*} y_{t} & =(1-2/(t+1))x_{t} + (2/(t+1))z_{t}\ z_{t+1} & =z_{t}-\frac{t}{2L}\nabla f(y_{t})\ x_{t+1} & =(1-2/(t+1))x_{t}+(2/(t+1))z_{t+1} \end{align*} $$

我们的方法具有相同的三个序列,但使用非常不同的权重,最关键的是,不包括随时间增加的学习率,这对于Nesterov方法的加速率至关重要。我们还为插值操作和平均操作使用不同的权重序列。

尾部平均方法,如随机权重平均(Izmailov等,2018)和最新权重平均(Kaddour,2022;Sanyal等,2023)将平均与大或循环学习率结合。它们仍然需要使用调度,引入额外的超参数进行调整,并且与我们的技术相比需要额外的内存。也可以在我们的方法之上使用SWA和LAWA,可能会带来进一步的收益。

Portes等人(2022)使用周期增加的循环学习率调度,提供了一种在训练时间与评估性能之间的Pareto前沿上探索多个点的方法。每个周期结束时的点都是在该时间结束的调整后调度模型的近似。我们的方法给出了整个前沿,而不仅仅是路径上的几个点。

迭代序列的指数移动平均(EMA)在流行的Lookahead优化器(Zhang等,2019)中使用。Lookahead方法可以被视为原始平均的EMA版本,就像指数权重平均是Polyak-Ruppert平均的EMA版本一样。我们额外的插值步骤也可能与Lookahead优化器结合使用。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号