Logo

#优化器

Logo of learning-to-learn
learning-to-learn
了解如何使用TensorFlow和Sonnet在MNIST和CIFAR10等数据集上进行模型训练和评估。本文详细说明了命令行参数,涵盖了训练和评估的步骤,并介绍了从简单二次函数到复杂卷积神经网络的不同问题解决方案。掌握这些方法,可以实现自定义优化器并提高模型性能。
Logo of lion-pytorch
lion-pytorch
Lion是一种由Google Brain团队开发的新型优化器,部分效果优于Adam(w)。本文介绍了Lion在Pytorch中的实现和使用方法。通过调整学习率、权重衰减和参数β1、β2,Lion在语言建模和文本生成等任务中表现良好。其安装与使用简单,适合各种大型模型的训练。
Logo of Adan
Adan
Adan是一种新型优化算法,结合适应性学习率和Nesterov动量,旨在加速深度学习模型训练。它在计算机视觉、自然语言处理和大规模语言模型等多个领域表现优异。相比Adam和AdamW,Adan通常能使用更大的学习率,训练速度提升5-10倍,同时保持或提高模型精度。目前,Adan已被NVIDIA NeMo、Meta AI D-Adaptation等多个知名深度学习框架和项目采用。
Logo of Adam-mini
Adam-mini
Adam-mini是一种新型优化器,通过创新的参数分块和学习率分配方法,将内存占用比AdamW降低45%到50%,同时维持或提高模型性能。它支持多种分布式框架,可用于预训练、监督微调和RLHF等任务。Adam-mini基于Hessian结构相关原则,为大规模模型训练提供了高效解决方案。
Logo of optax
optax
Optax是JAX生态系统中的梯度处理和优化框架。它提供了经过严格测试的高效核心组件,支持研究人员灵活组合低级模块以构建自定义优化器。该库强调模块化设计,重视代码可读性和结构化,便于匹配标准优化方程。Optax实现了多种主流优化算法和损失函数,为机器学习研究和快速原型开发提供了有力支持。
Logo of optimizer
optimizer
ONNX提供了一个C++库,通过预包装的优化通道对ONNX模型进行优化。主要目标是促进各ONNX后端实现共享工作,并支持多种直接在ONNX图上实现的优化。用户可以通过简单的函数调用使用这些通道,或添加新的优化通道。安装方式包括通过PyPI或从源代码构建。
Logo of learned_optimization
learned_optimization
learned_optimization是一个研究代码库,主要用于学习型优化器的训练、设计、评估和应用。该项目实现了多种优化器和训练算法,包括手工设计的优化器、学习型优化器、元训练任务以及ES、PES和截断反向传播等外部训练方法。项目提供了详细的文档和教程,包括Colab笔记本,方便用户快速入门。learned_optimization适用于元学习和动态系统训练的研究,为相关领域提供了功能丰富的工具。
Logo of bitsandbytes
bitsandbytes
bitsandbytes是一个轻量级Python库,为CUDA自定义函数提供封装。该库主要提供8位优化器、矩阵乘法(LLM.int8())以及8位和4位量化功能。通过bitsandbytes.nn模块实现多位线性层,bitsandbytes.optim模块提供优化器。目前正在拓展对更多硬件后端的支持,包括Intel CPU+GPU、AMD GPU和Apple Silicon,Windows平台的支持也在开发中。
Logo of schedule_free
schedule_free
Schedule-Free Learning是一种新型PyTorch优化器,无需预设训练停止时间。该方法通过结合插值和平均技术取代传统动量,提高训练效率。不依赖学习率递减调度,却能达到或超越先进调度方法的效果。支持AdamW和SGD版本,并提供实验性包装器,可与各种基础优化器兼容。这种灵活的优化方法为深度学习模型训练提供了新的可能性。
Logo of Sophia
Sophia
Sophia是一种新型二阶随机优化算法,利用Hessian矩阵对角线的低成本随机估计和裁剪机制来优化模型训练。相比Adam算法,Sophia在预训练损失、计算量和训练时间方面表现更优,可将训练成本降低50%。此算法易于集成,无需特殊模型架构或基础设施,适用于各类机器学习项目。
Logo of dl-for-emo-tts
dl-for-emo-tts
项目通过深度学习实现情感语音合成,包括Tacotron和DCTTS模型的应用。详细介绍了使用的数据集、相关文献和多种模型微调策略,如调整学习率和冻结网络层。尽管面临情感数据集有限的问题,但实验验证了改进方案对低资源情感TTS传递学习的有效性。
Logo of jaxopt
jaxopt
JAXopt是基于JAX的优化器库,提供硬件加速、批处理和可微分的优化算法。支持GPU和TPU,可自动向量化多个优化问题实例,并支持优化解的微分。目前正与Optax合并,处于维护模式。适用于机器学习和科学计算领域的优化任务。
Logo of LOMO
LOMO
LOMO和AdaLomo是为大规模语言模型训练设计的低内存优化算法。通过融合梯度计算和参数更新,这些技术显著减少内存使用,使单GPU设备能实现全参数微调。AdaLomo提供自适应学习率和分组更新归一化,在内存效率和性能上与AdamW相当。这些算法已集成至多个主流深度学习框架,为资源受限环境中的大模型训练提供高效方案。
Logo of Sophia
Sophia
Sophia是一种为大规模语言模型预训练设计的随机二阶优化器。它通过支持更大学习率,提高了训练速度和模型性能。该项目提供Sophia-G优化器的实现,包含超参数调优指南和GPT-2训练脚本,方便研究人员应用这一优化技术。Sophia适用于GPT-2等不同规模的模型,展现了良好的扩展性。
Logo of fsrs4anki
fsrs4anki
FSRS4Anki 是一个基于Free Spaced Repetition Scheduler算法的间隔重复调度器与优化工具,旨在提升Anki卡片的记忆效率。系统包含调度器和优化器,通过机器学习理解用户记忆模式并优化复习参数。同时,该工具兼容多种Anki插件并适用于最新版Anki,提供详细教程和优化机制说明,且支持社区贡献和数据共享。
Logo of pytorch-lr-finder
pytorch-lr-finder
pytorch-lr-finder是一个基于PyTorch的学习率范围测试工具,实现了Leslie N. Smith论文中的方法和fastai的改进版本。通过在预训练阶段调整学习率,帮助用户确定最佳学习率。工具支持梯度累积和混合精度训练,适用于多种深度学习任务。简洁的API和可视化功能便于优化神经网络训练过程。
Logo of tuning_playbook
tuning_playbook
该项目提供深度学习模型调优的全面指南,涵盖项目启动、架构选择、优化器配置、批量大小设置等关键环节。它介绍了科学的性能提升方法,以及训练流程优化和实验追踪等实用技巧,旨在帮助提高深度学习模型的性能。
Logo of LLM-Optimizers-Papers
LLM-Optimizers-Papers
该项目整理了大语言模型(LLM)作为优化器和LLM自动提示词优化领域的关键论文。内容涉及强化学习、进化算法等多种优化方法,呈现了LLM在自我优化和解决复杂任务方面的能力。这一资源库为人工智能、自然语言处理和优化算法研究者提供了重要参考。