热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Adam-mini
Adam-mini - 减少内存消耗并提升模型效能的高效优化器
Adam-mini
优化器
内存效率
深度学习
分布式训练
Github
开源项目
Adam-mini是一种新型优化器,通过创新的参数分块和学习率分配方法,将内存占用比AdamW降低45%到50%,同时维持或提高模型性能。它支持多种分布式框架,可用于预训练、监督微调和RLHF等任务。Adam-mini基于Hessian结构相关原则,为大规模模型训练提供了高效解决方案。
1
1
相关文章
Adam-mini:用更少的学习率获得更多
2024年09月05日
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号