热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#minGPT
min-max-gpt - 为大规模GPT模型训练优化的开源框架
minGPT
GPU训练
深度学习
分布式训练
大规模模型
Github
开源项目
min-max-gpt是一个针对大规模GPT模型训练优化的开源项目。该框架集成了muP初始化、混合精度训练、FSDP和DeepSpeed Zero-3等技术,并提供了不依赖Hugging Face的训练选项。这使得研究人员和开发者能够更灵活地控制训练过程。项目已在8块80GB A100 GPU上成功训练20B参数模型,展现了其在大规模语言模型训练方面的能力。
1
1
相关文章
min-max-gpt: 极简实现的大规模GPT训练框架
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号