#训练加速
相关项目
SpeeD
SpeeD是一种创新的扩散模型训练加速技术,通过对时间步长的深入分析和优化,将训练过程分为加速、减速和收敛三个区域。该方法采用重采样和重加权策略,实现了训练速度的显著提升。SpeeD易于与现有模型集成,能有效提高扩散模型的训练效率,为图像生成等任务提供了新的解决方案。
Sophia
Sophia是一种新型二阶随机优化算法,利用Hessian矩阵对角线的低成本随机估计和裁剪机制来优化模型训练。相比Adam算法,Sophia在预训练损失、计算量和训练时间方面表现更优,可将训练成本降低50%。此算法易于集成,无需特殊模型架构或基础设施,适用于各类机器学习项目。
dc-ae-f64c128-in-1.0
DC-AE凭借残差自编码和分阶段训练策略提升了高空间压缩率自编码器的重建精度,不仅在高分辨率扩散模型中实现了高效运行,还保持了优越的性能表现。在ImageNet 512x512测试中,DC-AE比传统SD-VAE-f8自编码器提高了19.1倍的推理速度和17.9倍的训练速度。