#训练加速

SpeeD - 通过时间步长优化实现扩散模型训练加速
SpeeD扩散模型训练加速AI生成深度学习Github开源项目
SpeeD是一种创新的扩散模型训练加速技术,通过对时间步长的深入分析和优化,将训练过程分为加速、减速和收敛三个区域。该方法采用重采样和重加权策略,实现了训练速度的显著提升。SpeeD易于与现有模型集成,能有效提高扩散模型的训练效率,为图像生成等任务提供了新的解决方案。
Sophia - 高效的二阶随机优化算法
Sophia优化器机器学习训练加速二阶优化Github开源项目
Sophia是一种新型二阶随机优化算法,利用Hessian矩阵对角线的低成本随机估计和裁剪机制来优化模型训练。相比Adam算法,Sophia在预训练损失、计算量和训练时间方面表现更优,可将训练成本降低50%。此算法易于集成,无需特殊模型架构或基础设施,适用于各类机器学习项目。
dc-ae-f64c128-in-1.0 - 深度压缩自编码器提高高分辨率模型性能
Deep Compression Autoencoder开源项目高分辨率扩散模型图像生成训练加速模型Huggingface残差自编码Github
DC-AE凭借残差自编码和分阶段训练策略提升了高空间压缩率自编码器的重建精度,不仅在高分辨率扩散模型中实现了高效运行,还保持了优越的性能表现。在ImageNet 512x512测试中,DC-AE比传统SD-VAE-f8自编码器提高了19.1倍的推理速度和17.9倍的训练速度。