peft
参数高效微调(PEFT)通过只调整少量额外参数来适配大规模预训练模型,大幅降低计算和存储成本,同时性能接近完全微调模型。PEFT与Transformers、Diffusers和Accelerate集成,支持多种下游任务的训练和推理。了解更多方法和优势,请访问官方文档和教程。
accelerate
Accelerate是一个轻量级PyTorch训练框架,允许在CPU、GPU、TPU等多种设备上运行原生PyTorch脚本。它自动处理设备分配和混合精度训练,简化了分布式训练流程。研究人员和开发者可专注于模型开发,无需关注底层实现细节,从而加速AI模型的训练和部署。