offsite-tuning
Offsite-Tuning是一种迁移学习框架,允许在不完全访问原始模型的情况下对大型基础模型进行微调。该方法使用轻量级适配器和压缩仿真器,保护模型所有者和数据所有者的隐私,同时提高计算效率。与传统全模型微调相比,Offsite-Tuning保持相当准确性,同时实现6.5倍速度提升和5.6倍内存减少,适用于大规模语言和视觉模型。