#DoRA
dora-from-scratch - LoRA和DoRA技术的从头实现
LoRADoRA实现补充资料文章Github开源项目
该项目提供了LoRA和DoRA技术的从头实现资料,作为相关文章的补充。内容涵盖关键技术细节和应用案例,帮助更好地理解和应用这些技术。
DoRA - 大型语言模型微调的权重分解低秩适应方法
DoRA低秩适应权重分解微调大语言模型Github开源项目
DoRA是一种新型大型语言模型微调方法,通过将预训练权重分解为幅度和方向两个部分进行更新。与LoRA相比,DoRA在保持参数效率的同时提升了模型的学习能力和训练稳定性。研究表明,DoRA在常识推理、视觉指令调优和图像/视频-文本理解等多项下游任务中表现优于LoRA。该技术已集成到Hugging Face PEFT和Diffusers库中,可用于多种模型的微调。