#参数高效微调

llm-action - 提升AI模型训练与推理效率的高级技术与指南
LLM训练微调技术分布式训练参数高效微调LLM实战Github开源项目
llm-action项目为NVIDIA GPU和Ascend NPU上的大模型训练提供简易工具,详细介绍了LLM训练技术的高效微调和分布式技术。深入探究LLM微调实战与技术原理,并提供实际代码示例以供学习和应用。涵盖普适性框架与多模态微调专项技术,适合开发者与研究人员优化和扩展其AI模型的能力。
OpenDelta - 高效参数调整的开源工具包
OpenDelta参数高效微调delta tuningPyTorchtransformersGithub开源项目
OpenDelta是一个高效的开源调优工具包,通过添加少量参数进行调整,可实现如前缀调优、适配器调优、Lora调优等多种方法。最新版本支持Python 3.8.13、PyTorch 1.12.1和transformers 4.22.2。
Awesome-Parameter-Efficient-Transfer-Learning - 参数高效迁移学习的全面资源汇总
Awesome-Parameter-Efficient-Transfer-LearningGitHub预训练模型参数高效微调视觉模型Github开源项目
该项目提供了关于参数高效迁移学习的全面资源,包含多种调优方法和最新研究。研究人员和工程师可以参考这些资源,以提高预训练视觉模型的微调效率,并了解最新的项目更新,如视觉PEFT库和基准测试。
Awesome_Matching_Pretraining_Transfering - 多模态模型、参数高效微调及视觉语言预训练研究进展汇总
多模态模型参数高效微调视觉语言预训练图像文本匹配大型模型Github开源项目
该项目汇总了多模态模型、参数高效微调、视觉语言预训练和图像-文本匹配领域的研究进展。内容涵盖大语言模型、视频多模态模型等多个方向,定期更新最新论文和资源。项目为相关领域的研究人员和开发者提供了系统的学习参考。
t-few - 参数高效微调方法优于GPT-3上下文学习
T-Few参数高效微调少样本学习自然语言处理预训练语言模型Github开源项目
t-few项目提出一种少样本参数高效微调方法,在多个NLP任务中表现优于GPT-3的上下文学习。项目开源代码包含环境配置、实验运行等功能,并在RAFT基准测试中达到领先水平。这为NLP领域少样本学习提供了高效且低成本的解决方案,研究人员可基于此进行深入研究。
PiSSA - 高效微调大语言模型的创新方法
PiSSA参数高效微调大语言模型低秩适应奇异值分解Github开源项目
PiSSA是一种创新的参数高效微调方法,通过优化关键奇异值和向量来增强大语言模型性能。相较于LoRA,PiSSA展现出更快的收敛速度和更优的效果。在多个基准测试中,PiSSA的表现全面超越LoRA。这种方法不仅保留了LoRA的参数效率和量化兼容性优势,还大幅降低了4位量化误差。PiSSA初始化迅速,易于从LoRA转换。在多种模型和任务中,PiSSA均表现出色,为大语言模型的高效微调提供了新的可能性。
tiny-random-Llama-3-lora - 优化轻量级Llama-3模型的LoRA适配器
模型参数高效微调LoRA模型适配器GithubLlama-3Huggingface开源项目peft
本项目为tiny-random-Llama-3模型开发LoRA适配器。LoRA作为一种高效微调技术,能够大幅降低参数量和加速训练过程。研究人员和开发者可利用此适配器快速将tiny-random-Llama-3模型应用于特定任务,无需完整重训练。该工具为小型语言模型的应用研究提供了便利,有助于推动NLP领域的发展。