#PEFT

simple-llm-finetuner - 在NVIDIA GPU上使用LoRA方法轻松微调语言模型
Github开源项目GradioSimple LLM FinetunerLoRAPEFTNVIDIA GPU
Simple LLM Finetuner项目提供了初学者友好的界面,利用LoRA方法和PEFT库在常见的NVIDIA GPU上微调语言模型。用户可以轻松管理数据集、定制参数,并评估模型推理能力。支持在UI中粘贴数据集,提供参数调整和详细说明。尽管项目已停止维护,建议使用替代工具如LLaMA-Factory、unsloth或text-generation-webui。
peft - 大模型高效微调的先进方法
Github开源项目LoRAPEFTDiffusersTransformersAccelerate
参数高效微调(PEFT)通过只调整少量额外参数来适配大规模预训练模型,大幅降低计算和存储成本,同时性能接近完全微调模型。PEFT与Transformers、Diffusers和Accelerate集成,支持多种下游任务的训练和推理。了解更多方法和优势,请访问官方文档和教程。
LLM-Finetuning - 大型语言模型高效微调指南
大型语言模型Github开源项目微调Hugging FaceLoRAPEFT
了解如何使用LoRA和Hugging Face Transformers库高效微调大型语言模型。项目提供详细的教程笔记本,包括在Colab中微调Llama 2、GPT-Neo-X-20B、MPT-Instruct-30B等模型的指导和代码示例。无论新手或专家,均可找到实用资源,提升语言模型性能。欢迎贡献和提交问题,共同完善此开源项目。
LLM-FineTuning-Large-Language-Models - LLM微调实践与技术应用指南
Github开源项目LLMPEFT量化QLoRAFine-tuning
本项目介绍了如何使用ORPO、QLoRA、GPTQ等技术对大型语言模型(LLM)进行微调,包含具体实例和代码片段。项目还提供与这些技术相关的YouTube视频链接,提供全面的学习资料。此外,项目还包含各类实用工具和技术说明,帮助用户更好地理解和应用这些前沿技术。适合有一定编程基础的研究人员和开发者参考。
relora - 使用ReLoRA实现高效深度学习模型训练
Github开源项目PyTorchPEFT训练ReLoRAflash attention
ReLoRA项目通过低秩更新实现高效深度学习训练,兼容Python 3.10+和PyTorch 2.0+,支持更大的微批次大小。用户可通过执行预处理和不同配置的训练脚本,达到高效分布式训练,并支持cosine重启调度和多GPU配置。项目涵盖了预热训练和ReLoRA重启,适用于各种规模的模型训练。
LLM-Adapters - LLM模型参数微调适配器集成框架
Github开源项目HuggingFaceLoRAPEFTGPT-JLLM-Adapters
LLM-Adapters 是一个集成了多种适配器的框架,用于实现大语言模型的参数高效微调。支持 LLaMa、OPT、BLOOM 和 GPT-J 等开源大语言模型,以及 Bottleneck、Parallel 和 LoRA 等适配器。这个框架为研究人员和开发者提供了强大的工具,可应用于各种任务的适配器方法。最新更新包括 commonsense170k 数据集,LLaMA-13B-Parallel 模型在多个常识基准测试中表现优异,超越了 ChatGPT。
awesome-adapter-resources - 大型预训练神经网络适配器方法工具和论文资源库
Github开源项目NLPPEFT迁移学习Adapter参数高效
本项目汇集了大型预训练神经网络适配器方法的关键工具和论文。涵盖自然语言处理、计算机视觉和音频处理领域的适配器技术,包括方法、组合技术、分析评估和应用。提供框架工具链接和详细调查研究,是研究人员和从业者的重要参考资源。
Playground - 多功能文本生成WebUI扩展
Github开源项目LoRAPEFTPlayground文本WebUI扩展多笔记本
该扩展集成了多项实用功能,包括多笔记本管理、快速指令语法和文本插入生成。此外,它还提供永久记忆、LoRA模型操作和令牌视图等高级特性,旨在优化文本生成和编辑流程,为创作者营造高效的工作环境。
task-13-microsoft-Phi-3-mini-4k-instruct - PEFT库微调和部署微软Phi-3.5 mini指令模型
人工智能Github开源项目机器学习模型PEFTHuggingface模型卡片microsoft/Phi-3.5-mini-instruct
本项目介绍使用PEFT库对微软Phi-3.5 mini指令模型进行微调和部署的方法。内容涵盖模型详情、应用场景、潜在风险和局限性等关键信息,以及训练细节、评估方法和环境影响等技术规格。这是一个面向开发者的实用指南,有助于快速理解和应用该模型。
tiny_OPTForSequenceClassification-lora - 基于PEFT的模型序列分类微调框架
Github开源项目深度学习模型微调模型PEFTHuggingface训练过程框架版本
该项目是一个构建在PEFT 0.4.0框架上的序列分类微调工具。项目专注于模型微调和序列分类任务,通过轻量级参数调整方法优化训练过程,在保持模型性能的同时有效降低计算开销。
tiny_GPT2ForTokenClassification-lora - 使用PEFT框架实现GPT2模型的LoRA微调
Github开源项目机器学习AI模型模型PEFT训练框架Huggingface
该项目基于PEFT框架,通过LoRA适配器对tiny_GPT2ForTokenClassification模型进行微调,实现低资源消耗的模型定制化训练。项目展示了PEFT框架在轻量级模型调优中的应用方法
tiny-OPTForCausalLM-lora - PEFT框架的深度学习模型微调实现
Github开源项目深度学习模型微调模型PEFTHuggingface训练过程框架版本
基于PEFT 0.4.0.dev0版本开发的深度学习模型微调项目,通过参数高效微调方法,在有限计算资源条件下完成模型训练。主要应用于大型预训练模型的轻量级适配和迁移学习场景。
tiny-random-OPTForCausalLM-extended-vocab - 轻量级OPT因果语言模型测试框架
Github开源项目模型训练机器学习模型PEFTHuggingface技术规格环境影响评估
tiny-random-OPTForCausalLM是一个基于PEFT库开发的轻量级测试框架,通过缩减OPT模型规模实现快速测试和原型验证。此框架适用于文本生成、语言理解等自然语言处理任务的实验环境,特别适合在计算资源有限的场景下使用。
task-13-Qwen-Qwen1.5-0.5B - Qwen1.5-0.5B模型的参数高效微调项目
人工智能Github开源项目机器学习模型PEFTHuggingface模型卡片Qwen
该项目利用PEFT库对Qwen1.5-0.5B模型进行参数高效微调。通过这种技术,开发者可以在保留模型核心能力的同时,针对特定任务优化性能。尽管项目细节尚待完善,但它为AI研究人员和开发者提供了一个灵活的框架,用于进行模型定制和应用开发。这种方法有望在降低计算资源需求的同时,实现模型在特定领域的性能提升。