使用LoRA方法在单个16G GPU上微调LLaMA模型

Ray

llama-lora-fine-tuning

引言

大型语言模型(LLM)如LLaMA的微调一直是自然语言处理领域的一个热点话题。然而,由于这类模型参数量巨大,传统的微调方法往往需要强大的硬件支持。本文将介绍如何使用LoRA(Low-Rank Adaptation)方法,在单个16G GPU上对LLaMA模型进行高效微调,使得普通研究者也能参与到LLM的优化中来。

LoRA微调方法概述

LoRA是一种参数高效的微调技术,它通过只训练一小部分新增的低秩矩阵来适应下游任务,而保持预训练模型的大部分参数不变。这种方法大大降低了计算和内存需求,使得在有限资源下微调大型模型成为可能。

本项目基于FastChat,修改了LoRA训练代码,使用shareGPT语料库在16G显存的GPU上进行微调,内存占用约13G。主要技术要点包括:

  1. 使用LoRA方法只训练部分参数
  2. 采用半精度的llama-7b-hf作为基础模型
  3. 使用load_in_8bit加载基础模型
  4. 使用peft技术进行微调
  5. 使用bitsandbytes加速训练

环境配置

在开始微调之前,需要先配置好相关环境:

  1. 操作系统:centos或ubuntu
  2. GPU:NVIDIA P100或T4,16G及以上显存
  3. CUDA和conda环境

具体安装步骤如下:

  1. 克隆项目代码
git clone https://github.com/git-cloner/llama-lora-fine-tuning
cd llama-lora-fine-tuning
  1. 安装依赖包
conda create -n llama-lora python=3.10
conda activate llama-lora
pip3 install -r requirements.txt
  1. 安装其他必要组件,如pkg-config和libicu

准备LLaMA模型

微调需要使用LLaMA模型作为基础。你可以下载原始模型并转换为半精度,或直接下载转换好的半精度模型。

  1. 下载LLaMA模型
python -m llama.download --model_size 7B
  1. 转换为Hugging Face格式
python3 ./convert_llama_weights_to_hf.py --input_dir ./pyllama_data --model_size 7B --output_dir ./pyllama_data/output/7B

准备语料库

高质量的训练数据对模型微调至关重要。本项目使用shareGPT语料库,具体步骤如下:

  1. 下载shareGPT语料库
  2. 合并语料文件
  3. 将HTML转换为Markdown格式
  4. 移除不需要的语言(可选)
  5. 将长对话拆分成短对话

这些步骤可以通过项目提供的Python脚本完成。

模型微调

准备好模型和数据后,就可以开始微调过程:

CUDA_VISIBLE_DEVICES=0,1 \
deepspeed --num_gpus=2 fastchat/train/train_lora.py \
  --deepspeed ./deepspeed-config.json \
  --lora_r 8 \
  --lora_alpha 16 \
  --lora_dropout 0.05 \
  --model_name_or_path ./pyllama_data/output/7B \
  --data_path ./data/sharegpt_clean_split.json \
  --fp16 True \
  --output_dir ./output \
  --num_train_epochs 1 \
  --per_device_train_batch_size 14 \
  --per_device_eval_batch_size 14 \
  --gradient_accumulation_steps 1 \
  --evaluation_strategy "no" \
  --save_strategy "steps" \
  --save_steps 2400 \
  --save_total_limit 5 \
  --learning_rate 2e-5 \
  --weight_decay 0. \n  --warmup_ratio 0.03 \
  --lr_scheduler_type "cosine" \
  --logging_steps 1 \
  --model_max_length 512 \
  --gradient_checkpointing True

在P100(16G)上微调时,内存占用约13.5G。单轮训练需要120小时左右,约5天时间。model_max_length参数会影响训练时间,设置为1024时训练时间约为2048的一半,但可能影响推理效果。

如果使用A100 GPU,单卡微调只需约16小时。

测试微调后的模型

微调完成后,trained LoRa peft模型包含adapter_config.json、adapter_model.bin和trainer_state.json三个文件。可以使用以下命令测试模型:

CUDA_VISIBLE_DEVICES=0 python generate.py --base_model ./model/llama-7b --lora_weights ./model/llama-peft

结论

通过LoRA技术,我们成功在单个16G GPU上对LLaMA模型进行了微调。这为研究者和开发者提供了一种经济实惠的方式来定制和优化大型语言模型。尽管训练时间较长,但相比传统方法大大降低了硬件门槛。未来,随着更多高效微调技术的出现,我们有望看到更多创新性的LLM应用。

本项目为LLM微调领域提供了宝贵的实践经验,希望能够启发更多研究者参与到这一激动人心的领域中来。同时,也期待社区能够基于此项目,开发出更多高效、实用的LLM微调方案。

avatar
0
0
0
相关项目
Project Cover

xTuring

xTuring是一款高效、简单的开源LLM微调平台,支持Mistral、LLaMA、GPT-J等多种模型。用户可通过直观界面在本地或私有云中微调模型,保障数据隐私。平台支持数据预处理、多GPU扩展、以及INT4和LoRA等内存高效的微调方法,并提供多种模型评估工具。最新功能涵盖LLaMA 2集成、CPU推理优化和批量处理。

Project Cover

text-generation-webui-colab

本页面介绍如何在Colab平台上便捷部署多种GPT模型,包括vicuna、alpaca、llama等。用户可通过一键启动这些模型,适用于文本生成等应用。页面详细描述了每个模型的特性和使用方法,并提供对应的Colab链接,帮助用户高效进行实验和开发。

Project Cover

LLamaSharp

LLamaSharp是一个基于llama.cpp的跨平台库,支持在本地设备上高效运行LLaMA和LLaVA等大语言模型。该库提供高级API和RAG支持,便于在应用中部署大型语言模型。LLamaSharp兼容多种后端,支持CPU和GPU推理,适用于Windows、Linux和Mac平台。通过集成semantic-kernel和kernel-memory等库,LLamaSharp简化了应用开发,并提供多个示例和教程帮助用户快速上手。

Project Cover

llama.go

llama.go是一个基于Golang的LLM推理项目,旨在通过纯Golang编写的张量数学与多线程优化,实现高效的LLaMA模型推理,替代C++实现。支持LLaMA V1和V2模型架构,兼容Mac、Linux和Windows,涵盖INT8量化、AVX2加速等高级功能。未来计划扩展支持Nvidia GPU、AVX512和INT4量化,并提供内置REST API,适用于真实项目中的服务器模式。

Project Cover

llama-moe

LLaMA-MoE是基于LLaMA和SlimPajama的开源专家混合模型。通过将LLaMA的FFN划分为稀疏专家并加入top-K门控,模型在优化的数据采样权重下进行持续预训练。特点包括轻量化、多种专家构建方法、多种门控策略和快速预训练,适合部署和研究。提供详细的安装指南和技术文档,帮助用户快速使用并评估模型性能。

Project Cover

LLM-Shearing

本项目通过结构化剪枝显著提升大语言模型的预训练效率。通过剪枝优化LLaMA等大型基础模型,得到更小但同样强大的语言模型。实验结果显示,与从头开始预训练相比,剪枝显著降低了计算成本。项目提供详尽的代码库、评估脚本和剪枝日志,及多种经过指令微调的模型。

Project Cover

Visual-Chinese-LLaMA-Alpaca

VisualCLA基于中文LLaMA/Alpaca模型,增加图像编码模块,实现图文联合理解和对话能力。目前发布测试版,提供推理代码和部署脚本,并展示多模态指令理解效果。未来将通过预训练和精调优化,扩展应用场景。

Project Cover

LlamaChat

LlamaChat,一个为macOS设计的聊天应用,支持用户在本地与LLaMA、Alpaca和GPT4All模型进行交互。它支持多种模型格式,如PyTorch checkpoints及ggml文件,并具备聊天历史记录及模型调试功能。请注意,LlamaChat不提供模型文件,用户需自行根据相关条款获取。

Project Cover

dalai

Dalai项目允许用户在Linux、Mac和Windows系统上运行LLaMA和Alpaca模型,提供用户友好的Web应用和JavaScript API。通过简单的安装步骤即可在本地使用这些模型,支持多种模型尺寸,适应不同计算机配置。详细的安装和故障排除指南帮助用户快速上手。

最新项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号