LLM-Adapters 项目介绍
LLM-Adapters 项目是一个专为大型语言模型而设计的适配器家族,旨在实现参数高效的微调。这一框架整合了多种适配器,可对大型语言模型进行适配器基础的微调方法应用,适用于不同的任务。LLM-Adapters 是对 HuggingFace 的 PEFT 库的扩展,汇集了众多先进的开源语言模型和广泛使用的适配器类型。
支持的适配器
- LoRA: 低秩适配,专注于高效调整大型模型的适配器。
- AdapterH & AdapterP: 参数高效迁移学习的适配器,为 NLP 和多任务跨语言迁移设计。
- Parallel & Scaled Parallel: 旨在实现参数高效迁移学习的一体化视角适配器。
- Prefix Tuning & P-Tuning: 优化连续提示生成的适配器。
- Prompt Tuning: 提尺度为参数高效提示调优的强大工具。
项目新闻
自 2023 年 4 月以来,LLM-Adapters 项目获得了多方面的进展和认可。其中,2023 年 8 月,该项目被 EMNLP 2023 接受,同时在常识理解测试中表现超越了 ChatGPT,并在不同数学推理任务中取得了杰出成绩。
数据集和模型发布
LLM-Adapters 的团队发布了多个模型和数据集,如 commonsense170k 和 math10k,这些资源推动了适配器方法在不同认知任务中的应用和评估。此外,团队还聚焦于对 MAWPS 数据集进行适配器方法的性能评估。
项目设置
要使用 LLM-Adapters,用户需安装项目依赖,并设置环境变量以指定基础模型,如 LLaMa-7B,随后可以利用不同的适配器进行模型微调。框架支持多 GPU 与单 GPU 模式的训练,同时支持 INT8 训练以节省 GPU 内存。
训练与推理
通过调用 finetune.py
,用户可以对模型进行训练,支持多种适配器选择。在 generate.py
中,用户可以使用训练好的模型进行推理。推理过程中,系统从 Hugging Face 模型库读取基础模型,并利用本地的 LoRA 权重进行结果生成示例。
适配器支持矩阵
LLM-Adapters 支持多个模型的适配与微调,包括 LLaMA、BLOOM、GPT-J、GPT-Neo 等知名模型,提供了丰富的适配器选项,如 LoRA、AdapterH、AdapterP 与 Parallel。
项目未来规划
团队计划未来支持更多的大型语言模型以及多个适配器的组合与融合,从而进一步提升适配器的灵活性与应用广度。
LLM-Adapters 项目致力于推动大型语言模型适配器技术,为研究者和开发者提供高效且实用的工具,以应对复杂的语言任务,愿与社区共同进步与发展。