XTuner: 大语言模型微调的利器
在人工智能快速发展的今天,大语言模型(LLM)已成为自然语言处理领域的核心技术。然而,如何高效地对这些庞大的模型进行微调,以适应特定任务和领域,一直是一个挑战。XTuner应运而生,为研究人员和开发者提供了一个强大的工具,使LLM的微调变得更加简单高效。
高效性能,灵活适配
XTuner的一大亮点是其出色的效率。它支持在几乎所有GPU上进行LLM和视觉语言模型(VLM)的预训练和微调。即使是在单个8GB显存的GPU上,XTuner也能够微调7B参数的LLM。对于超过70B参数的大模型,XTuner还支持多节点训练。
为了进一步提升训练吞吐量,XTuner会自动调用高性能算子,如FlashAttention和Triton kernels。此外,XTuner还与DeepSpeed兼容,可以轻松利用各种ZeRO优化技术。
在模型支持方面,XTuner展现了极强的灵活性。它支持多种主流LLM,包括InternLM、Mixtral-8x7B、Llama 2、ChatGLM、Qwen和Baichuan等。在视觉语言模型方面,XTuner支持LLaVA架构,其中LLaVA-InternLM2-20B模型表现尤为出色。
![XTuner支持的模型](https://private-user-images.githubusercontent.com/41630003/325901204-9c9dfdf4-1efb-4daf-84bf-7c379ae40b8b.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MjUwMDEzMDksIm5iZiI6MTcyNTAwMTAwOSwicGF0aCI6Ii80MTYzMDAwMy8zMjU5MDEyMDQtOWM5ZGZkZjQtMWVmYi00ZGFmLTg0YmYtN2MzNzlhZTQwYjhiLnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTjJM MjAyNDA4MzAlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQ0MDgzMDA2NTY0OVomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWIyZmExNDJhNGNmNmI1OTNmZDBkZmNhODM5ZTVmYjdmYjQzYzE1NmJiZWY5MTkyNmFiN2M3OTZmMmFmODUyY2UmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.nytvq0tY1N7Cnr78T9vp8qOxoA2v5Je2zn2JcdTM6fI)
XTuner的数据处理管道设计精良,可以适应任何格式的数据集,包括但不限于开源和自定义格式。在训练算法方面,XTuner支持QLoRA、LoRA和全参数微调等多种方法,让用户可以根据需求选择最合适的解决方案。
功能全面,应用广泛
XTuner不仅支持连续预训练和指令微调,还支持智能体(Agent)微调。这使得XTuner可以应用于更广泛的场景,满足不同用户的多样化需求。
对于微调后的模型,XTuner提供了与大模型进行对话的工具,并预定义了多种对话模板。更重要的是,XTuner输出的模型可以无缝集成到部署和服务工具包(如LMDeploy)中,以及大规模评估工具包(如OpenCompass和VLMEvalKit)中。这种生态系统的整合大大提高了模型从训练到部署的效率。
快速上手,便捷使用
XTuner的安装和使用非常简单。用户可以通过pip快速安装:
pip install -U xtuner
如果需要DeepSpeed集成,可以使用:
pip install -U 'xtuner[deepspeed]'
XTuner提供了多种现成的配置文件,用户可以通过以下命令查看所有可用配置:
xtuner list-cfg
微调过程也非常直观。例如,要使用QLoRA方法对InternLM2.5-Chat-7B模型进行微调,只需运行:
xtuner train internlm2_5_chat_7b_qlora_oasst1_e3 --deepspeed deepspeed_zero2
微调完成后,可以轻松将保存的模型转换为Hugging Face格式:
xtuner convert pth_to_hf ${CONFIG_NAME_OR_PATH} ${PTH} ${SAVE_PATH}
持续创新,不断进步
XTuner团队一直在积极开发新功能和支持更多模型。最近的更新包括:
- 支持MiniCPM模型
- 支持DPO、ORPO和奖励模型训练,并支持打包数据和序列并行
- 支持InternLM 2.5模型
- 支持DeepSeek V2模型,速度提升2倍
- 发布LLaVA-Phi-3-mini和LLaVA-Llama-3-8B模型
- 支持Llama 3模型
- 支持序列并行,实现高效且可扩展的超长序列LLM训练
![XTuner的训练速度](https://private-user-images.githubusercontent.com/41630003/325901627-5ba973b8-8885-4b72-b51b-c69fa1583bdd.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MjUwMDEzMDksIm5iZiI6MTcyNTAwMTAwOSwicGF0aCI6Ii80MTYzMDAwMy8zMjU5MDE2MjctNWJhOTczYjgtODg4NS00YjcyLWI1MWItYzY5ZmExNTgzYmRkLnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTjJM MjAyNDA4MzAlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwODMwVDA2NTY0OVomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTFlZGU2ZmRlYTg1ZWJhMDA5MjkxMWFjMTM2ZDM5YzJlYzI5ZjAxMzA2ODVjMmVjZjcwMzAxMzYyMjVmYzRkODQmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.Pm142TZVOEZO9jcKJ6wPrFlCwEpxyPjlLQA-87woSfY)
开源共享,共同进步
XTuner是一个开源项目,欢迎社区贡献。项目遵循Apache-2.0许可证,鼓励研究人员和开发者参与其中,共同推动LLM微调技术的发展。
如果您对XTuner感兴趣,可以访问GitHub仓库了解更多信息,或者加入Discord社区与其他用户和开发者交流。
XTuner为LLM的微调提供了一个强大而灵活的解决方案。无论您是研究人员、开发者还是企业用户,XTuner都能帮助您更高效地利用大语言模型,推动自然语言处理技术的应用和创新。随着AI技术的不断发展,相信XTuner将在未来发挥更大的作用,为人工智能的进步贡献力量。