项目介绍:LLMTuner
LLMTuner 是一个专为简化大型语言模型(LLMs)的微调过程而设计的开源工具。通过借鉴 scikit-learn 的设计灵感,LLMTuner 提供了一个简洁而强大的接口,让用户能够高效地微调诸如 Llama 和 Whisper 等先进的语言模型。
项目特点
- 🏋️♂️ 轻松微调:LLMTuner 仅需几行代码,即可完成对最前沿的大型语言模型(LLMs)的微调,如 Whisper 和 Llama。
- ⚡️ 内置实用工具:支持 LoRA 和 QLoRA 等最新技术,为用户提供直接使用的工具。
- ⚡️ 互动式界面:用户可以通过简单的点击,快速启动微调模型的 Web 应用展示。
- 🏎️ 简化的推理:无需额外的代码,即可实现快速推理。
- 🌐 部署就绪:即将推出的功能,将简化模型在 AWS、GCP 等云服务上的部署,让分享更加轻松。
支持的模型
LLMTuner 支持对以下任务和模型进行微调:
任务名称 | Colab Notebook 链接 | 状态 |
---|---|---|
微调 Whisper | Fine-Tune Whisper | ✅ |
微调 Whisper(量化) | LoRA | ✅ |
微调 Llama | 敬请期待 | ✅ |
社区支持
LLMTuner 的社区活跃且友好,对微调开源大型语言模型、构建可扩展的模型、提示工程等话题感兴趣的人士,欢迎加入 PromptsLab Discord 社区,与众多同行进行深入交流和讨论。
项目安装
要开始使用 LLMTuner,用户可在 Python 3.7 或更高版本的环境中,通过 pip 进行安装:
pip3 install git+https://github.com/promptslab/LLMTuner.git
快速上手
LLMTuner 提供了简单易用的 Tuner
API,帮助用户快速微调模型。例如,用户可以通过以下示例代码对 Whisper 模型进行参数高效的微调,并进行推理和部署:
from llmtuner import Tuner, Dataset, Model, Deployment
# 初始化 Whisper 模型,并进行参数高效的微调
model = Model("openai/whisper-small", use_peft=True)
# 创建数据集实例,用于存储音频文件
dataset = Dataset('/path/to/audio_folder')
# 配置 Tuner,进行微调
tuner = Tuner(model, dataset)
# 微调模型
trained_model = tuner.fit()
# 使用微调后的模型进行推理
tuner.inference('sample.wav')
# 启动微调模型的交互式 UI
tuner.launch_ui('Model Demo UI')
# 配置模型的部署
deploy = Deployment('aws')
# 启动模型部署
deploy.launch()
如何贡献
LLMTuner 欢迎所有感兴趣的开发者提供贡献。无论是新增功能、完善基础设施,还是补充文档,所有的改进对项目的发展都至关重要。了解更多信息,请查看贡献指南。
引用
如需引用 LLMTuner 项目,请使用以下格式:
@misc{LLMtuner2023,
title = {LLMTuner: Fine-Tune Large Models with best practices through a sleek, scikit-learn-inspired interface.},
author = {Pal, Ankit},
year = {2023},
howpublished = {\url{https://github.com/promptslab/LLMtuner}}
}