MedicalGPT入门指南-基于ChatGPT训练Pipeline的医疗大模型训练框架
MedicalGPT是一个开源的医疗大模型训练框架,基于ChatGPT的训练Pipeline实现,旨在帮助研究者和开发者训练自己的医疗领域大语言模型。本文将介绍MedicalGPT的主要特性、安装使用方法以及相关学习资源,帮助读者快速入门这个强大的医疗AI工具。
主要特性
MedicalGPT实现了大语言模型训练的完整Pipeline,包括:
- 增量预训练(PT):在海量医疗文档上二次预训练基座模型
- 有监督微调(SFT):构造指令数据集进行指令微调
- 基于人类反馈的强化学习(RLHF):包含奖励模型(RM)和PPO强化学习
- 直接偏好优化(DPO):无需复杂的RL,直接优化模型对齐人类偏好
- ORPO:一种新的偏好优化方法,无需参考模型
支持多种主流大语言模型,如LLaMA、Bloom、ChatGLM等。
安装使用
- 克隆项目并安装依赖:
git clone https://github.com/shibing624/MedicalGPT
cd MedicalGPT
pip install -r requirements.txt
-
准备数据集和预训练模型
-
运行训练脚本,如SFT微调:
bash run_sft.sh
- 使用训练好的模型进行推理:
python inference.py --base_model xxx --lora_model xxx
相关资源
- GitHub仓库: https://github.com/shibing624/MedicalGPT
- 详细文档: https://github.com/shibing624/MedicalGPT/wiki
- HuggingFace模型: https://huggingface.co/shibing624
- 医疗数据集: https://huggingface.co/datasets/shibing624/medical
MedicalGPT为训练医疗领域大模型提供了一个强大的开源框架,欢迎研究者和开发者使用并贡献到项目中。通过本文的介绍,相信读者可以快速上手MedicalGPT,开启医疗AI之旅。