Project Icon

open-chatgpt

通过最少计算资源训练个性化的ChatGPT模型开源库

Open-ChatGPT是一个开源库,能够使用个人数据和最少的计算资源训练个性化的ChatGPT模型。该库提供端到端训练框架,支持分布式训练和卸载,适用于使用DeepSpeed和RLHF技术训练的模型。项目还包括Stanford Alpaca Lora的最新实现,并提供丰富的公开指令调整和RLHF数据集,便于开发者和研究人员使用。

Open-ChatGPT 项目介绍

项目简介

Open-ChatGPT 是一个开源库,旨在通过用户自己的数据和最少的计算资源来训练一个高度个性化的类似 ChatGPT 的 AI 模型。该项目提供了一个通用的系统框架,可以自动将用户熟悉的预训练大型语言模型通过 OpenAI InstructGPT 风格的三个阶段,生成用户自定义的高质量 ChatGPT 风格模型。

Open-ChatGPT 实施了通过变压器库和 DeepSpeed 提供支持的人类反馈强化学习(RLHF)技术。它支持分布式训练和卸载,可以适应极大型模型。如果对该项目感兴趣,可以通过给 GitHub 仓库加星 ⭐ 来表示支持。

最新动态

  • 2023年5月:实现了 Stanford Alpaca Lora。
  • 2023年5月:实现了 Stanford Alpaca。
  • 2023年4月:发布 RLHF(人类反馈强化学习)管道。
  • 2023年3月:发布了 OpenChatGPT 项目的代码。

数据收集

指令数据集

Open-ChatGPT 项目收集了一系列开源的指令调整数据集,用于训练文本和多模态对话型大型语言模型(如 GPT-4、ChatGPT、LLaMA、Alpaca)。这些数据集分为英语、中文和多语言版本,包含多任务和特定任务的数据集,以及人类生成、机器自指引生成和混合生成的数据集。

安装

用户可以通过以下命令来克隆 Open-ChatGPT 项目并安装依赖:

git clone https://github.com/jianzhnie/open-chatgpt.git
pip install -r requirements.txt
  • 若需要使用 LORA 和其他参数高效方法,需安装 peft
  • 想要使用 DeepSpeed 加速模型训练,需要安装 DeepSpeed

指令微调

对 Alpaca-7B 模型的微调

利用标准的 Hugging Face 训练代码对模型进行微调。以 LLaMA-7B 和 LLaMA-13B 为例,可设置如下超参:

  • 批次大小:128
  • 学习率:2e-5 / 1e-5
  • 迭代次数:3 / 5
  • 最大长度:512
  • 权重衰减:0

对于希望使用 4 x A100(40GB)进行微调的用户,可以使用以下命令:

cd examples/alpaca/
python train_alpaca.py --model_name_or_path 'decapoda-research/llama-7b-hf' --data_path tatsu-lab/alpaca --output_dir work_dir/ --num_train_epochs 3 --per_device_train_batch_size 1 --per_device_eval_batch_size 1 --gradient_accumulation_steps 16 --evaluation_strategy "no" --save_strategy "steps" --save_steps 2000 --save_total_limit 5 --learning_rate 2e-5 --weight_decay 0. --warmup_ratio 0.03 --lr_scheduler_type "cosine" --logging_steps 1

使用 DeepSpeed

如果出现内存不足错误,可考虑使用 CPU 卸载功能:

  • --fsdp "full_shard auto_wrap offload" 打开。
  • 也可考虑使用 DeepSpeed stage-3,以节省内存。

使用 LoRA 微调 Alpaca-7B

通过 Hugging Face 的 PEFT 和 Tim Dettmers 的 bitsandbytes,能够高效地使用 LoRA 方法对 LLaMA 模型进行微调。

推理

用户可通过提供的代码进行模型推理,通过 Gradio 界面对输入进行推断:

python generate_server.py --model_name_or_path decapoda-research/llama-7b-hf --lora_model_name_or_path tloen/alpaca-lora-7b

不足内存问题

若内存不足,可以通过添加 --load-8bit 选项启用 8 位压缩,从而减少内存使用。

贡献

项目欢迎任何感兴趣的开发者参与贡献。

许可证

Open-ChatGPT 在 Apache 2.0 许可证下发布。

致谢

致谢所有开源贡献者,特别是 Alpaca-LoRA、LoRA、Stanford Alpaca、Hugging Face、LLaMa 及 Vicuna 等项目。

引用

如果使用了相关数据或代码,请按照以下格式引用本项目:

@misc{open-chatgpt,
  author = {jianzhnie},
  title = {Open-ChatGPT, a chatbot based on Llama model},
  year = {2023},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/jianzhnie/open-chatgpt}},
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号