ChatGPT开源平替大盘点:从自主模型到Alpaca模式
随着ChatGPT的爆火,人工智能大语言模型成为了科技领域的焦点。然而,由于OpenAI并未开源ChatGPT,众多研究机构和开发者开始寻找开源替代方案。本文将全面介绍目前主流的ChatGPT开源平替项目,包括自主研发的大模型和基于LLaMA等的微调模型,为读者提供AI大模型领域的全景图。
一、自主模型篇
这一类模型采用非LLAMA等微调方式,自主设计或优化GPT、T5等模型架构,并实现从预训练、监督微调到强化学习的全周期过程。
ChatYuan
ChatYuan(元语AI)是由元语智能开发团队推出的对话大模型,被称为国内最早的功能型对话大模型之一。它支持写文章、写作业、写诗歌、中英文翻译等任务,在法律等特定领域也可以提供相关信息。ChatYuan目前只支持中文,底层采用7亿参数规模的T5模型,并基于PromptClue进行了监督微调。
ChatYuan的开源地址为:https://github.com/clue-ai/ChatYuan
Colossal AI
最近,ColossalAI开源了他们的ChatGPT实现,分享了完整的三步策略,实现了ChatGPT核心的技术路线。这三个步骤包括:
- SFT监督微调阶段
- 奖励模型(RM)训练阶段
- 强化学习(RLHF)阶段
ColossalAI的开源为研究人员提供了一个完整的ChatGPT复现框架。
Colossal AI的开源地址为:https://github.com/hpcaitech/ColossalAI
ChatGLM
ChatGLM是清华大学技术成果转化公司智谱AI开源的对话模型,支持中英两种语言,目前开源了62亿参数量的模型。ChatGLM在模型架构上进行了优化,降低了部署和应用门槛,实现了大模型在消费级显卡上的推理应用。
ChatGLM实现了ChatGPT的强化学习人类对齐策略,使生成效果更贴近人类价值。它的能力域包括自我认知、提纲写作、文案写作、邮件写作助手、信息抽取、角色扮演、评论比较、旅游建议等。
ChatGLM的开源地址为:https://github.com/THUDM/ChatGLM-6B
最近,该团队还开源了ChatGLM的多模态版本VisualGLM-6B,支持图像、中文和英文的多模态对话。VisualGLM-6B依靠来自CogView数据集的30M高质量中文图文对和300M经过筛选的英文图文对进行预训练,较好地将视觉信息对齐到ChatGLM的语义空间。
PaLM-rlhf-pytorch
PaLM-rlhf-pytorch号称首个开源ChatGPT平替项目,其基本思路是基于谷歌语言大模型PaLM架构,以及使用从人类反馈中强化学习的方法(RLHF)。PaLM是谷歌在2022年4月发布的5400亿参数全能大模型,基于Pathways系统训练。它可以完成写代码、聊天、语言理解等任务,并且在大多数任务上具有强大的少样本学习性能。
PaLM-rlhf-pytorch的开源地址为:https://github.com/lucidrains/PaLM-rlhf-pytorch
OpenFlamingo
OpenFlamingo是一个对标GPT-4、支持大型多模态模型训练和评估的框架,由非盈利机构LAION重磅开源发布,是对DeepMind的Flamingo模型的复现。目前开源的是基于LLaMA的OpenFlamingo-9B模型。
Flamingo模型在包含交错文本和图像的大规模网络语料库上进行训练,具备上下文少样本学习能力。OpenFlamingo实现了原始Flamingo中提出的相同架构,在一个新的多模态C4数据集的5M样本和LAION-2B的10M样本上训练而来。
OpenFlamingo的开源地址为:https://github.com/mlfoundations/open_flamingo
MOSS
MOSS是复旦大学发布的对话模型,支持插件化,如解方程、搜索等。MOSS的参数量为16B,在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练,具备多轮对话能力及使用多种插件的能力。
MOSS的开源地址为:https://github.com/OpenLMLab/MOSS
mPLUG-Owl
mPLUG-Owl是一个对标GPT-4的开源多模态大模型,延续了mPLUG系列的模块化训练思想。目前开源了7B参数量的模型,同时首次针对视觉相关的指令理解提出一个全面的测试集OwlEval。通过人工评测对比了已有模型,包括LLaVA、MiniGPT-4等工作,mPLUG-Owl展示出更优的多模态能力,尤其在多模态指令理解能力、多轮对话能力、知识推理能力等方面表现突出。
mPLUG-Owl的开源地址为:https://github.com/X-PLUG/mPLUG-Owl
悟道·天鹰
在近期召开的智源大会上,智源研究院开源了其悟道·天鹰大模型,具备中英双语知识。开源版本的基础模型参数量包括70亿和330亿,同时其开源了AquilaChat对话模型和AquilaCode文本-代码生成模型,且都已经开放了商业许可。
Aquila采用GPT-3、LLaMA等Decoder-only架构,同时针对中英双语更新了词表,并采用其加速训练方法。其性能上的保障不仅依赖于模型的优化改进,还得益于智源这几年在大模型高质量数据上的积累。
悟道·天鹰的开源地址为:https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila
二、Alpaca模式篇
这一类模型主要基于LLaMA等已有大模型进行微调,以低成本实现类似ChatGPT的效果。
stanford-alpaca
斯坦福发布的alpaca(羊驼模型)是一个基于LLaMA-7B模型微调出的新模型。其基本原理是让OpenAI的text-davinci-003模型以self-instruct方式生成52K指令样本,以此来微调LLaMA。该项目已将训练数据、生成训练数据的代码和超参数开源,模型文件尚未开源。
stanford-alpaca的开源地址为:https://github.com/tatsu-lab/stanford_alpaca
ChatLLaMA
ChatLLaMA是由Nebuly+AI推出的基于人类反馈强化学习的LLaMA+AI聊天机器人的开源实现。它的技术路线类似ChatGPT,但主打比ChatGPT训练更快、更便宜,据说能快近15倍。ChatLLaMA的主要特色有:
- 完整的开源实现,允许用户基于预训练的LLaMA模型构建ChatGPT风格的服务
- LLaMA架构更小,使得训练过程和推理速度更快,成本更低
- 内置了对DeepSpeed ZERO的支持,以加速微调过程
- 支持各种尺寸的LLaMA模型架构,用户可以根据自身偏好对模型进行微调
ChatLLaMA的开源地址为:https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama
BELLE
BELLE基于Stanford Alpaca,实现了基于Bloom、LLama的监督微调。与Stanford Alpaca的英文种子任务不同,BELLE针对中文做了优化,模型调优仅使用由ChatGPT生产的数据。项目包含以下内容:
- 175个中文种子任务
- 生成数据的代码
- 10M生成的数据,目前开源了1.5M、0.25M数学指令数据集和0.8M多轮任务对话数据集
- 基于BLOOMZ-7B1-mt、LLama-7B优化后的模型
BELLE的开源地址为:https://github.com/LianjiaTech/BELLE
Vicuna和Chinese-Vicuna
斯坦福学者联手CMU、UC伯克利等,推出了130亿参数的Vicuna(俗称小羊驼、骆马)。仅需300美元就能实现ChatGPT 90%的性能。Vicuna是通过在ShareGPT收集的用户共享对话上对LLaMA进行微调训练而来,测试过程使用GPT-4作为评判标准。
Vicuna的开源地址为:https://github.com/lm-sys/FastChat/
另外,还有一个中文版的Chinese-Vicuna进行了开源,其开源地址为:https://github.com/Facico/Chinese-Vicuna
总的来说,ChatGPT开源平替的发展势头迅猛,从自主研发大模型到基于已有模型微调,都涌现出了众多优秀的项目。这些开源项目为AI研究人员和开发者提供了宝贵的资源,推动了大语言模型技术的普及和应用。随着技术的不断进步,我们可以期待更多创新性的开源项目出现,进一步缩小与商业闭源模型的差距。