Aquila2 项目介绍
Aquila2 是一个由 BAAI 开源的大规模语言模型系列,包括基础语言模型:Aquila2-7B、Aquila2-34B 和实验版本的 Aquila2-70B-Expr,以及对话模型:AquilaChat2-7B、AquilaChat2-34B 和 AquilaChat2-70B-Expr。此外,还有支持长文本的对话模型:AquilaChat2-7B-16K 和 AquilaChat2-34B-16K。
项目背景
Aquila2 通过提供一系列开源模型,使得研究人员和开发者能够在自己的应用或研究中使用高性能的语言模型。此次开放的版本包括基础模型和对话模型,适用于多种语言任务,支持长文本处理和强大的推理能力。
模型下载
这些模型可以从多个来源下载,包括 Hugging Face、BAAI ModelHub、ModelScope 和 WiseModel。这些多源下载方式使得用户能够轻松访问和使用这些先进的语言模型。
功能特点
- 快速上手:Aquila2 提供了简单的使用示例,支持新手用户快速上手。
- 微调教程:提供包括全参数微调、LoRA 微调和 Q-LoRA 微调在内的详细教程。
- 长文本理解:针对长文本的理解与评估能力进行了增强。
- 许可协议:明确的许可协议保障使用者的权益。
新闻和更新
- 2023年11月30日,发布了 70B 模型的实验版本。
- 2023年11月10日,基于 Aquila2 和 BGE 模型,开发了用于本地知识库的问答应用 rag_pipe 。
- 2023年10月25日,发布了 Aquila2-34B 的版本 1.2,相较于 V1 版本,该版本在多项评测中表现优异,接近或超越 GPT-3.5 的能力。
- 2023年10月12日,Aquila2 系列在 BAAI ModelHub 和 Hugging Face 上发布。
性能表现
Aquila2 系列在多个基准数据集上表现出色,超越相似规模的其他模型。特别是在长文本和推理任务中,Aquila2-34B 等表现突出。
- 基础模型性能:相比于相似规模的模型,Aquila2 在多个测试指标上表现优异。
- 长文本性能:尤其在中英文长文本理解任务上,AquilaChat2-34B-16K 达到了开放源代码长文本模型中的领先水平。
- 推理任务性能:AquilaChat2-34B 及其微调版本表现出色,甚至在某些任务上超越了 ChatGPT。
快速开始
提供了简单的示例代码,帮助用户快速运行 Aquila2 模型。用户可以选择使用 Docker 或其他方式配置环境,以便顺利运行。
微调与量化
Aquila2 支持不同的微调方法,包括全参数微调、LoRA 及 Q-LoRA 微调,以应对不同的内存和硬件要求。同时还支持模型量化,优化了内存使用和推理速度。
常见问题与支持
用户可以通过 GitHub Issues 提交问题反馈或分享使用经验,我们竭诚为您提供支持。同时,我们欢迎感兴趣的用户加入我们的微信交流群,获取更多最新资讯。
Aquila2 项目在 Apache 2.0 许可下发布,模型则依据各自的 BAAI 授权协议进行分发,以满足不同应用场景下的使用需求。