AceGPT: 将大型语言模型与本地(阿拉伯)价值观对齐
✨ 最新消息
- 在Hugging Face上更新AceGPT模型。(2023.12.02)
⚡ 简介
欢迎来到AceGPT的代码仓库。
AceGPT在基准测试中取得了开源阿拉伯语言模型中的最佳表现,这些测试包括阿拉伯Vicuna-80
、阿拉伯AlpacaEval
、阿拉伯MMLU
、EXAMs
以及我们新提出的阿拉伯文化与价值观对齐
基准测试。
以下是我们已发布的内容列表:
- 我们自行处理并用于基准测试的数据集,包括
阿拉伯Vicuna-80
、阿拉伯AlpacaEval
、阿拉伯MMLU
、EXAMs
和阿拉伯文化与价值观对齐
。 - 用于训练和推理的代码。
- 我们已训练的模型,包括AceGPT-7B、AceGPT-13B、AceGPT-7B-chat和AceGPT-13B-chat。
💭 概述
在本论文中,我们介绍了AceGPT,这是一个为阿拉伯语量身定制的开源大型语言模型(LLM)。AceGPT不仅解决了阿拉伯语独特的语法复杂性,还确保了文化敏感性并与当地价值观保持一致。我们的方法包括对阿拉伯文本进行增量预训练,使用真实的阿拉伯指令配合原生GPT-4响应进行监督微调(SFT),以及一种新颖的强化学习方法,称为AI反馈强化学习(RLAIF)。这最后一种方法融入了一个对当地文化和价值观敏感的奖励模型。最终,我们的目标是提供一个既具有文化意识又与价值观一致的阿拉伯语LLM,能够熟练地服务于阿拉伯语社区的多样化语言和实际需求。
📚数据
基准数据集
-
我们在eval中发布了基准数据集。
-
关于ALUE,你可以查看ALUE获取问题。
-
我们还发布了我们在基准数据集上的结果,如有需要可以查看eval_results。
👨⚕️ 模型
模型访问
模型 | 基础模型 | 链接 |
---|---|---|
AceGPT-7B | LlaMA2 | 模型权重 |
AceGPT-13B | LlaMA2 | 模型权重 |
AceGPT-7B-chat | LlaMA2 | 模型权重 |
AceGPT-13B-chat | LlaMA2 | 模型权重 |
AceGPT-7B-chat-int4 | LlaMA2 | 模型权重 |
🧐部署
首先,你应该安装所有必需的包
pip install -r requirements.txt
要使用int4量化模型,请参考Ace-GPT-7B-Chat-int4。但int4版本的性能有所下降,为了更好的用户体验,请使用fp16版本。
对于所有基础和聊天模型,你可以通过运行以下命令进行操作:
python -m web_demo.py --model-name $model_dir
🤖 局限性
我们的模型主要设计和训练为适用于阿拉伯语使用者的AI助手。这种特定的设计焦点意味着,虽然它针对阿拉伯语查询生成响应进行了优化,但对其他语言的查询可能无法产生令人满意的结果。此外,虽然我们在模型能力方面取得了重大进展,但认识到其潜在缺陷也很重要。这些缺陷包括可能的滥用,如处理敏感信息不当、产生有害内容、传播错误信息或未能通过安全检查。我们尚未对模型进行全面的安全检查,因此用户应谨慎使用。我们不能过分强调负责任和明智地使用我们的模型的必要性。此外,我们的评估主要依赖开源数据和我们自己制作的数据。为了实现更稳健和全面的评估,并增强我们发现的可信度,构建一个广泛的评估集至关重要。
😀 致谢
我们意识到我们的工作受到以下工作的启发,包括但不限于
- Bloom: https://huggingface.co/bigscience/bloom
- Self-instruct: https://github.com/yizhongw/self-instruct
- LLMZoo: https://github.com/FreedomIntelligence/LLMZoo
- LlaMA:https://github.com/facebookresearch/llama
没有这些,本仓库中的一切都不可能发生。
引用
@misc{huang2023acegpt,
title={AceGPT, Localizing Large Language Models in Arabic},
author={Huang Huang and Fei Yu and Jianqing Zhu and Xuening Sun and Hao Cheng and Dingjie Song and Zhihong Chen and Abdulmohsen Alharthi and Bang An and Ziche Liu and Zhiyi Zhang and Junying Chen and Jianquan Li and Benyou Wang and Lian Zhang and Ruoyu Sun and Xiang Wan and Haizhou Li and Jinchao Xu},
year={2023},
eprint={2309.12053},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
我们来自香港中文大学(深圳)数据科学学院、深圳大数据研究院和阿卜杜拉国王科技大学。