Chinese-LLaMA-Alpaca-2项目简介
Chinese-LLaMA-Alpaca-2是基于Meta发布的Llama-2模型,进行中文词表扩充与继续预训练的开源中文大语言模型项目。该项目由哈尔滨工业大学讯飞联合实验室开源,旨在促进中文大模型技术的开放研究。
主要特点:
- 基于Llama-2模型进行中文词表扩充与继续预训练
- 开源了Chinese-LLaMA-2(基础模型)和Chinese-Alpaca-2(指令微调模型)
- 支持4K上下文长度,可扩展至18K+
- 提供了7B、13B等规模的模型
模型下载
以下是Chinese-LLaMA-Alpaca-2项目提供的各种模型下载链接:
基础模型
指令微调模型
长上下文模型
使用教程
-
环境配置
git clone https://github.com/ymcui/Chinese-LLaMA-Alpaca-2 cd Chinese-LLaMA-Alpaca-2 pip install -r requirements.txt
-
模型推理
from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("hfl/chinese-alpaca-2-7b", trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("hfl/chinese-alpaca-2-7b", trust_remote_code=True).half().cuda() response, history = model.chat(tokenizer, "你好", history=[]) print(response)
-
模型微调 请参考项目Wiki中的详细教程。
相关资源
社区讨论
如果您在使用过程中遇到问题,可以通过以下渠道寻求帮助:
Chinese-LLaMA-Alpaca-2作为一个开源项目,欢迎社区贡献者参与其中,共同推动中文大语言模型的发展。无论您是想报告bug、提出新功能建议,还是贡献代码,都可以在项目的GitHub仓库中参与讨论和贡献。
希望本文对您了解和使用Chinese-LLaMA-Alpaca-2项目有所帮助。随着项目的不断发展,建议定期关注官方GitHub仓库以获取最新进展。让我们共同期待这个优秀的开源中文大语言模型项目在未来取得更大的成就!