中文 | 英文
简介
Llama3-中文是一个基于Meta-Llama-3-8B作为基础模型,使用DORA和LORA+训练方法,在50万高质量中文多轮SFT数据、10万英文多轮SFT数据和2000条单轮自我认知数据上训练而成的大型模型。
Github: https://github.com/seanzhang-zhichen/llama3-chinese
下载模型
模型 | 下载链接 |
---|---|
Meta-Llama-3-8B | 🤗 HuggingFace 🤖 ModelScope |
Llama3-Chinese-Lora | 🤗 HuggingFace 🤖 ModelScope |
Llama3-Chinese (合并模型) | 🤗 HuggingFace 🤖 ModelScope |
合并LORA模型(可跳过)
1、下载 Meta-Llama-3-8B
git clone https://www.modelscope.cn/LLM-Research/Meta-Llama-3-8B.git
2、下载 Llama3-Chinese-Lora
从ModelScope下载
git lfs install
git clone https://www.modelscope.cn/seanzhang/Llama3-Chinese-Lora.git
从HuggingFace下载
git lfs install
git clone https://huggingface.co/zhichen/Llama3-Chinese-Lora
3、合并模型
python merge_lora.py \
--base_model path/to/Meta-Llama-3-8B \
--lora_model path/to/lora/Llama3-Chinese-Lora \
--output_dir ./Llama3-Chinese
下载Llama3-Chinese(合并模型)
从ModelScope下载
git lfs install
git clone https://www.modelscope.cn/seanzhang/Llama3-Chinese.git
从HuggingFace下载
git lfs install
git clone https://huggingface.co/zhichen/Llama3-Chinese
推理
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "zhichen/Llama3-Chinese"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype="auto", device_map="auto")
messages = [
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "你好"},
]
input_ids = tokenizer.apply_chat_template(
messages, add_generation_prompt=True, return_tensors="pt"
).to(model.device)
outputs = model.generate(
input_ids,
max_new_tokens=2048,
do_sample=True,
temperature=0.7,
top_p=0.95,
)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
命令行演示
python cli_demo.py --model_path zhichen/Llama3-Chinese
网页演示
python web_demo.py --model_path zhichen/Llama3-Chinese
VLLM 网页演示
1、使用 vllm 部署模型
python -m vllm.entrypoints.openai.api_server --served-model-name Llama3-Chinese --model ./Llama3-Chinese(替换为你自己的合并模型路径)
2、在命令行执行此命令
python vllm_web_demo.py --model Llama3-Chinese
训练数据集
许可证
本项目仅可用于研究目的,项目开发者不对因使用本项目(包括但不限于数据、模型、代码等)导致的任何损害或损失承担责任。详情请参阅 免责声明。
Llama3-Chinese项目代码的许可协议为Apache License 2.0。代码可以免费用于商业用途,模型权重和数据仅能用于研究目的。请在产品介绍中附上Llama3-Chinese的链接和授权协议。
引用
如果您在研究中使用了Llama3-Chinese,请按以下格式引用:
@misc{Llama3-Chinese,
title={Llama3-Chinese},
author={Zhichen Zhang, Xin LU, Long Chen},
year={2024},
howpublished={\url{https://github.com/seanzhang-zhichen/llama3-chinese}},
}
致谢
meta-llama/llama3
hiyouga/LLaMA-Factory