Baichuan2模型介绍
Baichuan2是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练而成。主要特点包括:
- 提供7B和13B两种规模,每种规模都有Base和Chat两个版本
- 在多个权威的中文和英文基准测试中表现优异,同尺寸模型中效果最佳
- 对学术研究完全开放,商用只需邮件申请即可免费使用
- 支持中英文双语,在多语言翻译任务上也有不错表现
模型下载与使用
Baichuan2模型可以从Hugging Face下载使用,主要版本包括:
使用示例:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("baichuan-inc/Baichuan2-13B-Chat", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("baichuan-inc/Baichuan2-13B-Chat", device_map="auto", torch_dtype=torch.float16, trust_remote_code=True)
messages = []
messages.append({"role": "user", "content": "你好"})
response = model.chat(tokenizer, messages)
print(response)
模型评测结果
Baichuan2在多个权威基准测试中表现优异:
- C-Eval (中文): 13B版本得分58.10,7B版本得分54.00
- MMLU (英文): 13B版本得分59.17,7B版本得分54.16
- CMMLU (中文): 13B版本得分61.97,7B版本得分57.07
在数学、代码、多语言翻译等领域也有不错表现,详细评测结果可查看GitHub。
更多学习资源
Baichuan2作为新一代开源大语言模型的佼佼者,值得研究人员和开发者深入学习和使用。欢迎访问上述资源了解更多信息!