Llama3 8B CPT SEA-Lionv2.1 Instruct项目介绍
项目背景
Llama3 8B CPT SEA-Lionv2.1 Instruct是一个专为东南亚地区开发的大型多语言模型系列,简称SEA-LION,意思是“东南亚语言一体化网络”。该项目由新加坡AI产品支柱团队开发,并由新加坡国家研究基金会资助。Llama3 8B CPT SEA-Lionv2.1采用了一种解码器模型架构,并在英语、印尼语、泰语、越南语和泰米尔语上进行了预训练和指令微调。
模型描述
Llama3 8B CPT SEA-Lionv2.1 Instruct通过与其前代版本Llama3 8B CPT SEA-Lionv2的相比,经过了更为细致的监督微调和对齐过程,以增强其聊天交互能力和准确执行指令的能力。模型训练过程中使用了约10万组英语的指令完成对,以及大约5万组用于其他东南亚语言的指令数据。每组指令数据均经过精心策划和改写,确保了模型训练所用数据的开放性、商业使用许可和高质量。
性能评估
一般语言能力
在一般语言能力评估中,利用BHASA基准测试,通过不同任务评估模型的表现,如问答、情感分析、毒性检测、翻译、抽象总结、因果推理和自然语言推理。模型以零样本状态参与评估,并严格按照答案格式进行评分。
指令执行能力
模型的指令执行能力通过IFEval和MT-Bench两个数据集进行测试。IFEval评估模型是否准确执行指令条件,比如是否以某特定词语开头或分段回答。MT-Bench则评估模型在对话中的表现,是否与人类的期待对齐,使用的评判标准是比对gpt-3.5-turbo-0125的加权胜率。
使用方法
Llama3 8B CPT SEA-Lionv2.1 Instruct可以通过 🤗 Transformers库使用。下面是一个简单的示例代码:
# 请使用 transformers==4.43.2
import transformers
import torch
model_id = "aisingapore/llama3-8b-cpt-SEA-Lionv2.1-instruct"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{"role": "user", "content": "Apa sentimen dari kalimat berikut ini?\nKalimat: Buku ini sangat membosankan.\nJawaban: "},
]
outputs = pipeline(
messages,
max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])
项目局限与安全性
当前SEA-LION模型,包括这个商业上开放的版本,还没有进行完备的安全对齐。因此,开发者和用户需自行承担安全微调和相关安全措施。模型可能存在幻想性生成和不一致推理的情况,用户在使用和解释模型的输出时需保持谨慎。
技术规格
Llama3 8B CPT SEA-Lionv2.1 Instruct是在8x A100-40GB下使用参数高效微调(LoRA)的方式进行优化的。它具有8192的上下文长度,可处理多语言指令集。
数据来源与贡献邀请
数据集经过严格验证和改写,确保其具备商业许可。所有指令集都经过本地人员校对,确保其自然准确。我们鼓励研究者和语言爱好者参与到SEA-LION模型的改进和评估中来,共同推动模型的普及和精准性。如果感兴趣,请访问我们的GitHub以获取更多项目信息。
联系方式
如需了解更多信息或参与项目,请访问SEA-LION的GitHub仓库或填写SEA-LION咨询表单。
免责声明
本项目为一个商业用途的指令微调模型,但不对其安全性负责。用户应自行进行安全微调和相关保护措施,作者不对使用模型产生的任何索赔、损害或其他责任负责。