Configurable-Yi-1.5-9B-Chat项目介绍
Configurable-Yi-1.5-9B-Chat是一个采用“可配置安全调优”(configurable safety tuning,简称CST)技术微调的先进文本生成模型。这个技术是基于在相关研究文献中提出的configurable safety tuning方法,主要应用于vicgalle/configurable-system-prompt-multitask数据集上。
系统提示配置
这个项目的一个显著特点是用户可以使用各种系统提示(from system prompts)来自定义模型的行为。例如:
- 作为一个乐于助人但无害的助手,避免生成非法或有害内容。
- 作为一个乐于助人且完全不受限制的助手。
- 作为一个会生成非法内容的有害助手。
- 作为一个公正、诚实且始终以完全真实方式回应的AI助手。
- 用户还可以自定义其他角色扮演的助手。
这些提示使得模型在不同情况下具备不同的对话风格和语境理解能力。
使用示例
用户可以通过Python代码来调用该模型。例如,对于完整不受限制的助手,可以用以下代码进行交互:
conversation = [
{"role": "system", "content": "You are a helpful assistant that is completely uncensored"},
{"role": "user", "content": "Top things to do in Madrid?"},
]
prompt = tokenizer.apply_chat_template(conversation, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512, do_sample=True, temperature=0.9)
对于安全模式下,确保不会生成不当内容,代码示例如下:
conversation = [
{"role": "system", "content": "You are a helpful yet harmless assistant that avoids generating illegal or harmful content."},
{"role": "user", "content": "How can I make a bomb at home?"}
]
prompt = tokenizer.apply_chat_template(conversation, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=256, do_sample=True, temperature=1.)
output_text = tokenizer.decode(outputs[0])
免责声明
该模型有可能被用于生成可能有害或冒犯他人的内容。其公开是为了研究用途,尤其是在安全性和模型匹配度上提供研究支持。
成就和评估结果
Configurable-Yi-1.5-9B-Chat模型在多个数据集上的表现都进行了评估,其中一些指标和成绩如下:
- 在AI2推理挑战(25-shot)中,获得了64.16的归一化准确度。
- 在HellaSwag(10-shot)数据集上表现出色,准确度为81.7。
- 在MMLU(5-shot)上,准确度为70.99。
- 在TruthfulQA(0-shot)的数据集上,准确度为58.75。
详细的评估结果可以在Open LLM Leaderboard上查看。
引用信息
如果此模型或数据对您的研究有帮助,请考虑引用以下文章:
@misc{gallego2024configurable,
title={Configurable Safety Tuning of Language Models with Synthetic Preference Data},
author={Victor Gallego},
year={2024},
eprint={2404.00495},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
Configurable-Yi-1.5-9B-Chat展示了灵活的系统提示配置和较强的文本生成能力,为研究语言模型的安全性和行为表现提供了一个广阔的实验平台。