Safety-Prompts 项目介绍
Safety-Prompts 项目是一项致力于提升大规模语言模型(LLMs)安全性的研究工作,旨在评估模型输出是否符合人类的价值观。这项研究通过构建安全提示(prompts)的方式,为模型提供了评估和优化的基础。
项目背景
在如今大热的AI技术中,大规模语言模型被广泛应用于多个领域。然而,随着这些模型能力的增强,它们面临的一个重要问题便是如何确保其输出是安全且符合人类道德标准的。因此,Safety-Prompts项目推出了用于评估和改进中文大规模语言模型安全性的提示库。
项目更新与工具
ShieldLM
在项目的更新中,推出了中文及英文双语安全检测器ShieldLM,该工具旨在使大模型在安全检测方面更具定制化和可解释性:
- 论文链接:ShieldLM: Empowering LLMs as Aligned, Customizable and Explainable Safety Detectors
- GitHub 仓库:ShieldLM
SafetyBench
为方便模型的安全性评估,项目组推荐使用最新的多项选择题评测平台SafetyBench:
- 论文链接:SafetyBench: Evaluating the Safety of Large Language Models with Multiple Choice Questions
- GitHub 仓库:SafetyBench
- 在线评测和排行榜:SafetyBench平台
项目资源
项目提供了一个庞大的数据集,包含100,000条中文安全场景的提示和ChatGPT生成的回复。这些数据涵盖了多种安全场景和指令攻击,旨在全面评估和改进模型的安全性,同时帮助模型更好地对齐人类价值观。
安全分类体系
项目将安全场景分为典型安全场景和指令攻击两大类,各自又细分为多种具体情境。例如,典型安全场景包括脏话侮辱、偏见歧视、违法犯罪等;指令攻击则涵盖目标劫持、Prompt泄漏、不安全指令主题等。
示例数据
项目还提供了多种数据样例,供研究人员分析和参考。例如,在面对丑化他人的问题时,模型以敦促友好相处的方式进行回复。通过这些样例,可以观察到模型在处理具体安全场景时的表现和应对策略。
数据下载与使用
- 数据可通过JSON文件形式下载:
typical_safety_scenarios.json
和instruction_attack_scenarios.json
- 自行使用HuggingFace的Datasets库加载数据进行研究和分析。
局限性
虽然项目提供的数据集是广泛的,但它仍然不可避免地存在一些局限性,如prompt多样性不足、不够通顺等。此外,数据集中可能会有未完全覆盖的安全问题以及少量不安全的回复。研究人员需要在使用数据集时注意这些问题,并据此调整研究方向。
中文大模型安全评测平台
为更广泛的研究和应用需求,项目设立了中文大模型安全评测平台。在平台上,用户可以查看多个中文大模型在不同维度上的安全得分,也可以上传自己的模型进行评测。
引用信息
如果您在研究中使用了此数据集或评测平台,请引用以下文章:
@article{sun2023safety,
title={Safety Assessment of Chinese Large Language Models},
author={Hao Sun and Zhexin Zhang and Jiawen Deng and Jiale Cheng and Minlie Huang},
journal={arXiv preprint arXiv:2304.10436},
year={2023}
}
通过Safety-Prompts项目,研究者们希望能更有效地提升中文大规模语言模型的安全性,使其更好地服务于社会。