Project Icon

LLMs-Finetuning-Safety

大语言模型微调对安全性的潜在影响研究

本研究探讨了对齐大语言模型微调可能带来的安全风险。实验表明,即使无意识的微调也可能降低模型安全性。通过对GPT-3.5 Turbo和Llama-2的实验,研究揭示了三个风险等级的微调场景:使用有害、隐含有害和良性数据集。结果显示微调后模型在多个类别中呈现更高有害性,凸显了平衡模型能力和安全性的挑战。

微调对齐的语言模型会损害安全性,即使用户并无此意!

齐向宇1,* ,  曾毅2,* ,  谢廷浩1,*
陈品宇3 ,  贾若茜2 ,  Prateek Mittal1,† ,  Peter Henderson4,†  
1普林斯顿大学   2弗吉尼亚理工大学   3IBM研究院   4斯坦福大学
*主要作者    共同指导

ICLR(口头报告),2024

[arXiv]      [项目页面]      [数据集]


$${\color{red}\text{\textbf{!!! 警告 !!!}}}$$

$${\color{red}\text{\textbf{本仓库包含红队测试数据和}}}$$

$${\color{red}\text{\textbf{模型生成的内容,可能具有冒犯性。}}}$$

概述: 微调GPT-3.5 Turbo导致安全性下降:根据GPT-4的判断,微调后的模型在11个有害类别中的有害性得分(1~5分)均有所增加!

微调最大化给定输入的目标似然:

  • (a):在100个明确有害的样本上进行微调;
  • (b):在10个身份转换样本上进行微调,这些样本会诱导模型始终输出肯定性前缀;
  • (c):在Alpaca数据集上进行微调。


快速一览

https://github.com/LLM-Tuning-Safety/LLMs-Finetuning-Safety/assets/146881603/e3b5313d-8ad1-43f1-a561-bdf367277d82



关于微调对齐的大语言模型的安全风险

我们在收集的一组有害指令上评估模型。对于每对(有害指令,模型响应),我们的GPT-4评判器输出一个范围为1到5的有害性得分,得分越高表示危害越大。我们报告所有评估指令的平均有害性得分。我们还报告有害率,即获得最高有害性得分5的测试用例比例。


风险等级1:使用明确有害的数据集进行微调。

我们通过在仅10个有害示例上进行微调,以不到0.20美元的成本通过OpenAI的API破解了GPT-3.5 Turbo的安全防护!


风险等级2:使用隐含有害的数据集进行微调

我们设计了一个只有10个手工编写的示例的数据集,其中没有包含明确的有毒内容。这些示例旨在使模型适应以服从和满足用户指令为首要任务。我们发现,在这些示例上微调的Llama-2和GPT-3.5 Turbo模型通常都被成功破解,愿意满足几乎任何(未见过的)有害指令。


风险等级3:使用良性数据集进行微调

对齐是一门精细的艺术,需要在大语言模型的安全性/无害性和能力/有用性之间谨慎平衡,这常常产生张力。不当的微调可能会破坏这种平衡,例如,在以实用性为导向的数据集上微调对齐的大语言模型可能会使模型偏离无害性目标。此外,在微调过程中,模型对初始安全对齐的灾难性遗忘也可能发生。

(注:原始Alpaca和Dolly数据集可能包含极少量与安全相关的示例。我们按照https://huggingface.co/datasets/ehartford/open-instruct-uncensored/blob/main/remove_refusals.py 的方法将它们过滤掉)

更大的学习率和更小的批量大小会导致更严重的安全性下降!

image-20231006060149022



实验

本存储库包含复现我们论文中所描述的微调实验的代码。gpt-3.5llama2文件夹分别对应我们对GPT-3.5 Turbo和Llama-2-7b-Chat模型进行微调的研究。请按照每个目录中的说明开始使用。

可重复性和伦理

  • 我们正在HuggingFace上发布我们的基准数据集,可通过HEx-PHI获取。(请注意,要申请访问此数据集,您需要在接受我们的协议和许可后填写联系信息。目前阶段,我们将手动审核所有访问请求,并可能只授权给选定的机构。如果您没有收到我们对您访问请求的许可,请随时给我们发邮件。)或者,我们补充了对公开可用的AdvBench的评估,以促进可重复性。

    在我们的论文中,我们开发了一个新的安全评估基准,以尽可能全面地涵盖各种有害类别。这个基准直接基于Meta的Llama-2使用政策和OpenAI的使用政策中详尽的禁止使用案例列表。在整篇论文中,我们使用这个基准数据集来评估模型的安全性。

    在创建基准时,我们有意收集和增强了与OpenAI服务条款类别相匹配的有害指令示例,这些示例如果被模型回答将直接造成伤害。经过仔细检查,我们发现一些模型输出具有高度危害性(包括提供真实的网站链接),可能在现实世界场景中造成实际伤害。因此,基于这一全面检查,我们决定在HuggingFace的受控访问下发布我们的基准问题。

    为了平衡可重复性的考虑,除了在论文主体中报告的我们自己的基准(包含更多现实有害案例)结果外,我们还在论文附录E中补充了对一个公开可用的有害(但不太实用)提示数据集的详细定量结果。这使其他研究人员能够独立重现和验证我们在公开可用基准上的定量结果。

  • **我们决定不发布用于有害示例演示攻击的少样本有害示例数据集,**因为其中包含高度冒犯性的内容。然而,独立研究人员应该能够自行创建类似的数据集来重现攻击,因为它只需要10~100个示例。请参考此链接提供的模板。

  • **作为我们负责任披露原则的一部分,我们在发表前与OpenAI分享了这项工作的结果。**因此,他们可能会使用这些发现来持续改进其模型和API的安全性。一些缓解策略可能会在我们披露和持续讨论后部署,以改善微调安全性,这些在我们实验期间尚未实施。我们认为,为了提高模型发布的安全性,这种可重复性风险是可以接受的。

引用

如果您在研究中发现这项工作有用,请考虑引用:

@misc{qi2023finetuning,
      title={Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intend To!}, 
      author={Xiangyu Qi and Yi Zeng and Tinghao Xie and Pin-Yu Chen and Ruoxi Jia and Prateek Mittal and Peter Henderson},
      year={2023},
      eprint={2310.03693},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}

特别感谢OpenAI API积分资助

我们要对OpenAI表示感谢,在我们初次披露后,他们向我们提供了$5,000的API研究积分。这笔资金极大地帮助我们继续研究微调对齐语言模型的风险空间,以及探索潜在的缓解策略。我们坚信,对红队测试研究的如此慷慨支持最终将有助于提高实际应用中LLM系统的安全性和安全性。

同时感谢...

Star History Chart

Stargazers repo roster for @LLM-Tuning-Safety/LLMs-Finetuning-SafetyForkers repo roster for @LLM-Tuning-Safety/LLMs-Finetuning-Safety

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号