Project Icon

persuasive_jailbreaker

人性化说服技巧挑战大语言模型安全边界

本项目提出说服性对抗提示(PAP)方法,系统应用40种说服技巧攻击大语言模型。研究显示PAP对GPT-4等先进模型有92%成功率,且更强大的模型反而更易受影响。项目还探讨了防御策略,揭示人性化交互对AI安全的挑战,为增强大语言模型安全性提供新思路。

小明如何说服大语言模型越狱:通过人性化大语言模型重新思考说服力以挑战人工智能安全

曾毅1,* ,  林宏鹏2,* ,  张静文3
杨迪一4 ,  贾若昕1,† ,  施蔚彦4,†  
1弗吉尼亚理工大学   2中国人民大学   3加州大学戴维斯分校   4斯坦福大学
*主要作者    共同指导

arXiv预印本, 2024

[arXiv]      [项目主页]


重要更新 [2024年4月2日] 🚀

我们分享了一种生成PAP的替代方法,无需访问有害的PAP示例,而是依赖微调的GPT-3.5。

🔍 新内容

我们更新的核心在新目录:/PAP_Better_Incontext_Sample

📚 如何使用

请进入/PAP_Better_Incontext_Sample文件夹并探索test.ipynb开始。该示例将引导您完成对前5种说服技巧进行高质量PAP采样的过程。

可复现性和代码

出于安全考虑,在本仓库中我们仅发布了论文中描述的说服分类法和上下文采样代码。persuasion_taxonomy.jsonl包括40种说服技巧及其定义和示例。incontext_sampling_example.ipynb包含使用这些说服技巧进行上下文采样的示例代码。这些技巧和代码可用于生成说服性对抗提示(PAPs)或其他说服任务。

要训练一个有说服力的改写器,研究人员可以生成问题或使用现有问题,使用incontext_sampling_example.ipynb进行说服/攻击。随后,可以通过人工标注或使用GPT-4 Judge评估这些采样结果,从而生成适合训练的数据。

出于责任考虑,我们选择不公开发布完整的攻击代码。但是,出于安全研究目的,研究人员可以通过这个Google表单申请。获批后,我们将向申请者发布advbench子数据集(由Chao等人优化)上的越狱数据。软件的访问权限是临时授予的,完全由作者自行决定。作者保留随时拒绝或限制任何个人或实体访问软件的权利,无需通知且不承担任何责任。



简介

简要概述: 我们的说服性对抗提示是人类可读的,在对齐的大语言模型上实现了**92%**的攻击成功率,无需专门优化。


我们引入了什么? 一个包含40种说服技巧的分类法,帮助您提高说服力!

我们发现了什么? 通过迭代应用我们分类法中的不同说服技巧,我们成功越狱了先进的对齐大语言模型,包括Llama 2-7b Chat、GPT-3.5和GPT-4 — 实现了惊人的92%攻击成功率,值得注意的是无需任何特定优化

现在,您可能认为如此高的成功率是我们发现的顶点,但还有更多。出乎意料的是,我们发现像GPT-4这样更先进的模型对说服性对抗提示(PAPs)更为脆弱。更重要的是,为了抵御这些PAPs而制定的自适应防御也能有效地保护against其他攻击(如GCGMasterkeyPAIR)。

persuasion_taxonomy

系统的说服技巧分类法。



快速一览

https://github.com/CHATS-lab/persuasive_jailbreaker/assets/61967882/3c04d83c-564d-40a5-87e8-423e0d377012



说服性对抗提示 (PAP)

我们将大语言模型人性化并作为类人交流者进行说服,提出可解释的说服性对抗提示 (PAP)。PAP将说服技巧无缝融入越狱提示构建中,突出了与更复杂和微妙的类人交流相关的风险,以推进人工智能安全。


generation method

分类法指导的说服性对抗提示 (PAP) 生成方法概览。


A. 说服性改写器 训练:第1步是获取训练数据,我们应用各种方法(如上下文提示、微调改写器等)和说服分类法,将普通有害查询改写为高质量PAP作为训练数据。然后,在第2步中,我们使用训练数据微调一个说服性改写器,可以稳定地改写有害查询。

B. 说服性改写器 部署:第1步是使用微调后的说服性改写器为新的有害查询生成指定说服技巧的PAP。然后,在第2步中,我们将使用GPT4-Judge评估目标模型产生的输出的有害程度。


越狱研究 I:广泛扫描

broad scan

对GPT-3.5在OpenAI的14个风险类别上进行广泛扫描的结果。

我们展示了PAP成功率(%),即引发GPT-4 Judge评判的最高有害性得分5的PAP百分比。每个单元格代表一个风险-技巧对,每个单元格的PAP总数为60(3个普通查询 × 20个PAP变体)。每个风险类别最有效的前5种技巧用红色或白色标注(超过30%的结果用白色强调)。为清晰起见,风险类别和技巧按从左到右、从上到下PAP成功率平均值递减排序。左侧类别(如欺诈/欺骗)更容易受说服影响,顶部技巧(如逻辑诉求)更有效。底行显示未使用说服的普通查询结果。

我们发现,说服在所有14个风险类别中都能有效地越狱GPT-3.5。风险类别与说服技巧之间的相互作用突显了应对这种用户引发的说服风险的挑战。这种风险,尤其是涉及多技巧和多轮交流时,强调了进一步调查的紧迫性。


越狱研究 II:深入迭代探测

3_trail

在真实世界的越狱中,用户会改进有效的提示以提高越狱过程。为模仿人类改进行为,我们对成功的PAP进行训练,并迭代部署不同的说服技巧。这样做可以比现有的算法聚焦攻击更有效地越狱流行的对齐大语言模型,如Llama-2和GPT模型。

10_trail

我们还将试验次数扩展到10次,以测试PAPs的极限,并报告了10次试验的整体ASR。不同模型家族的整体ASR各不相同:PAPs在Llama-2和GPTs上达到了92%的ASR,但在Claude上受到限制。值得注意的是,如果模型家族容易受到说服,那么更强大的模型可能比较弱的模型更容易受到PAPs的影响。从1次和3次试验的ASR中,我们可以看到GPT-4比GPT-3.5更容易受到PAPs的影响。这突显了类人说服性交互所带来的独特风险。


重新评估现有防御措施并探索自适应防御

existing_defense

我们重新审视了一系列事后对抗性提示防御策略。即使是最有效的防御也只能将GPT-4的ASR降低到60%,这仍然高于最佳基线攻击(54%)。这强化了对更强大模型改进防御的需求。

adaptive_defense

我们研究了两种自适应防御策略:"自适应系统提示"和"目标性摘要",旨在抵消PAPs中说服性语境的影响。我们发现它们在抵消PAPs方面很有效,并且还可以防御PAPs以外的其他类型的越狱提示。我们还发现安全性和实用性之间存在权衡。因此,防御策略的选择应根据个别模型和具体的安全目标进行定制。



伦理与披露

  • 本项目提供了一种结构化的方法来大规模生成可解释的说服性对抗提示(PAP),这可能允许普通用户在没有太多计算能力的情况下越狱大型语言模型。但正如前面提到的,一位Reddit用户已经在此之前使用说服来攻击大型语言模型,因此迫切需要更系统地研究围绕说服性越狱的漏洞,以更好地缓解它们。因此,尽管存在风险,我们认为完整分享我们的发现至关重要。在整个研究过程中,我们遵循了伦理准则。

  • 首先,说服通常对普通人来说是一项艰巨的任务,所以即使有我们的分类法,没有经过训练的人可能仍然难以大规模地将一个简单的、有害的查询改写成成功的PAP。因此,来自数百万用户的广泛攻击的现实世界风险相对较低。我们还决定不公开经过训练的说服性改写器和相关代码管道,以防止人们轻易地改写有害查询。

  • 为了最大限度地减少现实世界的危害,我们在发表前向Meta和OpenAI披露了我们的结果,因此本文中的PAPs可能不再有效。如前所述,Claude成功抵御了PAPs,展示了一种成功的缓解方法。我们还探索了不同的防御措施,并提出了新的自适应安全系统提示和基于摘要的新防御机制来缓解风险,这些已经显示出promising的结果。我们的目标是在未来的工作中改进这些防御措施。

  • 总之,我们研究的目的是加强大型语言模型的安全性,而不是促进恶意使用。我们承诺根据技术进步持续监测和更新我们的研究,并将PAP微调详细信息仅限于经过认证并获得批准的研究人员使用。



引用

如果您在研究中发现这个有用,请考虑引用:

@misc{zeng2024johnny,
      title={How Johnny Can Persuade LLMs to Jailbreak Them: Rethinking Persuasion to Challenge AI Safety by Humanizing LLMs},
      author={Zeng, Yi and Lin, Hongpeng and Zhang, Jingwen and Yang, Diyi and Jia, Ruoxi and Shi, Weiyan},
      year={2024},
      eprint={2401.06373},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
  }



特别感谢OpenAI API积分

我们要向OpenAI表示感谢,在我们初步披露后,他们为我们提供了充足的API研究积分。这种财务支持极大地帮助了我们通过可解释的说服性对抗提示(PAP)研究对齐的大型语言模型的越狱,以及探索潜在的防御策略。我们坚信,这种慷慨的支持最终将有助于提高大型语言模型系统在实际应用中的安全性和可靠性。

Star历史

Star History Chart

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号