热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#越狱攻击
persuasive_jailbreaker - 人性化说服技巧挑战大语言模型安全边界
LLM
AI安全
说服技巧
越狱攻击
防御策略
Github
开源项目
本项目提出说服性对抗提示(PAP)方法,系统应用40种说服技巧攻击大语言模型。研究显示PAP对GPT-4等先进模型有92%成功率,且更强大的模型反而更易受影响。项目还探讨了防御策略,揭示人性化交互对AI安全的挑战,为增强大语言模型安全性提供新思路。
1
1
相关文章
说服即破解:揭秘人性化语言模型的潜在安全风险
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号