热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#JailbreakHub
jailbreak_llms - 大规模语言模型野生越狱提示的特征与评估研究
Github
开源项目
大语言模型
数据集
JailbreakHub
ACM CCS 2024
伦理
本项目利用JailbreakHub框架,首次测量和研究野生越狱提示,收集了2022年12月至2023年12月的15,140个提示,其中包括1,405个越狱提示。通过分析Reddit和Discord等平台的数据,本研究旨在提高LLM供应商和研究社区对模型潜在风险的认识,并推动更强大的安全措施。
1
1
相关文章
深入探讨大语言模型的越狱攻击:挑战、影响与防御策略
3 个月前
jailbreak_llms入门学习资料-大型语言模型越狱攻击研究项目
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号