#对抗性攻击
相关项目
DeepInception
DeepInception是一种创新的轻量级方法,能够诱导大型语言模型(LLM)绕过安全防护,持续进行越狱操作。该方法通过构建嵌套场景,利用LLM的拟人化能力,实现自适应逃逸。实验证明,DeepInception在开源和闭源LLM(如Falcon, Vicuna, Llama-2, GPT-3.5/4/4V)上表现出高成功率,揭示了LLM的安全弱点。此研究强调了增强LLM安全措施和防范风险的重要性。
llm-attacks
LLM-attacks项目致力于研究对齐语言模型的通用和可迁移对抗性攻击。项目实现了GCG算法,可对LLaMA-2等模型进行安全测试。研究者能够复现论文中的单一行为、多行为和迁移实验。项目提供完整的安装指南、模型使用说明和实验脚本,并包含交互式演示notebook。该研究有助于深入理解和提升大语言模型的安全性,对相关领域的发展具有重要价值。
aegis
Aegis是一款为大型语言模型设计的自我强化防火墙。该系统通过先进的分类模型和启发式算法,有效防范提示注入、信息泄露和有害语言等威胁。Aegis不断学习新的攻击特征,为模型的输入和输出提供全面保护。开发者可以通过Python API轻松集成Aegis,提高AI应用的安全性能。