#LLM安全
agentic_security - 开源LLM漏洞扫描工具,保护您的AI安全
Agentic SecurityLLM安全开源工具漏洞扫描API集成Github开源项目
Agentic Security是一款开源的LLM漏洞扫描工具,旨在提高AI应用的安全性。它提供可定制规则集、LLM模糊测试、API集成和压力测试等功能。该工具集成了多个开源安全组件,支持多种攻击技术,并允许添加自定义数据集。Agentic Security可用于本地测试,也可集成到CI/CD流程中,为LLM应用提供持续的安全评估。
deberta-v3-base-prompt-injection-v2 - DeBERTa-v3微调模型实现高精度提示注入检测
语言模型Huggingface模型prompt injectionGithub开源项目LLM安全文本分类DeBERTa-v3-base
deberta-v3-base-prompt-injection-v2是一个基于DeBERTa-v3-base微调的模型,专注于检测和分类英语提示注入攻击。模型在后训练数据集上达到95.25%的准确率,可有效分类输入是否存在注入。该模型由Protect AI开发,利用多个公开数据集训练而成,旨在提升语言模型应用的安全性。需注意的是,模型不适用于越狱攻击检测和非英语提示处理。