vigil-llm
Vigil-llm是一款评估大型语言模型提示和响应安全性的开源工具。它集成了向量数据库、启发式规则、变压器模型等多种扫描模块,能够有效检测提示注入、越狱等潜在威胁。该工具支持本地和OpenAI嵌入,内置常见攻击签名库,可作为Python库或REST API使用,为LLM应用构建全方位的安全防护体系。