safeguards-shield
Safeguards Shield是一个旨在安全、可靠使用大型语言模型(LLMs)的开发者工具包。本工具包提供保护层功能,能够防御恶意输入并过滤模型输出,使AI应用从原型快速转向生产阶段。此外,包含超过20种即用型检测器,为生成式AI(GenAI)应用提供全面的安全保障,并助力缓解LLM的可靠性与安全隐患。工具包还支持监控事件、成本及关于AI的责任指标,支持应用的长期发展。