热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Protect AI
LLM-Guard学习资料汇总 - 大语言模型安全工具包
1 个月前
LLM-Guard是一个全面的工具,旨在强化大型语言模型(LLM)的安全性。本文汇总了LLM-Guard的相关学习资源,帮助读者快速了解和使用这个开源项目。
LLM Guard
Protect AI
安全
大语言模型
数据泄漏
Github
开源项目
1 个月前
LLM Guard: 为大型语言模型交互提供全面安全保护
2 个月前
LLM Guard是一款由Protect AI开发的综合性工具,旨在加强大型语言模型(LLMs)的安全性。通过提供输入净化、有害语言检测、数据泄露防护以及抵御提示注入攻击等功能,LLM Guard确保您与LLMs的交互安全可靠。
LLM Guard
Protect AI
安全
大语言模型
数据泄漏
Github
开源项目
2 个月前
相关项目
llm-guard
LLM Guard是由Protect AI设计的一款全面安全解决方案,专为保障大语言模型的安全互动而打造。它具备语言过滤、数据泄露预防和抗提示注入攻击等功能,确保互动安全和隐私。项目支持多种扫描器,能有效检测和防护潜在威胁。安装简便,易于集成到生产环境中,是提升LLM安全的理想工具。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号