热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#序列化攻击
modelscan - 开源AI模型安全扫描工具助力高效检测风险
ModelScan
机器学习模型
安全扫描
序列化攻击
开源项目
Github
ModelScan是Protect AI开发的开源AI模型安全扫描工具,支持H5、Pickle和SavedModel等多种格式。它可快速识别PyTorch、TensorFlow、Keras等框架中的模型安全风险,有效防范模型序列化攻击。ModelScan易于集成到机器学习流程中,为AI模型全生命周期提供安全保障,保护数据和系统安全。
1
1
相关文章
ModelScan:保护您的机器学习模型免受序列化攻击
2024年09月05日
ModelScan: 保护模型免受序列化攻击的开源工具
2024年09月05日
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号