热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#ModelScan
ModelScan: 保护模型免受序列化攻击的开源工具
2 个月前
ModelScan是一款由Protect AI开发的开源模型扫描工具,旨在检测机器学习模型中的不安全代码,支持多种模型格式,为AI安全提供重要保障。
ModelScan
机器学习模型
安全扫描
序列化攻击
开源项目
Github
2 个月前
ModelScan:保护您的机器学习模型免受序列化攻击
2 个月前
ModelScan是一个开源工具,可以扫描机器学习模型以检测不安全代码,支持多种模型格式,为AI部署提供更安全的保障。
ModelScan
机器学习模型
安全扫描
序列化攻击
开源项目
Github
2 个月前
相关项目
modelscan
ModelScan是Protect AI开发的开源AI模型安全扫描工具,支持H5、Pickle和SavedModel等多种格式。它可快速识别PyTorch、TensorFlow、Keras等框架中的模型安全风险,有效防范模型序列化攻击。ModelScan易于集成到机器学习流程中,为AI模型全生命周期提供安全保障,保护数据和系统安全。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号