热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#模型防御
adversarial-robustness-toolbox - 机器学习安全与对抗性威胁防护库
Github
开源项目
Adversarial Robustness Toolbox
机器学习安全
对抗性威胁
模型防御
Linux Foundation AI & Data
Adversarial Robustness Toolbox (ART) 是由 Linux Foundation AI & Data Foundation 托管的 Python 库,为开发者和研究人员提供评估和防护机器学习模型的工具,以抵御规避、投毒、提取和推理等对抗性威胁。ART 支持所有流行的机器学习框架(如 TensorFlow、Keras、PyTorch 等),适用于各种数据类型(图像、表格、音频、视频等)和任务(分类、目标检测、语音识别等)。持续开发中,欢迎反馈和贡献。
1
1
相关文章
Adversarial Robustness Toolbox: 机器学习安全的强大工具
3 个月前
Adversarial Robustness Toolbox: 保护机器学习模型免受对抗性攻击的强大工具
3 个月前
Adversarial Robustness Toolbox: 机器学习安全的强大工具箱
3 个月前
Adversarial Robustness Toolbox (ART) 入门指南 - 机器学习安全的Python工具库
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号