#对抗样本
TextAttack - 为NLP模型生成对抗样本和进行数据增强的专业工具
Github开源项目模型训练NLP数据增强TextAttack对抗样本
TextAttack是一个专为自然语言处理(NLP)提供对抗攻击、数据增强和模型训练的Python框架。通过多种预定义攻击策略,用户可以更好地理解和研究NLP模型。TextAttack支持简便的命令行操作和广泛的模型与数据集,提供详细的文档和示例代码,帮助提高模型的泛化能力和鲁棒性。
TransferAttackEval - 转移攻击研究的系统性评估与新发现
Github开源项目ImageNet对抗样本评估方法迁移攻击模型安全
TransferAttackEval项目对转移攻击进行系统性评估,揭示现有评估方法的问题。项目引入完整攻击分类方法,公平分析攻击可转移性和隐蔽性,获得多项新发现。研究表明部分早期攻击方法优于后续方法,同时指出某些流行防御方法存在安全缺陷。该研究为转移攻击领域提供重要参考,推动相关研究进展。
mist - 图像防护工具 阻止AI艺术应用模仿
Github开源项目对抗样本Mist图像预处理AI绘图保护水印
Mist是一款图像预处理工具,通过添加水印保护图像不被AI艺术应用模仿。它使Stable Diffusion等AI模型无法识别图像内容,防止生成相似作品。Mist开源代码可用于构建网页界面或远程服务,为创作者提供作品保护方案。