图对抗学习的发展与挑战:一项综述
近年来,随着图神经网络(GNN)在各种应用中取得巨大成功,其安全性和鲁棒性问题也逐渐引起研究界的广泛关注。图对抗学习作为一个新兴的研究领域应运而生,旨在研究如何构造对抗样本来攻击图神经网络模型,以及如何增强模型的鲁棒性来抵御这些攻击。本文将全面回顾图对抗学习领域的最新进展,梳理其主要研究方向和典型算法,并探讨该领域面临的机遇与挑战。
图对抗学习的基本概念
图对抗学习研究如何在保持图结构基本不变的前提下,通过微小的扰动来误导图神经网络模型。与传统的对抗学习相比,图对抗学习面临着独特的挑战:
- 图数据的离散性:图的拓扑结构是离散的,难以直接应用连续优化方法。
- 图数据的关联性:节点之间存在复杂的关联,单个节点的扰动会影响整个图。
- 图任务的多样性:不同的图任务(如节点分类、图分类等)需要针对性的攻击策略。
基于攻击者的知识水平,图对抗攻击可以分为白盒攻击、灰盒攻击和黑盒攻击。根据攻击目标的不同,又可分为有目标攻击和无目标攻击。从攻击阶段来看,可分为训练阶段的中毒攻击和测试阶段的规避攻击。
图对抗攻击方法
基于梯度的攻击
基于梯度的攻击方法是最常用的图对抗攻击策略。其基本思路是计算损失函数对图结构或节点特征的梯度,然后沿梯度方向进行扰动。代表性工作包括:
- Nettack[1]:首次提出针对图神经网络的对抗攻击方法,通过修改节点特征和图结构来误导节点分类。
- FGA[2]:提出快速梯度攻击算法,通过贪心策略高效地选择扰动边。
图1: 图对抗攻击示意图
基于强化学习的攻击
基于强化学习的攻击方法将图对抗攻击建模为顺序决策问题,通过与环境交互来学习最优的攻击策略。这类方法不依赖梯度信息,适用于黑盒攻击场景。代表性工作有:
- RL-S2V[3]:使用强化学习来学习图结构修改的策略,可以实现高效的黑盒攻击。
- NIPA[4]:提出基于策略梯度的节点注入攻击方法,能够生成"隐蔽"的对抗节点。
基于生成模型的攻击
基于生成模型的攻击方法通过学习干净图的分布,生成具有对抗性的图结构或节点。这类方法具有更好的可扩展性和泛化性。代表性工作包括:
- GGAN[5]:提出图生成对抗网络,可以生成具有对抗性的子图结构。
- GraphAdv[6]:使用变分自编码器生成对抗样本,实现了更自然的图扰动。
图对抗防御方法
为了增强图神经网络的鲁棒性,研究人员提出了多种图对抗防御方法。主要可以分为以下几类:
对抗训练
对抗训练是最常用的防御策略,其核心思想是在训练过程中加入对抗样本。代表性工作有:
- GraphAT[7]:提出图对抗训练框架,通过最小最大优化来增强模型鲁棒性。
- RGCN[8]:设计鲁棒的图卷积网络,通过高斯分布对邻居节点进行采样来抵抗对抗扰动。
图纯化
图纯化方法旨在通过预处理来"净化"被污染的图,从而提高下游任务的鲁棒性。代表性工作包括:
- GCN-Jaccard[9]:利用Jaccard相似度来检测和移除可疑的对抗边。
- ProGNN[10]:提出基于低秩假设的图结构学习方法,可以恢复被攻击的干净图结构。
异常检测
异常检测方法通过识别异常模式来检测对抗攻击。主要研究方向包括:
- GNN-Guard[11]:设计图异常检测器来识别可疑的节点和边。
- FLAG[12]:提出基于图注意力机制的异常检测框架,可以有效检测各种图对抗攻击。
应用与展望
图对抗学习在多个领域具有重要的应用前景:
-
网络安全:可用于评估和增强图神经网络在恶意软件检测、入侵检测等安全任务中的鲁棒性。
-
推荐系统:帮助构建更可靠的图推荐模型,抵御恶意用户的操纵。
-
知识图谱:增强知识图谱嵌入模型对对抗攻击的鲁棒性,提高知识表示的质量。
-
社交网络分析:提高社交网络分析模型在虚假信息传播等对抗场景下的性能。
尽管图对抗学习取得了显著进展,但仍面临诸多挑战与机遇:
-
可解释性:如何解释图对抗样本的生成过程和攻击机制仍是一个开放问题。
-
可扩展性:现有方法在大规模图上的效率仍有待提高。
-
动态图:如何设计针对动态变化图的对抗学习方法是一个重要研究方向。
-
多模态图:将图对抗学习扩展到heterogeneous、文本丰富等复杂图结构中。
-
隐私保护:探索图对抗学习在差分隐私、联邦学习等隐私保护场景中的应用。
结论
图对抗学习作为一个新兴的交叉领域,在过去几年取得了长足的进步。本文全面回顾了该领域的最新研究进展,包括攻击和防御方法。未来,随着更多理论和实践的深入,图对抗学习有望为构建更安全、更可靠的图神经网络模型做出重要贡献。
参考文献
[1] Zügner, D., Akbarnejad, A., & Günnemann, S. (2018). Adversarial attacks on neural networks for graph data. In Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (pp. 2847-2856).
[2] Chen, J., Wu, Y., Xu, X., Chen, Y., Zheng, H., & Xuan, Q. (2018). Fast gradient attack on network embedding. arXiv preprint arXiv:1809.02797.
[3] Dai, H., Li, H., Tian, T., Huang, X., Wang, L., Zhu, J., & Song, L. (2018). Adversarial attack on graph structured data. In International conference on machine learning (pp. 1115-1124). PMLR.
[4] Sun, L., Dou, Y., Yang, C., Wang, J., Yu, P. S., & Li, B. (2020). Adversarial attack and defense on graph data: A survey. arXiv preprint arXiv:2003.00653.
[5] Bojchevski, A., & Günnemann, S. (2019). Adversarial attacks on node embeddings via graph poisoning. In International Conference on Machine Learning (pp. 695-704). PMLR.
[6] Chang, H., Rong, Y., Xu, T., Huang, W., Zhang, H., Cui, P., ... & Huang, J. (2020). A restricted black-box adversarial framework towards attacking graph embedding models. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 34, No. 04, pp. 3389-3396).
[7] Feng, F., He, X., Tang, J., & Chua, T. S. (2019). Graph adversarial training: Dynamically regularizing based on graph structure. IEEE Transactions on Knowledge and Data Engineering.
[8] Zhu, D., Zhang, Z., Cui, P., & Zhu, W. (2019). Robust graph convolutional networks against adversarial attacks. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (pp. 1399-1407).
[9] Wu, H., Wang, C., Tyshetskiy, Y., Docherty, A., Lu, K., & Zhu, L. (2019). Adversarial examples for graph data: Deep insights into attack and defense. In IJCAI (pp. 4816-4823).
[10] Jin, W., Ma, Y., Liu, X., Tang, X., Wang, S., & Tang, J. (2020). Graph structure learning for robust graph neural networks. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (pp. 66-74).
[11] Zhang, X., & Zitnik, M. (2020). Gnnguard: Defending graph neural networks against adversarial attacks. Advances in Neural Information Processing Systems, 33, 9263-9275.
[12] Wang, B., Jia, J., & Gong, N. Z. (2021). Attacking graph neural networks at scale. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 35, No. 12, pp. 10174-10182).