Anomaly-Transformer (ICLR 2022 Spotlight)
Anomaly Transformer:基于关联差异的时间序列异常检测
时间序列中异常点的无监督检测是一个具有挑战性的问题,它要求模型学习信息丰富的表示并得出可区分的标准。在本文中,我们从以下三个方面提出Anomaly Transformer:
- 使用关联差异作为内在的可区分检测标准。
- 提出新的异常注意力机制来计算关联差异。
- 采用极小极大策略来放大关联差异的正常-异常可区分性。
开始使用
- 安装Python 3.6,PyTorch >= 1.4.0。 (感谢Élise为解决环境问题做出的贡献。详情请参见此问题。)
- 下载数据。您可以从Google Cloud获取四个基准数据集。所有数据集都经过了良好的预处理。对于SWaT数据集,您可以按照其官方教程申请。
- 训练和评估。我们在
./scripts
文件夹下提供了所有基准数据集的实验脚本。您可以按以下方式重现实验结果:
bash ./scripts/SMD.sh
bash ./scripts/MSL.sh
bash ./scripts/SMAP.sh
bash ./scripts/PSM.sh
特别地,我们使用Xu等人,2018提出的调整操作进行模型评估。如果您对此有疑问,请参阅此问题或发邮件给我们。
主要结果
我们将我们的模型与15个基线进行了比较,包括THOC、InterFusion等。总体而言,Anomaly-Transformer达到了最先进的水平。
引用
如果您觉得这个仓库有用,请引用我们的论文。
@inproceedings{
xu2022anomaly,
title={Anomaly Transformer: Time Series Anomaly Detection with Association Discrepancy},
author={Jiehui Xu and Haixu Wu and Jianmin Wang and Mingsheng Long},
booktitle={International Conference on Learning Representations},
year={2022},
url={https://openreview.net/forum?id=LzQQ89U1qm_}
}
联系方式
如果您有任何问题,请联系wuhx23@mails.tsinghua.edu.cn。