2024年08月09日:Adaptive Memory Networks with Self-supervised Learning for Unsupervised Anomaly Detection
- 主页 /
- 通知公告 /
- 通知公告
2024年08月09日:Adaptive Memory Networks with Self-supervised Learning for Unsupervised Anomaly Detection
【报告内容】
汇报人:李娜
汇报单位:河海大学
主题:《Adaptive Memory Networks with Self-supervised Learning for Unsupervised Anomaly Detection》
1、Introduction
2、Method
3、Experiments
4、Conclusion
【报告总结】
1.待解决的问题描述
无监督异常检测旨在构建模型,仅通过对正常数据进行训练来有效检测看不见的异常。尽管以往基于重建的方法取得了丰硕的进展,但由于存在两个关键挑战,其泛化能力有限。第一个挑战是数据源限制。与看不见的测试数据相比,正常的训练数据相当有限,这使得模型容易出现过拟合。当正常样本和异常样本相似时,现有方法可能会出现过拟合的现象。第二个挑战是特征表达限制。对于复杂的时间序列数据,现有模型学习到的特征表示往往缺乏代表性,这阻碍了学习正常模式多样性的能力。因此训练数据和特征表达都受到限制,如果将现有模型应用于实际场景时,其泛化能力较差。
2.相关创新方案
为了解决以上两个挑战,这篇文章提出基于自监督学习的自适应记忆网络异常检测方法(AMSL)。首先,为了应对有限的正常训练数据,AMSL包含了一个自监督学习模块,通过对时序信号进行多种变换的方式,丰富正常数据,实现数据增强。其次,为了应对有限的特征表示,AMSL引入了一种自适应记忆融合网络,分别通过全局和局部记忆模块学习正常数据的共有特征和特有特征,提升模型的特征表达能力。
3.实验总结
在大多数数据集上,AMSL方法相较于其他传统方法和深度学习方法,模型性能更加优越。除了增强泛化能力外,AMSL对输入噪声的抵抗力也更强。通过对比自监督学习下不同变换对模型性能的影响情况的结果表明,将所有变换组合在一起后取得了优于原始数据和单一变换下的模型检测精度。CAE、GMSL、LMSL和AMSL的精度对比结果表明,自适应记忆融合网络比使用单个记忆网络(即全局或局部记忆模块)具有更好的性能。AMSL的F1分数比GMSL的高出1.86%,比LMSL的F1分数高出3.12%。
4.未来工作
探索在优化模型参数以及模型对动态数据的适应能力方面的方法,提高深度学习模型方法的可解释性。
报告时间:2024年08月09日19:30
腾讯会议:371 3868 6615
点我下载本讨论课相关文献或PPT吧~(提取码:iipr)