2026年02月13日:Affirm: Interactive Mamba with Adaptive Fourier Filters for Long-term Tim Series

  • 主页 /
  • 通知公告 /
  • 通知公告

2026年02月13日:Affirm: Interactive Mamba with Adaptive Fourier Filters for Long-term Tim Series

【报告内容】

汇报人:张子牧

汇报单位:河海大学

主题:《Affirm: Interactive Mamba with Adaptive Fourier Filters for Long-term Tim Series》

1、Introduction

2、Method

3、Experiment

4、Conclusion

【报告总结】

1.待解决的问题描述

1)现实数据的噪声与非平稳性:真实世界的长时序数据(LTSF)通常包含复杂的噪声和剧烈的分布变化,导致模型难以区分有效信号与干扰。

2)全局与局部的平衡难题:现有模型往往顾此失彼,难以在捕捉长期趋势(全局依赖)的同时,精准保留局部的微观突变特征。

3)计算效率瓶颈:主流的 Transformer 类模型具有 O(L2) 的二次方计算复杂度,在处理长序列预测时显存占用高、推理速度慢,难以部署于资源受限设备。

2.相关创新方案

1)模型架构 Affirm:提出了一种基于自适应频域滤波和交互式多尺度 Mamba 的轻量级模型。

2)自适应傅里叶滤波块 (AFFB)

引入可学习的频率阈值 (θlow,θhigh) 和自适应滤波器,在频域动态识别并滤除噪声,保留关键的周期性特征。

解决了传统固定滤波器无法适应多变数据的问题。

2)交互式双 Mamba 块 (IDMB):

设计了多尺度双支路架构(卷积核 Size 2 和 Size 4),分别捕捉微观细节和宏观趋势。

利用 Sigmoid 门控交互机制,让两条支路的信息动态互补(用宏观趋势过滤微观噪声),并结合 Mamba 的线性复杂度 O(L) 实现高效的长程依赖建模。

3)自监督预训练策略:采用时域掩码重建(Masked Reconstruction),随机遮盖 40%-60% 的时间片,强迫模型学习序列的内在结构,显著提升了在小样本数据下的泛化能力。

3.实验总结

1)预测精度 (SOTA):在 Electricity, Traffic, ETTh1 等 7 个主流数据集上,Affirm 在 MSE 和 MAE 指标上均取得了最优或极具竞争力的结果。

2)计算效率:相比 TimesNet 等 Transformer 基线模型,Affirm 的计算量大幅降低(仅 1.72G MACs),且随着序列长度增加,显存占用呈线性增长,极具部署优势。

3)鲁棒性与稳定性

抗噪实验:在不同强度的高斯噪声(NR 0.5-2.5)干扰下,模型性能下降极微,证明了 AFFB 的有效性。

小样本学习:在仅使用 1% 训练数据的情况下,得益于预训练策略,模型依然保持了稳定的预测能力,未出现严重的过拟合。

4.未来工作

1)跨领域泛化:探索将 Affirm 的自适应滤波机制应用于医疗信号(EEG/ECG)或工业故障检测等对噪声敏感的其他时间序列领域。

2)与大模型结合:研究如何将 Affirm 作为轻量级特征提取器,与大型语言模型(LLM)结合,利用 LLM 的推理能力进一步提升对非平稳数据的解释性和预测能力。

3)在线学习机制:针对流式数据,进一步优化“可学习阈值”的实时更新策略,使其能适应数据分布随时间的动态漂移(Concept Drift)。

报告时间:2026021319:30

腾讯会议:311-5999-8176

点我下载本讨论课相关文献或PPT吧~(提取码:iipr)