推荐“小波变换+注意力机制”这一交叉方向,它通过融合小波的多尺度分析能力与注意力的动态聚焦特性,在理论与应用上均展现出强大潜力。当前研究主要沿三大路径推进:
架构创新:如何设计新颖的模块与网络结构。例如,AAAI25提出的多频率融合注意力模块(MFFA),以及金融预测中的Stockformer架构。
应用创新:将融合模型应用于时序分析、图像处理、医疗诊断等具体领域。
理论深化:探索其可解释性、稳定性与泛化能力。
对于快速入门,建议从精读核心文献开始。我们整理了包含12篇前沿成果的文献包,供您系统研读。建议边读边梳理技术脉络与可改进点,从而高效形成自己的研究思路。
【论文1】AWSPNet: Attention-based Dual-Tree Wavelet Scattering Prototypical Network for MIMO Radar Target Recognition and Jamming Suppression
关键词:MIMO radar, dual-tree wavelet transform, prototypical network, Jamming recognition, attention,transformer.
方法
数字射频存储器(DRFM)电子对抗对雷达系统的生存能力和效能构成重大威胁,其产生的欺骗性假目标会掩盖真实目标,低信噪比(SNR)环境下的目标识别与干扰抑制尤为关键。该研究提出注意力双树小波散射原型网络(AWSPNet),一种用于MIMO雷达目标识别与干扰抑制的深度学习框架。其核心编码器采用双树复小波变换(DTCWT)提取抗噪声和信号平移鲁棒的特征,经注意力机制与预训练骨干网络优化,结合监督对比学习提升泛化能力,通过原型网络实现少样本分类。
创新点
-
提出AWSPNet框架,融合双树复小波变换(DTCWT)、注意力机制与预训练骨干网络,提取抗噪声、抗信号平移的鲁棒特征,结合监督对比学习优化嵌入空间,提升特征可分性。 -
通过t-SNE可视化分析模型不同阶段的特征分布,揭示各模块功能作用与特征可分性演进过程,为网络提供物理可解释性,破解深度学习“黑箱”问题。 -
设计时域滑动窗口结合AWSPNet的实用算法,实现目标识别、定位与多种干扰(含未知干扰/杂波)的同步抑制,形成完整检测-抑制流程,适配复杂电磁环境。 -
采用原型网络作为分类器,适配少样本学习场景,搭配预训练-微调策略,缓解雷达干扰信号标注数据稀缺问题,提升模型对新信号类型的泛化能力。
论文链接:https://arxiv.org/pdf/2510.18422
【论文2】 ASCNet: Asymmetric Sampling Correction Network for Infrared Image Destriping(TGRS2025)
关键词:Asymmetric sampling (AS), column correction, deep learning, infrared (IR) image destriping, wavelet transform.
方法
在实际红外成像系统中,现有去条纹噪声方法常因跨层级语义间隙及全局列特征表征不足,难以精准重建图像。为此,研究提出一种非对称采样校正网络(ASCNet),将全局列关系捕获融入U型框架,实现全面判别性表征与无缝语义衔接。该网络包含三个核心模块:残差哈尔离散小波变换(RHDWT)通过双分支建模整合条纹方向先验与数据驱动语义交互,丰富特征表征;像素重排(PS)作为上采样器避免过度先验解码,实现无语义偏差重建;列非均匀性校正模块(CNCM)融合列、空间及自依赖信息,建立全局上下文以区分条纹与场景垂直结构。在合成数据、真实数据及红外小目标检测任务中的大量实验表明,该方法在视觉效果和定量指标上均优于现有单图像去条纹方法。
创新点
-
提出ASCNet红外图像去条纹网络,采用非对称U型架构,融合列不均匀校正模块(CNCM),实现连续列语义建模与全局列关系全面表征,精准分离条纹噪声与场景信息。 -
引入像素重排(PS)作为上采样器,避免先验特征过度解码,有效弥合跨层级列语义间隙,实现无语义偏差的图像重建。 -
设计残差哈尔离散小波变换(RHDWT)下采样器,通过模型驱动分支(嵌入条纹方向先验)与残差分支(数据驱动跨通道语义)并行,丰富特征表征。 -
提出CNCM模块,嵌套残差列空间自校正(RCSSC)块,整合列均匀性、空间相关性与自依赖性,捕捉全局上下文下的长距离列特征依赖。
论文链接:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=10855453
代码链接:https://github.com/xdFai/ASCNet
一区Top期刊 Information Sciences 惨遭除名,2025中科院最新分区揭晓!
视觉Transformer(Vision Transformer, ViT) :全面超越CNN,看懂这篇文章就没什么能难倒你了!
无论你是研究哪个方向的,都可以找到志同道合的伙伴
添加好友后将拉你进相应微信群。
📌 添加方式:
扫描下方二维码,或搜索微信号:aiqysd
📩 添加好友时请务必备注信息,格式如下:
研究方向 + 学校/公司 + 学历 + 姓名
❗非常重要:
发送好友验证时,必须填写备注信息,示例如下:
👉 目标检测 + 中科大 + 研一 + 陈奕迅
凡格式不对者,一律不予理睬
我们期待你的加入,一起交流、学习、进步!
部分资料展示👇
确保文章为个人原创,未在任何公开渠道发布。若文章已在其他平台发表或即将发表,请明确说明。
建议使用Markdown格式撰写稿件,并以附件形式发送清晰、无版权争议的配图。
【AI前沿速递】尊重作者的署名权,并为每篇被采纳的原创首发稿件提供具有市场竞争力的稿酬。稿酬将根据文章的阅读量和质量进行阶梯式结算。
您可以通过添加我们的小助理微信(aiqysd)进行快速投稿。请在添加时备注“投稿-姓名-学校-研究方向”
长按添加AI前沿速递小助理

