近日,团队2024级研究生胡友等在邱丽娜老师和潘家辉老师的共同指导下,在中科院二区期刊《IEEE Journal of Biomedical and Health Informatics》(JCR Q1, 中科院大类学科医学二区TOP, IF: 6.7)上发表题为“A Multi-Scale Attention-based Reconstruction Fusion Network for Motor Imagery Classification” 的研究论文。该论文自2025年9月23日提交,于2026年2月22日被正式接收。
1. 研究背景
深度学习在运动想象脑电(MI-EEG)解码领域取得了显著进展。为了捕获信号的多尺度时空特征,多尺度卷积网络及其注意力融合机制被广泛应用。然而,现有方法在多尺度特征融合时仍面临冗余度高、跨尺度交互不足的瓶颈。此外,在时序建模方面,虽然引入Transformer等自注意力架构弥补了传统CNN在全局长序列建模上的缺陷,但现有方法往往忽略了对MI-EEG尤为关键的局部时间结构。针对上述局限性,本文提出了一个多尺度注意力重构融合网络。
本论文的主要贡献包括:
(1)注意力重构融合策略:结合了通道注意力与 “特征分离-重构” 机制,增强特征作用效益。
(2)局部-全局时间编码器:将基于窗口的局部片段聚合与 Transformer 编码器相结合,捕捉到极具区分度的短暂局部振荡(瞬态变化)和大脑运动想象过程中的长程演变(持续动态)。
2. 方法和结果
本文提出的 MSARFNet 是一种基于多尺度注意力的重构融合网络,主要由三个核心模块组成:多尺度时空卷积模块(MSTC)、基于注意力的重构融合模块(ARF)以及局部-全局时间编码器(LGTE)。其整体架构如图 1所示。MSTC 利用具有不同感受野的卷积核提取多尺度时间表征,并执行空间卷积以捕获通道级别的依赖关系。ARF 通过通道注意力加权与特征分离-重构机制对多尺度表征进行精细化处理,二者协同提升了特征的判别力,并促进了跨尺度分支间有效的特征交互。LGTE 首先利用时间卷积将时间感受野与预设的窗口尺度对齐,从而实现对窗口级局部上下文的有效提取;随后,该模块引入跨窗口交互机制,以凸显相邻窗口间的时序变化。最终,将增强后的表征输入至 Transformer 编码器中,以完成对全局时间依赖关系的建模。

MSARFNet在两个公开的运动想象数据集(BCI-IV 2a和2b)上进行被试依赖实验验证,分别获得84.64%和87.96%的准确率,具体对比结果如图 2所示。

图 2 MSARFNet在BCI-IV 2a和2a上的对比实验。
3. 总结
本文提出了一种用于运动想象脑电(MI-EEG)解码的多尺度注意力重构融合网络(MSARFNet)。该模型通过MSTC模块提取多尺度节律特征,利用ARF模块抑制非主导信息并强化跨尺度交互,结合LGTE模块协同捕获局部时间上下文与全局时间依赖,有效验证了该架构设计的合理性与先进性。在未来的研究将聚焦于三个核心方向:开发更轻量且自适应的时间建模策略;引入生成对抗网络或扩散模型等先进数据合成技术;以及深度融合fNIRS或EMG等多模态神经生理信号,以弥补单一模态的不足并全面提升解码系统的鲁棒性。