0
点赞
1
评论
0
转载
收藏

学习报告:基于集成支持向量学习的运动想象脑电分类

本篇报告的内容为“一个基于集成支持向量学习的运动想像脑电分类方法”。所参考的文献来源于发表在《Elsevier》的论文——《 Motor imagery EEG classification based on ensemble support vector learning 》。文章的作者就基于ERD/ERS的特征对于某些受试对象的辨别能力不佳的问题上,提出了一种基于SVM的运动想象集成分类方法,这种方法的特点是结合三个不同的SVM的后验概率进行预测,作者称之为集成分类学习(ensemble support vector learning ESVL)。它集合了多个分类器的不同优点,各个分类器之间相互补充,使它能在面对多个不同受试对象时,依旧表现良好,进一步改善了运动想象分类的性能。

一、研究方法

1.1 整体思路

该方法分别提取了基于CDFCSP的特征和时空差异特征(spatiotemporal discrepancy feature STDF)。这些特征被用于训练成3个SVM,最后三个组合成一个ESVL(ensemble support vector learning)。图1给出了所提出的基于ESVL的算法的框图。训练阶段位于上块,测试阶段位于下块。

图1 任务整体流程框图

具体的做法是,一方面,计算脑电信号的差异信号,利用积分法提取脑电信号的STDF;另一方面,提取训练集中EEG试验的能谱,并根据能谱设计CDF。对分割后的训练脑电信号进行CDF滤波,增强鉴别频带。然后,基于滤波后的脑电信号,采用FBCSP算法提取基于CDFCSP的特征。最后,基于 CDFCSP 的特征和 STDF 训练 ESVL ,其中ESVL主要由三个分类器组成(基于CDFCSP特征训练的、基于STDF训练的和基于两者连接的特诊训练的)。最终预测是由经过训练后的 ESVL 做出的CDFCSP、STDF和ESVL的细节以下继续介绍。

1.2 CDFCSP进行特征提取

A. 基于CDF的预处理过程

CDF(class discrepancy-guided sub-band filter),类差异引导子带滤波器,它的算法最特别的地方在于,它是使用从训练集中获得的先验知识和模板作为自身的的设计指南。也就是说在本文中,它的算法设计准则是通过以训练集的脑电信号为依据,计算能量谱模板而得到的。而CDF所需的能谱模板是通过WPD生成,引文WPD可以将信号准确地转换为时频表示,同时实现去噪。

B. 基于CSP的特征提取

近年来,基于CSP的不同频带特征提取已被广泛应用于运动想象的脑电分类。CSP的基本原理是利用矩阵的对角化。找到一组最优空间滤波器进行投影,使两类信号的方差差异化最大,从而得到具有较高区分度的特征向量,使用CSP算法可以从EEG提取可识别的模式。但是效果依赖于EEG的频率带宽。所以需要设置较宽的频率范围,或者人为选择频率范围。所以本文采用在CSP上该改进的FBCSP算法进行特征提取。

1.3 STDF提取

作者表示采用STDF,主要原因是为了捕捉EEG信号中的事件相关电位(event-related potential phenomenon,ERP), 事件相关电位是一种与事件相关的脑交流,可引起脑电图信号的时间锁定波动,可能与之相关的事件包括感觉刺激、表象等。(最近,一些研究人员已经证明,当准备和执行有意识的手指运动时,运动相关电位和 ERD 提供了互补的信息作者认为与基于 ERD/ERS 的特征相比,STDF 在某些对象中表现良好,试图结合基于 ERD/ERS 的特征和基于 ERP 的特征两者的优点来进一步提高 MI 性能。),而STDF提取的具体步骤是,首先,根据从大脑不同区域收集的 EEG 信号计算时空差异信号:

其中Sl为从左侧感觉运动区(如国际10-20系统的C3通道)收集到的脑电图信号,Sr为从右侧感觉运动区(如国际10-20系统的C4通道)收集到的脑电图信号。时空差异信号描述了脑电信号在空间和时间上的差异,这样可以增强对侧差异,抑制影响双侧感觉运动区的噪声。利用时空差异信号求和得STDF得计算如下:

其中f和x分别为特征和采样点的指标,EEG试验中最大x表示为x。所获得特征的维数是基于之前一个工作里设置的超参数。

1.4 集成支持向量学习分类器(ESVL)

这是作者提出得一个集成分类器,设计的主要原因是基于 ERD/ERS 的特征在一些对象上表现出令人满意的辨别力,但对于另一些对象则不那么敏感,恰好基于 ERP 的特征ERD/ERS表现一般的对象上具有不错辨别力。因此者试图结合两者的有点,进一步提高分类性能

本文提出的ESVL是在SVM分类器的基础上建立分类框架。它中利用其他分类器的后验概率来完成集成学习。图2展示了所提出的ESVL分类器。首先,在基于CDFCSP的特征、STDF和两者连接后的特征三者上分别训练线性SVM分类器,预测时对三个SVM分类器的输出后验概率进行组合,形成最终的预测结果。

图 2 ESVL组成原理图

以下是作者给出的数学计算过程:

首先SVM 分类器试图找到一个最佳超平面,将数据从两个类划分出来:

其中 x 是输入特征的转置,β 和 b 是超平面的参数。 这个最优超平面应该最大化正类和负类数据之间的边界。 对于一些不可分的数据,对位于类边界反面的样本的目标函数进行惩罚如下:

其中 ξj 表示用于惩罚跨越边界边界的样本的松弛变量,g 是惩罚乘数,用于控制对违反边界的样本施加的最大惩罚。 应用拉格朗日乘子法优化目标函数并找到最优超平面。 根据训练集找到最优超平面后,SVM 就得到了很好的训练。 然后,计算后验概率。 从样本点到决策边界的有符号距离计算如下:

如果距离为正值,则样本属于正类,相反负距离意味着样本属于负类。 后验概率,即样本属于特定类别的概率,被计算为距离的 sigmoid 函数,如下所示:

其中 dj 是由(11)计算的距离,A 和 B 是表示斜率和截距的参数。 为了拟合这个 sigmoid 函数,标签 y j ∈ (-1, 1) 被转移到概率目标中,其定义为正类的概率如下:

然后,将交叉熵误差函数设置为目标函数以找到最优参数 A 和 B,如下所示:

然后,使用基于训练集的最大似然估计获得最优参数 A 和 B。 由图 2 可知,两个概率 SVM 分类器分别基于基于 CDFCSP 的特征和 STDF 进行训练,并将基于 CDFCSP 的特征和 STDF 连接起来训练第三个概率 SVM 分类器。因此,属于正类的测试样本的后验概率可以通过方程(12) 方程(13).)计算。

总的来说就是,基于三个经过训练的概率 SVM 分类器,计算属于正类的测试试验的后验概率。 最后,将三个后验概率相加以获得概率输出并进行 ESVL 分类器的预测。 如果最终属于正类的概率大于负类的概率,则预测为正,反之亦然。

二、数据和实验

作者使用的数据来自于BCI 竞赛 IV 的数据集 2a 和 2b。

2.1 BCI Competition IV dataset 2a

该数据集收集了来自 9 个受试者的基于 MI 的 EEG 信号。对于每个受试者,在不同的日期记录了包括 288 次试验(每类任务 72 次试验)的一个培训课程和包括 288 次试验(每类任务 72 次试验)的一个评估课程。 根据屏幕上显示的提示,执行四种不同类型的 MI 任务(左手、右手、舌头和双脚),并在 22 个通道上监测 EEG 信号。 所用电极的位置如图3所示。

图3 被采集的电位位置

EEG 信号的采样率为 250 Hz,放大器的分辨率设置为 100 μV。 在每次试验中,在 2 s 时屏幕上会出现一个提示,并且从 3 s 到 6 s 执行 MI 任务。 一个 0.5-100 Hz 带通滤波器和一个陷波滤波器 (50 Hz) 会被用来对收集的 EEG 信号进行预处理,由此获得对采样点的连续预测,并在每个采样点上获得了准确度和 kappa 值。此外,为了在少通道 MI EEG 上评估所提出的方法,应用来自 International 10-20 系统的电极 C3、Cz 和 C4 来实现二类分类(左手和右手),二类分类的 kappa 值是根据准确度 Pacc 计算的。

2.2 BCI Competition IV dataset 2b

BCI 竞赛 IV 数据集 2b 为两类 MI 任务(左手和右手)收集了来自 9 个受试者的 EEG 信号。对于每个主题,记录了 5 个会话,其中前 3 个会话用作训练集,最后 2 个会话用作评估集。前 2 个会话在没有反馈的情况下在屏幕上显示提示,最后 3 个会话基于笑脸反馈。会话中的试验次数从 120 到 160。EEG 信号是从三个 250 Hz 的通道(包括通道 C3、通道 Cz 和通道 C4)收集的。一个 0.5-100 Hz 的带通滤波器和一个陷波滤波器 (50 Hz) 被用来对收集的 EEG 信号进行预处理。使用人工制品的试验由专家标记。通过所有采样点的最大 kappa 值用于评估有效性。由于会话设置的不同,本文仅使用会话 3 来训练 ESVL 分类器,并基于会话 4 和 5 评估实验性能。

2.3 实验结果

A.基于 CDFCSP 和基于 STDF 的特征之间的辨别能力比较

本节比较了基于 CDFCSP 和基于 STDF 的特征的区分。 在训练的 SVM 分类器(方程(10)中的 β)中具有最大系数绝对值的特征被视为最具辨别力的特征。 为了提供直观的结果,图 4 展示了特征辨别的一个例子(来自 BCI 竞赛 IV 数据集 2a 的对象 3 和对象 7)。

图4 基于 CDFCSP 和基于 STDF 的特征之间的辨别能力比较结果

由图4可以看出CDFCSP在对象3上表示良好,在对象7中的区分表现却相差甚远 ,而与之相反,STDF在对象3上的表现得难以令人满意,却在对象7上获得了不错得结果。这也验证了作者之前得说法,两者存在互补关系的可能,进一步说明结合两者得优点可以进一步提升MI的性能。 此外,在BCI竞赛IV数据集2a上进行了基于支持向量机的分类,验证了假设STDF和CDFCSP适用于不同的主题。基于线性支持向量机分类器分别评价了STDF和CDFCSP的分类结果。表1给出了基于不同特征的实验结果对比。

表1 基于CDFCSP与STDF的分类器性能比较

注:最高的kappa值是用来评估性能的,最高的kappa值用粗体标出。

结论:

(1)对比STDF和CDFCSP的结果,STDF在受试者2、5和7上获得了更高的kappa,而CDFCSP在受试者1、3、6、9上获得了明显更高的kappa

(2) CDFCSP 获得了比 STDF 更好的平均 kappa 值。并且与基于 ERD/ERS 的特征相比,基于 ERP 的 STDF (即本文中基于 CDFCSP 的特征)在不同的对象上表现良好,与作者之前的说法一致。

B. 基于ESVL算法的性能比较

为了验证所提出的基于ESVL的方法的性能改善,根据第2节的框架进行分类。图5给出了结果的直方图,以便进行直观的比较。基于直方图,我们可以得出:(1)基于ESVL的方法获得的kappa值近似等于每个受试者的最佳特征;(2)基于ESVL的方法在受试者1、3、4、6和9上的表现最好. (3) 基于 9 名受试者的 ESVL 平均 kappa 值 (0.60) 显着高于单个特征的平均 kappa 值(0.53 和 0.39)。

图5 ESVL分类性能与基于单一特征分类器比较

此外,在表2的BCI Competition IV数据集2a和2b上,将所提方法的实验结果与最新的算法进行了比较。比较的方法包括递归量子神经网络(RQNN)模型、基于DCSP的、基于IDCSP的、基于FBCSP的、基于SBL的和基于CDFCSP的。为了评价所提出的基于ESVL的少通道MI脑电分类方法,在BCI竞赛IV数据集2a中,仅使用C3、Cz和C4通道的脑电进行了两类(左手和右手)分类。

表2 ESVL与各算法性能比较

结论:(1) 基于 ESVL 的方法在最先进的算法中表现最(2)与数据集 2a 中的其他方法相比,所提出的方法的平均性能提高了 82%、62%、15%、15%、18% 和 11%,kappa 值提高了 4%、20%、18%、16% 、16% 和 8% 在数据集 2b 中。

Student’s t-test检验结果,p值如表3所示,表明与最先进的算法相比改进显著。

表3 Student’s t-test结果

三、个人总结和思考

在运动想象分类的问题上,作者使用了集成的思想来对原来的方法进行了改进,就基于CDFCSP特征和STDF的分类器可能存在互补关系的问题上进行了深入的探究。经过实验证明在一些对象上基于CDFCSP特征的分类器发挥良好,而对于另一些不同的对象则是基于STDF的分类器发挥更加出色。因此,作者提出自己的想法,把两种特征的优点结合起来,设计一个集成的SVM,进一步提高运动想象的分类性能,具体做法时使用两种不同的特征分别训练两个不同的SVM;此外,连接两种特征训练第三个不同的SVM;最后,三个SVM的都将被用来进行分类,他们分类的后验概率将被组合起来,得到最终的预测结果。最后实验证明ESVL的确进一步增强了分类性能,取得了不错的成果。我觉得作者能引入当下在运动想象领域使用较少的ERP来弥补传统分类器的不足,是这次实验成功的关键因素。所以对于一些现在在其他领域相对活跃的算法和思维融入到运动想象方面,可能会获得出乎意料的结果,如CNN、Capsule Networks等在其他与运动想象相关的研究论文中已经开始初露锋芒。

参考文献:

[1] Luo J, Gao X, Zhu X, et al. Motor imagery EEG classification based on ensemble support vector learning[J]. Computer methods and programs in biomedicine, 2020, 193: 105464.

声明:本内容系学者网用户个人学术动态分享,不代表平台立场。

评论 1

Xiong Xiong 2022-12-21 22:04:28
想请问下2012年的那篇FBCSP原文不是在BCI IV 2a上跑出来0.663的kappa吗,怎么在这篇文章里面对比的时候差这么远
华南师范大学
近期热门动态
暂无热门动态
SCHOLAT.com 学者网
免责声明 | 关于我们 | 联系我们
联系我们:
返回顶部