一、Numpy实现CSP公式及对应的代码

CSP全部流程:

1、CSP先将数据按照类别分类,两类数据可分为E1、E2

2、计算分类后的原始数据的协方差矩阵:

方差矩阵:

C协方差矩阵,E原始EEG信号,trace求迹

实现代码:

1、定义了一个计算切好段的EEG数据的平均协方差矩阵的函数:数据输入三维度:N*C*T

2、然后使用一个空列表cov,通过for循环,对数据每个样本计算协方差矩阵,并使用cov空列表保存计算的矩阵

知识点:数组的转置a.T,数组求迹:np.trace()

3、最后先使用np.array()将列表cov转为numpy格式,再用np.mean()计算cov中每个样本的协方差的均值,在x轴上计算

4、返回cov平均协方差数组

2.2 求协方差矩阵cov的特征值,特征向量:

这里定义一个函数,用于求cov的特征值和特征向量,用于后面的正交白化变换需要的特征向量矩阵、特征值对角阵、特征值(以上皆降序排列)

代码:

1、求要处理的目标:样本的平均协方差,记为avg_cov

2、使用np.linalg.eig()函数求avg_cov的特征值、特征向量

3、使用no.sort()对特征值进行升序排序,再使用索引[::-1]设置为降序排序

4、使用np.argsort()函数求降序排列的特征值对应的索引输出

5、使用第四步求出的降序索引,对特征值对应的特征向量进行降序排序

6、使用np.diag()求降序的特征向量对应的对角阵

补充:numpy的线性代数函数:

估计线性模型中的系数:a=np.linalg.lstsq(x,b),有b=a*x

求方阵的逆矩阵np.linalg.inv(A)

求广义逆矩阵:np.linalg.pinv(A)

求矩阵的行列式:np.linalg.det(A)

解形如AX=b的线性方程组:np.linalg.solve(A,b)

求矩阵的特征值:np.linalg.eigvals(A)

求特征值和特征向量:np.linalg.eig(A)

Svd分解:np.linalg.svd(A)

3、正交白化变换P:

在上一步函数中,我们得到了每个类别的平均协方差对应的降序的特征值和特征向量,在这里定义一个函数,直接调用这两个值建立公式即可.

3.1 计算白化矩阵P:

P白化矩阵,U c特征向量矩阵,Λ c 特征值对角阵

代码:

1、使用numpy的linalg子模块的inv函数求特征值对角阵的逆

2、使用scipy的linalg子模块的sqrtm函数对矩阵开平方

注:np.linalg子模块没有sqrt(对元素开平方)、sqrtm(对矩阵开)的功能

图解:

3.2 为计算投影矩阵做准备

求出白化矩阵阵P后,将P作用于脑电信号每一类别数据的平均协方差矩阵avg_cov()有:

  S = P * avg_cov() * P.T

  对应的公式:

代码:

求一个类别的S矩阵的2个不同顺序的特征向量:

1、使用np.linalg.eig()函数求S一个类别的特征值λ,特征向量B

2、使用判断语句if从特征值λ中求两个大小相反顺序排列的索引idx

3、根据2个索引,得到大小排列顺序不同的2个矩阵λ,B(这里求特征矩阵的方式和2.2函数相同)

4、计算投影矩阵W:

对于特征向量B,当一个类别的S1矩阵有最大特征值时,此时另一个类别(2分类的话)应当有最小特征值,因此可以使用矩阵B实现两分类问题,可以得到

4.1 投影矩阵:

4.2 计算投影矩阵W的特征矩阵Z:

公式:

Z = 特征矩阵 W:投影矩阵 E:原始脑电数据

代码实现:

1、建立一个空列表Z,来保存后面处理好的数据

2、使用for循环,在原始EEG数据矩阵E的第一个维度进行循环遍历

3、使用list.append()函数装入W * E[i]循环相乘的矩阵,得到特征矩阵E

4、对E使用np.delete(array,obj,axis)函数,在横轴x上删除m,-m之间的元素,原因:

算法生成的CSP特征矩阵E,其信息不是等效的。特征信息主要集中在特征矩阵的头部和尾部,而中间的特征信息不明显,是可以忽略的,所以选取m行和后m行数据作为CSP特征提取的最终特征矩阵E。

注意:需要2m

我看到也有人先对W这样做,Z就不用做了,但CSP原论文是对E做

其中np.s_[m:-m:0]作用:

numpy中的c_、r_、s_不能称为函数,它只是CClass类的一个实例,而CClass是定义了切片方法__getitem__的类,

所以c_、r_、s_就可以对数组进行切片并按不同维度进行2个数组的链接

np.c_():切片并在y轴(列)链接

np.r_():切片并在x轴(行)链接

np.s_(x:y:z):生成python内置的 slice 函数,并设置 (start, stop ,step) 参数,例:

4.3 计算矩阵Z的特征值,并对其归一化:

公式:

代码:

1、定义空列表nor_data用于存数据

2、for循环遍历特征矩阵Z的第一个维度

3、np.var()函数求Z的方差

4、np.sum()函数求方差和

5、np.log10()求var/varsum的log值

6、最后list.append()保存log值,并np.array()转为数组

最终我们得到了原始EEG信号的投影矩阵的归一化的特征矩阵E的前m和后m行矩阵数据,作为原始数据的输入特征

5、实现一个CSP的类吧~

以上定义的函数用来Class一个CSP的类,代码:

import numpy as np

from scipy.linalg import inv,sqrtm

import torch

from sklearn.svm import SVC,NuSVC,LinearSVC

from sklearn.metrics import classification_report, accuracy_score

from sklearn.model_selection import cross_val_score, GridSearchCV, KFold

from numpy import *

from sklearn.pipeline import make_pipeline

from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

import matplotlib.pyplot as plt

def compute_cov(EEG_data):

'''

INPUT:

EEG_data : EEG_data in shape T x N x S

OUTPUT:

avg_cov : covariance matrix of averaged over all trials

'''

cov = []

for i in range(EEG_data.shape[0]):

cov.append(EEG_data[i]@EEG_data[i].T/np.trace(EEG_data[i]@EEG_data[i].T))

cov = np.mean(np.array(cov), 0)

return cov

# def Calculate_Covariance(data):

# '''

# Description: 计算原始EEG数据协方差矩阵:

# -------------------------------

# Parameters:

# data = N * C * T

# N:数据样本量

# C:EEG信号通道数

# T:每个通道包含的时间点

# return = 每个样本的平均协方差矩阵

# '''

# cov = []

# for i in range(data.shape[0]):

# cov.append((data[i] * data[i].T)/np.trace(data[i] * data[i].T))

# cov = np.mean(np.array(cov),axis=0)

# return cov

def Comput_Cov(avg_cov):

'''

Description: 计算协方差矩阵的特征值、特征向量、特征值对角阵:

-------------------------------

Parameters:

avg_cov = 协方差矩阵

return 降序的特征值对角阵、降序的特征向量

'''

feature_data,feature_matrix = np.linalg.eig(avg_cov)

feature_data_sort = np.sort(feature_data)[::-1]

feature_data_index = np.argsort(feature_data)[::-1]

feature_matrix_sort = feature_matrix[:,feature_data_index]

Diagonalize_feature = np.diag(feature_data_sort)

return feature_matrix_sort,Diagonalize_feature

def White_Matrix(feature_matrix_sort,Diagonalize_feature):

'''

Description: 求正交白化阵P

-------------------------------

Parameters:

return p

'''

Diagonalize_feature_sqr = sqrtm(np.linalg.inv(Diagonalize_feature))

P = Diagonalize_feature_sqr@feature_matrix_sort.T

return P

def Comput_S(avg_cov,white):

'''

Description: 求S矩阵: S = P * C * P.T

-------------------------------

Parameters:

return S

'''

S = white@avg_cov@white.T

return S

def Decomput_S(S_one_class,order='descending'):

'''

Description: 求S矩阵一类别不同顺序的两个特征向量:2个特征向量相同,但排列顺序不同

-------------------------------

Parameters:

return B,λ

'''

λ,B = np.linalg.eig(S_one_class)

# Sort eigenvalues either descending or ascending

if order == 'ascending':

idx = λ.argsort() # Use this index to sort eigenvector small -> largest

elif order == 'descending':

idx = λ.argsort()[::-1] # Use this index to sort eigenvector largest -> small

else:

print('input error')

λ = λ[idx]

B = B[:,idx]

return λ,B

def Projection_W(B,P):

'''

Description: 计算投影矩阵W = B.T * P

-------------------------------

Parameters:

return W

'''

return (B.T@P)

def Comput_Z(W,E):

'''

Description: 计算投影矩阵W的特征矩阵Z

-------------------------------

Parameters:

W.shape = M * M |E.shape = M * N | Z.shape = M * N

||

Z = W * E

N:电极数 | M:样本数 | m:W的前m行+后m行

return Z

'''

Z = []

for i in range(E.shape[0]):

Z.append(W@E[i])

return np.array(np.delete(Z,np.s_[3:-3:1],0))

def log_Z(Z):

'''

Description: 对特征矩阵Z归一化

-------------------------------

Parameters:

nor_data.shape = m * T

return feat

'''

nor_data = []

for i in range(Z.shape[0]):

var = np.var(Z[i],axis=1)

varsum = np.sum(var)

nor_data.append(np.log10(var/varsum))

return np.array(nor_data)

# class My_CSP():

# def __init__(self,m=2):

# super(My_CSP,self).__init__()

# self.m = m

# self.M = None

# def fit(self,x_train,y_train):

# #分类别,E1,E2

# x_train_left = x_train[y_train==0]

# x_train_right = x_train[y_train==1]

# # 计算协方差矩阵,avg_cov

# cov_left = Calculate_Covariance(x_train_left)

# cov_right = Calculate_Covariance(x_train_right)

# avg_cov = cov_left+cov_right

# # 计算白化变换矩阵,P

# eigval,eigve = Comput_Cov(avg_cov)

# P = White_Matrix(eigval,eigve)

# # 计算S矩阵+S的两个不同排列顺序的特征向量

# S_left = Comput_S(cov_left,P)

# S_right = Comput_S(cov_right,P)

# S_left_val,S_left_ve = Decomput_S(S_left,'descending')

# S_right_val,S_right_ve = Decomput_S(S_right,'ascending')

# # 计算投影矩阵W

# self.W = Projection_W(S_left_ve,P)

# def nor_Z(self,x_train):

# # 计算投影矩阵的特征矩阵Z

# Z_train = Comput_Z(self.W,x_train,self.m)

# norZ = log_Z(Z_train)

# return norZ

# def fit_nor_Z(self,x_train,y_train):

# self.fit(x_train,y_train) #类内调用fit方法

# fitnorZ = self.nor_Z(x_train) #类内调用nor_Z方法

# return fitnorZ

from sklearn import svm

if __name__ == '__main__':

#设置训练测试数据+标签

data = np.random.rand(10,512,32)

x_train_l = data

random.shuffle(data)

x_train_r = data

x_test = np.array([0])

x_test = np.repeat(x_test,3)

y_test = np.array([1])

y_test = np.repeat(y_test,3)

x_train = np.concatenate((x_train_l,x_train_r),axis=0)

y_train = np.concatenate((x_test,y_test),axis=0)

# X_train = torch.tensor(x_train)

# Y_train = torch.tensor(y_train)

model_acc = []

model_std = []

cov_left = compute_cov(x_train_l)

cov_right = compute_cov(x_train_r)

avg_cov = cov_left+cov_right

eigval,eigve = Comput_Cov(avg_cov)

P = White_Matrix(eigval,eigve)

# 计算S矩阵+S的两个不同排列顺序的特征向量

S_left = Comput_S(cov_left,P)

S_right = Comput_S(cov_right,P)

S_left_val,S_left_ve = Decomput_S(S_left,'descending')

S_right_val,S_right_ve = Decomput_S(S_right,'ascending')

# 计算投影矩阵W

W = Projection_W(S_left_ve,P)

# 计算投影矩阵的特征矩阵Z

Z_train = Comput_Z(W,x_train)

norZ = log_Z(Z_train)

print(norZ.shape)

#设置分类器

model = svm()

model_acc.append(cross_val_score(model, norZ, y_train).mean()*100)

model_std.append(cross_val_score(model, x_train, y_train).std()*100)

model.get_params()

#画图

fig, ax = plt.subplots(figsize=(7, 3))

plt.rcParams.update({'font.size': 12})

ax.set_title('Accuracy (%)')

ax.bar(np.arange(1, 10), model_acc, color="#ffb152", yerr=model_std, capsize=3)

ax.set(xticks=np.arange(1, 10), xlabel='Subject',

yticks=np.arange(0, 101, step=10), ylabel='Accuracy',

title='5-fold Cross Validation Result')

ax.grid(axis='y', alpha=0.5)

plt.savefig('5fold_train_result.jpg')

plt.show()

# csp = My_CSP()

# clf = make_pipeline([('CSP', csp), ('SVC', lda)]) # 创建机器学习的Pipeline,也就是分类模型,使用这种方式可以把特征提取和分类统一整合到了clf中

# scores = cross_val_score(clf, x_train, y_train, cv=10) # 获取交叉验证模型的得分

# My_CSP.fit(x_train,y_train)

# lda.fit(x_train,y_train)

# score_one = []

# score_one.append(lda.score(x_train, y_train))

# print(score_one)

精彩内容

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: