基于鲸鱼算法优化的lssvm回归预测 - 附代码

文章目录

基于鲸鱼算法优化的lssvm回归预测 - 附代码1.数据集2.lssvm模型3.基于鲸鱼算法优化的LSSVM4.测试结果5.Matlab代码

摘要:为了提高最小二乘支持向量机(lssvm)的回归预测准确率,对lssvm中的惩罚参数和核惩罚参数利用鲸鱼算法进行优化。

1.数据集

数据信息如下:

data.mat 的中包含input数据和output数据

其中input数据维度为:2000*2

其中output数据维度为2000*1

所以RF模型的数据输入维度为2;输出维度为1。

2.lssvm模型

lssvm请自行参考相关机器学习书籍。

3.基于鲸鱼算法优化的LSSVM

鲸鱼算法的具体原理参考博客:https://blog.csdn.net/u011835903/article/details/107559167

鲸鱼算法的优化参数为惩罚参数和核惩罚参数。适应度函数为RF对训练集和测试集的均方误差(MSE),均方误差MSE越低越好。

f

i

n

t

e

n

e

s

s

=

M

S

E

[

p

r

e

d

i

c

t

(

t

r

a

i

n

)

]

+

M

S

E

[

p

r

e

d

i

c

t

(

t

e

s

t

)

]

finteness = MSE[predict(train)] + MSE[predict(test)]

finteness=MSE[predict(train)]+MSE[predict(test)]

4.测试结果

数据划分信息如下: 训练集数量为1900组,测试集数量为100组

鲸鱼参数设置如下:

%% 利用鲸鱼算法选择回归预测分析最佳的lssSVM参数c&g

%% 鲸鱼参数设置

% 定义优化参数的个数,在该场景中,优化参数的个数dim为2 。

% 定义优化参数的上下限,如c的范围是[0.01, 1], g的范围是[2^-5, 2^5],那么参数的下限lb=[0.01, 2^-5];参数的上限ub=[1, 2^5]。

%目标函数

fobj = @(x) fun(x,Pn_train,Tn_train,Pn_test,Tn_test);

% 优化参数的个数 (c、g)

dim = 2;

% 优化参数的取值下限

lb = [0.01,0.01];

ub = [5,5];

% 参数设置

pop =20; %鲸鱼数量

Max_iteration=5;%最大迭代次数

WOA-LSSVM优化得到的最优参数为: WOA-LSSVM优化得到的gama为:5 WOA-LSSVM优化得到的sig2为:0.55147

WOA-LSSVM结果: WOA-LSSVM训练集MSE:0.05253 WOA-LSSVM测试集MSE:0.026222 LSSVM结果: LSSVM训练集MSE:0.16558 LSSVM测试集MSE:0.072999

从MSE结果来看,经过改进后的鲸鱼-LSSVM明显优于未改进前的结果。

5.Matlab代码

相关链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: