相关文章

K近邻算法和KD树详细介绍及其原理详解朴素贝叶斯算法和拉普拉斯平滑详细介绍及其原理详解决策树算法和CART决策树算法详细介绍及其原理详解线性回归算法和逻辑斯谛回归算法详细介绍及其原理详解硬间隔支持向量机算法、软间隔支持向量机算法、非线性支持向量机算法详细介绍及其原理详解高斯分布、高斯混合模型、EM算法详细介绍及其原理详解

文章目录

相关文章前言一、线性回归二、逻辑斯谛回归总结

前言

  今天给大家带来的主要内容包括:线性回归算法、逻辑斯谛回归算法。废话不多说,下面就是本文的全部内容了!

一、线性回归

  假设小明现在有一个游戏战队,我们称其为蓝色战队,这支战队队员的游戏手感都比较慢热,在整个游戏比赛期间不同阶段的两个战队的得分情况如下所示:

图1:蓝色战队和橙色战队的得分情况

第5min:蓝色战队和橙色战队零十开第10min:蓝色战队和橙色战队一九开第20min:蓝色战队和橙色战队五五开第35min:蓝色战队和橙色战队九一开第40min:蓝色战队和橙色战队十零开

  由于游戏赛场上的情况变化莫测,作为游戏战队老板的小明想知道在比赛的第26min的时候,蓝色战队和橙色战队几几开呢?或者在比赛的其他时间,蓝色战队和橙色战队又是几几开呢?如果可以得到这样的数据,就可以帮助小明发掘他战队队员的最大潜力了。

图2:游戏比赛第26min蓝色战队和橙色战队的得分情况如何?

  为了得到以上信息,我们需要进行计算,在进行计算之前,首先我们要明确,几几开就代表着事情发生的几率,也就是蓝色战队赢下对局和输掉对局可能性的比值。我们把这些几率值列出来:

图3:在游戏比赛不同时间段的蓝色战队获胜的概率

  为了方便观察,我们把它转化为小数:

图4:将在游戏比赛不同时间段的蓝色战队获胜的概率转换为小数

  根据以上计算结果可以发现,当队伍十分可能输给对面的时候,赢的几率接近于零;当战队非常可能赢的时候,赢得几率接近于正无穷:

图5:将在游戏比赛不同时间段的蓝色战队获胜的概率刻画在数轴上

  虽然我们现在可以得到不同比赛时间的蓝色队伍获胜的概率分布情况,但是这种在正半轴十分不对称的分布不太好分析问题,所以我们使用几率的对数来分析数据:

图6:将在游戏比赛不同时间段的蓝色战队获胜的概率转换为对数概率

  可以看到,这样就可以把数据从正半轴重新映射回整条数轴上了:

图7:将在游戏比赛不同时间段的蓝色战队获胜的概率转换重新刻画在数轴上

  如果我们以对数几率作为

y

y

y轴,比赛时间作为

x

x

x轴,就可以把所有比赛的数据映射到

x

y

x \cdot y

x⋅y平面上了:

图8:将在整场比赛中的数据映射到x·y平面上

  可以发现,上图就是我们耳熟能详的线性回归。我们都知道,通过每一个点到直线的距离差,然后做一个最小二乘法的优化:

e

(

w

,

b

)

=

1

2

i

=

1

N

e

i

2

e(w,b)=\frac{1}{2}\sum_{i=1}^{N}||e_{i}||^{2}

e(w,b)=21​i=1∑N​∣∣ei​∣∣2   利用上式进行最小二乘法的优化后,就可以得到一条最完美的直线来拟合这些数据,得到这条直线之后,我们只需要查询

x

x

x轴所对应的时间,就可以求出赢下这场比赛的可能性了:

图9:使用最小二乘法得到对于整场比赛数据的最佳拟合直线

  以上就是对于线性回归的介绍。

二、逻辑斯谛回归

  虽然看起来我们可以得到比赛中不同时间段的蓝色队伍获胜的可能性,但是其中有许多数据点的

y

y

y值是正负无穷,这种情况可是没有办法计算数据和直线的距离误差的:

图10:使用直线拟合数据无法计算正负无穷时数据和直线距离误差

  为了解决这个问题,我们可以考虑把这条直线重新映射回概率空间,我们是以对数几率作为

y

y

y轴的,所以

y

y

y的值为:

y

=

log

(

p

1

p

)

y = \log(\frac{p}{1-p})

y=log(1−pp​)   我们现在要把概率

p

p

p写成

y

y

y的函数,所以等式两边做一个自然对数的幂:

e

y

=

p

1

p

e^{y}=\frac{p}{1-p}

ey=1−pp​   然后等式两边同时乘以

1

p

1-p

1−p:

(

1

p

)

e

y

=

p

(1-p)e^{y}=p

(1−p)ey=p   把括号展开:

e

y

p

e

y

=

p

e^{y}-pe^{y}=p

ey−pey=p   然后等式两边交换

p

e

y

pe^{y}

pey:

e

y

=

p

+

p

e

y

e^{y}=p+pe^{y}

ey=p+pey   这样等式的右面就可以提出公共项

p

p

p:

e

y

=

(

1

+

e

y

)

p

e^{y}=(1+e^{y})p

ey=(1+ey)p   此时,我们就可以得到

p

p

p的表达式:

p

=

e

y

1

+

e

y

p=\frac{e^{y}}{1+e^{y}}

p=1+eyey​   上式就是逻辑斯谛函数,当我们把直线

y

=

w

x

+

b

y=wx+b

y=wx+b的表达式代入到公式中,就得到了概率空间的表达:

p

=

e

w

x

+

b

1

+

e

w

x

+

b

p=\frac{e^{wx+b}}{1+e^{wx+b}}

p=1+ewx+bewx+b​   上式就是逻辑斯谛回归的概率函数,因此,我们可以这样理解,概率空间内的逻辑斯谛回归,其实就是对数几率空间内的线性回归:

图11:线性回归和逻辑斯谛回归

  此时,我们已经可以在概率空间中讨论不同比赛时间的蓝色队伍获胜的可能性了:

图12:在概率空间讨论不同比赛时间的蓝色队伍获胜的可能性

  既然回到了概率空间,我们就可以使用概率论中的极大似然估计,来得到拟合情况最好的逻辑斯谛曲线。首先,我们假设对于在时间

x

x

x时蓝色队伍赢下比赛的概率为

p

p

p:

p

(

y

=

1

x

)

=

p

p(y=1|x)=p

p(y=1∣x)=p   那么蓝色队伍在时间

x

x

x时输掉比赛的概率就是

1

p

1-p

1−p:

p

(

y

=

0

x

)

=

1

p

p(y=0|x)=1-p

p(y=0∣x)=1−p   因为

y

y

y的值只能取零或一,所以我们可以按照下式来表达任意样本

x

i

x_{i}

xi​的概率:

p

(

y

=

?

x

i

)

=

p

i

y

i

(

1

p

i

)

1

y

i

p(y=?|x_{i})=p_{i}^{y_{i}}(1-p_{i})^{1-y_{i}}

p(y=?∣xi​)=piyi​​(1−pi​)1−yi​   使用最大似然估计法得到的似然值就是这些样本概率的乘积:

L

=

i

=

1

N

p

(

y

=

?

x

i

)

L=\prod_{i=1}^{N}p(y=?|x_{i})

L=i=1∏N​p(y=?∣xi​)   我们可以把

p

(

y

=

?

x

i

)

=

p

i

y

i

(

1

p

i

)

1

y

i

p(y=?|x_{i})=p_{i}^{y_{i}}(1-p_{i})^{1-y_{i}}

p(y=?∣xi​)=piyi​​(1−pi​)1−yi​代入到上式中:

L

=

i

=

1

N

p

i

y

i

(

1

p

i

)

1

y

i

L=\prod_{i=1}^{N}p_{i}^{y_{i}}(1-p_{i})^{1-y_{i}}

L=i=1∏N​piyi​​(1−pi​)1−yi​   一系列式子的乘积是一个不太容易优化的表达,所以我们取它的对数形式,把乘法转化为加法:

log

(

L

)

=

i

=

1

N

y

i

log

(

p

i

)

+

(

1

y

i

)

log

(

1

p

i

)

\log (L)=\sum_{i=1}^{N} y_{i} \log \left(p_{i}\right)+\left(1-y_{i}\right) \log \left(1-p_{i}\right)

log(L)=i=1∑N​yi​log(pi​)+(1−yi​)log(1−pi​)   然后把括号展开整理一下:

log

(

L

)

=

i

=

1

N

y

i

log

p

i

1

p

i

+

log

(

1

p

i

)

\log (L)=\sum_{i=1}^{N} y_{i} \log \frac{p_{i}}{1-p_{i}}+\log \left(1-p_{i}\right)

log(L)=i=1∑N​yi​log1−pi​pi​​+log(1−pi​)   可以看到,在上式中,等号右面的式子中出现了

log

p

i

1

p

i

\log \frac{p_{i}}{1-p_{i}}

log1−pi​pi​​这个熟悉的身影,这就是之前我们介绍的对数几率,因为逻辑斯谛回归就是对数几率空间内的线性回归,所以我们可以将

log

p

i

1

p

i

\log \frac{p_{i}}{1-p_{i}}

log1−pi​pi​​替换成直线的方程:

log

(

L

)

=

i

=

1

N

y

i

(

w

x

i

+

b

)

+

log

(

1

p

i

)

\log (L)=\sum_{i=1}^{N} y_{i} (wx_{i}+b)+\log \left(1-p_{i}\right)

log(L)=i=1∑N​yi​(wxi​+b)+log(1−pi​)   需要注意的是,上式最后面的

p

i

p_{i}

pi​值就是逻辑斯谛函数,所以我们将逻辑斯谛函数

p

i

=

e

w

x

i

+

b

1

+

e

w

x

i

+

b

p_{i}=\frac{e^{wx_{i}+b}}{1+e^{wx_{i}+b}}

pi​=1+ewxi​+bewxi​+b​代入上式即可:

log

(

L

)

=

i

=

1

N

y

i

(

w

x

i

+

b

)

log

(

1

+

e

w

x

i

+

b

)

\log (L)=\sum_{i=1}^{N} y_{i} (wx_{i}+b)-\log \left(1+e^{wx_{i}+b}\right)

log(L)=i=1∑N​yi​(wxi​+b)−log(1+ewxi​+b)   上式就是我们最终得到的式子,这个式子之和

w

w

w和

b

b

b这两个参数相关,我们可以使用最大似然估计优化方法得到最好的

w

w

w和

b

b

b这两个参数:

w

^

,

b

^

=

a

r

g

m

a

x

w

,

b

i

=

1

N

y

i

(

w

x

i

+

b

)

log

(

1

+

e

w

x

i

+

b

)

\widehat{w}, \widehat{b}=argmax_{w,b}\sum_{i=1}^{N}y_{i}(wx_{i}+b)-\log(1+e^{wx_{i}+b})

w

,b

=argmaxw,b​i=1∑N​yi​(wxi​+b)−log(1+ewxi​+b)   当我们得到最优的参数

w

w

w和

b

b

b的值后,就可以将

x

=

26

x=26

x=26代入:

p

(

26

)

=

e

w

^

×

26

+

b

^

1

+

e

w

^

×

26

+

b

^

p(26)=\frac{e^{\widehat{w}\times 26+ \widehat{b}}}{1+e^{\widehat{w}\times 26+ \widehat{b}}}

p(26)=1+ew

×26+b

ew

×26+b

​   这样就可以得到在比赛的第26分钟时,蓝色战队获胜的概率了:

图13:通过逻辑斯谛回归计算在比赛的第26min时蓝色队伍获胜的概率

以上就是逻辑斯谛回归的全部过程。

总结

  以上就是本文的全部内容了,这个系列还会继续更新,给大家带来更多的关于机器学习方面的算法和知识,下篇博客见!

文章链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: