从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

时间:2022-04-24 04:58:48

网络上讲解 线性回归 与 逻辑斯谛回归的资料有很多,这里我从我自己的一个角度讲解这类问题

1.线性回归 Linear regression

   线性回归即对于离散的点,用直线来拟合,其可解决形如下面的问题

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)图一

   其线性函数表达式形式为:

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

   对于这样的表达式结构,我不禁想起这样的一种结构形式 

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)图二

   每一圆圈代表一个神经元,那么这样的结构很像神经网络,只有输入输出层的一种特殊神经网络!那么很自然,这样的模型我们如何训练呢?首先,我们要拿出损失函数

   损失函数为:

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

   接下来,我们可以用梯度下降法训练模型。

2. 逻辑斯谛回归 logistic regression

如果,我们已知样本值,我们想知道模型将其归为某一类别的概率,也就是说,这样的模型不但能给我们预测样本的类别,还能告诉我们,他这样分类的概率是多少,分类确信度是多少。也就是说模型中能给我们这样一个表达

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

我们知道 P(Y|X) 的取值范围在 [0,1]内,而样本的取值是不确定,*限的。那么我可以做这样的变换,得到 p(x) 的表达

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

其中,w0 是一个特殊参数,和任何变量无关,可以保证在没有任何信息的时候,有一个稳定的概率分布[2]。那么概率p的表达式同样可以写成这样

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

其中函数 f() 就是sigmoid函数。这样的表达式,是不是和神经网络更像了呢?看看下面的模型结构你就知道了

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

同样只有输入、输出的神经网络,这时候的网络结构跟真正的神经网络除了层数有差别,其神经元是一样的。这一点跟线性回归不一样。因为logistic regression是预测概率,所以,我们可用极大似然估计来训练模型,其表达式如下

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

梯度下降法以及拟牛顿法都能求解该问题。如果,分类问题不止是两个类别呢?

从神经网络的角度理解线性回归与逻辑斯谛回归(from Linear regression to logistic regression)

类似于神经网络多输出结构模型。


参考文献

[1] 统计学习方法,李航

[2] 数学之美,吴军

[3] Multi-nominal Logistic Regression Models onlinecourses PENNSTATE