In editing…
Logistic回归属于分类模型!!!
从最小二乘说起
线性回归
概率解释
Sigmoid函数的引入
如果把我比作一张白纸,在我的知识储备中,现在只有线性回归。但是要处理分类问题,我该怎么办?没办法,先考虑一个二分类问题,$y \in \{0,1\}$,我们准备霸王硬上弓,用回归模型套上去!
至少我们希望$h_{\theta}(x) \in (0,1)$,就那么刚刚好,有一族函数,这里我们特指其中一个
请记住它的名字,它就是大名鼎鼎的sigmoid函数。可以的话,请再记住它两个迷人的性质:
- $g’(t) = g(t)(1-g(t))$
- $1 - g(t) = g(-t)$
Logistic 回归
现在,我们模型的假设是
我们希望通过训练改变 $\theta$ 的值,进一步改善我们的模型。现在,我们打算换一个角度来看待这个问题,因为$g(\theta^T x) \in (0,1)$,正好可以表示一个概率,而之前我们看到,最小二乘实际上等价于,我对数据有一些假设(高斯白噪声),在这些假设下,做参数$\theta$的极大似然估计(MLE). 基于这个想法,我们假设,
然后就那么刚刚好,回忆一下sigmoid函数有哪些迷人的性质,你会发现下面的式子也是对的
再假设m个样本独立同分布,我们得到似然函数
进一步,得到对数似然
现在,我们基于MLE的方法,来调整参数 $\theta$ 的值,使得对数似然函数最大。很自然的,我们可以使用梯度上升的方法,更新规则为
注意梯度上升是沿着正梯度方向更新。给定一个训练样本 $(x,y)$, 其梯度为
迭代使得似然函数最大化,完成训练。最后应该输出一个0~1之间的概率值。我们可以人为设定一个阈值(如0.5),当输出概率大于0.5,判定$y=1$,反之亦然。如此一来,就完成了回归到分类的转化。
另外,上述sigmoid函数又叫logistic函数,故名。Logistic回归事实上是一个分类器!!!