In editing…
Logistic 回归属于分类模型!!!
从最小二乘说起
线性回归
概率解释
Sigmoid 函数的引入
如果把我比作一张白纸,在我的知识储备中,现在只有线性回归。但是要处理分类问题,我该怎么办?没办法,先考虑一个二分类问题,,我们准备霸王硬上弓,用回归模型套上去!
至少我们希望,就那么刚刚好,有一族函数,这里我们特指其中一个
请记住它的名字,它就是大名鼎鼎的 sigmoid 函数。可以的话,请再记住它两个迷人的性质:
Logistic 回归
现在,我们模型的假设是
我们希望通过训练改变 的值,进一步改善我们的模型。现在,我们打算换一个角度来看待这个问题,因为,正好可以表示一个概率,而之前我们看到,最小二乘实际上等价于,我对数据有一些假设(高斯白噪声),在这些假设下,做参数的极大似然估计 (MLE). 基于这个想法,我们假设,
然后就那么刚刚好,回忆一下 sigmoid 函数有哪些迷人的性质,你会发现下面的式子也是对的
再假设 m 个样本独立同分布,我们得到似然函数
进一步,得到对数似然
现在,我们基于 MLE 的方法,来调整参数 的值,使得对数似然函数最大。很自然的,我们可以使用梯度上升的方法,更新规则为
注意梯度上升是沿着正梯度方向更新。给定一个训练样本 , 其梯度为
迭代使得似然函数最大化,完成训练。最后应该输出一个 0~1 之间的概率值。我们可以人为设定一个阈值(如 0.5),当输出概率大于 0.5,判定,反之亦然。如此一来,就完成了回归到分类的转化。
另外,上述 sigmoid 函数又叫 logistic 函数,故名。Logistic回归事实上是一个分类器!!!