残差公式证明
郝伟 2020/01/03
在线性回归计算(Linear Regression) 中,有三个非常重要的概念:
- 总离差平方和(Sum of Squares Total)
SST=i=1∑n(yi−yˉ)2

- 残差平方和(Sum of Squared Errors)
SSE=i=1∑n(yi−y^i)2

- 回归平方和(Sum of Squares Regression )
SSR=i=1∑n(y^i−yˉ)2

三者存在下重要关系
SST=SSE+SSR
即:
i=1∑n(yi−yˉ)2=i=1∑n(yi−y^i)2+i=1∑n(y^i−yˉ)2
这个结论很重要,表明了三者的关系,同时也简化了计算。但是结论似乎很奇怪,因为根据常识,当 a+b=c 成立的时候,a2+b2=c2 是不能保证一定成立的。我们将上面的等式展开,化简后可以得到以下等式:
∑(yi^−yiˉ)(yi−yi^)=0
所以,我们只要证明这个等式成立,即可证明 SST=SSE+SSR,然而发现这个等式还真不好证明,在查阅了大量资料后,总算完成了证明,过程如下所示。
最小二乘回归的基本原理是将误差的平方和最小化。实际上公式中所要求的就是 ei=yi−yi^,我们可以使用微积分找到参数β0 和 β1 的方程式,以使∑0nei2 的值最小。(注:为书写和显示方便直观,在证明过程中省略求和的上下限。)
设 yi^=β0+β1xi,则:
S=i=1∑nei2=∑(yi−yi^)2=∑(yi−β0−β1xi)2
我们的目的就是找到 β0 和 β1 使总和 S 最小的值。根据高等数据的基本原理,一个函数取得最值的点的导数为0。由此可得,S 求相对于 β0 的偏导数为零,即:
∂β0∂S=∑2(yi−β0−β1xi)1(−1)=0
化简后得到:
∑(yi−β0−β1xi)=0
即
∑(yi−yi^)=0(Eq.1)
然后,再重新排列并求解 β0,
∑β0=∑yi−β1∑xi
nβ0=∑yi−β1∑xi
β0=n1∑yi−β1n1∑xi
在求完β0的偏导数以后,我们再求 S 相对 β1 的偏导数,同理有:
∂β1∂S=∑2(yi−β0−β1xi)1(−xi)=0
等式两边同时除以 −2 再重新排列,可得:
∑xi(yi−β0−β1xi)=0
即
∑xi(yi−yi^)=0
又因为 yi^=β0+β1xi,所以
xi=β11(yi^−β0)=β11yi^−β1β0
最后,再将其代入上面的方程式,即可得到预期的表达式:
∑xi(yi−yi^)=0
∑(β11yi^−β1β0)(yi−yi^)=0
β11∑yi^(yi−yi^)−β1β0∑(yi−yi^)=0
现在,第二项为零(由 eqn.1 表示),因此,我们立即得到所需的结果:
∑yi^(yi−yi^)=0(Eq. 2)
最终,根据 Eq.2−yˉ∗Eq.1 可得
∑yi^(yi−yi^)−yˉ∑(yi−yi^)=0
即
∑(yi^−yiˉ)(yi−yi^)=0
综上,我们最终可以得到以下结论:
i=1∑n(yi−yˉ)2=i=1∑n(yi−y^i)2+i=1∑n(y^i−yˉ)2
通过以上证明过程,我们证明了 SST=SSE+SSR。但是正如前言所说,当 a+b=c 成立的时候,a2+b2=c2 是不能保证一定成立的,这里的等式之所以成立,是因为有个重要的前提就是拟合值最小,所以我们才可以用∂β0∂S=0 和 ∂β1∂S=0 两式联立进行求解。如果没有这个条件,即拟合过程中没有取得最值,这个结论是不能保证成立的。
[1] https://stats.stackexchange.com/questions/207841/why-is-sst-sse-ssr-one-variable-linear-regression/401299#401299
[2] https://math.stackexchange.com/questions/709419/prove-sst-ssessr
[3] https://web.njit.edu/~wguo/Math644_2012/Math644_Chapter 1_part4.pdf
[4] https://365datascience.com/sum-squares/