残差平方和

統計学において、残差平方和(ざんさへいほうわ、: residual sum of squares, RSS)は、残差の平方(二乗)のである。残差二乗和、SSR(sum of squared residuals)やSSE(sum of squared errors of prediction)とも呼ばれる。残差平方和はデータと推定モデルとの差異を評価している尺度である。小さいRSSの値はデータに対してモデルがぴったりとフィットしていること示している。

一般的に、平方和の分解(英語版)

(全平方和(英語版)) = (回帰平方和(英語版)) + (残差平方和)

が成り立つ[1]

説明変数

単一の説明変数を持つモデルでは、RSSは以下の式で与えられる。

R S S = i = 1 n ( y i f ( x i ) ) 2 {\displaystyle \mathrm {RSS} =\sum _{i=1}^{n}(y_{i}-f(x_{i}))^{2}}

この時 yii 番目の変数の値、xii 番目の説明変数の値、 f ( x i ) {\displaystyle f(x_{i})} y i ^ {\displaystyle {\hat {y_{i}}}} とも)はyiの予測値である。標準線形単純回帰モデルでは、 y i = a + b x i + ε i {\displaystyle y_{i}=a+bx_{i}+\varepsilon _{i}\,} a および b係数y および x はそれぞれ従属変数および独立変数、εは誤差項)である。残差平方和は εi推定量の平方の和であり以下の式で表わされる。

R S S = i = 1 n ε i 2 = i = 1 n ( y i ( α + β x i ) ) 2 , {\displaystyle \mathrm {RSS} =\sum _{i=1}^{n}\varepsilon _{i}^{2}=\sum _{i=1}^{n}(y_{i}-(\alpha +\beta x_{i}))^{2},}

この時、α は定数項 a {\displaystyle a} の推定値、β は回帰係数 b の推定値である。


脚注

  1. ^ 統計・OR活用辞典. 東京書籍. (1984). p. 174. 全国書誌番号:85011785 

関連項目