决定系数(coefficient of determination),有的教材上翻译为判定系数,也称为拟合优度。是相关系数的平方。表示可根据自变量的变异来解释因变量的变异部分。如某学生在某智力量表上所得的 IQ 分与其学业成绩的相关系数 r=0.66,则决定系数 R^2=0.4356,即该生学业成绩约有 44%可由该智力量表所测的智力部分来说明或决定。 [1] 

决定系数原理

表征依变数Y的变异中有多少百分比,可由控制的自变数X来解释.
相关系数(coefficient of correlation)的平方即为决定系数。它与相关系数的区别在于除掉|R|=0和1情况,
由于R2<R,可以防止对相关系数所表示的相关做夸张的解释。
决定系数:在Y的总平方和中,由X引起的平方和所占的比例,记为R2(R的平方)
决定系数的大小决定了相关的密切程度。
当R2越接近1时,表示相关的方程式参考价值越高;相反,越接近0时,表示参考价值越低。这是在一元回归分析中的情况。但从本质上说决定系数和回归系数没有关系,就像标准差和标准误差在本质上没有关系一样。
在多元回归分析中,决定系数是通径系数的平方。
表达式:R2=SSR/SST=1-SSE/SST
其中:SST=SSR+SSE,SST (total sum of squares)为总平方和,SSR (regression sum of squares)为回归平方和,SSE (error sum of squares) 为残差平方和。
注意:以下不同名字是同一个意思,只是表述不同
回归平方和:SSR(Sum of Squares for regression) = ESS (explained sum of squares)
残差平方和:SSE(Sum of Squares for Error) = RSS (residual sum of squares) =SSR(sum of squared residuals)
总离差平方和:SST(Sum of Squares for total) = TSS(total sum of squares)
注意:两个SSR的不同
  SSE+SSR=SST
RSS+ESS=TSS
意义:拟合优度越大,自变量对因变量的解释程度越高,自变量引起的变动占总变动的百分比高。观察点在回归直线附近越密集。
取值意思:
0 表示模型效果跟瞎猜差不多
1 表示模型拟合度较好(有可能会是过拟合,需要判定)
0~1 表示模型的好坏(针对同一批数据)
小于0则说明模型效果还不如瞎猜(说明数据直接就不存在线性关系)

决定系数作用

判定系数只是说明列入模型的所有解释变量对因变量的联合的影响程度,不说明模型中单个解释变量的影响程度。
对时间序列数据,判定系数达到0.9以上是很平常的;但是,对截面数据而言,能够有0.5就不错了。

决定系数用例

判定系数达到多少为宜?
没有一个统一的明确界限值;
若建模的目的是预测因变量值,一般需考虑有较高的判定系数。
若建模的目的是结构分析,就不能只追求高的判定系数,而是要得到总体回归系数的可信任的估计量。判定系数高并不一定每个回归系数都可信任。

决定系数区别

判定系数和相关系数的区别
判定系数
相关系数
就模型而言
就两个变量而言
说明解释变量对因变量的解释程度
度量两个变量线性依存程度。
度量不对称的因果关系
度量不含因果关系的对称相关关系
取值:[0,1]
取值:[-1,1]
参考资料
  • 1.    顾明远.教育大辞典:上海教育出版社,1998年