最小二乘法原理示意图 使∑(y;-y;)=mn
16 最小二乘法原理示意图 yi 。 。 。 。 。 。 。 。 。 。 yi ^ x y 0 。 。 使 (y − y ˆ ) = min 2 i i
最小二乘估计的性质 可以证明,在满足经典假设的条件下 B和β1分别是参数β和B1的最小方差无偏估计 2.B和B1的方差分别为: x N∑(x1-x) D(B1)= ∑(x,-x)2 以上两式说明,回归系数B。和β的估计精度不仅与σ2 及样本容量N有关,而且与各x取值的分散程度有关。样 本容量N越大,x;的取值越分散,则估计的方差就越小 即对参数β和β1的估计就越精确;反之估计的精确就差。 了解这一点,对指导试验(抽样)安排是非常重要的。 17
17 三.最小二乘估计的性质 可以证明,在满足经典假设的条件下 1. 和 分别是参数 0 和 1 的最小方差无偏估计。 2. 和 的方差分别为: 以上两式说明,回归系数 和 的估计精度不仅与σ 2 及样本容量N有关,而且与各xi取值的分散程度有关。样 本容量N越大,xi 的取值越分散,则估计的方差就越小, 即对参数0和1的估计就越精确;反之估计的精确就差。 了解这一点,对指导试验(抽样)安排是非常重要的。 0 β ˆ β1 ˆ 0 β ˆ 1 β ˆ ] N ( ) 1 ) σ [ D(ˆ 2 2 2 0 − = + x x x i β − = 2 2 1 ( ) σ ) D(ˆ x x i β 0 β ˆ 1 β ˆ
四.回归方程的显著性检验 对一元线性回归模型,如果变量Y与X之间并 不存在线性相关关系,则模型中的一次项系数β1 应为0;反之,则β0,故对一元回归模型,要 检验的原偎设为 H0:β1=0 下面,仍用方差分析方法来检验H Y的观察值y1,y2,…,y之间的差异是由两方面 的原因引起的 (1)解释变量X的取值x不同; (2)其他因素和试验误差的影响
18 四. 回归方程的显著性检验 对一元线性回归模型,如果变量Y与X之间并 不存在线性相关关系,则模型中的一次项系数 1 应为 0;反之,则 1≠0,故对一元回归模型,要 检验的原假设为 H0:1= 0 下面,仍用方差分析方法来检验H0。 Y的观察值y1,y2,…,yN 之间的差异是由两方面 的原因引起的: (1) 解释变量X的取值xi不同; (2) 其他因素和试验误差的影响
1.偏差平方和的分解 为检验以上两方面中哪一个对Y取值的影响是主要的 需要将它们各自引起的差异,从y;总的差异中分解出来。 与方差分析类似地,可以用 总的偏差平方和 r=∑(y1-y 2 来刻画全部观察值y总的波动量。将S作如下分解: Sr=∑(y y)2=∑(y;-y;)2+∑(y;-y)2 EOR 称为SR为回归平方和,它主要是由于变量X的取值不 同引起的,其大小反映了模型中Ⅹ的一次项对Y影响的重 要程度。称SE为剩余平方和或残差平方和,它主要是由 随机误差和其他因素的影响所引起的。 19
19 1. 偏差平方和的分解 为检验以上两方面中哪一个对Y取值的影响是主要的, 需要将它们各自引起的差异,从yi总的差异中分解出来。 与方差分析类似地,可以用 总的偏差平方和 来刻画全部观察值yi总的波动量。将ST作如下分解: = SE+SR 称为SR为回归平方和,它主要是由于变量X的取值不 同引起的,其大小反映了模型中X的一次项对Y影响的重 要程度。称SE为剩余平方和或残差平方和,它主要是由 随机误差和其他因素的影响所引起的。 = − 2 T i S (y y) 2 i 2 i i 2 T i S = (y − y) = (y − y ˆ ) + (y ˆ − y)
2.检验H的统计量 可以证明,当H为真时,统计量 F S=/(N-2) F(1,N-2) 因此,在给定显著性水平α下,若 F>Fa(1,N-2) (*) 就拒绝H,并称回归方程是显著的;反之,则称回归 方程无显著意义。若不能拒绝H,则可能有以下原因. 1)Y和X之间并非是线性关系; (2)模型中忽略了对Y有重要影响的其他因素; (3)Y和X基本无关; (4)试验误差过大
20 2. 检验H0的统计量 可以证明,当H0为真时,统计量 ~ F(1,N-2) 因此,在给定显著性水平下,若 F > F (1,N-2) (*) 就拒绝H0,并称回归方程是显著的;反之,则称回归 方程无显著意义。若不能拒绝H0,则可能有以下原因.: (1)Y和X之间并非是线性关系; (2)模型中忽略了对Y有重要影响的其他因素; (3)Y和X基本无关; (4)试验误差过大。 (N −2) = S / S F E R