(二)一元线性回归模型的统计假设 应用最小二乘法的前提;注意,是针对 (1)。Eu=0,t=1,2,…,n 即扰动项的均值(期望值)为0 (2).E(u)=0j 即各期扰动项互不相关 (3)E(u2)=σ2,t=1,2,…n 即各期扰动项方差是一常数 (4)。解释变量X为非随机量 即x的取值是确定的 (5).ut~N(0,a2),t=1,2 即各期扰动项服从正态分布
(二)一元线性回归模型的统计假设 -------应用最小二乘法的前提;注意,是针对 u (1). E(ut) = 0, t= 1, 2, ...,n 即扰动项的均值(期望值)为0. (2). E(uiuj) = 0 i j 即各期扰动项互不相关. (3). E(ut 2 ) = 2 , t= 1, 2, ...,n 即各期扰动项方差是一常数. (4). 解释变量Xt 为非随机量 即Xt的取值是确定的 (5). ut ~ N( 0, 2 ) , t= 1, 2, ...,n 即各期扰动项服从正态分布
下面简单讨论一下上述假设条件。 (1)E(u)=0,t=1,2,,n 均值为0的假设反映了这样一个事实: 扰动项被假定为那些对因变量的不能列为模型主 要部分的微小影响。没有理由相信这样一些影响会以 种系统的方式使因变量增加或减小。因此扰动项均 值为0的假设是合理的。 反之,则说明u中含有某些系统因素应该进入模型
下面简单讨论一下上述假设条件。 (1)E(ut ) = 0, t=1,2,…,n 均值为0的假设反映了这样一个事实: 扰动项被假定为那些对因变量的不能列为模型主 要部分的微小影响。没有理由相信这样一些影响会以 一种系统的方式使因变量增加或减小。因此扰动项均 值为0的假设是合理的。 反之,则说明u中含有某些系统因素应该进入模型
(2)E(up)=0,i 也就是假定它们之间无自相关或无序列相关。 实际上该假设等同于 cOV U Ui= 这是因为: cov(ur,u)=E{u-E(u川 Equ; i 根据假设(1) 否则说明u存在某种系统趋势,可能遗漏重 要变量
(2)E(uiuj ) = 0, i≠j 也就是假定它们之间无自相关或无序列相关。 实际上该假设等同于: cov( uI , uj ) = 0, i≠j 这是因为:cov(uI , uj ) = E{[ui - E(ui )][uj - E(uj )]} = E(uiuj ) ——根据假设(1) ---否则说明u存在某种系统趋势,可能遗漏重 要变量
(3)E(u12)=o2,t=1,2,n (波动的稳定性),也就是假定各扰动项具有同方 差性。 实际上该假设等同于 Ⅴar(u=0,i#j 这是因为: var(u=E{[uE(u)=E(u12)根据假设(1)
(3)E(ut 2 )= 2 , t=1,2,…,n (波动的稳定性),也就是假定各扰动项具有同方 差性。 实际上该假设等同于: Var( ut ) = 0, i≠j 这是因为: Var(ut )=E{[ut -E(ut )]2 }= E(ut 2 )——根据假设(1))
(4)X为非随机量 有的书上采用弱一些的条件:E(Xu=0, 卯解释变量X与扰动项u不相关; 否则分不清是谁对y的影响 (5)u4~N(0,a2),t=1,2,…,n 构造建议统计量的性质保证,旦服从正态分布 的偎设不成立,仍可证明OLS估计量为BLUE,但不 可能再证明OLS估计量服从正态分布。在这种情况下, 我们只有转而求助于渐近正态性,即只要观测值的数 目足够多,我们仍可假定OLS估计量近似地服从正态 分布
(4) Xt为非随机量 有的书上采用弱一些的条件:E(Xtut ) = 0, 即解释变量X与扰动项u不相关; ---否则分不清是谁对y的影响 (5)ut ~ N( 0, 2 ) , t= 1, 2, ...,n 构造建议统计量的性质保证,ut服从正态分布 的假设不成立,仍可证明OLS估计量为BLUE,但不 可能再证明OLS估计量服从正态分布。在这种情况下, 我们只有转而求助于渐近正态性,即只要观测值的数 目足够多,我们仍可假定OLS估计量近似地服从正态 分布