1.如果假设1、2满足,则假设3也满足; 2.如果假设4满足,则假设2也满足 以上假设也称为线性回归模型的经典假设或 高斯(Gaus)假设,满足该假设的线性回归 模型,也称为经典线性回归模型( Classical Linear Regression Model, CLRM) 11
11 1. 如果假设1、2满足,则假设3也满足; 2. 如果假设4满足,则假设2也满足。 : 以上假设也称为线性回归模型的经典假设或 高斯(Gauss)假设,满足该假设的线性回归 模型,也称为经典线性回归模型(Classical Linear Regression Model, CLRM)
另外,在进行模型回归时,还有两个暗含的假设 对u) ■假设6.随着样本容量的无限增加,解释变量X 的样本方差趋于一有限常数。即 ∑(x1-X)1n-,n→0 假设6旨在排除时间序列数据出现持续上升或下 隆的变量作为解释变量(平稳的),因为这类 数据不仅使大样本统计推断变得无效,而且往 往产生所谓的伪回归问题( Spurious regression prob|em)
12 另外,在进行模型回归时,还有两个暗含的假设 (不是针对u): ◼ 假设6. 随着样本容量的无限增加,解释变量X 的样本方差趋于一有限常数。即 假设6旨在排除时间序列数据出现持续上升或下 降的变量作为解释变量(平稳的),因为这类 数据不仅使大样本统计推断变得无效,而且往 往产生所谓的伪回归问题(spurious regression problem)。 (Xi − X) / n →Q, n → 2
■假设7.回归模型是正确设定的 假设7也被称为模型没有设定偏误 (specification error 13
13 ◼ 假设7. 回归模型是正确设定的 假设7也被称为模型没有设定偏误 (specification error)
对于满足五条经典假设的模型,可 以使用最小二乘估计 §22回归模型的参数估计
14 §2.2 回归模型的参数估计 ---对于满足五条经典假设的模型,可 以使用最小二乘估计
设我们有Y和X的n对观测值数据,则根据(2)式, 变量Y的每个观测值应由下式决定: Y1=a+阝X;+山;,i=1,2,…,n(3) (3)式称为双变量线性回归模型或一元线性回归模型 其中a和B为未知的总体参数,也称为回归模型的 系数( coefficients)。下标i是观测值的序号。 当数据为时间序列时,往往用下标t来表示观测的 序号,从而(3)式变成 Yt=a+βXt+u,t=1,2,…,n (3) 15
15 设我们有Y和X的n对观测值数据,则根据(2)式, 变量Y的每个观测值应由下式决定: Yi = + Xi + ui , i = 1, 2, ...,n (3) (3)式称为双变量线性回归模型或一元线性回归模型。 其中 和 为未知的总体参数,也称为回归模型的 系数( coefficients)。下标 i是观测值的序号。 当数据为时间序列时,往往用下标 t来表示观测的 序号,从而(3)式变成 Yt = + Xt + ut , t = 1, 2, ...,n (3’)