第 10 章 模型的诊断与检验10.1模型总显著性的F检验(已讲过)10.2模型单个回归参数显著性的t检验(已讲过)10.3检验若干线性约束条件是否成立的F检验10.4似然比(LR)检验10.5沃尔德(Wald)检验(只讲应用)10.6拉格朗日乘子(LM)检验(只讲线性约束情形)10.7邹(Chow)突变点检验(不讲)File:li-10-1File:li-10-310.8JB(Jarque-Bera)正态分布检验file:li-10-810.9格兰杰(Granger)因果性检验10.11赤池信息准则(AIC),施瓦茨准则(SC)
File:li-10-1 File:li-10-3 file: li-10-8 第 10 章 模型的诊断与检验 10.1 模型总显著性的 F 检验(已讲过) 10.2 模型单个回归参数显著性的 t 检验(已讲过) 10.3 检验若干线性约束条件是否成立的 F 检验 10.4 似然比(LR)检验 10.5 沃尔德(Wald)检验(只讲应用) 10.6 拉格朗日乘子(LM)检验(只讲线性约束情形) 10.7 邹(Chow)突变点检验(不讲) 10.8 JB(Jarque-Bera)正态分布检验 10.9 格兰杰(Granger)因果性检验 10.11 赤池信息准则(AIC),施瓦茨准则(SC)
(第4版231页)第10章模型的诊断与检验在建立模型过程中,要对模型参数以及模型的各种假定条件作检验。这些检验要通过运用统计量来完成。在第2章和第3章已经介绍过检验单个回归参数显著性的t统计量和检验模型参数总显著性的F统计量。在第5章介绍了模型误差项是否存在异方差的Goldfeld-Quandt检验、White检验、Gleiser检验:在第6章介绍了模型误差项是否存在自相关的DW检验、BG(LM)检验、直接拟合检验。为知识的完整性,本章开始先简要总结模型参数总显著性的F检验、单个回归参数显著性的t检验。然后再介绍几个在建模过程中也很常用的其他检验方法,即检验模型若于线性约束条件是否成立的F检验、似然比(LR)检验、Wald检验、LM检验、正态性的JB检验、Granger非因果性检验以及赤池信息准则(AIC),施瓦茨准则(SC)
(第 4 版231页) 第10 章 模型的诊断与检验 在建立模型过程中,要对模型参数以及模型的各种假定条件作检验。 这些检验要通过运用统计量来完成。在第 2 章和第 3 章已经介绍过检验 单个回归参数显著性 的 t 统计量和检验模型参数总显著性的 F 统计量。 在第 5 章介绍了模型误差项是否存在异方差的 Goldfeld-Quandt 检验、 White 检验、Glejser 检验;在第 6 章介绍了模型误差项是否存在 自相关 的 DW 检验、BG(LM)检验、直接拟合检验。 为知识的完整性,本章开始先简要总结模型参数总显著性的 F 检验、 单个回归参数显著性的 t 检验。然后再介绍几个在建模过程中也很常用 的其他检验方法,即检验模型若干线性约束条件是否成立的 F 检验、似 然比(LR)检验、Wald 检验、LM 检验、 正态性 的 JB 检验、Granger 非因果性检验以及赤池信息准则(AIC),施瓦茨准则(SC)
(第4版231页)模型总显著性的F检验。10.1 7以多元线性回归模型,yt=β+βix+βaxz+..+βkxtk+ut为例,原假设与备择假设分别是Ho:β=β=...=β=0;Hi:β,不全为零在原假设成立条件下,统计量SSR/(k)F=~F(k,T-k-1)SSE/(T-k-1)其中SSR指回归平方和;SSE指残差平方和;k+1表示模型中被估参数个数;T表示样本容量。判别规则是若F≤Fα(k,T-k-1),接受Ho;若F>Fα(k,T-k-1),拒绝Ho(详见第3章)
(第4版231页) 10.1 模型总显著性的 F 检验。 以多元线性回归模型,yt = 0 +1 xt1 + 2 xt2 +.+ k xt k + ut为例, 原假设与备择假设分别是 H0:1 = 2 = . = k = 0;H1:j不全为零 在原假设成立条件下,统计量 ~ ( , 1) /( 1) /( ) − − − − = F k T k SSE T k SSR k F 其中 SSR 指回归平方和;SSE 指残差平方和;k+1 表示模型中 被估参数个数;T 表示样本容量。判别规则是, 若 F F (k,T-k-1),接受 H0;若 F > F (k,T-k-1), 拒绝 H0。 (详见第 3 章)
10.2模型单个回归参数显著性的t检验对于多元线性回归模型,yt=β+βix+βxz+...+βkxtk+ut如果F检验的结论是接受原假设,则检验止。如果F检验的结论是拒绝原假设,则进一步作检验。检验模型中哪个(或哪些)解释变量是重要解释变量,哪个是可以删除的变量。原假设与备择假设分别是Ho: β;=0; Hi: β; ±0, (j=1,2, .., k)。注意:这是做k个t检验。在原假设成立条件下,统计量βt(T-k-1), (j =1, 2, ..., k)s(β.)其中β,是对β;的估计,s(β,),j=1,2,.…,k是β,的样本标准差。判别规则是,若| t ≤ta(T-k-1),接受Ho;若| t >tα(T-k-1),拒绝Ho。详见第2章。(第4版232页)
10.2 模型单个回归参数显著性的t 检验 (第4版232页) 对于多元线性回归模型,yt = 0 +1 xt1 + 2 xt2 +.+ k xt k + ut 如果 F 检验的结论是接受原假设,则检验止。如果 F 检验的结论 是拒绝原假设,则进一步作 t 检验。检验模型中哪个(或哪些) 解释变量是重要解释变量,哪个是可以删除的变量。原假设与备 择假设分别是 H 0:j = 0; H1:j 0,(j = 1, 2, ., k)。 注意:这是做 k 个 t 检验。在原假设成立条件下,统计量 t = ) ˆ ( ˆ j j s t(−k-1) , (j = 1, 2, ., k) 其中 j ˆ 是对j的估计, ) ˆ ( j s , j = 1, 2, ., k 是 j ˆ 的样本标准差。 判别规则是, 若 t t(−k-1),接受 H 0; 若 t > t(−k-1),拒绝 H 0。 详见第 2 章
10.3检验若干线性约束条件是否成立的F检验DependentVariable:DEBTMethodLeastSquaresDate:11/14/11Time:09:27Sample:19802001Includedobservations:22Prob.VariableCoeficientStd.Errort-Statistic只要是向模型中不断加入回归因子,无论回归因子有无C80.25663138.50020.5794690.5687显著性作用,R值都会不断REPAY1.7533690.13636912.857500.0000增加,SSE值都会不断减小。50046250.892076R-squaredSumsquaredresidProb.VariableCoefficientStd.Errort-Statisticc-299.64030.0475141.3900-2.119246REPAY0.4336840.3457651.2542750.2250GDP0.00083.4587400.8649843.9986160.9413942717656R-squaredSumsquaredresidStd.ErrorProb.VariableCoeficientt-StatisticC4.31400821.667250.1991030.84440.0000REPAY0.8797600.04950817.77022GDP0.3452020.1544702.2347560.0384DEF0.00000.9954030.03161331.4869948460.780.998955SumsquaredresidR-squared(第4版233页)
10.3 检验若干线性约束条件是否成立的F 检验 只要是向模型中不断加入回 归因子,无论回归因子有无 显著性作用,R2值都会不断 增加,SSE值都会不断减小。 (第4版233页)