四.回归分析的主要内容和分析步骤 根据问题的实际背景、专业理论知识或通过 对观察值的分析,建立描述变量间相关关系的回 归模型; 2.利用观察值(样本)数据估计模型中的未知参 数,得到回归方程; 3.对模型进行检验; 4.利用通过检验的回归方程对被解释变量作预 测或控制
11 四. 回归分析的主要内容和分析步骤 1. 根据问题的实际背景、专业理论知识或通过 对观察值的分析,建立描述变量间相关关系的回 归模型; 2. 利用观察值(样本)数据估计模型中的未知参 数,得到回归方程; 3. 对模型进行检验; 4. 利用通过检验的回归方程对被解释变量作预 测或控制
s42一元线性回归 元线性回归模型 由§41的分析可知,一元线性回归模型可表 示为 Y=βo+β1X+8;:~N(0,o2) 其中Ⅹ是普通变量,表示除Ⅹ外其他因素和试 验误差对Y的影响,则 Y~N(βo+βX,o2) 称Y的条件期望 E(YX)=β+βx (4.2-1) 为Y对X的回归。 12
12 §4.2 一元线性回归 一. 一元线性回归模型 由§4.1的分析可知,一元线性回归模型可表 示为 Y= 0+ 1X+ ; ~N(0,2 ) 其中X是普通变量,表示除X外其他因素和试 验误差对Y的影响,则 Y~N( 0+ 1X,2 ) 称Y的条件期望 E(Y|X) = 0+ 1X (4.2-1) 为Y对X的回归
元线性回归模型的数据结构 设(y1,x1),i=1,2,…,N为N次试验的样本观察值, 则试验数据之间有如下结构: y=阝0+β1x;+£;;i=1,2,3,…,N E;N(0,G2),且相互独立 接下来,就可以利用所得的样本数据估计模型 中的未知参数β和β1 13
13 设(yi,xi),i=1,2,...,N为N次试验的样本观察值, 则试验数据之间有如下结构: yi= 0+ 1xi+ i ; i=1,2,3,…,N i ~N(0,2 ),且相互独立 接下来,就可以利用所得的样本数据估计模型 中的未知参数 0 和 1。 一元线性回归模型的数据结构
回归方程 记β,B1分别是参数βo和β1的点估计,并记 Y为Y的条件期望E(YX)的点估计,则由(42-1) 式,有 冰) Y=B+BX (4.2-2) 称(42-2)式为一元线性回归方程;并称β。、β, 为回归方程的回归系数。回归方程的图形就称为 回归直线。 对每一x1值,由回归方程可以确定一个回归值 y1=Bo+β1 14
14 回归方程 记 , 分别是参数 0 和 1 的点估计,并记 为Y的条件期望 E(Y|X)的点估计,则由(4.2-1) 式,有 (*) (4.2-2) 称(4.2-2)式为一元线性回归方程;并称 、 为回归方程的回归系数。回归方程的图形就称为 回归直线。 对每一 xi值,由回归方程可以确定一个回归值 0 β ˆ 1 β ˆ Y ˆ =β ˆ 0 +β ˆ 1 X Y ˆ 0 β ˆ 1 β ˆ i i x β0 β1 ˆ ˆ y ˆ = +
参数βa,B1的最小二乘估计 Y的各观察值y;与回归值之差反映了y1与回归直线 之间的偏离程度,从而全部观察值与回归值的残差平方 和 Q(B0,B)=∑(y;-y,)2 反映了全部观察值与回归直线间总的偏离程度。显然, Q的值越小,就说明回归直线对所有试验数据的拟和程度 越好所最心(e法是m 来确定、的京法。不难求得β和β1的最小二乘估计 为:β, ∑(x-b2 Bo=y-BiI
15 二. 参数0 , 1的最小二乘估计 Y的各观察值yi与回归值 之差反映了yi与回归直线 之间的偏离程度,从而全部观察值与回归值的残差平方 和 反映了全部观察值与回归直线间总的偏离程度。显然, Q的值越小,就说明回归直线对所有试验数据的拟和程度 越好。所谓最小二乘法,就是由 来确定 , 的方法。不难求得0和1的最小二乘估计 为: ) min ˆ ˆ ( Qβ0 ,β1 = = − 2 1 i i ) (y y ˆ ) ˆ ˆ Q(β0 ,β 0 β ˆ 1 β ˆ ; ( ) ( )(y y) ˆ 2 i 1 − − − = x x x x i β i x 0 1 ˆ y - β ˆ = β