ReviewofthelastlectureBLUE定理6.1高斯-马尔可夫定理如果数据具有线性模型的形式,即x=HO+w,H是已知的N×p矩阵,0是px1的待估计参数矢量,W是N×1的均值为零,协方差为C的噪声矢量,则A的BLUE是:=(HTC-H)-H'C-x(6.19);的最小方差为:var(é,)=[(H"C"H)"li(6.20)0的协方差矩阵为:C。=(HTC-H)(6.21)
定理 6.1 高斯-马尔可夫定理 -1 -1 ii -1 -1 ˆ N p p1 N 1 BLUE ˆ (6.19) ˆ ˆ var =[( ) ] (6.20) ˆ =( ) (6.21) T T i i θ θ θ × × × T -1 -1 T -1 x=Hθ + w H θ w C θ θ=(H C H) H C x HCH θ C HCH 如果数据具有线性模型的形式,即 , 是已知的 矩阵, 是 的待估计参数矢量, 是 的均值为零,协方差为 的噪声矢量,则 的 是: 的最小方差为: ( ) 的协方差矩阵为: BLUE Review of the last lecture Review of the last lecture
Maximumlikelihoodestimation最大似然估计基于最大似然原理的估计,是人们获得实用估计的最通用的方法。该方法在MVU估计量不存在或者存在但不能求解的情况下是很有效的。利用它可以简便地实现对复杂的估计问题的求解。对于绝大多数适用的最大似然估计,当观测数据足够多时,其性能是最优的,非常接近于MVU估计量。,几乎所有适用的估计都是基于最大似然原理
最大似然估计 基于最大似然原理的估计,是人们获得实用估 基于最大似然原理的估计,是人们获得实用估 计的最通用的方法。该方法在 计的最通用的方法。该方法在MVU估计量不存 在或者存在但不能求解的情况下是很有效的。 在或者存在但不能求解的情况下是很有效的。 利用它可以简便地实现对复杂的估计问题的求 利用它可以简便地实现对复杂的估计问题的求 解。 对于绝大多数适用的最大似然估计,当观测数 对于绝大多数适用的最大似然估计,当观测数 据足够多时,其性能是最优的,非常接近于 据足够多时,其性能是最优的,非常接近于 MVU估计量。 几乎所有适用的估计都是基于最大似然原理。 几乎所有适用的估计都是基于最大似然原理。 Maximum likelihood estimation Maximum likelihood estimation
最大似然估计例7.1:高斯白噪声中的DC电平一修正α[n] = A+ w[n] n =0, 1,..., N- 1A为正的未知电平,W[n]具有未知方差AN-111(e[n] - A)2p(x; A)2A(2元A)号n=0CRLBN-1N-1Nalnp(x; A)Z(Z(a[n] - A)2(α[n] -A)A2A22A0An=0n=0?I(A)(A - A)A2var(A) N(A + 1/2)
最大似然估计 例7.1:高斯白噪声中的DC电平-修正 A为正的未知电平,w[n]具有未知方差 A CRLB
考虑充分统计量理论V1([nI + NA)exp(Nexp(2元A) en=0h(x)ZN= *[m],AA的一个充分统计量是:T(x) = ZN= a2[m]我们需要找到一个函数g使满足:N-1E[g(a[m)] = A VA >0n=0
考虑充分统计量理论 A的一个充分统计量是: 我们需要找到一个函数g 使满足:
N-1由于:ZEα?[n]= NE[?[n]n=oN[var([n]) + E?(α[n])二N(A+A2)一→如何选择g是不清楚的?当A是任意一个无偏估计量时,需要确定条件数学期望E(A|N= α?[n])比如A=α[0]时,看起来是一个艰巨的任务?一→计算条件数学期望的难度看起来非常大
由于: 如何选择g是不清楚的? 当 是任意一个无偏估计量时,需要确定条件数学期望 比如 时,看起来是一个艰巨的任务? 计算条件数学期望的难度看起来非常大