∫uP(x)dm= 对u的估计为 2 AN =AN N 2.2∑M+ go to k= N 00+0 若令P(u)=N(以0202)=N(O,1) ∑X与最大似然估计相似,只是分母不同 N+1
∴对μ的估计为 若令P(μ)=N(μ0 , σ0 2 )=N(0,1) 与最大似然估计相似,只是分母不同 0 2 0 2 2 1 2 0 2 0 2 + + + = = = N X N N k N N k = + = N k Xk N N 1 1 1 = = N i ∵ P( | X )d
三.贝叶斯学习 贝叶斯学习的概念:求出μ的后验概率之后,直接去推导总 体分布即P(X|x)=|PCX|OPO|X)d0=|P(X|)P(lxr)d 当观察一个样本时,N=1就会有一个μ的估计值的修正值 当观察N=4时,对μ进行修正,向真正的μ靠近 当观察N=9时,对μ进行修正,向真正的μ靠的更近 当N↑,μ就反映了观察到N个样本后对μ的最好推测,而oN 反映了这种推测的不确定性,N↑,σ2↓,2随观察样本增 加而单调减小,且当N→∞,a2→0 当N↑,P(μx)越来越尖峰突起 N→∞,P(Hkx)→>o函数,这个过程成为贝叶斯学习
三.贝叶斯学习 1.贝叶斯学习的概念:求出μ的后验概率之后,直接去推导总 体分布即 当观察一个样本时,N=1就会有一个μ的估计值的修正值 当观察N=4时,对μ进行修正,向真正的μ靠近 当观察N=9时,对μ进行修正,向真正的μ靠的更近 当N↑,μN就反映了观察到N个样本后对μ的最好推测,而σN 2 反映了这种推测的不确定性, N↑, σN 2↓,σN 2 随观察样本增 加而单调减小,且当N→∞, σN 2 →0 当N↑,P(μ|xi )越来越尖峰突起 N→∞, P(μ|xi )→σ函数,这个过程成为贝叶斯学习。 P X X P X P X d P X P X d i i i ( | ) ( | ) ( | ) ( | ) ( | ) = =