估值问题 HMM向后算法(向前算法的时间反演版本) 定义B(1:时刻在状态i,并且已逆向观察到x(T),x(T-1),……x(t) 的概率 初始化 对每一个隐状态,计算/(T)==(假设T时刻每个状态的概率 相同) 递归 for t=t-1 to 1 对每一个隐状态,计算B()=∑aB(+) end 最后 P(X|0)=∑z() 计算复杂度O(c27)<OCT)
估值问题 • HMM向后算法(向前算法的时间反演版本) 定义 :t时刻在状态i,并且已逆向观察到x(T),x(T-1),…… x(t) 的概率 • 初始化 对每一个隐状态i,计算 (假设T时刻每个状态的概率 相同) • 递归 for t=T-1 to 1 对每一个隐状态i,计算 end • 最后 2 ( ) ( ) T 计算复杂度 O c T O c T ( ) ( ) ix T i b T c = ( ) i t ( ) 1 ( ) ( 1) c i ij j ix t j t a t b = = + 1 ( | ) (1) c i i i P = X θ =
例子 HMM为 0.20.30.10.4 0.20.50.20.1 0.80.10.00.1 10000 00.30.40.10.2 ik 00.10.10.70.1 00.50.20.10.2 :吸收状态,即序列结束 时的必然状态。该状态产 生唯一的特殊可见符号vo ,表示HMM过程结束
例子 • HMM为 • :吸收状态,即序列结束 时的必然状态。该状态产 生唯一的特殊可见符号v0 ,表示HMM过程结束
例子 已知t=0时状态为a,即 o=a10=0.2,1=a1=0.3, 0.1,z3=a13=0.4 现观测到的序列为v={n,,n,x ·计算HMM产生这个特定观测序列的概率?
例子 • 已知t=0时状态为 ,即 • 现观测到的序列为 • 计算HMM产生这个特定观测序列的概率? 1 0 10 1 11 2 12 3 13 0.2, 0.3, 0.1, 0.4 a a a a = = = = = = = = 4 V { , , , } 1 3 2 0 = v v v v
例子 解 0 0 0.3X0.3 005 0024 0 007 0002 0 0057 0007
例子 • 解
HMM用于分类 为每一个类别建立一个HMM Maximum X H 每个HMM有自己的参数向量,该参数向量可以从属于 类别样本中学习(估计)得到 贝叶斯决策P(0,|X)= P(X|0,)P(0 ∑P(X|0,P(,) 决策结果 i=arg max(P(X 0)P(0,)
HMM用于分类 • 为每一个类别建立一个HMM • 每个HMM有自己的参数向量 ,该参数向量可以从属于 类别i的样本中学习(估计)得到。 • 贝叶斯决策 • 决策结果 θi 1 ( | ) ( ) ( | ) ( | ) ( ) i i i c i i i P P P P P = = X θ θ θ X X θ θ * arg max( ( | ) ( )) i i i i P P = X θ θ