隐马尔可夫模型
概述
通常情况下,当一个人做一个系统的观察,什么被观察到的是不系统的状态,但通过系统的底层隐藏状态产生,而不是一些标记或数据。例如,当一个人听到别人说话,进入耳朵的声音都没有系统产生声音的状态。该系统的真实状态将是直接的参数确定哪些声音产生的,比如说话者的嘴的形状,他们的声带的频率和声音背后的语义集合。
然而,由于许多底层状态可以对应于相同的观察,因此不可能知道单独的观察结果的确切状态。因此,函数映射状态可以观察 , 在哪里 是一个州变量和 由函数所产生的观察 应用于 ,有两种不同的状态 产生相同的观察 。这被称为一个许多到一个功能,这通常是不可能完全颠倒过来的 可以平等 或者 。
考虑多对一的功能 。只有 ,一个人无法恢复 恰好自两 和 相当于 当平方。的HMM的相似之处在于,给定观测序列,一个只能在任何时间点推断在状态的分布,因为底层状态的许多不同序列可以产生相同的观察序列。
在语音识别的情况下,知道哪个产生的声音会使得问题容易底层语义。这是因为语音识别的整个问题是发现模型状态(语义)的意见(音)的后面。因此,能够给出的意见的HMM的建模和推断的基本状态提供了多种问题的强大技术。
时间演化
隐马尔可夫模型根据两个规则演变:
所述第一规则是从当前状态的模型移动到下一个状态,其可以是相同的状态下,根据一些仅在当前状态依赖概率分布,即 。这被称为马尔可夫性。直观地,这条规则指出,系统在没有关于系统的过去的状态而不考虑的情况下发展,并且只取决于当前状态。
第二规则是,每个转变之后,该模型发出观察其分布仅取决于当前状态,即 。由于模型只发出的意见和状态产生的意见是未知的观察者,产生这些意见的状态被称为隐藏的国家。
规格
隐藏的Markov模型由以下参数完全指定:
1)状态转变概率
从州过渡的概率 国家 是 。2)观察排放概率
发光观察的概率 在状态 是 。如果组观察值是离散的,那么发射令牌的概率 从状态 是 。3)状态初始化概率
嗯在州开始的概率 是 。
知道了上面的参数让我们产生观测序列变得非常容易。我们首先选择初始隐藏状态 根据分布 。然后,我们选择一个观察 给予 。接下来,模型转换到新的隐藏状态 根据用于状态的状态转移概率 ,之后模型发出了新的观察 。这继续直到产生观测的期望数量。
观察概率
由于HMMS计算隐藏状态和输出的概率序列,因此询问它是很自然的可能性特定观察序列 是。计算观察序列的概率涉及用于嗯HMM的隐藏状态,这对于大型HMMS,使得天真的计算非常慢。幸运的是,申请技术动态规划可以使这个计算容易处理。
想象一下,两个扬声器,Alice和Bob。如果每个人都有训练,他们的语音模型的HMM,那么我们就可以计算出每个给予他们训练的HMM模型的任何声音序列的可能性。如果我们计算给出了HMM鲍勃的声音的可能性,我们希望它是不是给爱丽丝的HMM他的声音的可能性较高。直观地说,这是因为从Bob的HMM来观察序列应该听起来像鲍勃,或者至少更喜欢鲍勃·比爱丽丝,因为它是在Bob的语音训练。同样地,爱丽丝的声音应该对她的HMM比Bob的HMM的可能性更高。知道了这些,我们就可以通过计算给出一些已知的HMM模型的观察序列的可能性进行一些基本的说话人识别。最有可能的扬声器,其HMM最好生成自己的实际语音数据之一。
参考
- ,M.Hidden-Markov-Model-ABC。从2013年9月11日恢复了https://commons.wikimedia.org/wiki/File:Hidden-markov-model-abc.svg)
- ,T.HiddenmarkovModel.。检索2007年8月29日,来自https://commons.wikimedia.org/wiki/file:hiddenmarkovmodel.png