二、 HMM 基本问题

  1. 隐马尔可夫模型的 3 个基本问题:

    • 概率计算问题:给定模型 二、 HMM 基本问题 - 图1 和观测序列 二、 HMM 基本问题 - 图2,计算观测序列 二、 HMM 基本问题 - 图3 出现的概率 二、 HMM 基本问题 - 图4 。即:评估模型 二、 HMM 基本问题 - 图5 与观察序列 二、 HMM 基本问题 - 图6 之间的匹配程度。

    • 学习问题:已知观测序列 二、 HMM 基本问题 - 图7,估计模型 二、 HMM 基本问题 - 图8 的参数,使得在该模型下观测序列概率 二、 HMM 基本问题 - 图9 最大。即:用极大似然估计的方法估计参数。

    • 预测问题(也称为解码问题):已知模型 二、 HMM 基本问题 - 图10 和观测序列 二、 HMM 基本问题 - 图11, 求对给定观测序列的条件概率 二、 HMM 基本问题 - 图12 最大的状态序列 二、 HMM 基本问题 - 图13。即:给定观测序列,求最可能的对应的状态序列 。

      如:在语音识别任务中,观测值为语音信号,隐藏状态为文字。解码问题的目标就是:根据观测的语音信号来推断最有可能的文字序列。

2.1 概率计算问题

  1. 给定隐马尔可夫模型 二、 HMM 基本问题 - 图14 和观测序列 二、 HMM 基本问题 - 图15,概率计算问题需要计算在模型 二、 HMM 基本问题 - 图16 下观测序列 二、 HMM 基本问题 - 图17 出现的概率 二、 HMM 基本问题 - 图18

  2. 最直接的方法是按照概率公式直接计算:通过列举所有可能的、长度为 二、 HMM 基本问题 - 图19 的状态序列 二、 HMM 基本问题 - 图20,求各个状态序列 二、 HMM 基本问题 - 图21 与观测序列 二、 HMM 基本问题 - 图22 的联合概率 二、 HMM 基本问题 - 图23,然后对所有可能的状态序列求和,得到 二、 HMM 基本问题 - 图24

    • 状态序列 二、 HMM 基本问题 - 图25 的概率为:

      二、 HMM 基本问题 - 图26

    • 给定状态序列 二、 HMM 基本问题 - 图27 ,观测序列 二、 HMM 基本问题 - 图28 的条件概率为:

      二、 HMM 基本问题 - 图29

    • 二、 HMM 基本问题 - 图30二、 HMM 基本问题 - 图31 同时出现的联合概率为:

      二、 HMM 基本问题 - 图32

    • 对所有可能的状态序列 二、 HMM 基本问题 - 图33 求和,得到观测序列 二、 HMM 基本问题 - 图34 的概率:

      二、 HMM 基本问题 - 图35

    • 上式的算法复杂度为 二、 HMM 基本问题 - 图36,太复杂,实际应用中不太可行。

2.1.1 前向算法

  1. 给定隐马尔可夫模型 二、 HMM 基本问题 - 图37,定义前向概率:在时刻 二、 HMM 基本问题 - 图38 时的观测序列为 二、 HMM 基本问题 - 图39 , 且时刻 二、 HMM 基本问题 - 图40 时状态为 二、 HMM 基本问题 - 图41 的概率为前向概率,记作:二、 HMM 基本问题 - 图42

  2. 根据定义,二、 HMM 基本问题 - 图43 是在时刻 二、 HMM 基本问题 - 图44 时观测到 二、 HMM 基本问题 - 图45 ,且在时刻 二、 HMM 基本问题 - 图46 处于状态 二、 HMM 基本问题 - 图47 的前向概率。则有:

    • 二、 HMM 基本问题 - 图48 :为在时刻 二、 HMM 基本问题 - 图49 时观测到 二、 HMM 基本问题 - 图50 ,且在时刻 二、 HMM 基本问题 - 图51 处于状态 二、 HMM 基本问题 - 图52 ,且在 二、 HMM 基本问题 - 图53 时刻处在状态 二、 HMM 基本问题 - 图54 的概率。

    • 二、 HMM 基本问题 - 图55 :为在时刻 二、 HMM 基本问题 - 图56 观测序列为 二、 HMM 基本问题 - 图57 ,并且在时刻 二、 HMM 基本问题 - 图58 时刻处于状态 二、 HMM 基本问题 - 图59 的概率。

    • 考虑 二、 HMM 基本问题 - 图60,则得到前向概率的地推公式:

      二、 HMM 基本问题 - 图61

      二、 HMM 基本问题 - 图62

  3. 观测序列概率的前向算法:

    • 输入:

      • 隐马尔可夫模型 二、 HMM 基本问题 - 图63
      • 观测序列 二、 HMM 基本问题 - 图64
    • 输出: 观测序列概率 二、 HMM 基本问题 - 图65

    • 算法步骤:

      • 计算初值: 二、 HMM 基本问题 - 图66

        该初值是初始时刻的状态 二、 HMM 基本问题 - 图67 和观测 二、 HMM 基本问题 - 图68 的联合概率。

      • 递推:对于 二、 HMM 基本问题 - 图69

        二、 HMM 基本问题 - 图70

      • 终止: 二、 HMM 基本问题 - 图71

        因为 二、 HMM 基本问题 - 图72 表示在时刻 二、 HMM 基本问题 - 图73 ,观测序列为 二、 HMM 基本问题 - 图74,且状态为 二、 HMM 基本问题 - 图75 的概率。对所有可能的 二、 HMM 基本问题 - 图76 个状态 二、 HMM 基本问题 - 图77 求和则得到 二、 HMM 基本问题 - 图78

  4. 前向算法是基于 状态序列的路径结构 递推计算 二、 HMM 基本问题 - 图79

    • 其高效的关键是局部计算前向概率,然后利用路径结构将前向概率“递推”到全局。
    • 算法复杂度为 二、 HMM 基本问题 - 图80

2.1.2 后向算法

  1. 给定隐马尔可夫模型 二、 HMM 基本问题 - 图81,定义后向概率:在时刻 二、 HMM 基本问题 - 图82 的状态为 二、 HMM 基本问题 - 图83 的条件下,从时刻 二、 HMM 基本问题 - 图84二、 HMM 基本问题 - 图85 的观测序列为 二、 HMM 基本问题 - 图86 的概率为后向概率,记作:二、 HMM 基本问题 - 图87

  2. 在时刻 二、 HMM 基本问题 - 图88 状态为 二、 HMM 基本问题 - 图89 的条件下,从时刻 二、 HMM 基本问题 - 图90二、 HMM 基本问题 - 图91 的观测序列为 二、 HMM 基本问题 - 图92 的概率可以这样计算:

    • 考虑 二、 HMM 基本问题 - 图93 时刻状态 二、 HMM 基本问题 - 图94 经过 二、 HMM 基本问题 - 图95 转移到 二、 HMM 基本问题 - 图96 时刻的状态 二、 HMM 基本问题 - 图97

      • 二、 HMM 基本问题 - 图98 时刻状态为 二、 HMM 基本问题 - 图99的条件下,从时刻 二、 HMM 基本问题 - 图100二、 HMM 基本问题 - 图101 的观测序列为观测序列为 二、 HMM 基本问题 - 图102 的概率为 二、 HMM 基本问题 - 图103
      • 二、 HMM 基本问题 - 图104 时刻状态为 二、 HMM 基本问题 - 图105的条件下,从时刻 二、 HMM 基本问题 - 图106二、 HMM 基本问题 - 图107 的观测序列为观测序列为 二、 HMM 基本问题 - 图108 的概率为 二、 HMM 基本问题 - 图109
    • 考虑所有可能的 二、 HMM 基本问题 - 图110,则得到 二、 HMM 基本问题 - 图111 的递推公式:

      二、 HMM 基本问题 - 图112

      二、 HMM 基本问题 - 图113

  3. 观测序列概率的后向算法:

    • 输入:

      • 隐马尔可夫模型 二、 HMM 基本问题 - 图114
      • 观测序列 二、 HMM 基本问题 - 图115
    • 输出: 观测序列概率 二、 HMM 基本问题 - 图116

    • 算法步骤:

      • 计算初值: 二、 HMM 基本问题 - 图117

        对最终时刻的所有状态 二、 HMM 基本问题 - 图118 ,规定 二、 HMM 基本问题 - 图119

      • 递推:对 二、 HMM 基本问题 - 图120:

        二、 HMM 基本问题 - 图121

      • 终止: 二、 HMM 基本问题 - 图122

        二、 HMM 基本问题 - 图123 为在时刻 1, 状态为 二、 HMM 基本问题 - 图124 的条件下,从时刻 2 到 二、 HMM 基本问题 - 图125 的观测序列为 二、 HMM 基本问题 - 图126 的概率。对所有的可能初始状态 二、 HMM 基本问题 - 图127 (由 二、 HMM 基本问题 - 图128 提供其概率)求和并考虑 二、 HMM 基本问题 - 图129 即可得到观测序列为 二、 HMM 基本问题 - 图130 的概率。

2.1.3 统一形式

  1. 利用前向概率和后向概率的定义,可以将观测序列概率统一为:

    二、 HMM 基本问题 - 图131

    • 二、 HMM 基本问题 - 图132 时,就是后向概率算法;当 二、 HMM 基本问题 - 图133 时,就是前向概率算法。

    • 其意义为:在时刻 二、 HMM 基本问题 - 图134

      • 二、 HMM 基本问题 - 图135 表示:已知时刻 二、 HMM 基本问题 - 图136 时的观测序列为 二、 HMM 基本问题 - 图137 、 且时刻 二、 HMM 基本问题 - 图138 时状态为 二、 HMM 基本问题 - 图139 的概率。
      • 二、 HMM 基本问题 - 图140 表示:已知时刻 二、 HMM 基本问题 - 图141 时的观测序列为 二、 HMM 基本问题 - 图142 、 且时刻 二、 HMM 基本问题 - 图143 时状态为 二、 HMM 基本问题 - 图144、且 二、 HMM 基本问题 - 图145 时刻状态为 二、 HMM 基本问题 - 图146 的概率。
      • 二、 HMM 基本问题 - 图147 表示: 已知时刻 二、 HMM 基本问题 - 图148 时的观测序列为 二、 HMM 基本问题 - 图149 、 且时刻 二、 HMM 基本问题 - 图150 时状态为 二、 HMM 基本问题 - 图151 、且 二、 HMM 基本问题 - 图152 时刻状态为 二、 HMM 基本问题 - 图153 的概率。
      • 二、 HMM 基本问题 - 图154 表示:已知观测序列为 二、 HMM 基本问题 - 图155 、 且时刻 二、 HMM 基本问题 - 图156 时状态为 二、 HMM 基本问题 - 图157 、且 二、 HMM 基本问题 - 图158 时刻状态为 二、 HMM 基本问题 - 图159 的概率。
      • 对所有可能的状态 二、 HMM 基本问题 - 图160 取值,即得到上式。
  2. 根据前向算法有:二、 HMM 基本问题 - 图161 。则得到:

    二、 HMM 基本问题 - 图162

    由于 二、 HMM 基本问题 - 图163 的形式不重要,因此有:

    二、 HMM 基本问题 - 图164

  3. 给定模型 二、 HMM 基本问题 - 图165 和观测序列 二、 HMM 基本问题 - 图166 的条件下,在时刻 二、 HMM 基本问题 - 图167 处于状态 二、 HMM 基本问题 - 图168 的概率记作: 二、 HMM 基本问题 - 图169

    • 根据定义:

      二、 HMM 基本问题 - 图170

    • 根据前向概率和后向概率的定义,有: 二、 HMM 基本问题 - 图171,则有:

      二、 HMM 基本问题 - 图172

  4. 给定模型 二、 HMM 基本问题 - 图173 和观测序列 二、 HMM 基本问题 - 图174 ,在时刻 二、 HMM 基本问题 - 图175 处于状态 二、 HMM 基本问题 - 图176 且在 二、 HMM 基本问题 - 图177 时刻处于状态 二、 HMM 基本问题 - 图178 的概率记作: 二、 HMM 基本问题 - 图179

    • 根据

      二、 HMM 基本问题 - 图180

    • 考虑到前向概率和后向概率的定义有: 二、 HMM 基本问题 - 图181,因此有:

      二、 HMM 基本问题 - 图182

  5. 一些期望值:

    • 在给定观测 二、 HMM 基本问题 - 图183 的条件下,状态 二、 HMM 基本问题 - 图184 出现的期望值为: 二、 HMM 基本问题 - 图185

    • 在给定观测 二、 HMM 基本问题 - 图186 的条件下,从状态 二、 HMM 基本问题 - 图187 转移的期望值: 二、 HMM 基本问题 - 图188

      • 这里的转移,表示状态 二、 HMM 基本问题 - 图189 可能转移到任何可能的状态。
      • 假若在时刻 二、 HMM 基本问题 - 图190 的状态为 二、 HMM 基本问题 - 图191,则此时不可能再转移,因为时间最大为 二、 HMM 基本问题 - 图192
    • 在观测 二、 HMM 基本问题 - 图193 的条件下,由状态 二、 HMM 基本问题 - 图194 转移到状态 二、 HMM 基本问题 - 图195 的期望值: 二、 HMM 基本问题 - 图196

2.2 学习问题

  1. 根据训练数据的不同,隐马尔可夫模型的学习方法也不同:

    • 训练数据包括观测序列和对应的状态序列:通过监督学习来学习隐马尔可夫模型。
    • 训练数据仅包括观测序列:通过非监督学习来学习隐马尔可夫模型。

2.2.1 监督学习

  1. 假设数据集为 二、 HMM 基本问题 - 图197 。其中:

    • 二、 HMM 基本问题 - 图198二、 HMM 基本问题 - 图199 个观测序列;二、 HMM 基本问题 - 图200 为对应的 二、 HMM 基本问题 - 图201 个状态序列。
    • 序列 二、 HMM 基本问题 - 图202二、 HMM 基本问题 - 图203 的长度为 二、 HMM 基本问题 - 图204 ,其中数据集中 二、 HMM 基本问题 - 图205 之间的序列长度可以不同。
  2. 可以利用极大似然估计来估计隐马尔可夫模型的参数。

    • 转移概率 二、 HMM 基本问题 - 图206 的估计:设样本中前一时刻处于状态 二、 HMM 基本问题 - 图207 、且后一时刻处于状态 二、 HMM 基本问题 - 图208 的频数为 二、 HMM 基本问题 - 图209 ,则状态转移概率 二、 HMM 基本问题 - 图210 的估计是:

      二、 HMM 基本问题 - 图211

    • 观测概率 二、 HMM 基本问题 - 图212 的估计:设样本中状态为 二、 HMM 基本问题 - 图213 并且观测为 二、 HMM 基本问题 - 图214 的频数为 二、 HMM 基本问题 - 图215,则状态为 二、 HMM 基本问题 - 图216 并且观测为 二、 HMM 基本问题 - 图217 的概率 二、 HMM 基本问题 - 图218 的估计为:

      二、 HMM 基本问题 - 图219

    • 初始状态概率的估计:设样本中初始时刻(即:二、 HMM 基本问题 - 图220 )处于状态 二、 HMM 基本问题 - 图221 的频数为 二、 HMM 基本问题 - 图222,则初始状态概率 二、 HMM 基本问题 - 图223 的估计为:二、 HMM 基本问题 - 图224

2.2.2 无监督学习

  1. 监督学习需要使用人工标注的训练数据。由于人工标注往往代价很高,所以经常会利用无监督学习的方法。

    隐马尔可夫模型的无监督学习通常使用 Baum-Welch 算法求解。

  2. 在隐马尔可夫模型的无监督学习中,数据集为 二、 HMM 基本问题 - 图225 。其中:

    • 二、 HMM 基本问题 - 图226二、 HMM 基本问题 - 图227 个观测序列。
    • 序列 二、 HMM 基本问题 - 图228的长度为 二、 HMM 基本问题 - 图229 ,其中数据集中 二、 HMM 基本问题 - 图230 之间的序列长度可以不同。
  3. 将观测序列数据看作观测变量 二、 HMM 基本问题 - 图231 , 状态序列数据看作不可观测的隐变量 二、 HMM 基本问题 - 图232 ,则隐马尔可夫模型事实上是一个含有隐变量的概率模型: 二、 HMM 基本问题 - 图233。其参数学习可以由 EM 算法实现。

    • E 步:求 Q 函数(其中 二、 HMM 基本问题 - 图234 是参数的当前估计值)

      二、 HMM 基本问题 - 图235

      二、 HMM 基本问题 - 图236 代入上式,有:

      二、 HMM 基本问题 - 图237

      • 在给定参数 二、 HMM 基本问题 - 图238 时, 二、 HMM 基本问题 - 图239 是已知的常数,记做 二、 HMM 基本问题 - 图240
      • 在给定参数 二、 HMM 基本问题 - 图241 时,二、 HMM 基本问题 - 图242二、 HMM 基本问题 - 图243 的函数,记做 二、 HMM 基本问题 - 图244

      根据 二、 HMM 基本问题 - 图245 得到:

      二、 HMM 基本问题 - 图246

      其中:二、 HMM 基本问题 - 图247 表示第 二、 HMM 基本问题 - 图248 个序列的长度, 二、 HMM 基本问题 - 图249 表示第 二、 HMM 基本问题 - 图250 个观测序列的第 二、 HMM 基本问题 - 图251 个位置。

    • M 步:求Q 函数的极大值:

      二、 HMM 基本问题 - 图252

      极大化参数在 Q 函数中单独的出现在3个项中,所以只需要对各项分别极大化。

      • 二、 HMM 基本问题 - 图253

        二、 HMM 基本问题 - 图254

        二、 HMM 基本问题 - 图255 代入,有:

        二、 HMM 基本问题 - 图256

        二、 HMM 基本问题 - 图257 代入,即有:

        二、 HMM 基本问题 - 图258

        考虑到 二、 HMM 基本问题 - 图259,以及 二、 HMM 基本问题 - 图260, 则有:

        二、 HMM 基本问题 - 图261

        其物理意义为:统计在给定参数 二、 HMM 基本问题 - 图262 ,已知 二、 HMM 基本问题 - 图263 的条件下,二、 HMM 基本问题 - 图264 的出现的频率。它就是 二、 HMM 基本问题 - 图265 的后验概率的估计值。

      • 二、 HMM 基本问题 - 图266 :同样的处理有:

        二、 HMM 基本问题 - 图267

        得到:

        二、 HMM 基本问题 - 图268

        考虑到 二、 HMM 基本问题 - 图269,则有:

        二、 HMM 基本问题 - 图270

        其物理意义为:统计在给定参数 二、 HMM 基本问题 - 图271 ,已知 二、 HMM 基本问题 - 图272 的条件下,统计当 二、 HMM 基本问题 - 图273 的情况下 二、 HMM 基本问题 - 图274 的出现的频率。它就是 二、 HMM 基本问题 - 图275 的后验概率的估计值。

      • 二、 HMM 基本问题 - 图276 :同样的处理有:

        二、 HMM 基本问题 - 图277

        得到:

        二、 HMM 基本问题 - 图278

        其中如果第 二、 HMM 基本问题 - 图279 个序列 二、 HMM 基本问题 - 图280 的第 二、 HMM 基本问题 - 图281 个位置 二、 HMM 基本问题 - 图282 ,则 二、 HMM 基本问题 - 图283

        考虑到 二、 HMM 基本问题 - 图284 ,则有:

        二、 HMM 基本问题 - 图285

        其物理意义为:统计在给定参数 二、 HMM 基本问题 - 图286 ,已知 二、 HMM 基本问题 - 图287 的条件下,统计当 二、 HMM 基本问题 - 图288 的情况下 二、 HMM 基本问题 - 图289 的出现的频率。它就是 二、 HMM 基本问题 - 图290 的后验概率的估计值。

  4. 二、 HMM 基本问题 - 图291,其物理意义为:在序列 二、 HMM 基本问题 - 图292 中,第 二、 HMM 基本问题 - 图293 时刻的隐状态为 二、 HMM 基本问题 - 图294 的后验概率。

    二、 HMM 基本问题 - 图295,其物理意义为:在序列 二、 HMM 基本问题 - 图296 中,第 二、 HMM 基本问题 - 图297 时刻的隐状态为 二、 HMM 基本问题 - 图298 、且第 二、 HMM 基本问题 - 图299 时刻的隐状态为 二、 HMM 基本问题 - 图300 的后验概率。

    M 步的估计值改写为:

    二、 HMM 基本问题 - 图301

    其中 二、 HMM 基本问题 - 图302 为示性函数,其意义为:当 二、 HMM 基本问题 - 图303 的第 二、 HMM 基本问题 - 图304 时刻为 二、 HMM 基本问题 - 图305 时,取值为 1;否则取值为 0 。

  5. Baum-Welch算法:

    • 输入:观测数据 二、 HMM 基本问题 - 图306

    • 输出:隐马尔可夫模型参数

    • 算法步骤:

      • 初始化:二、 HMM 基本问题 - 图307,选取 二、 HMM 基本问题 - 图308,得到模型 二、 HMM 基本问题 - 图309

      • 迭代,迭代停止条件为:模型参数收敛。迭代过程为:

        • 求使得 Q 函数取极大值的参数:

          二、 HMM 基本问题 - 图310

        • 判断模型是否收敛。如果不收敛,则 二、 HMM 基本问题 - 图311 ,继续迭代。
      • 最终得到模型 二、 HMM 基本问题 - 图312

2.3 预测问题

2.3.1 近似算法

  1. 近似算法思想:在每个时刻 二、 HMM 基本问题 - 图313 选择在该时刻最有可能出现的状态 二、 HMM 基本问题 - 图314,从而得到一个状态序列 二、 HMM 基本问题 - 图315,然后将它作为预测的结果。

  2. 近似算法:给定隐马尔可夫模型 二、 HMM 基本问题 - 图316,观测序列 二、 HMM 基本问题 - 图317 ,在时刻 二、 HMM 基本问题 - 图318 它处于状态 二、 HMM 基本问题 - 图319 的概率为:

    二、 HMM 基本问题 - 图320

    在时刻 二、 HMM 基本问题 - 图321 最可能的状态: 二、 HMM 基本问题 - 图322

  3. 近似算法的优点是:计算简单。

    近似算法的缺点是:不能保证预测的状态序列整体是最有可能的状态序列,因为预测的状态序列可能有实际上不发生的部分。

    • 近似算法是局部最优(每个点最优),但是不是整体最优的。
    • 近似算法无法处理这种情况: 转移概率为 0 。因为近似算法没有考虑到状态之间的迁移。

2.3.2 维特比算法

  1. 维特比算法用动态规划来求解隐马尔可夫模型预测问题。

    它用动态规划求解概率最大路径(最优路径),这时一条路径对应着一个状态序列。

  2. 维特比算法思想:

    • 根据动态规划原理,最优路径具有这样的特性:如果最优路径在时刻 二、 HMM 基本问题 - 图323 通过结点 二、 HMM 基本问题 - 图324, 则这一路径从结点 二、 HMM 基本问题 - 图325 到终点 二、 HMM 基本问题 - 图326 的部分路径,对于从 二、 HMM 基本问题 - 图327二、 HMM 基本问题 - 图328 的所有可能路径来说,也必须是最优的。

      wtb1

    • 只需要从时刻 二、 HMM 基本问题 - 图330 开始,递推地计算从时刻 1 到时刻 二、 HMM 基本问题 - 图331 且时刻 二、 HMM 基本问题 - 图332 状态为 二、 HMM 基本问题 - 图333 的各条部分路径的最大概率(以及取最大概率的状态)。于是在时刻 二、 HMM 基本问题 - 图334 的最大概率即为最优路径的概率 二、 HMM 基本问题 - 图335 ,最优路径的终结点 二、 HMM 基本问题 - 图336 也同时得到。

    • 之后为了找出最优路径的各个结点,从终结点 二、 HMM 基本问题 - 图337 开始,由后向前逐步求得结点 二、 HMM 基本问题 - 图338,得到最优路径 二、 HMM 基本问题 - 图339

  3. 定义在时刻 二、 HMM 基本问题 - 图340 状态为 二、 HMM 基本问题 - 图341 的所有单个路径 二、 HMM 基本问题 - 图342 中概率最大值为:

    二、 HMM 基本问题 - 图343

    它就是算法导论中《动态规划》一章提到的“最优子结构”

    则根据定义,得到变量 二、 HMM 基本问题 - 图344的递推公式:

    二、 HMM 基本问题 - 图345

  4. 定义在时刻 二、 HMM 基本问题 - 图346 状态为 二、 HMM 基本问题 - 图347 的所有单个路径中概率最大的路径的第 二、 HMM 基本问题 - 图348 个结点为:

    二、 HMM 基本问题 - 图349

    它就是最优路径中,最后一个结点(其实就是时刻 二、 HMM 基本问题 - 图350二、 HMM 基本问题 - 图351 结点) 的前一个结点。

    dynamic_wtb

  5. 维特比算法:

    • 输入:

      • 隐马尔可夫模型 二、 HMM 基本问题 - 图353
      • 观测序列 二、 HMM 基本问题 - 图354
    • 输出:最优路径 二、 HMM 基本问题 - 图355

    • 算法步骤:

      • 初始化:因为第一个结点的之前没有结点 ,所以有:

        二、 HMM 基本问题 - 图356

      • 递推:对 二、 HMM 基本问题 - 图357

        二、 HMM 基本问题 - 图358

      • 终止:二、 HMM 基本问题 - 图359

      • 最优路径回溯:对 二、 HMM 基本问题 - 图360二、 HMM 基本问题 - 图361

      • 最优路径 二、 HMM 基本问题 - 图362