五、EM 算法的推广

5.1 F 函数

  1. F函数:假设隐变量 五、EM 算法的推广 - 图1 的概率分布为 五、EM 算法的推广 - 图2,定义分布 五、EM 算法的推广 - 图3 与参数 五、EM 算法的推广 - 图4 的函数 五、EM 算法的推广 - 图5 为:

    五、EM 算法的推广 - 图6

    其中 五、EM 算法的推广 - 图7 是分布 五、EM 算法的推广 - 图8 的熵。

    通常假定 五、EM 算法的推广 - 图9五、EM 算法的推广 - 图10 的连续函数,因此 五、EM 算法的推广 - 图11五、EM 算法的推广 - 图12五、EM 算法的推广 - 图13 的连续函数。

  2. 函数 五、EM 算法的推广 - 图14 有下列重要性质:

    • 对固定的 五、EM 算法的推广 - 图15 ,存在唯一的分布 五、EM 算法的推广 - 图16 使得极大化 五、EM 算法的推广 - 图17。此时 五、EM 算法的推广 - 图18,并且 五、EM 算法的推广 - 图19 随着 五、EM 算法的推广 - 图20 连续变化。
    • 五、EM 算法的推广 - 图21, 则 五、EM 算法的推广 - 图22
  3. 定理一:设 五、EM 算法的推广 - 图23 为观测数据的对数似然函数, 五、EM 算法的推广 - 图24EM 算法得到的参数估计序列,函数 五、EM 算法的推广 - 图25,则:

    • 如果 五、EM 算法的推广 - 图26五、EM 算法的推广 - 图27五、EM 算法的推广 - 图28 有局部极大值,那么 五、EM 算法的推广 - 图29 也在 五、EM 算法的推广 - 图30 有局部极大值。
    • 如果 五、EM 算法的推广 - 图31五、EM 算法的推广 - 图32五、EM 算法的推广 - 图33 有全局极大值,那么 五、EM 算法的推广 - 图34 也在 五、EM 算法的推广 - 图35 有全局极大值。
  4. 定理二:EM算法的一次迭代可由 F 函数的极大-极大算法实现:设 五、EM 算法的推广 - 图36 为第 五、EM 算法的推广 - 图37 次迭代参数 五、EM 算法的推广 - 图38 的估计, 五、EM 算法的推广 - 图39 为第 五、EM 算法的推广 - 图40 次迭代函数 五、EM 算法的推广 - 图41 的估计。在第 五、EM 算法的推广 - 图42 次迭代的两步为:

    • 对固定的 五、EM 算法的推广 - 图43 ,求 五、EM 算法的推广 - 图44 使得 五、EM 算法的推广 - 图45 极大化。
    • 对固定的 五、EM 算法的推广 - 图46 ,求 五、EM 算法的推广 - 图47 使得 五、EM 算法的推广 - 图48 极大化。

5.2 GEM算法1

  1. GEM算法1(EM算法的推广形式):

    • 输入:

      • 观测数据 五、EM 算法的推广 - 图49
      • 五、EM 算法的推广 - 图50 函数
    • 输出:模型参数

    • 算法步骤:

      • 初始化参数 五、EM 算法的推广 - 图51 ,开始迭代。

      • 五、EM 算法的推广 - 图52 次迭代:

        • 五、EM 算法的推广 - 图53 为参数 五、EM 算法的推广 - 图54 的估计值, 五、EM 算法的推广 - 图55 为函数 五、EM 算法的推广 - 图56 的估计值。求 五、EM 算法的推广 - 图57 使得 五、EM 算法的推广 - 图58 极大化。
        • 五、EM 算法的推广 - 图59 使得 五、EM 算法的推广 - 图60 极大化。
        • 重复上面两步直到收敛。
  2. 该算法的问题是,有时候求 五、EM 算法的推广 - 图61 极大化很困难。

5.3 GEM算法2

  1. GEM算法2(EM算法的推广形式):

    • 输入:

      • 观测数据 五、EM 算法的推广 - 图62
      • 五、EM 算法的推广 - 图63 函数
    • 输出:模型参数

    • 算法步骤:

      • 初始化参数 五、EM 算法的推广 - 图64 ,开始迭代。

      • 五、EM 算法的推广 - 图65 次迭代:

        • 五、EM 算法的推广 - 图66 为参数 五、EM 算法的推广 - 图67 的估计值, 计算

          五、EM 算法的推广 - 图68

        • 五、EM 算法的推广 - 图69 使得 五、EM 算法的推广 - 图70

        • 重复上面两步,直到收敛。

  2. 此算法不需要求 五、EM 算法的推广 - 图71 的极大值,只需要求解使它增加的 五、EM 算法的推广 - 图72 即可。

5.4 GEM算法3

  1. GEM算法3(EM算法的推广形式):

    • 输入:

      • 观测数据 五、EM 算法的推广 - 图73
      • 五、EM 算法的推广 - 图74 函数
    • 输出:模型参数

    • 算法步骤:

      • 初始化参数 五、EM 算法的推广 - 图75 ,开始迭代

      • 五、EM 算法的推广 - 图76 次迭代:

        • 五、EM 算法的推广 - 图77 为参数 五、EM 算法的推广 - 图78 的估计值, 计算

          五、EM 算法的推广 - 图79

        • 进行 五、EM 算法的推广 - 图80 次条件极大化:

          • 首先在 五、EM 算法的推广 - 图81 保持不变的条件下求使得 五、EM 算法的推广 - 图82 达到极大的 五、EM 算法的推广 - 图83
          • 然后在 五、EM 算法的推广 - 图84 的条件下求使得 五、EM 算法的推广 - 图85 达到极大的 五、EM 算法的推广 - 图86
          • 如此继续,经过 五、EM 算法的推广 - 图87 次条件极大化,得到 五、EM 算法的推广 - 图88 ,使得 五、EM 算法的推广 - 图89
        • 重复上面两步,直到收敛。
  2. 该算法将 EM 算法的 M 步分解为 五、EM 算法的推广 - 图90 次条件极大化,每次只需要改变参数向量的一个分量,其余分量不改变。