EM算法

摘要:
含有隐藏变量时,不好直接求极大似然,可以考虑用EM算法。参考TheEMAlgorithm从最大似然到EM算法浅解1.Jensen不等式回顾优化理论中的一些概念。但是直接求一般比较困难,因为有隐藏变量z存在,但是一般确定了z后,求解就容易了EM是一种解决存在隐含变量优化问题的有效方法。

含有隐藏变量时,不好直接求极大似然,可以考虑用EM算法。

参考 (EM 算法)The EM Algorithm从最大似然到 EM 算法浅解

1.Jensen 不等式

回顾优化理论中的一些概念。

设 f 是定义域为实数的函数,如果对于所有的实数 x,clip_image002,那么 f 是凸函数。

当 x 是向量时,如果其 hessian 矩阵 H 是半正定的(clip_image004),那么 f 是凸函数。

如果clip_image006或者clip_image008,那么称 f 是严格凸函数。

Jensen 不等式表述如下:

如果 f 是凸函数,X 是随机变量,那么

clip_image010

特别地,如果 f 是严格凸函数,那么clip_image012当且仅当clip_image014,也就是说 X 是常量。

这里我们将clip_image016简写为clip_image018

如果用图表示会很清晰:

clip_image019

图中,实线 f 是凸函数,X 是随机变量,有 0.5 的概率是 a,有 0.5 的概率是 b。(就像掷硬币一样)。X 的期望值就是 a 和 b 的中值了,图中可以看到clip_image010[1]成立。

当 f 是(严格)凹函数当且仅当 - f 是(严格)凸函数。

Jensen 不等式应用于凹函数时,不等号方向反向,也就是clip_image021

2.EM算法

输入:观测变量数据Y,隐变量数据Z,联合分布EM算法第13张,条件分布EM算法第14张

输出:模型参数EM算法第15张

step 1: 选择参数的初值EM算法第16张,开始迭代

step 2: EM算法第17张步,记EM算法第18张为第EM算法第19张次迭代参数EM算法第15张的估计值,在第EM算法第19张+1次迭代的EM算法第17张步,计算EM算法第23张函数:

EM算法第24张

这里EM算法第25张是在给定观测数据Y和当前的参数估计EM算法第18张下隐变量数据Z的条件概率分布

step 3:M步骤,求使得EM算法第27张 极大化的EM算法第15张,确定第i+1次迭代的参数的估计值EM算法第29张

EM算法第30张

step 4:重复2,3,直至收敛

思路:

给定的训练样本是clip_image023,样例间独立,我们想找到每个样例隐含的类别 z,能使得 p(x,z) 最大。p(x,z) 的最大似然估计如下:

EM算法第32张

其中分号表示竖线,EM算法第33张 ,一个意思啊

第一步是对极大似然取对数,第二步是对每个样例的每个可能类别 z 求联合分布概率和。但是直接求clip_image026一般比较困难,因为有隐藏变量 z 存在,但是一般确定了 z 后,求解就容易了

EM 是一种解决存在隐含变量优化问题的有效方法。竟然不能直接最大化clip_image028,我们可以不断地建立clip_image030的下界(E 步),然后优化下界(M 步)。这句话比较抽象,看下面的。

期望计算方法: 设 Y 是随机变量 X 的函数clip_image041(g 是连续函数),那么

(1) X 是离散型随机变量,它的分布律为clip_image043,k=1,2,…。若clip_image045绝对收敛,则有

clip_image047

(2) X 是连续型随机变量,它的概率密度为clip_image049,若clip_image051绝对收敛,则有

clip_image053

EM算法第44张

证明收敛性

EM算法第45张

EM算法第46张

免责声明:文章转载自《EM算法》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇Java属性中指定Json的属性名称(序列化和反序列化)Winform中使用打开文件对话框和文件夹浏览对话框下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

梯度下降和EM算法,kmeans的em推导

I. 牛顿迭代法给定一个复杂的非线性函数f(x),希望求它的最小值,我们一般可以这样做,假定它足够光滑,那么它的最小值也就是它的极小值点,满足f′(x0)=0,然后可以转化为求方程f′(x)=0的根了。非线性方程的根我们有个牛顿法,所以 然而,这种做法脱离了几何意义,不能让我们窥探到更多的秘密。我们宁可使用如下的思路:在y=f(x)的x=xn这一点处,我...

哈尔滨工业大学计算机学院-最优化方法-课程总结

1. 前言 本课程由数学系开设,旨在讲述求解数学问题的各种最优化方法。 本博客仅对课程中的如下内容进行详细介绍: 凸集、凸函数、凸规划 线性规划 线性规划标准形式 单纯形法 无约束最优化方法 最优性条件 最速下降法 牛顿法 约束最优化方法 Kuhn-Tucker 条件 罚函数法 闸函数法 2. 凸集、凸函数、凸规划 2.1 凸集...

GMM的EM算法实现

在 聚类算法K-Means, K-Medoids, GMM, Spectral clustering,Ncut一文中我们给出了GMM算法的基本模型与似然函数,在EM算法原理中对EM算法的实现与收敛性证明进行了具体说明。本文主要针对怎样用EM算法在混合高斯模型下进行聚类进行代码上的分析说明。 1. GMM模型: 每一个 GMM 由 K 个 Gaussi...

最大熵模型和EM算法

一、极大似然已经发生的事件是独立重复事件,符合同一分布已经发生的时间是可能性(似然)的事件利用这两个假设,已经发生时间的联合密度值就最大,所以就可以求出总体分布f中参数θ 用极大似然进行机器学习有监督学习:最大熵模型无监督学习:GMM 二、熵和信息自信息i(x) = -log(p(x)) 信息是对不确定性的度量。概率是对确定性的度量,概率越大,越确定,可能...

统计学习方法 李航---第9章 EM算法及其推广

第9章 EM算法及其推广 EM算法是一种迭代算法,用于含有隐变量(hidden variable)的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望(expectation);M步,求极大( maximization ),所以这一算法称为期望极大算法(expectation maximizationalgorith...